Google est le premier géant de la technologie à tester les filigranes pour étiqueter les images IA

Blog

MaisonMaison / Blog / Google est le premier géant de la technologie à tester les filigranes pour étiqueter les images IA

Jul 09, 2023

Google est le premier géant de la technologie à tester les filigranes pour étiqueter les images IA

À mesure que les images créées par l’intelligence artificielle (IA) deviennent de plus en plus avancées, les entreprises s’efforcent de trouver des moyens de lutter contre la désinformation. Mardi, Google a annoncé qu'il testait un filigrane pour détecter si

À mesure que les images créées par l’intelligence artificielle (IA) deviennent de plus en plus avancées, les entreprises s’efforcent de trouver des moyens de lutter contre la désinformation. Mardi, Google a annoncé qu'il testait un filigrane pour détecter si une image avait été réalisée à l'aide de l'IA.

Le filigrane numérique a été créé par la branche IA du monolithe technologique, DeepMind. Le nouvel outil, SynthID, est toujours en version bêta et est proposé à un nombre limité de clients Vertex AI qui utilisent Imagen, selon un communiqué de DeepMind.

Imagen est le modèle de diffusion texte-image de Google, pensez à Midjourney et Dall-E.

"Cette technologie intègre un filigrane numérique directement dans les pixels d'une image, la rendant imperceptible à l'œil humain, mais détectable pour l'identification", explique le communiqué.

SynthID fournit trois niveaux de confiance : « Filigrane numérique détecté », « Filigrane numérique non détecté » et « Filigrane numérique éventuellement détecté ». Le dernier dont DeepMind décrit comme « Pourrait être généré. Traitez avec prudence. Les deux premières options signifient simplement que l’œuvre est respectivement susceptible ou improbable d’être générée par Imagen. Notamment, aucune de ces options ne prétend être une confiance totale.

DeepMind souligne que SynthID n'est pas parfait, notamment en ce qui concerne les « manipulations extrêmes d'images ». Cependant, Google n’explique pas ce qui serait considéré comme extrême ou ce qui pourrait rendre quelque chose plus difficile à analyser pour SynthID.

Au-delà de l'identification du travail généré par l'IA et réalisé par d'autres, le filigrane permet aux utilisateurs d'Imagen de communiquer que leurs images sont également créées par l'IA, même si ces images sont ultérieurement modifiées ou partagées par d'autres.

Le communiqué illustre cela avec une photo qui a subi plusieurs modifications mais qui aurait toujours un filigrane SynthID détectable. Google ajoute que le filigrane SynthID étant imperceptible, il élimine les craintes de diminution de l'esthétique et rend plus difficile sa suppression.

Cependant, il n'est pas clair si SynthID peut être utilisé sur des images générées par l'IA non créées avec Imagen ou si les utilisateurs peuvent attacher un filigrane SynthID au contenu généré par l'IA créé avec un autre modèle. Cela semble peu probable, d’après la version qui indique que « SynthID pourrait être étendu pour être utilisé sur d’autres modèles d’IA ». PetaPixel a contacté Google pour obtenir des éclaircissements, et Google a expliqué que SynthID n'est pas disponible pour d'autres modèles d'IA, mais qu'il espère l'ajouter à l'avenir.

"Bien que l'IA générative puisse libérer un énorme potentiel créatif, elle présente également de nouveaux risques, comme permettre aux créateurs de diffuser de fausses informations - intentionnellement ou non", indique le communiqué de DeepMind. « Être capable d'identifier le contenu généré par l'IA est essentiel pour permettre aux gens de savoir quand ils interagissent avec les médias générés et pour contribuer à prévenir la propagation de la désinformation. »

La désinformation due aux images générées par l’IA est devenue quelque peu prolifique au cours de l’année écoulée. Pas plus tard que la semaine dernière, une photo de l’ancien président Donald Trump, réalisée par l’IA, a circulé en ligne avant que la vraie ne soit publiée.

Les générateurs d'images ont généralement des règles concernant le contenu approprié. Mais de fausses images « racistes et complotistes » peuvent encore être faites, comme c'est le cas avec Midjourney, selon une étude récente.

Mise à jour:Cet article a été mis à jour avec des précisions de Google concernant la disponibilité de SynthID pour les modèles d'IA tiers.

Crédits image : Google

Mise à jour: