Les images d’IA sont de plus en plus difficiles à repérer.  Google pense avoir une solution.

Blog

MaisonMaison / Blog / Les images d’IA sont de plus en plus difficiles à repérer. Google pense avoir une solution.

Aug 19, 2023

Les images d’IA sont de plus en plus difficiles à repérer. Google pense avoir une solution.

Les images générées par l’intelligence artificielle sont de plus en plus difficiles à distinguer des images réelles alors que les entreprises technologiques s’efforcent d’améliorer leurs produits d’IA. Alors que la campagne présidentielle de 2024 s’accélère, l’inquiétude est grande

Les images générées par l’intelligence artificielle sont de plus en plus difficiles à distinguer des images réelles alors que les entreprises technologiques s’efforcent d’améliorer leurs produits d’IA. Alors que la campagne présidentielle de 2024 s’accélère, l’inquiétude grandit rapidement quant au fait que de telles images pourraient être utilisées pour diffuser de fausses informations.

Mardi, Google a annoncé un nouvel outil – appelé SynthID – qui, selon lui, pourrait faire partie de la solution. L'outil intègre un « filigrane » numérique directement dans l'image qui ne peut pas être vu par l'œil humain mais peut être détecté par un ordinateur formé pour le lire. Google a déclaré que sa nouvelle technologie de filigrane est résistante à la falsification, ce qui en fait une étape clé pour contrôler la propagation de fausses images et ralentir la diffusion de la désinformation.

Les générateurs d’images IA sont disponibles depuis plusieurs années et sont de plus en plus utilisés pour créer des « deepfakes » – de fausses images prétendant être réelles. En mars, de fausses images d’IA montrant l’ancien président Donald Trump fuyant la police sont devenues virales en ligne, et en mai, une fausse image montrant une explosion au Pentagone a provoqué un krach momentané des marchés boursiers. Les entreprises ont placé des logos visibles sur les images d'IA, ainsi que des « métadonnées » de texte indiquant l'origine d'une image, mais les deux techniques peuvent être recadrées ou supprimées relativement facilement.

"De toute évidence, le génie est déjà sorti de la bouteille", a déclaré dans une interview la représentante Yvette D. Clarke (DN.Y.), qui a fait pression en faveur d'une législation obligeant les entreprises à filigraner leurs images d'IA. "Nous ne l'avons tout simplement pas vu maximiser en termes de militarisation."

Pour l'instant, l'outil Google n'est disponible que pour certains clients payants de son activité de cloud computing – et il ne fonctionne qu'avec des images créées avec l'outil générateur d'images de Google, Imagen. La société affirme qu’elle n’oblige pas ses clients à l’utiliser car elle est encore expérimentale.

L'objectif ultime est de contribuer à créer un système dans lequel la plupart des images créées par l'IA peuvent être facilement identifiées à l'aide de filigranes intégrés, a déclaré Pushmeet Kohli, vice-président de la recherche chez Google DeepMind, le laboratoire d'IA de l'entreprise, qui a averti que le nouvel outil n'est pas totalement infaillible. « La question est : avons-nous la technologie pour y parvenir ?

À mesure que l’IA s’améliore dans la création d’images et de vidéos, les politiciens, les chercheurs et les journalistes craignent que la frontière entre ce qui est réel et ce qui est faux en ligne ne s’érode encore davantage, une dynamique qui pourrait aggraver les divisions politiques existantes et rendre plus difficile la diffusion d’informations factuelles. L’amélioration de la technologie des deepfakes intervient à mesure que les sociétés de médias sociaux renoncent à tenter de contrôler la désinformation sur leurs plateformes.

Le filigrane est l’une des idées autour desquelles les entreprises technologiques se mobilisent comme moyen potentiel de réduire l’impact négatif de la technologie d’IA « générative » qu’elles proposent rapidement à des millions de personnes. En juillet, la Maison Blanche a organisé une réunion avec les dirigeants de sept des sociétés d’IA les plus puissantes, dont Google et le fabricant de ChatGPT, OpenAI. Les entreprises se sont toutes engagées à créer des outils pour filigraner et détecter les textes, vidéos et images générés par l’IA.

Microsoft a lancé une coalition d'entreprises technologiques et de sociétés de médias pour développer une norme commune pour le filigrane des images d'IA, et la société a déclaré qu'elle recherchait de nouvelles méthodes pour suivre les images d'IA. L'entreprise place également un petit filigrane visible dans le coin des images générées par ses outils d'IA. OpenAI, dont le générateur d'images Dall-E a contribué à lancer la vague d'intérêt pour l'IA l'année dernière, ajoute également un filigrane visible. Les chercheurs en IA ont suggéré des moyens d'intégrer des filigranes numériques que l'œil humain ne peut pas voir mais qui peuvent être identifiés par un ordinateur.

Kohli, le dirigeant de Google, a déclaré que le nouvel outil de Google est meilleur car il fonctionne même après que l'image a été considérablement modifiée - une amélioration clé par rapport aux méthodes précédentes qui pouvaient facilement être contrecarrées en modifiant ou même en retournant une image.

« Il existe d'autres techniques de filigrane intégré, mais nous ne pensons pas qu'elles soient aussi fiables », a-t-il déclaré.