Les « deepfakes » générés par l’intelligence artificielle (IA) qui imitent les personnalités politiques et les superstars sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire réalisée par la division DeepMind de Google. Cette étude représente la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.

L’étude a révélé que l’élaboration de photos, de vidéos et de sons réalistes mais faux de personnalités publiques est presque deux fois plus fréquente que la deuxième utilisation abusive de l’IA générative : la création de fausses informations à l’aide d’équipements textuels tels que les chatbots pour diffuser des informations erronées sur l’internet. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative serait d’influencer l’opinion publique, une tendance qui représente 27 % des cas évalués. Cette découverte amplifie les inquiétudes quant à l’impact que pourraient avoir les « deepfakes » sur les élections dans le monde.

Ces derniers mois, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants internationaux ont été diffusés sur des plateformes telles que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence potentielle sur les électeurs, en particulier à l’approche des élections générales en Grande-Bretagne. Malgré les efforts déployés par les programmes de médias sociaux pour étiqueter ou éliminer ce type de contenu, la crainte est largement répandue que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.

Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné l’importance de la découverte de l’étude selon laquelle les contenus générés par l’IA qui contaminent les informations accessibles au public pourraient « fausser notre compréhension collective de la vérité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact rapide des « deepfakes » sur le comportement électoral n’est pas clair, les risques à long terme pour la démocratie sont considérables.

Cette étude de DeepMind, dirigée par Sir Demis Hassabis, s’inscrit dans le cadre d’un travail acharné visant à évaluer les risques potentiels associés aux outils d’IA générative, qui ont été rapidement mis au point et diffusés par les grandes entreprises technologiques dans le but de réaliser des bénéfices. Alors que des équipements tels que ChatGPT d’OpenAI et Gemini de Google se généralisent, meilleure agence seo les entreprises d’IA surveillent progressivement la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.

En mai, OpenAI a publié des recherches indiquant que des entités liées à la Russie, à la Chine, à l’Iran et à Israël ont utilisé ses outils pour produire et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup de questions compréhensibles concernant des cyberattaques très sophistiquées facilitées par ces outils puissants. Mais ce que nous devrions voir, ce sont des utilisations abusives assez courantes de la GenAI [y compris les deepfakes qui] pourraient passer un peu plus inaperçues ».

Les scientifiques de Google DeepMind et de Jigsaw ont analysé environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de réseaux sociaux By et Reddit, ainsi que de blogs en ligne et d’articles de presse. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise technique minimale, permettant ainsi à une plus grande variété de mauvais acteurs célèbres d’utiliser l’IA générative.

Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain financier. Il s’agissait notamment de fournir des services pour produire des « deepfakes », de créer des représentations nues de personnes authentiques ou d’utiliser l’IA pour produire d’énormes volumes de contenu, comme de faux articles de presse.

Les conclusions de la recherche de DeepMind auront une incidence sur la manière dont l’entreprise améliore ses évaluations pour tester la sécurité des conceptions d’IA. On espère que cette enquête conditionnera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.

La technologie de l’IA évoluant constamment, il est essentiel de comprendre et d’atténuer ses utilisations malveillantes. L’étude de DeepMind met en lumière le paysage actuel de l’utilisation abusive de l’IA, en soulignant la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les processus démocratiques contre les impacts potentiellement considérables des deepfakes et de la désinformation créés par l’IA.