Accueil Technologie Rencontrez le professeur de l’UC Berkeley qui traque les deepfakes électoraux

Rencontrez le professeur de l’UC Berkeley qui traque les deepfakes électoraux

0
Rencontrez le professeur de l’UC Berkeley qui traque les deepfakes électoraux


Jamais dans l’histoire récente une technologie n’a été aussi susceptible de nuire à la société que contrefaçons profondes.

Le manipulateur, insidieux Généré par l’IA le contenu est déjà utilisé en politique et sera omniprésent lors des prochaines élections présidentielles américaines, ainsi que celles du Sénat et de la Chambre des représentants.

Alors que les régulateurs s’efforcent de contrôler la technologie, des deepfakes incroyablement réalistes sont utilisés pour diffamer les candidats, influencer l’opinion publique et manipuler la participation électorale. D’un autre côté, certains candidats, dans des tentatives qui se sont retournées contre eux, se sont tournés vers l’IA générative pour renforcer leurs campagnes.

Le professeur Hany Farid de l’École d’information de l’Université de Californie à Berkeley en a assez de tout cela. Il a lancé un projet dédié à traquer les deepfakes tout au long de la campagne présidentielle de 2024.

Événement VB

La tournée AI Impact – New York

Nous serons à New York le 29 février en partenariat avec Microsoft pour discuter de la manière d’équilibrer les risques et les récompenses des applications d’IA. Demandez une invitation à l’événement exclusif ci-dessous.

Demandez une invitation

Source: LinkedIn.

« J’espère qu’en mettant en lumière ce contenu, nous sensibiliserons les médias et le public – et nous signalerons à ceux qui créent ce contenu que nous regardons et nous vous trouverons », a déclaré Farid à VentureBeat.

De Biden en treillis à DeSantis déplorant de défier Trump

Dans son article le plus récent (30 janvier), le site de Farid propose trois images du président Joe Biden en treillis, assis dans ce qui semble être un centre de commandement militaire.

Source : https://farid.berkeley.edu/deepfakes2024election/

Cependant, le message souligne : « Il y a des signes révélateurs d’objets mal informés sur la table, et notre analyse géométrique des dalles du plafond révèle un point de fuite physiquement incohérent. »

Les « objets mal informés » comprennent des souris d’ordinateur placées au hasard et un fouillis d’équipements impossibles à distinguer au centre.

Le site fait également référence au désormais tristement célèbre faux profond appels automatisés se faisant passer pour Biden avant la primaire du New Hampshire. Ceux-ci ont exhorté les électeurs à ne pas participer et ont déclaré que « le vote de ce mardi ne fait que permettre aux républicains dans leur quête d’élire à nouveau l’ancien président Donald Trump. Votre vote fait une différence en novembre, pas ce mardi.

On ne sait toujours pas qui se cache derrière ces appels, mais Farid souligne que la qualité de la voix est « assez faible » et a une cadence étrange.

Un autre article dénonce le « mouvement de bouche assez grossier » et la qualité audio d’un deepfake de Ron DeSantis disant : « Je n’aurais jamais dû défier le président Trump, le plus grand président de ma vie. »

Le site présente également un montage de six photos de Trump embrassant l’ancien conseiller médical en chef Anthony Fauci. Ceux-ci contenaient des incohérences physiques telles qu’un logo « absurde » de la Maison Blanche et des étoiles déformées sur le drapeau américain. De plus, souligne le site, la forme de l’oreille de Trump ne correspond pas à plusieurs images de référence réelles.

Farid a noté que « en ce qui concerne les élections ici aux États-Unis, il n’en faut pas beaucoup pour faire basculer une élection nationale entière : des milliers de voix dans un certain nombre de comtés dans quelques États charnières peuvent faire bouger une élection entière. »

Tout peut être faux ; rien ne doit être réel

Au cours des derniers mois, de nombreux autres deepfakes largement répandus ont montré que Trump était attaqué par une demi-douzaine de policiers ; Ukrainien Vladimir Zelenski appeler ses soldats déposer les armes et retourner dans leurs familles ; et la vice-présidente américaine Kamala Harris, apparemment décousue et en état d’ébriété lors d’un événement à l’Université Howard.

Cette technologie nuisible a également été utilisée pour falsifier les élections en Turquie et Bangladesh – et d’innombrables autres à venir – et certains candidats, dont le représentant Dean Phillips du Minnesota et le maire de Miami Francis Suarez, ont utilisé des deepfakes pour dialoguer avec les électeurs.

« J’ai constaté ces dernières années une montée en sophistication des deepfakes et leur utilisation abusive », a déclaré Farid. « Cette année semble être un tournant, où des milliards de personnes voteront dans le monde entier et où la technologie permettant de manipuler et de déformer la réalité sort de ses balbutiements. »

Au-delà de leur impact sur les électeurs, contrefaçons profondes peuvent être utilisés comme boucliers lorsque des personnes sont enregistrées en train d’enfreindre la loi ou de dire ou de faire quelque chose d’inapproprié.

« Ils peuvent nier la réalité en prétendant qu’elle est fausse », a-t-il déclaré, soulignant que ce soi-disant « Le dividende du menteur» a déjà été utilisé par Trump et Elon Musk.

« Quand nous entrons dans un monde où tout est faux », a déclaré Farid, « rien ne doit être réel ».

Arrête, réfléchis, vérifie tes préjugés

La recherche a montré que les humains ne peuvent détecter les vidéos deepfake qu’un peu plus que la moitié du temps et un son bidon 73% du temps.

Les deepfakes deviennent de plus en plus dangereux car les images, l’audio et la vidéo créés par l’IA sont de plus en plus réalistes, a noté Farid. De plus, les contenus falsifiés se propagent rapidement sur les réseaux sociaux et peuvent devenir viraux en quelques minutes.

« Il y a un an, nous avons vu principalement des deepfakes basés sur des images qui étaient de toute évidence fausses », a déclaré Farid. « Aujourd’hui, nous voyons davantage de deepfakes audio/vidéo, plus sophistiqués et plus crédibles. »

Parce que la technologie évolue si rapidement, il est difficile de citer des « artefacts spécifiques » qui continueront à être utiles au fil du temps pour repérer les deepfakes, a noté Farid.

« Mon meilleur conseil est d’arrêter de recevoir des informations sur les réseaux sociaux – ce n’est pas pour cela qu’ils ont été conçus », a-t-il déclaré. « Si vous devez passer du temps sur les réseaux sociaux, ralentissez, réfléchissez avant de partager/aimer, vérifiez vos préjugés et vos biais de confirmation et comprenez que lorsque vous partagez de fausses informations, vous faites partie du problème. »

Signes révélateurs de deepfakes à surveiller

D’autres proposent des dispositifs plus concrets et spécifiques pour repérer les deepfakes.

Le projet de l’Université Northwestern Détecter les contrefaçonspar exemple, propose un test où les utilisateurs peuvent déterminer leur savoir-faire dans la détection des imposteurs.

Le Laboratoire des médias du MITquant à lui, propose plusieurs conseils, notamment :

  • Faire attention aux visages, car les manipulations haut de gamme sont « presque toujours des transformations faciales ».
  • Recherchez les joues et les fronts « trop lisses ou trop ridés » et regardez si « l’âge de la peau » est similaire à celui des cheveux et des yeux », car les deepfakes peuvent être « incongrus sur certaines dimensions ».
  • Noter les yeux, les sourcils et les ombres qui apparaissent là où ils ne devraient pas être. Les deepfakes ne peuvent pas toujours représenter la physique naturelle.
  • Vérifier si les lunettes ont trop d’éblouissement, pas du tout, ou si l’éblouissement change lorsque la personne bouge.
  • Faire attention aux poils du visage (ou à leur absence) et à savoir s’ils semblent réels. Même si les deepfakes peuvent ajouter ou supprimer des moustaches, des favoris ou des barbes, ces transformations ne sont pas toujours entièrement naturelles.
  • Regardez la façon dont la personne cligne des yeux (trop ou pas du tout) et la façon dont ses lèvres bougent, car certains deepfakes sont basés sur la synchronisation labiale.

Vous pensez avoir repéré un deepfake lié aux élections américaines ? Contacter Farid.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie et les transactions d’entreprise transformatrices. Découvrez nos Briefings.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici