Accueil Technologie Comment les faux nus de l’IA ruinent la vie des adolescents

Comment les faux nus de l’IA ruinent la vie des adolescents

0
Comment les faux nus de l’IA ruinent la vie des adolescents


Lorsque Gabi Belle a appris qu’une photo d’elle nue circulait sur Internet, son corps est devenu froid. L’influenceuse YouTube n’avait jamais posé pour l’image, qui la montrait debout dans un champ sans vêtements. Elle savait que ça devait être faux.

Mais lorsque Belle, 26 ans, a envoyé un message à un collègue lui demandant de l’aide pour supprimer l’image, il lui a dit qu’il y avait près de 100 fausses photos dispersées sur le Web, la plupart hébergées sur des sites Web connus pour héberger du porno généré par l’intelligence artificielle. Ils ont été retirés en juillet, a déclaré Belle, mais de nouvelles images la représentant dans des situations sexuelles graphiques ont déjà fait surface.

«Je me sentais dégoûtante et violée», a déclaré Belle dans une interview. «Ces parties intimes ne sont pas destinées au monde entier parce que je n’y ai pas consenti. C’est donc vraiment étrange que quelqu’un fasse des images de moi.

L’intelligence artificielle alimente cette année un boom sans précédent des fausses images et vidéos pornographiques. Cela est rendu possible par l’essor des outils d’IA bon marché et faciles à utiliser qui peuvent « déshabiller » les gens sur des photographies – en analysant à quoi ressemblerait leur corps nu et en l’imposant dans une image – ou échangez en toute transparence un visage dans une vidéo pornographique.

Sur les 10 principaux sites Web hébergeant des photos pornographiques générées par l’IA, les faux nus ont augmenté de plus de 290 % depuis 2018, selon Geneviève Oh, analyste du secteur. Ces sites présentent des célébrités et des personnalités politiques telles que la représentante de New York Alexandria Ocasio-Cortez aux côtés d’adolescentes ordinaires, dont les portraits ont été saisis par de mauvais acteurs pour inciter à la honte, extorquer de l’argent ou vivre des fantasmes privés.

Les victimes ont peu de recours. Il n’existe pas de loi fédérale régissant la pornographie deepfake, et seule une poignée d’États ont adopté des réglementations. Le décret du président Biden sur l’IA publié lundi recommande, mais n’oblige pas, les entreprises à étiqueter les photos, vidéos et audio générés par l’IA pour indiquer le travail généré par ordinateur.

Dans le même temps, les juristes préviennent que les fausses images de l’IA pourraient ne pas tomber sous le coup de la protection des droits d’auteur pour les ressemblances personnelles, car elles s’appuient sur des ensembles de données contenant des millions d’images. « Il s’agit clairement d’un problème très grave », a déclaré Tiffany Li, professeur de droit à l’Université de San Francisco.

L’avènement des images basées sur l’IA présente un risque particulier pour les femmes et les adolescents, dont beaucoup ne sont pas préparés à une telle visibilité. Une étude réalisée en 2019 par Sensity AI, une société qui surveille les deepfakes, a révélé que 96 % des images deepfakes sont de la pornographie, et 99 % de ces photos. cible femmes.

« Cela cible désormais beaucoup les filles », a déclaré Sophie Maddocks, chercheuse et défenseure des droits numériques à l’Université de Pennsylvanie. « Des jeunes filles et des femmes qui ne sont pas connues du public. »

« Écoute, maman. Qu’est-ce qu’ils m’ont fait ?

Le 17 septembre, Miriam Al Adib Mendiri rentrait d’un voyage chez elle, dans le sud de l’Espagne, lorsqu’elle a trouvé sa fille de 14 ans désemparée. Sa fille a partagé une photo d’elle nue.

« Écoute, maman. Qu’est-ce qu’ils m’ont fait ? Al Adib Mendiri a rappelé sa fille en disant.

Elle n’avait jamais posé nue. Mais un groupe de garçons locaux avait récupéré des photos habillées de plusieurs filles de leur ville sur les profils de réseaux sociaux et avait utilisé une application d’IA « nudifier » pour créer des photos nues, selon la police.

Scarlett Johansson à propos de fausses vidéos sexuelles générées par l’IA : « Rien ne peut empêcher quelqu’un de couper et coller mon image »

L’application est l’un des nombreux outils d’IA qui utilisent des images réelles pour créer des photos nues, qui ont inondé le Web ces derniers mois. En analysant des millions d’images, les logiciels d’IA peuvent mieux prédire à quoi ressemblera un corps nu et superposer de manière fluide un visage dans une vidéo pornographique, a déclaré Gang Wang, expert en IA à l’Université de l’Illinois à Urbana-Champaign.

Bien que de nombreux générateurs d’images IA empêchent les utilisateurs de créer du matériel pornographique, les logiciels open source, tels que Stable Diffusion, rendent leur code public, permettant aux développeurs amateurs d’adapter la technologie – souvent à des fins néfastes. (Stability AI, le fabricant de Stable Diffusion, n’a pas répondu à une demande de commentaire.)

Une fois que ces applications sont publiques, elles utilisent des programmes de parrainage qui encouragent les utilisateurs à partager ces photos générées par l’IA sur les réseaux sociaux en échange d’argent, a déclaré Oh.

Lorsque Oh a examiné les 10 principaux sites Web hébergeant de fausses images pornographiques, elle a découvert que plus de 415 000 avaient été téléchargées cette année, recueillant près de 90 millions de vues.

Les vidéos pornographiques générées par l’IA ont également explosé sur le Web. Après avoir parcouru les 40 sites Web les plus populaires à la recherche de fausses vidéos, Oh a découvert que plus de 143 000 vidéos avaient été ajoutées en 2023 – un chiffre qui dépasse toutes les nouvelles vidéos de 2016 à 2022. Les fausses vidéos ont reçu plus de 4,2 milliards de vues, a découvert Oh.

Le Federal Bureau of Investigation a mis en garde en juin contre une recrudescence des cas d’extorsion sexuelle de la part d’escrocs exigeant un paiement ou des photos en échange de la non-distribution d’images à caractère sexuel. Même si l’on ne sait pas exactement quel pourcentage de ces images sont générées par l’IA, cette pratique se développe. En septembre, plus de 26 800 personnes avaient été victimes de campagnes de « sextorsion », soit une augmentation de 149 % par rapport à 2019, a déclaré le FBI au Post.

« Vous n’êtes pas en sécurité en tant que femme »

En mai, une affiche sur un forum pornographique populaire a lancé un fil de discussion intitulé «Je peux simuler ton béguin». L’idée était simple : « Envoyez-moi qui vous voulez voir nu et je pourrai le simuler » en utilisant l’IA, a écrit le modérateur.

En quelques heures, des photos de femmes ont afflué. « Tu peux faire cette fille ? pas une célébrité ou un influenceur », a demandé une affiche. « Mon collègue et mon voisin ? » un autre a ajouté.

Quelques minutes après une demande, une version nue de l’image apparaissait sur le fil. « Merci beaucoup mon frère, c’est parfait », a écrit un utilisateur.

Ces fausses images révèlent comment l’IA amplifie nos pires stéréotypes

Les célébrités sont une cible populaire pour les faux créateurs de porno visant à capitaliser sur l’intérêt des recherches pour les photos nues d’acteurs célèbres. Mais les sites Web mettant en vedette des personnes célèbres peuvent entraîner une augmentation d’autres types de nus. Les sites incluent souvent du contenu « amateur » provenant d’individus inconnus et hébergent des publicités qui commercialisent des outils de création pornographique IA.

Google a mis en place des politiques pour empêcher l’apparition d’images sexuelles non consensuelles dans les résultats de recherche, mais ses protections contre les images deepfake ne sont pas aussi robustes. Le porno Deepfake et les outils permettant de le faire apparaître en bonne place sur les moteurs de recherche de l’entreprise, même sans rechercher spécifiquement du contenu généré par l’IA. Oh a documenté plus d’une douzaine d’exemples dans des captures d’écran, qui ont été confirmées de manière indépendante par The Post.

Ned Adriance, porte-parole de Google, a déclaré dans un communiqué que la société « travaillait activement pour apporter davantage de protections à la recherche » et que la société permettait aux utilisateurs de demander la suppression du faux porno involontaire.

Google est en train de « mettre en place des garanties plus étendues » qui n’obligeraient pas les victimes à demander individuellement le retrait du contenu, a-t-il déclaré.

Li, de l’Université de San Francisco, a déclaré qu’il pouvait être difficile de pénaliser les créateurs de ce contenu. L’article 230 de la loi sur la décence en matière de communication protège les sociétés de médias sociaux de toute responsabilité quant au contenu publié sur leurs sites, laissant ainsi peu de charge aux sites Web de contrôler les images.

Les victimes peuvent demander aux entreprises de supprimer les photos et vidéos à leur image. Mais comme l’IA s’appuie sur une pléthore d’images dans un ensemble de données pour créer une fausse photo, il est plus difficile pour une victime de prétendre que le contenu est dérivé uniquement de sa ressemblance, a déclaré Li.

« Peut-être pouvez-vous encore dire : ‘C’est une violation du droit d’auteur, il est clair qu’ils ont pris ma photo originale protégée par le droit d’auteur et y ont simplement ajouté un petit peu’ », a déclaré Li. « Mais pour les contrefaçons profondes… ce n’est pas si clair… quelles étaient les photos originales. »

Découvrez pourquoi l’IA comme ChatGPT est devenue si performante, si rapidement

En l’absence de lois fédérales, au moins neuf États – dont la Californie, le Texas et la Virginie – ont adopté une législation ciblant les deepfakes. Mais la portée de ces lois varie : dans certains États, les victimes peuvent porter plainte au pénal, tandis que d’autres n’autorisent que les poursuites civiles, même s’il peut être difficile de savoir qui poursuivre.

Les efforts visant à réglementer les images et vidéos générées par l’IA visent souvent à empêcher leur diffusion massive, répondant ainsi aux préoccupations concernant l’ingérence électorale, a déclaré Sam Gregory, directeur exécutif de l’organisation technologique de défense des droits de l’homme Witness.

Mais ces règles ne font pas grand-chose pour le porno deepfake, où les images partagées en petits groupes peuvent faire des ravages dans la vie d’une personne, a ajouté Gregory.

Belle, l’influenceuse YouTube, ne sait toujours pas combien de fausses photos d’elle sont publiques et a déclaré que des règles plus strictes sont nécessaires pour répondre à son expérience.

« Vous n’êtes pas en sécurité en tant que femme », a-t-elle déclaré.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici