mardi, novembre 28, 2023

Le filigrane peut-il résoudre le problème de confiance de GenAI ?


(FOTOGRIN/Shutterstock)

L’IA progresse rapidement – ​​trop rapidement, disent certains, pour distinguer le contenu généré par l’IA du contenu généré par l’homme. La technologie du filigrane peut-elle aider les humains à reprendre le contrôle ?

Les progrès rapides de la technologie de l’IA générative ont abaissé les barrières à l’entrée pour de nombreuses applications éblouissantes. Mais il y a un côté sombre à ce progrès, car il permet également à des personnes sans compétences techniques avancées de créer des choses nuisibles, comme de faux devoirs scolaires et de fausses vidéos, comme celles-ci. une jeune fille du New Jersey âgée de 14 ans les allégations ont été formulées sans son consentement.

Il n’est pas surprenant que seulement 20 % des Américains fassent confiance à l’IA, selon la dernière publication de Suivi des tendances de consommation de Dunnhumby. C’est plus que les résidents du Royaume-Uni, où seulement 14 % déclarent faire « principalement » ou « entièrement » confiance à l’IA. L’étude portant sur 2 500 personnes a révélé que le manque de confiance dans l’IA découle de cinq possibilités : la perte potentielle d’emplois ; sécurité et confidentialité; perte du contact humain; la technologie « entre de mauvaises mains » ; et la désinformation, dit dunnhumby.

Un autre point de données négatif nous vient d’un sondage MITRE-Harris. Libéré il y a cinq semainesle sondage révèle que seulement 39 % des adultes américains estiment que les technologies d’IA actuelles sont « sûres et sécurisées », soit une baisse de 9 % par rapport à l’année dernière.

Une solution potentielle pour différencier le contenu authentique généré par l’homme du faux contenu généré par l’IA est une technologie appelée filigrane. Comme les filigranes sur les billets de 100 $, les filigranes numériques sont apparemment des ajouts inaltérables au contenu qui indiquent sa source ou sa provenance. Dans son décret la semaine dernièrele président Joe Biden a ordonné au ministère du Commerce d’élaborer des lignes directrices sur l’authentification du contenu et le filigrane afin d’étiqueter clairement le contenu généré par l’IA.

(Gorodenkov/Shutterstock)

Certaines entreprises technologiques utilisent déjà la technologie du filigrane. La dernière version de Google CloudVertex AI de , par exemple, utilise la technologie SynthID de DeepMind pour « intégrer le filigrane directement dans l’image des pixels, le rendant invisible à l’œil humain et difficile à falsifier », affirme la société dans un communiqué du 30 août. Créateur de ChatGPT OpenAI prend également en charge le filigrane dans sa plateforme d’IA.

Mais le filigrane peut-il nous aider à sortir du pétrin de confiance de l’IA ? Plusieurs experts en technologie sont intervenus Datanami pour approfondir la question.

Le filigrane a du sens dans le cadre d’une approche à multiples facettes visant à réglementer et à renforcer la confiance dans l’IA, déclare Timothy Young, PDG de Jaspequi développe un co-pilote marketing basé sur la technologie GenAI.

« L’émission de filigranes sur le contenu officiel des agences fédérales pour prouver l’authenticité est une étape nécessaire pour réduire la désinformation et éduquer le public sur la façon de réfléchir de manière critique au contenu qu’il consomme », a déclaré Young. « Il convient de noter qu’il sera essentiel que la technologie de filigrane puisse suivre le rythme de l’innovation en matière d’IA pour que cela soit efficace. »

C’est actuellement un défi. Un professeur d’informatique de l’Université du Maryland a récemment déclaré Filaire magazine que son équipe a réussi à contourner toute technologie de filigrane. « Nous ne disposons pas à ce stade de filigrane fiable », Soheil Feizi a déclaré à la publication. « Nous les avons tous cassés. »

Le président sous-estime peut-être les défis technologiques inhérents au filigrane de l’IA, selon Olga Beregovaya, vice-présidente de l’IA et de la traduction automatique chez Smartlingun fournisseur de solutions de traduction linguistique et de localisation de contenu.

(Peshkova/Shutterstock)

« Les gouvernements et les organismes de réglementation accordent peu d’attention à la notion de « filigrane du contenu généré par l’IA » », explique Beregovaya. « Il s’agit d’une entreprise technique colossale, car les textes et contenus multimédias générés par l’IA deviennent souvent impossibles à distinguer du contenu généré par l’homme. Il peut y avoir deux approches en matière de « filigrane » : soit disposer de mécanismes de détection fiables pour le contenu généré par l’IA, soit forcer le filigrane afin que le contenu généré par l’IA soit facilement reconnu.

Justin Selig, associé principal en investissement dans la société de capital-risque Entreprises Éclipseaffirme que si le filigrane du contenu de l’IA réussit, il devra être appliqué par des lois dans d’autres pays, pas seulement aux États-Unis.

« Pour être efficace, cela nécessitera également l’adhésion d’autres entités internationales. Nous espérons donc que cela démontrera suffisamment de leadership éclairé pour encourager la collaboration à l’échelle mondiale », a déclaré Selig. « En général, il sera plus simple de réguler la sortie du modèle, comme le filigrane. Cependant, toutes les directives concernant la contribution (ce qui entre dans les modèles, les processus de formation, les approbations) seront presque impossibles à appliquer.

Le filigrane sera probablement inclus dans le projet de loi sur l’IA de l’Union européenne. « « Nous devons étiqueter tout ce qui est généré par l’IA en les étiquetant avec des filigranes », a déclaré le commissaire européen Thierry Breton. dit lors d’un débat plus tôt cette année.

Exiger que le contenu généré par l’IA contienne un filigrane peut contribuer à une adoption responsable de l’IA sans entraver l’innovation, a déclaré Alon Yamin, co-fondateur et PDG de Fuites de copieun fournisseur de logiciels de détection de contenu IA et de détection de plagiat.

« Les filigranes, et la mise en place des outils nécessaires pour reconnaître ces filigranes, peuvent aider à vérifier l’authenticité et l’originalité du contenu généré par l’IA et peuvent constituer une étape positive pour aider le public à se sentir plus en sécurité quant à l’utilisation de l’IA. »

Cependant, les obstacles technologiques sont considérables et la possibilité que des personnes malveillantes falsifient des filigranes sur le contenu doit également être prise en compte, déclare David Brauchler, consultant principal en sécurité chez Groupe CCNune société d’assurance de l’information basée au Royaume-Uni.

(PersonnesImages/Shutterstock)

« Le filigrane est possible, par exemple via des modèles et des métadonnées intégrés (et probablement d’autres approches qui n’ont pas encore été envisagées) », a déclaré Brauchler. « Cependant, les acteurs malveillants peuvent probablement contourner ces contrôles, et il n’existe actuellement aucun moyen efficace d’empêcher le contenu de l’IA de se faire passer pour du contenu créé par l’homme. Ni le gouvernement ni le secteur privé n’ont encore résolu ce problème, et ces discussions conduisent également à des considérations supplémentaires en matière de confidentialité.

Quel type d’adoption le filigrane obtiendra-t-il et dans quelle mesure sera-t-il facile de le contourner ? Ce sont des questions posées par Joey Stanford, vice-président de la confidentialité et de la conformité des données chez Plateforme.shqui se présente comme la « plateforme tout-en-un en tant que service ».

« Le décret du président Biden sur l’IA est certainement un pas dans la bonne direction et le plus complet à ce jour », dit-il. « Cependant, on ne sait pas exactement quel impact cela aura sur le paysage de la sécurité des données. Les menaces de sécurité liées à l’IA posent un problème très complexe et la meilleure façon d’aborder la situation n’est pas encore claire. L’ordonnance tente de relever certains des défis, mais pourrait finir par ne pas être efficace ou devenir rapidement obsolète. Par exemple, les développeurs d’IA Google et OpenAI ont accepté d’utiliser des filigranes, mais personne ne sait encore comment cela va se faire, nous ne savons donc pas à quel point il sera facile de contourner/supprimer le filigrane. Cela dit, c’est encore un progrès et je suis heureux de le voir.

Ce qui comptera le plus à l’avenir n’est pas d’exploiter le contenu généré par l’IA mais plutôt d’exploiter le contenu généré par l’homme, déclare Bret Greenstein, associé et leader de l’IA générative au sein du cabinet comptable. PWC.

« À mesure que le contenu de l’IA se multipliera, la demande réelle se déplacera vers la recherche et l’identification du contenu créé par l’homme », explique Greenstein. « La touche humaine dans les mots authentiques a pour nous une immense valeur. Même si l’IA peut nous aider à écrire, les messages qui résonnent véritablement sont ceux façonnés par des individus qui utilisent efficacement le pouvoir de l’IA. »

Il semble possible, si les obstacles technologiques peuvent être surmontés, que le filigrane puisse jouer un certain rôle en aidant à différencier ce qui est généré par ordinateur et ce qui est réel. Mais il semble également peu probable que le filigrane soit une panacée éliminant complètement le défi de l’établissement et du maintien de la confiance à l’ère de l’IA, et des couches et approches technologiques supplémentaires seront nécessaires.

Articles connexes:

Le décret de Biden sur l’IA et la confidentialité des données suscite des réactions majoritairement favorables

La Maison Blanche publie un décret sur l’IA

Quand le battage médiatique GenAI dépasse la réalité GenAI

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles