Accueil Big Data Les experts réclament une « sphère de sécurité » juridique pour que les chercheurs, les journalistes et les artistes puissent évaluer les outils d’IA

Les experts réclament une « sphère de sécurité » juridique pour que les chercheurs, les journalistes et les artistes puissent évaluer les outils d’IA

0
Les experts réclament une « sphère de sécurité » juridique pour que les chercheurs, les journalistes et les artistes puissent évaluer les outils d’IA


Rejoignez les dirigeants à Boston le 27 mars pour une soirée exclusive de réseautage, d’idées et de conversation. Demandez une invitation ici.


Selon un nouveau papier publié par 23 chercheurs, universitaires et créatifs en IA, les protections juridiques et techniques « sphère de sécurité » sont essentielles pour permettre aux chercheurs, journalistes et artistes de procéder à des évaluations « de bonne foi » des produits et services d’IA.

Malgré la nécessité d’une évaluation indépendante, indique le document, mener des recherches liées à ces vulnérabilités est souvent légalement interdit par les conditions d’utilisation des modèles d’IA populaires, y compris ceux de OpenAI, Google, Anthropic, Inflection, Meta et Midjourney. Les auteurs du document ont appelé les entreprises technologiques à indemniser la recherche d’intérêt public sur l’IA et à la protéger contre la suspension de comptes ou des représailles juridiques.

« Bien que ces termes soient destinés à dissuader les acteurs malveillants, ils restreignent également par inadvertance la recherche sur la sécurité et la fiabilité de l’IA ; les entreprises interdisent la recherche et peuvent appliquer leurs politiques en suspendant les comptes », a déclaré un article de blog accompagnant le document.

Deux des co-auteurs de l’article, Shayne Longpre du MIT Media Lab et Sayash Kapoor de l’Université de Princeton, ont expliqué à VentureBeat que cela est particulièrement important lorsque, par exemple, dans une récente tentative visant à rejeter certaines parties du procès du New York Times, OpenAI a caractérisé l’évaluation du Times de ChatGPT comme du « piratage ». L’avocat principal du Times a répondu en disant : « Ce qu’OpenAI qualifie bizarrement de « piratage » consiste simplement à utiliser les produits d’OpenAI pour rechercher des preuves qu’ils ont volé et reproduit les œuvres protégées par le droit d’auteur du Times.

Événement VB

La tournée AI Impact – Boston

Nous sommes ravis de la prochaine étape de l’AI Impact Tour à Boston le 27 mars. Cet événement exclusif sur invitation uniquement, en partenariat avec Microsoft, proposera des discussions sur les meilleures pratiques en matière d’intégrité des données en 2024 et au-delà. Les places sont limitées, alors demandez une invitation dès aujourd’hui.

Demandez une invitation

Longpre a déclaré que l’idée d’une « sphère de sécurité » avait été proposée pour la première fois par le Knight First Amendment Institute pour la recherche sur les plateformes de médias sociaux. en 2022. « Ils ont demandé aux plateformes de médias sociaux de ne pas interdire aux journalistes d’essayer d’enquêter sur les méfaits des médias sociaux, et de la même manière, de protéger également les chercheurs », a-t-il déclaré, soulignant qu’il y a eu des antécédents d’universitaires et de journalistes poursuivis en justice, ou ils ont même passé du temps en prison, alors qu’ils se battaient pour révéler les faiblesses des plateformes.

« Nous avons essayé d’apprendre autant que possible de ces efforts passés visant à proposer un refuge pour la recherche sur l’IA », a-t-il déclaré. « Avec l’IA, nous n’avons pratiquement aucune information sur la manière dont les gens utilisent ces systèmes, sur les types de préjudices qui se produisent, et l’un des seuls outils dont nous disposons est l’accès des chercheurs à ces plateformes. »

L’évaluation indépendante et l’équipe rouge sont « critiques »

Le papier, Une sphère de sécurité pour l’évaluation de l’IA et le Red Teaming, affirme qu’à la connaissance des auteurs, des « suspensions de comptes au cours de recherches d’intérêt public » ont eu lieu dans des sociétés telles que OpenAI, Anthropic, Inflection et Midjourney, « Midjourney étant la plus prolifique ». Ils ont cité l’artiste Reid Suden, qui est répertorié comme l’un des co-auteurs du journal et dont le compte Midjourney a été suspendu après avoir partagé des images de Midjourney qui semblaient presque identiques aux versions originales protégées par le droit d’auteur. Son enquête a révélé que Midjourney pouvait enfreindre les droits d’auteur du propriétaire sans que l’utilisateur n’en ait explicitement l’intention avec de simples invites.

« Midjourney m’a banni trois fois maintenant, pour une dépense personnelle approchant les 300 $ », a déclaré Southen à VentureBeat par e-mail. « Le première interdiction s’est produit dans les 8 heures suivant mon enquête et la publication des résultats, et peu de temps après, ils ont mis à jour leurs conditions de service sans informer leurs utilisateurs pour rejeter la responsabilité de toute imagerie contrefaite sur l’utilisateur final.

Le type de comportement modèle qu’il a trouvé, a-t-il poursuivi, « est exactement la raison pour laquelle l’évaluation indépendante et l’équipe rouge devraient être autorisées, car [the companies have] montré qu’ils ne le feront pas eux-mêmes, au détriment des titulaires de droits du monde entier.

La transparence est la clé

En fin de compte, a déclaré Longpre, les problèmes liés aux protections de la sphère de sécurité sont liés à la transparence.

« Les chercheurs indépendants ont-ils le droit, s’ils peuvent prouver qu’ils ne font aucun usage abusif ou dommageable, d’enquêter sur les capacités et/ou les défauts d’un produit ? » il a dit. Mais il a ajouté que, de manière générale, « nous voulons envoyer le message que nous voulons travailler avec les entreprises, car nous pensons qu’il existe également une voie par laquelle elles peuvent être plus transparentes et utiliser la communauté à leur avantage pour les aider à rechercher ces défauts ». et les améliorer.

Kapoor a ajouté que les entreprises peuvent avoir de bonnes raisons d’interdire certains types d’utilisation de leurs services. Cependant, il ne devrait pas s’agir d’une politique « universelle », « avec les conditions de service les mêmes, que vous soyez un utilisateur malveillant ou un chercheur menant des recherches critiques en matière de sécurité », a-t-il déclaré.

Kapoor a également déclaré que les auteurs du document avaient eu des discussions avec certaines des sociétés dont les conditions d’utilisation étaient en cause. « La plupart d’entre eux viennent juste d’examiner la proposition, mais notre approche consistait essentiellement à entamer ce dialogue avec les entreprises », a-t-il déclaré. « Jusqu’à présent, la plupart des personnes que nous avons contactées étaient prêtes à entamer cette conversation avec nous, même si pour l’instant je ne pense pas que nous ayons d’engagement ferme de la part d’une quelconque entreprise sur l’introduction de la sphère de sécurité », bien qu’il ait souligné qu’après qu’OpenAI ait lu la première version du document, ils ont modifié le langage de leurs conditions de service pour s’adapter à certains types de sphère de sécurité.

« Dans une certaine mesure, cela nous a donné le signal que les entreprises pourraient effectivement être disposées à faire un bout de chemin avec nous », a-t-il déclaré.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie et les transactions d’entreprise transformatrices. Découvrez nos Briefings.



LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici