vendredi, décembre 1, 2023

La loi européenne sur l’IA pourrait contribuer à parvenir à une IA digne de confiance, selon la Fondation Mozilla


Un an après l’introduction du premier projet, les détails sur la loi européenne sur l’IA restaient rares. Même si ce cadre réglementaire n’est pas encore finalisé – ou plutôt c’est précisément pour cette raison – le moment est venu d’en apprendre davantage.

Précédemment, nous avons couvert quelques faits clés sur la loi européenne sur l’IA: à qui s’applique-t-il, quand il sera promulgué et de quoi il s’agit. Nous nous sommes lancés dans cette exploration aux côtés du directeur exécutif de la Fondation Mozilla, Mark Surman, et du chercheur principal en politiques Maximilian Gahntz.

Comme Surman l’a partagé, Mozilla se concentre sur l’IA est apparu à peu près au même moment où la loi européenne sur l’IA a également commencé son cycle de vie – vers 2019. Mozilla a travaillé avec des personnes du monde entier pour élaborer une théorie sur la manière de rendre l’IA plus fiable, en se concentrant sur deux résultats à long terme : l’action et la responsabilité. .

Aujourd’hui, nous reprenons la conversation avec Surman et Gahntz. Nous discutons des recommandations de Mozilla pour améliorer la loi européenne sur l’IA et de la manière dont les gens peuvent s’impliquer, ainsi que de la théorie du changement de Mozilla en matière d’IA.

La loi européenne sur l’IA est un travail en cours

La loi européenne sur l’IA arrive, car elle devrait entrer en vigueur vers 2025, et son impact sur l’IA pourrait être similaire à celui du RGPD sur la confidentialité des données.

La loi de l’UE sur l’IA s’applique aux utilisateurs et fournisseurs de systèmes d’IA situés dans l’UE, aux fournisseurs établis en dehors de l’UE qui sont à l’origine de la mise sur le marché ou de la mise en service d’un système d’IA au sein de l’UE, ainsi qu’aux fournisseurs et utilisateurs de systèmes d’IA établis. en dehors de l’UE lorsque les résultats générés par le système sont utilisés dans l’UE.

Son approche repose sur une catégorisation en 4 niveaux des systèmes d’IA selon le risque perçu qu’ils posent : les systèmes à risque inacceptable sont totalement interdits (même si quelques exceptions s’appliquent), les systèmes à haut risque sont soumis à des règles de traçabilité, de transparence et de robustesse, les systèmes à risque élevé sont soumis à des règles de traçabilité, de transparence et de robustesse, -les systèmes à risques exigent de la transparence de la part du fournisseur et des systèmes à risques minimaux pour lesquels aucune exigence n’est fixée.

À ce stade, le Parlement européen développe sa position, en tenant compte des commentaires qu’il reçoit des commissions désignées ainsi que des tiers. Une fois que le Parlement européen aura consolidé ce qu’il comprend sous le terme d’IA digne de confiance, il soumettra ses idées sur la manière de modifier le projet initial. Un dernier cycle de négociations entre le Parlement, la Commission et les États membres suivra, et c’est à ce moment-là que la loi européenne sur l’IA sera adoptée.

Pour influencer l’orientation de la loi européenne sur l’IA, le moment est venu d’agir. Comme indiqué dans l’article de Mozilla de 2020 Créer une IA digne de confiance, l’IA a un immense potentiel pour améliorer notre qualité de vie. Mais l’intégration de l’IA dans les plateformes et les produits que nous utilisons quotidiennement peut également compromettre notre sécurité, notre sûreté et notre confidentialité. […] À moins que des mesures cruciales ne soient prises pour rendre ces systèmes plus fiables, l’IA risque d’aggraver les inégalités existantes.

Mozilla estime qu’une réglementation efficace et tournée vers l’avenir est nécessaire si nous voulons que l’IA soit plus fiable. C’est pourquoi il a salué les ambitions de la Commission européenne dans son Livre blanc sur l’intelligence artificielle il y a deux ans. La position de Mozilla est que la loi européenne sur l’IA est un pas dans la bonne direction, mais qu’elle laisse également place à des améliorations.

Les améliorations suggérées par Mozilla ont été exposé dans un article de blog. Ils se concentrent sur trois points :

  1. Garantir la responsabilité
  2. Créer une transparence systémique
  3. Donner aux individus et aux communautés une voix plus forte.

Les 3 points focaux

La responsabilité consiste en réalité à déterminer qui devrait être responsable de quoi tout au long de la chaîne d’approvisionnement de l’IA, comme l’explique Gahntz. Les risques doivent être traités là où ils surviennent ; que ce soit au stade de la conception technique ou au stade du déploiement, a-t-il ajouté.

La loi européenne sur l’IA imposerait la plupart des obligations à ceux qui développent et commercialisent des systèmes d’IA à haut risque dans sa forme actuelle. Bien qu’il y ait de bonnes raisons à cela, Gahntz estime que les risques associés à un système d’IA dépendent également de son objectif exact et du contexte dans lequel il est utilisé. Qui déploie le système et quel est le cadre organisationnel de déploiement qui pourrait être affecté par l’utilisation du système : ce sont toutes des questions pertinentes.

Pour contextualiser cela, considérons le cas d’un grand modèle de langage comme GPT-3. Il peut être utilisé pour résumer une nouvelle (risque faible) ou pour évaluer les dissertations des étudiants (risque élevé). Les conséquences potentielles ici diffèrent considérablement, et les déployeurs devraient être tenus responsables de la manière dont ils utilisent les systèmes d’IA, mais sans introduire d’obligations qu’ils ne peuvent pas respecter efficacement, affirme Mozilla.

La transparence systémique va au-delà de la transparence destinée aux utilisateurs. S’il est bon que les utilisateurs sachent quand ils interagissent avec un système d’IA, ce dont nous avons également besoin, à un niveau plus élevé, c’est que les journalistes, les chercheurs et les régulateurs soient capables d’examiner les systèmes et la manière dont ils affectent les personnes et les communautés sur le terrain. dit Gahntz.

Le projet de loi de l’UE sur l’IA comprend un mécanisme potentiellement puissant pour garantir la transparence systémique : une base de données publique pour les systèmes d’IA à haut risque, créée et gérée par la Commission, dans laquelle les développeurs s’enregistrent et fournissent des informations sur ces systèmes avant qu’ils puissent être déployés.

La recommandation de Mozilla ici est triple. Premièrement, ce mécanisme est étendu pour s’appliquer à tous les déployeurs de systèmes d’IA à haut risque. Deuxièmement, il rapporte également des informations supplémentaires, telles que des descriptions de la conception, de la logique générale et des performances d’un système d’IA. Troisièmement, il comprend des informations sur les incidents et dysfonctionnements graves, que les développeurs devraient déjà signaler aux régulateurs nationaux en vertu de la loi sur l’IA.

shift-industry-norms-header2x-80-original.jpg

L’engagement de Mozilla en faveur de la loi européenne sur l’IA est conforme à sa théorie du changement en matière d’IA, qui comprend l’évolution des normes de l’industrie, la création de nouvelles technologies et de nouveaux produits, la génération de la demande et la création de réglementations et d’incitations.

Fondation Mozilla

Donner aux individus et aux communautés une voix plus forte est quelque chose qui manque dans le projet initial de la loi européenne sur l’IA, a déclaré Gahntz. Dans l’état actuel des choses, seuls les régulateurs de l’UE seraient autorisés à tenir les entreprises responsables des impacts des produits et services basés sur l’IA.

Cependant, Mozilla estime qu’il est également essentiel que les individus soient en mesure de demander des comptes aux entreprises. En outre, d’autres organisations – comme les organisations de protection des consommateurs ou les syndicats – doivent avoir la capacité de déposer des plaintes au nom d’individus ou de l’intérêt public.

Par conséquent, Mozilla soutient une proposition visant à ajouter un mécanisme de plainte ascendant permettant aux individus et groupes d’individus concernés de déposer des plaintes formelles auprès des autorités de surveillance nationales en tant que point de contact unique dans chaque État membre de l’UE.

Mozilla note également qu’il existe plusieurs manières supplémentaires de renforcer la loi sur l’IA avant son adoption. Par exemple, pérenniser le mécanisme permettant de désigner ce qui constitue une IA à haut risque et garantir qu’un large éventail de perspectives soient prises en compte dans la mise en œuvre des exigences auxquelles les systèmes d’IA à haut risque devront répondre.

S’impliquer dans la théorie du changement de l’IA

Vous êtes peut-être d’accord avec les recommandations de Mozilla et souhaitez apporter votre soutien. Vous souhaiterez peut-être y ajouter des éléments ou proposer votre propre ensemble de recommandations. Cependant, comme l’ont fait remarquer les collaborateurs de Mozilla, le processus pour s’impliquer est un peu comme mener sa propre campagne : il n’existe pas de « voici le formulaire que vous devez remplir ».

« La manière de s’impliquer est en réalité le processus démocratique normal. Il y a des élus qui examinent ces questions, il y a aussi des gens au sein de la fonction publique qui posent ces questions, et puis il y a une industrie dans le public qui débat sur ces questions.

Je pense qu’il y a un mécanisme particulier; il est certain que des gens comme nous vont apporter des recommandations spécifiques. Et en vous joignant à nous, vous contribuez à les amplifier.

Mais je pense que la conversation démocratique ouverte – être en public, se faire des alliés et se connecter avec des personnes dont vous êtes d’accord avec les idées, lutter et faire ressortir les sujets difficiles. C’est ce qui va faire la différence, et c’est certainement sur cela que nous nous concentrons. « , a déclaré Surman.

À ce stade, il s’agit en réalité d’influencer l’opinion publique et celle des personnes en position de prendre des décisions, selon Gahntz. Cela signifie les parlementaires, les responsables des États membres de l’UE et les responsables de la Commission européenne, a-t-il ajouté.

À un niveau plus local, ce que les gens peuvent faire est le même que toujours, a déclaré Gahntz. Vous pouvez écrire à votre local Député européen; vous pouvez être actif sur les réseaux sociaux et essayer d’amplifier les voix avec lesquelles vous êtes d’accord ; vous pouvez signer des pétitions, etc. Mozilla est impliqué depuis longtemps dans l’élaboration des politiques publiques.

« Les questions d’agence et de responsabilité sont notre priorité, et nous pensons que la loi européenne sur l’IA constitue une très bonne toile de fond où elle peut avoir des effets d’entraînement à l’échelle mondiale pour faire avancer les choses dans la bonne direction sur ces sujets », a déclaré Surman.

L’action et la responsabilité sont des résultats souhaités à long terme dans La théorie du changement de l’IA de Mozilla, développé en 2019 en passant 12 mois à discuter avec des experts, à lire et à piloter des campagnes et des projets sur le thème de l’IA. Cette exploration a affiné la réflexion de Mozilla sur une IA digne de confiance en renforçant plusieurs domaines de défis, notamment les monopoles et la centralisation, la gouvernance et la confidentialité des données, les préjugés et la discrimination, ainsi que la transparence et la responsabilité.

La théorie du changement de l’IA de Mozilla identifie un certain nombre de résultats à court terme (1 à 3 ans), regroupés en 4 résultats à moyen terme (3 à 5 ans) : modifier les normes de l’industrie, créer de nouvelles technologies et de nouveaux produits, générer de la demande et créer des réglementations et des incitations. L’impact envisagé à long terme serait « un monde d’IA [where] la technologie grand public enrichit la vie des êtres humains ».

« La réglementation est un catalyseur, mais sans que les gens construisent des technologies différentes d’une manière différente et que les gens ne veuillent utiliser cette technologie, la loi n’est qu’un morceau de papier », comme l’a dit Surman.

Si nous regardons le précédent du RGPD« , parfois nous avons de nouvelles entreprises et de nouveaux produits logiciels vraiment intéressants qui gardent la confidentialité à l’esprit, et parfois nous avons simplement reçu des rappels contextuels ennuyeux sur la collecte de vos données et les cookies, et ainsi de suite, a-t-il ajouté.

« S’assurer qu’une loi comme celle-ci entraîne un réel changement et une réelle valeur pour les gens est une question délicate. C’est pourquoi, à l’heure actuelle, l’accent devrait être mis sur les mesures pratiques que l’industrie, les développeurs et les déployeurs peuvent prendre pour rendre l’IA plus fiable.  » Nous devons nous assurer que les réglementations reflètent et encouragent réellement ce type d’action et ne se contentent pas de rester dans le cloud », a conclu Surman.



Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles