Accueil Big Data La loi européenne sur l’IA : ce que vous devez savoir

La loi européenne sur l’IA : ce que vous devez savoir

0
La loi européenne sur l’IA : ce que vous devez savoir


Cela fait presque un an que la Commission européenne a dévoilé le projet de ce qui pourrait bien être l’un des cadres juridiques les plus influents au monde : le Loi européenne sur l’IA. Selon la Fondation Mozilla, le cadre est toujours en cours de développement et il est maintenant temps de s’engager activement dans les efforts visant à définir son orientation.

La mission déclarée de la Fondation Mozilla est de veiller à ce qu’Internet reste une ressource publique ouverte et accessible à tous. Depuis 2019, la Fondation Mozilla a concentré une partie importante de ses programmes de développement de mouvements de santé sur Internet sur l’IA.

Nous avons rencontré le directeur exécutif de la Fondation Mozilla, Mark Surman, et le chercheur politique principal Maximilian Gahntz pour discuter de l’orientation et de la position de Mozilla sur l’IA, des faits clés sur la loi européenne sur l’IA et de la façon dont elle fonctionnera dans la pratique, ainsi que des recommandations de Mozilla pour l’améliorer et des moyens. pour que tout le monde soit impliqué dans le processus.

La loi européenne sur l’IA est en route, et c’est un gros problème même si vous n’êtes pas basé dans l’UE.

En 2019, Mozilla a identifié l’IA comme un nouveau défi pour la santé d’Internet. La raison en est que l’IA prend des décisions pour nous et à notre sujet, mais pas toujours avec nous : elle peut nous dire quelles actualités nous lisons, quelles publicités nous voyons ou si nous sommes admissibles à un prêt.

Les décisions prises par l’IA ont le potentiel d’aider l’humanité mais aussi de nous nuire, Notes de Mozilla. L’IA peut amplifier les préjugés et la discrimination historiques, donner la priorité à l’engagement plutôt qu’au bien-être des utilisateurs, et renforcer davantage le pouvoir des Big Tech et marginaliser les individus.

« Une IA fiable a été un élément clé pour nous ces dernières années, car les données et l’apprentissage automatique, ainsi que ce que nous appelons aujourd’hui l’IA, constituent un tissu commercial technique et social très central pour ce qu’est Internet et la manière dont Internet interagit avec la société et l’ensemble du monde. nos vies », a noté Surman.

Alors que l’IA imprègne de plus en plus nos vies, Mozilla est d’accord avec l’UE sur la nécessité de changer les normes et les règles régissant l’IA, écrit Gahntz dans La réaction de Mozilla à la loi européenne sur l’IA.

La première chose à noter à propos de la loi européenne sur l’IA est qu’elle ne s’applique pas exclusivement aux organisations ou aux citoyens basés dans l’UE. Les répercussions pourraient être ressenties partout dans le monde de la même manière que l’effet qu’a eu le RGPD.

La loi de l’UE sur l’IA s’applique aux utilisateurs et fournisseurs de systèmes d’IA situés dans l’UE, aux fournisseurs établis en dehors de l’UE qui sont à l’origine de la mise sur le marché ou de la mise en service d’un système d’IA au sein de l’UE, ainsi qu’aux fournisseurs et utilisateurs de systèmes d’IA établis. en dehors de l’UE lorsque les résultats générés par le système sont utilisés dans l’UE.

Cela signifie que les organisations développant et déployant des systèmes d’IA devront soit se conformer à la loi européenne sur l’IA, soit se retirer complètement de l’UE. Cela dit, la loi européenne sur l’IA diffère à certains égards de la loi européenne sur l’IA. RGPD — Mais plus là-dessus plus tard.

règlements.jpg

Comme toute réglementation, la loi européenne sur l’IA trace une frontière ténue entre les besoins des entreprises et de la recherche et les préoccupations des citoyens.

Par studio ra2 — Shutterstock

Un autre point clé concernant la loi européenne sur l’IA est qu’elle est encore en chantier et qu’il faudra un certain temps avant qu’elle entre en vigueur. Son cycle de vie a commencé avec la formation d’un groupe d’experts de haut niveau qui, comme l’a noté Surman, a coïncidé avec l’accent mis par Mozilla sur l’IA digne de confiance. Mozilla surveille de près la loi européenne sur l’IA depuis 2019.

Comme l’a noté Gahntz, depuis la publication de la première version de la loi européenne sur l’IA en avril 2021, toutes les personnes impliquées dans ce processus se préparent à s’engager. Le Parlement européen a dû décider quelles commissions et quels membres de ces commissions y travailleraient, et les organisations de la société civile ont eu la possibilité de lire le texte et de développer leur position.

Le point où nous en sommes actuellement est celui où commence la partie passionnante, comme le dit Gahntz. C’est à ce moment-là que le Parlement européen développe sa position, en tenant compte des commentaires qu’il reçoit des commissions désignées ainsi que des tiers. Une fois que le Parlement européen aura consolidé ce qu’il comprend sous le terme d’IA digne de confiance, il soumettra ses idées sur la manière de modifier le projet initial.

Les États membres de l’UE feront la même chose, puis il y aura un dernier cycle de négociations entre le Parlement, la Commission et les États membres, et c’est à ce moment-là que la loi européenne sur l’IA sera adoptée. C’est un chemin long et sinueux, et selon Gahntz, nous envisageons un horizon minimum d’un an, plus une période de transition entre l’adoption de la loi et sa prise d’effet.

Pour le RGPD, la période transitoire était de deux ans. Ce ne sera donc probablement pas avant 2025 que la loi européenne sur l’IA entrera en vigueur.

Définir et catégoriser les systèmes d’IA

Avant d’entrer dans les détails de la loi européenne sur l’IA, nous devrions nous arrêter et nous demander à quoi elle s’applique exactement. Il n’existe pas de définition largement acceptée de l’IA, c’est pourquoi la loi de l’UE sur l’IA fournit une annexe qui définit les techniques et les approches qui entrent dans son champ d’application.

Comme noté par l’Institut d’éthique de l’IA de Montréalla Commission européenne a choisi une définition large et neutre des systèmes d’IA, les désignant comme des logiciels « qui sont développés avec une ou plusieurs des techniques et approches énumérées à l’annexe I et peuvent, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent ».

Les techniques mentionnées dans l’annexe de la loi européenne sur l’IA incluent à la fois des approches d’apprentissage automatique et des approches basées sur la logique et les connaissances. Ils sont très variés, au point de dessiner des critiques pour « proposer de réglementer l’utilisation de l’estimation bayésienne ». Même si la frontière entre les besoins des entreprises et de la recherche et les préoccupations des citoyens est délicate, de telles affirmations ne semblent pas saisir l’essentiel de la philosophie du projet de loi proposé : la soi-disant approche basée sur le risque.

Dans la loi européenne sur l’IA, les systèmes d’IA sont classés en 4 catégories selon le risque perçu qu’ils posent : les systèmes à risque inacceptable sont totalement interdits (bien que quelques exceptions s’appliquent), les systèmes à haut risque sont soumis à des règles de traçabilité, de transparence et de robustesse, les systèmes à risque élevé sont soumis à des règles de traçabilité, de transparence et de robustesse, -les systèmes à risques exigent de la transparence de la part du fournisseur et des systèmes à risques minimaux pour lesquels aucune exigence n’est fixée.

Il ne s’agit donc pas de réglementer certaines techniques mais plutôt d’encadrer l’application de ces techniques dans certaines applications en fonction du risque que présentent ces applications. En ce qui concerne les techniques, le cadre proposé note que des adaptations supplémentaires peuvent être nécessaires pour suivre l’évolution du domaine.

Sont exclus du champ d’application de la loi européenne sur l’IA les systèmes d’IA développés ou utilisés exclusivement à des fins militaires. Les autorités publiques de pays tiers et les organisations internationales utilisant des systèmes d’IA dans le cadre d’accords internationaux de coopération répressive et judiciaire avec l’UE ou avec un ou plusieurs de ses membres sont également exemptées du champ d’application de la loi de l’UE sur l’IA.

Drapeaux de l'Union européenne

Dans la loi européenne sur l’IA, les systèmes d’IA sont classés en 4 catégories en fonction du risque perçu qu’ils posent

Getty Images/iStockphoto

Les applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre et les systèmes permettant l’évaluation sociale par les États membres de l’UE sont classés comme présentant un risque inacceptable et sont carrément interdits.

Les systèmes d’IA à haut risque comprennent l’identification biométrique, la gestion des infrastructures critiques (eau, énergie, etc.), les systèmes d’IA destinés à être affectés dans des établissements d’enseignement ou à la gestion des ressources humaines, et les applications d’IA pour l’accès aux services essentiels (crédits bancaires, services publics, services sociaux). avantages sociaux, justice, etc.), utilisation pour les missions de police ainsi que la gestion des migrations et le contrôle des frontières.

Cependant, l’application de identification biométrique comprend plusieurs exceptions, comme la recherche d’un enfant disparu ou la localisation de suspects dans des affaires de terrorisme, de traite des êtres humains ou de pédopornographie. La loi européenne sur l’IA stipule que les systèmes d’IA à haut risque doivent être enregistrés dans une base de données gérée par la Commission européenne.

Les systèmes à risque limité comprennent principalement divers robots. Pour ceux-là, l’exigence clé est la transparence. Par exemple, si les utilisateurs interagissent avec un chatbot, ils doivent en être informés afin de pouvoir prendre une décision éclairée de continuer ou non.

Enfin, selon la Commission, les systèmes d’IA qui ne présentent pas de risque pour les droits des citoyens, comme les filtres anti-spam ou les jeux, sont exemptés de l’obligation réglementaire.

L’EU AI Act comme moyen de parvenir à une IA digne de confiance

L’idée principale derrière cette approche de la réglementation de l’IA basée sur les risques rappelle quelque peu celle de l’approche appliquée à l’étiquetage des appareils électroménagers en fonction de leur efficacité énergétique dans l’UE. Les appareils sont classés en fonction de leurs caractéristiques d’efficacité énergétique et reçoivent des étiquettes allant de A (meilleur) à G (pire).

Mais il existe également des différences importantes. Plus important encore, si les étiquettes énergétiques sont censées être vues et prises en compte par les consommateurs, l’évaluation des risques des systèmes d’IA n’est pas conçue dans le même objectif. Cependant, si Mozilla parvient à ses fins, cela pourrait changer d’ici l’entrée en vigueur de la loi européenne sur l’IA.

Faire des analogies est toujours intéressant, mais ce qui est vraiment important ici, c’est que l’approche basée sur les risques tente de minimiser l’impact de la réglementation sur ceux qui développent et déploient des systèmes d’IA peu ou pas préoccupants, a déclaré Gahntz.

« L’idée est de concentrer l’attention sur les points où cela devient délicat, où un risque est introduit pour la sécurité, les droits et la vie privée des personnes, etc. C’est aussi la partie sur laquelle nous voulons nous concentrer parce que la réglementation n’est pas une fin en soi. lui-même.

Nous voulons accomplir nos recommandations et notre travail de plaidoyer à ce sujet. Les parties du règlement qui visent à atténuer ou à empêcher la matérialisation des risques sont renforcées dans la version finale de la loi européenne sur l’IA.

Il existe de nombreuses analogies à établir avec d’autres approches fondées sur les risques que nous voyons ailleurs dans la législation et la réglementation européennes. Mais il est également important d’examiner les risques spécifiques à chaque cas d’utilisation. Cela signifie essentiellement répondre à la question de savoir comment nous pouvons garantir que l’IA est digne de confiance », a déclaré Gahntz.

Gahntz et Surman ont souligné que les recommandations de Mozilla ont été élaborées avec soin et avec la diligence requise dans ce processus pour garantir que personne ne soit lésé et que l’IA finisse par être un avantage net pour tous.

Nous continuerons à élaborer les recommandations de Mozilla pour améliorer la loi européenne sur l’IA, ainsi que la philosophie sous-jacente de L’IA digne de confiance et la théorie du changement de l’IA et comment s’impliquer dans la conversation dans partie 2 de cet article.



LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici