Clause de non-responsabilité: Basé sur l’annonce de l’EOsans avoir vu le texte intégral.
Dans l’ensemble, le décret est un excellent travail, faisant preuve d’une grande expertise et d’une grande réflexion. Il équilibre l’optimisme quant au potentiel de l’IA avec une prise en compte raisonnable des risques. Et il ne se précipite pas tête baissée vers de nouvelles réglementations ou la création de nouvelles agences, mais ordonne plutôt aux agences et organisations existantes de comprendre et d’appliquer l’IA à leur mission et à leurs domaines de surveillance. L’EO fait également un travail impressionnant en soulignant la nécessité d’attirer davantage de talents en IA au sein du gouvernement. C’est une énorme victoire.
Étant donné que mes propres recherches portent sur des divulgations améliorées comme point de départ d’une meilleure réglementation de l’IA, j’ai été réconforté d’apprendre que le décret sur l’IA utilise la loi sur la production de défense pour obliger à divulguer diverses données issues du développement de grands modèles d’IA. Malheureusement, ces révélations ne vont pas assez loin. L’EO semble exiger uniquement des données sur les procédures et les résultats du « Red Teaming » (c’est-à-dire des tests contradictoires pour déterminer les défauts et les points faibles d’un modèle), et non un éventail plus large d’informations qui aideraient à répondre à bon nombre des autres préoccupations évoquées. dans l’OE. Ceux-ci inclus:
- Sur quelles sources de données le modèle est formé. La disponibilité de ces informations contribuerait à la réalisation de nombreux autres objectifs énoncés dans l’EO, notamment la lutte contre la discrimination algorithmique et l’augmentation de la concurrence sur le marché de l’IA, ainsi que d’autres questions importantes que l’EO n’aborde pas, comme le droit d’auteur. La découverte récente (documentée par un exposé dans The Atlantic) qu’OpenAI, Meta et d’autres utilisaient par exemple des bases de données de livres piratés, souligne la nécessité de transparence dans les données de formation. Compte tenu de l’importance de la propriété intellectuelle pour l’économie moderne, le droit d’auteur devrait constituer un élément important de ce décret. La transparence sur cette question permettra non seulement de débattre et de discuter des questions de propriété intellectuelle soulevées par l’IA, mais elle augmentera également la concurrence entre les développeurs de modèles d’IA pour obtenir des licences sur des sources de données de haute qualité et différencier leurs modèles en fonction de cette qualité. Pour prendre un exemple, serions-nous mieux lotis avec les conseils médicaux ou juridiques d’une IA formée uniquement avec le mélange de connaissances disponibles sur Internet, ou avec l’ensemble des informations professionnelles sur le sujet ?
- Mesures opérationnelles. Comme les autres services disponibles sur Internet, les modèles d’IA ne sont pas des artefacts statiques, mais des systèmes dynamiques qui interagissent avec leurs utilisateurs. Les sociétés d’IA qui déploient ces modèles les gèrent et les contrôlent en mesurant et en répondant à divers facteurs, tels que les utilisations autorisées, restreintes et interdites ; utilisateurs restreints et interdits ; les méthodes par lesquelles ses politiques sont appliquées ; détection du contenu généré automatiquement, de l’injection rapide et d’autres risques de cybersécurité ; utilisation par géographie et, si mesurée, par données démographiques et psychographiques ; les nouveaux risques et vulnérabilités identifiés lors de l’exploitation qui vont au-delà de ceux détectés lors de la phase de formation ; et beaucoup plus. Il ne s’agit pas d’un ensemble de mesures aléatoires imaginées par des régulateurs ou des défenseurs extérieurs, mais plutôt divulgations des mesures et des méthodes réelles que les entreprises utilisent pour gérer leurs systèmes d’IA.
- Politique d’utilisation des données des utilisateurs pour la formation continue. Les entreprises d’IA traitent généralement les entrées de leurs utilisateurs comme des données supplémentaires disponibles pour la formation. Cela a des implications à la fois sur la vie privée et sur la propriété intellectuelle.
- Procédures par lesquelles le fournisseur d’IA répondra aux commentaires et aux plaintes des utilisateurs. Cela devrait inclure les mécanismes de recours proposés.
- Méthodes par lesquelles le fournisseur d’IA gère et atténue les risques identifiés via Red Teaming, y compris leur efficacité. Ce reporting ne doit pas être effectué « une seule fois », mais doit être un processus continu qui permet aux chercheurs, aux régulateurs et au public de comprendre si les modèles s’améliorent ou diminuent dans leur capacité à gérer les nouveaux risques identifiés.
- Consommation d’énergie et autres impacts environnementaux. De nombreuses inquiétudes ont été exprimées concernant les coûts énergétiques de l’IA et son impact potentiel dans un monde en réchauffement. La divulgation de la quantité réelle d’énergie utilisée pour la formation et le fonctionnement des modèles d’IA permettrait une discussion beaucoup plus raisonnée sur la question.
Ce ne sont là que quelques suggestions spontanées. Idéalement, une fois qu’une gamme complète d’informations requises a été identifiée, elles devraient être supervisées soit par un organisme de normalisation gouvernemental existant, soit par une organisation à but non lucratif semblable au Financial Accounting Standards Board (FASB) qui supervise les normes comptables. Il s’agit d’un domaine en évolution rapide, et la divulgation ne sera donc pas une activité ponctuelle. Nous n’en sommes qu’aux premiers stades de l’ère de l’IA, et l’innovation doit pouvoir se développer. Mais cela met encore plus l’accent sur le besoin de transparence et sur l’établissement de cadres de référence en matière de reporting qui permettront aux régulateurs, aux investisseurs et au public de mesurer dans quelle mesure les développeurs d’IA gèrent les risques et si les systèmes d’IA s’améliorent ou se détériorent. au fil du temps.
Mise à jour
Après avoir lu les détails trouvés dans le décret complet sur l’IA, plutôt que de me limiter au résumé de la Maison Blanche, je suis beaucoup moins positif quant à l’impact de cette ordonnance et à ce qui semble être les premiers pas vers un régime de divulgation robuste, qui est un précurseur nécessaire à une réglementation efficace. L’EO n’aura aucun impact sur les opérations des services d’IA actuels comme ChatGPT, Bard et d’autres en cours de développement, car ses exigences selon lesquelles les développeurs de modèles divulguent les résultats de leur « équipe rouge » des comportements et des risques des modèles ne s’appliquent qu’aux futurs modèles formés. avec des ordres de grandeur supérieurs à la puissance de calcul de n’importe quel modèle actuel. En bref, les sociétés d’IA ont convaincu l’administration Biden que les seuls risques qui méritent d’être réglementés sont les risques existentiels de science-fiction d’une IA du futur lointain plutôt que les risques clairs et présents dans les modèles actuels.
Il est vrai que diverses agences ont été chargées d’examiner les risques actuels tels que la discrimination à l’embauche, les candidatures à la justice pénale et le logement, ainsi que les impacts sur le marché du travail, les soins de santé, l’éducation et la concurrence sur le marché de l’IA, mais ces efforts sont à leurs débuts et dans leurs années passées. En fin de compte, l’effet le plus important de l’EO s’avère être l’appel à accroître le recrutement de talents en IA dans ces agences et à accroître leurs capacités à traiter les problèmes soulevés par l’IA. Ces effets peuvent être assez importants à long terme, mais ils auront peu d’impact à court terme.
En bref, les grandes entreprises d’IA ont réussi un coup de maître en évitant toute réglementation efficace pendant quelques années.