Accueil Big Data Le décret de Biden sur l’IA et la confidentialité des données suscite des réactions majoritairement favorables

Le décret de Biden sur l’IA et la confidentialité des données suscite des réactions majoritairement favorables

0
Le décret de Biden sur l’IA et la confidentialité des données suscite des réactions majoritairement favorables


(Piper de papier/Shutterstock)

Comme prévu, le président Joe Biden a publié aujourd’hui un décret sur l’adoption de l’intelligence artificielle (IA) et la protection des données sensibles. Les dirigeants technologiques ont réagi de manière plutôt favorable à cette décision, même si certains dirigeants voulaient que le président aille plus loin et d’autres ont exigé que le Congrès américain adopte de nouvelles lois.

Le décret, que vous pouvez lire icicomporte plusieurs dispositions, notamment l’exigence du Institut national des normes et de la technologie établir des normes pour les « tests de sécurité de l’équipe rouge » et exiger que les développeurs du modèle de base informent le gouvernement lors de la formation du modèle et du partage des résultats des tests.

Cela exige également que le ministère du Commerce élabore des normes pour détecter le contenu généré par l’IA ; nécessite la mise en place d’un programme permettant d’utiliser l’IA pour « trouver et corriger » les vulnérabilités de sécurité ; et exige que le Conseil de sécurité nationale et le chef de cabinet de la Maison Blanche approfondissent leurs recherches sur l’IA et la sécurité.

Une section sur la vie privée oriente davantage d’investissements vers le développement de techniques de préservation de la vie privée, tandis qu’une autre sur « la promotion de l’équité et des droits civils » exige la création de « directives claires » couvrant l’utilisation d’algorithmes pour les propriétaires, les entrepreneurs fédéraux et les programmes d’avantages sociaux fédéraux. Il appelle également à davantage de formations pour traquer la « discrimination algorithmique », ainsi qu’à mettre fin aux « violations des droits civiques liées à l’IA » dans le système judiciaire.

D’autres sections couvrent la protection des consommateurs à l’ère de l’IA et « l’atténuation des dommages » liés aux suppressions d’emplois grâce à l’IA. Biden appelle également à « catalyser la recherche sur l’IA », à « promouvoir un écosystème d’IA juste, ouvert et compétitif » et à « faire progresser le leadership américain à l’étranger ».

IBM Le président-directeur général, Arvind Krishna, affirme que le décret aidera le pays à aller de l’avant.

« Ce décret envoie un message critique : l’IA utilisée par le gouvernement des États-Unis sera une IA responsable », déclare Krishna. « IBM est fier de soutenir les engagements volontaires de la Maison Blanche en matière d’IA, qui s’alignent sur nos propres pratiques de longue date visant à promouvoir la confiance dans cette technologie puissante.

Miriam Vogel, présidente et directrice générale de Égal IAaffirme que le décret constitue une étape importante dans la prévention des préjugés dans l’IA et le développement d’une gouvernance responsable.

« Les actions prescrites dans [the executive order] seront des étapes déterminantes pour maximiser les avantages et réduire les dommages de l’IA dans des domaines clés ayant un impact sur la vie quotidienne et le bien-être des Américains, notamment le logement, la santé, l’emploi et l’éducation, grâce à une approche pangouvernementale en faveur de son utilisation sûre et de son application équitable », a-t-elle déclaré.

Le président Biden a publié son décret sur l’IA le 30 octobre 2023 (Consolidated-News-Photos/Shuttestock)

Biden a trouvé un équilibre avec ce décret, déclare Timothy Young, PDG de Jaspe.

« Avec ce décret, la Maison Blanche a pris des mesures essentielles pour protéger la sécurité publique et la sécurité nationale sans arrêter l’innovation ni créer des conditions de concurrence déséquilibrées pour le large éventail d’entreprises développant cette technologie », a déclaré Young. « Bien qu’il soit encore tôt, cette commande pose les bases d’un juste équilibre entre la sécurité, l’innovation et la compétitivité. »

Alexandra Reeve Givens, présidente et directrice générale de Centre pour la démocratie et la technologie (CDT), a salué l’impact « pangouvernemental » que cette ordonnance aura.

« Il est remarquable de voir l’administration se concentrer à la fois sur les risques émergents liés aux modèles de fondation sophistiqués et sur les nombreuses façons dont les systèmes d’IA ont déjà un impact sur les droits des personnes », dit-elle. « L’administration souligne à juste titre que l’innovation américaine doit également inclure des garanties pionnières pour déployer la technologie de manière responsable. »

Caitlin Seeley George, directrice générale de Combattez pour l’avenira déclaré que le décret était « bon, pas génial ».

« C’est loin d’être une nouvelle que l’intelligence artificielle exacerbe la discrimination et les préjugés, mais c’est une étape positive pour l’administration Biden de reconnaître ces préjudices et d’ordonner aux agences d’y remédier dans ce décret », dit-elle. « Cependant, il est difficile de dire que ce document, à lui seul, représente un grand progrès. »

Michael Leach, responsable de la conformité chez un fournisseur de sécurité Point de forceapprécie de nombreux aspects de l’ordonnance, notamment l’accent mis sur la protection des données personnelles lors de l’utilisation de l’IA.

« Le nouveau décret fournit des informations précieuses sur les domaines que le gouvernement américain considère comme critiques en matière de développement et d’utilisation de l’IA, et sur ce sur quoi l’industrie de la cybersécurité devrait se concentrer pour aller de l’avant lors du développement, de la diffusion et de l’utilisation de l’IA, comme les normes standardisées. les tests de sûreté et de sécurité, la détection et la réparation des vulnérabilités de sécurité des réseaux et des logiciels, l’identification et l’étiquetage du contenu généré par l’IA, et enfin, mais non le moindre, la protection de la vie privée d’un individu en garantissant la protection de ses données personnelles lors de l’utilisation de l’IA », il dit

La Fondation nationale de la science (NSF) est prête à mettre en œuvre l’ordre, a déclaré le directeur de la NSF, Sethuraman Panchanathan.

« En tant que principal investisseur fédéral dans la recherche sur l’intelligence artificielle hors défense, la National Science Foundation des États-Unis mène des recherches de pointe qui élargissent notre compréhension des concepts et des techniques d’IA, accélérant l’innovation en IA digne de confiance et préparant la main-d’œuvre de la prochaine génération en IA. « , dit Panchanathan. « La NSF est prête à mettre pleinement en œuvre les actions décrites dans le décret d’aujourd’hui ainsi que les huit principes directeurs et priorités qu’il énonce. »

(MUNGKHOOD-STUDIO/Shutterstock)

Une fois que les données sont intégrées à un modèle, elles ne peuvent jamais en être extraites, a déclaré Rehan Jalil, président-directeur général de Sécuriténous a rappelé.

« L’IA a transformé le paysage des données », écrit Jalil. « Cependant, un examen attentif des pratiques de partage de données et des destinataires est indispensable. Une approche responsable centrée sur les données devrait sous-tendre chaque mise en œuvre de l’IA, et les normes fixées pour les agences gouvernementales devraient également être respectées dans les organisations privées et publiques. Il est crucial de reconnaître qu’une fois que les systèmes d’IA accèdent aux données, ces informations deviennent définitivement partie intégrante du système ; nous ne pouvons pas nous permettre de faire confiance à la technologie de l’IA sans les contrôles appropriés et sans définir les responsabilités.

Robert Weissman, le président de Citoyen publica aimé une partie de ce qu’il a vu dans le décret, mais pas tout.

« Les consommateurs et les travailleurs méritent des garde-fous qui protégeront l’intérêt public alors que l’IA continue d’être développée et utilisée dans de nouveaux contextes. Le décret d’aujourd’hui est une étape vitale de la part de l’administration Biden pour entamer le long processus de réglementation de la technologie de l’IA qui progresse rapidement – ​​mais ce n’est qu’une première étape », a-t-il écrit. « Cependant, même si la Maison Blanche peut le faire seule, ces mesures ne sauraient remplacer la réglementation des agences et l’action législative. Pour prévenir les menaces prévisibles et imprévisibles de l’IA, les agences et le Congrès doivent prendre le relais de la Maison Blanche et agir maintenant pour façonner l’avenir de l’IA – plutôt que de laisser une poignée d’entreprises déterminer notre avenir, au péril de leur vie. »

Un autre appel à l’action du Congrès est venu de Paul Barrett, directeur adjoint du Centre Stern de NYU pour les entreprises et les droits de l’homme.

« Le président Biden mérite le mérite d’avoir pris des mesures initiales importantes pour sauvegarder l’IA », écrit-il. « Mais il existe de nombreux autres problèmes que les entreprises d’IA et le Congrès doivent aborder pour garantir que les puissants systèmes d’intelligence artificielle aident les gens, plutôt que d’exacerber la propagation de la désinformation, des cyberattaques, de la fraude, de l’invasion de la vie privée et d’autres menaces sociétales graves… L’administration est avancer dans la bonne direction. Mais aujourd’hui, ce n’est que le début d’un processus réglementaire qui sera long et ardu et qui, à terme, devra exiger que les entreprises qui profitent de l’IA assument la charge de prouver que leurs produits sont sûrs et efficaces, tout comme les fabricants de produits pharmaceutiques ou de produits chimiques industriels. les avions doivent démontrer que leurs produits sont sûrs et efficaces.

Articles connexes:

La Maison Blanche publie un décret sur l’IA

Les Américains ne font pas confiance à l’IA et veulent qu’elle soit réglementée : sondage

Le NIST met la gestion des risques liés à l’IA sur la carte avec un nouveau cadre

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici