lundi, décembre 4, 2023

Les puissances mondiales prennent un engagement « historique » en faveur de la sécurité de l’IA


Des représentants de 28 pays et d’entreprises technologiques se sont réunis sur le site historique de Bletchley Park au Royaume-Uni pour le Sommet sur la sécurité de l’IA tenue les 1er et 2 novembre 2023.

La première journée du sommet s’est terminée par la signature de la Déclaration « historique » de Bletchley sur la sécurité de l’IAqui engage 28 pays participants – dont le Royaume-Uni, les États-Unis et la Chine – à gérer et atténuer conjointement les risques liés à l’intelligence artificielle tout en garantissant un développement et un déploiement sûrs et responsables.

Le deuxième et dernier jour du sommet, les gouvernements et les principales organisations d’IA se sont mis d’accord sur un nouveau plan pour tester en toute sécurité les technologies avancées d’IA, qui inclut un rôle gouvernemental dans les tests de modèles avant et après déploiement.

Sauter à:

Qu’est-ce que le Sommet sur la sécurité de l’IA ?

Le Sommet sur la sécurité de l’IA est une conférence majeure qui s’est tenue les 1er et 2 novembre 2023 dans le Buckinghamshire, au Royaume-Uni. Elle a réuni des gouvernements internationaux, des entreprises technologiques et des universités pour examiner les risques de l’IA « à la frontière du développement » et discuter de la manière dont ces risques peuvent être atténués grâce à une approche unie. , effort mondial.

La journée inaugurale de l’AI Safety Summit a vu une série de conférences de chefs d’entreprise et d’universitaires visant à promouvoir une compréhension plus approfondie de l’IA de pointe. Cela comprenait un certain nombre de tables rondes avec des « développeurs clés », notamment OpenAI, Anthropic et Google DeepMind, basé au Royaume-Uni, centrées sur la manière de définir des seuils de risque, des évaluations de sécurité efficaces et des mécanismes de gouvernance et de responsabilisation solides.

VOIR: Aide-mémoire ChatGPT : Guide complet pour 2023 (TechRépublique)

Le premier jour du sommet a également été marqué par un discours virtuel du roi Charles III, qui a qualifié l’IA de « plus grand progrès technologique » de l’humanité et a souligné le potentiel de la technologie pour transformer les soins de santé et divers autres aspects de la vie. Le monarque britannique a appelé à une coordination et une collaboration internationales solides pour garantir que l’IA reste une technologie sûre et bénéfique.

Qui a assisté au Sommet sur la sécurité de l’IA ?

Des représentants de l’Institut Alan Turing, de l’Université de Stanford, de l’Organisation de coopération et de développement économiques et de l’Institut Ada Lovelace étaient parmi les participants. participants au AI Safety Summit, aux côtés d’entreprises technologiques telles que Google, Microsoft, IBM, Meta et AWS, ainsi que de dirigeants tels que le patron de SpaceX, Elon Musk. Était également présente la vice-présidente américaine Kamala Harris.

Qu’est-ce que la Déclaration de Bletchley sur la sécurité de l’IA ?

La déclaration de Bletchley déclare que les développeurs de technologies d’IA avancées et potentiellement dangereuses assument une responsabilité importante en garantissant la sécurité de leurs systèmes grâce à des protocoles de test rigoureux et des mesures de sécurité visant à prévenir les abus et les accidents.

Il souligne également la nécessité de trouver un terrain d’entente pour comprendre les risques liés à l’IA et favoriser les partenariats internationaux de recherche sur la sécurité de l’IA, tout en reconnaissant qu’il existe « un potentiel de dommages graves, voire catastrophiques, délibérés ou non, découlant des capacités les plus importantes de ces modèles d’IA ». .»

Le Premier ministre britannique Rishi Sunak a qualifié la signature de la déclaration de « réalisation historique qui voit les plus grandes puissances mondiales en matière d’IA s’accorder sur l’urgence de comprendre les risques de l’IA ».

Dans une déclaration écrite, Sunak a déclaré : « Sous la direction du Royaume-Uni, plus de vingt-cinq pays présents au sommet sur la sécurité de l’IA ont déclaré une responsabilité partagée pour faire face aux risques liés à l’IA et faire progresser la collaboration internationale vitale sur la sécurité et la recherche à la frontière de l’IA.

« Le Royaume-Uni est une fois de plus à l’avant-garde de cette nouvelle frontière technologique en lançant cette conversation, qui nous verra travailler ensemble pour rendre l’IA sûre et réaliser tous ses avantages pour les générations à venir. » (Le gouvernement britannique a qualifié les systèmes avancés d’intelligence artificielle qui pourraient présenter des risques encore inconnus pour la société d’« IA de pointe ».)

Le Premier ministre britannique Rishi Sunak accueille la deuxième journée du UK AI Summit à Bletchley Park.
Le Premier ministre britannique Rishi Sunak a accueilli le sommet britannique sur l’IA à Bletchley Park. Image : Simon Dawson / No 10 Downing Street

Réactions des experts à la Déclaration de Bletchley

Même si le gouvernement britannique a souligné à plusieurs reprises l’importance de cette déclaration, certains analystes se sont montrés plus sceptiques.

Martha Bennett, vice-présidente et analyste principale chez Forrester, a suggéré que la signature de l’accord était plus symbolique que substantielle, notant que les signataires « n’auraient pas accepté le texte de la Déclaration de Bletchley s’il contenait des détails significatifs sur la manière dont l’IA devrait être réglementée ». .»

Bennett a déclaré à TechRepublic par e-mail : « Cette déclaration n’aura pas d’impact réel sur la manière dont l’IA est réglementée. D’une part, l’UE a déjà une loi sur l’IA en préparation ; aux États-Unis, le président Biden a publié le 30 octobre un décret sur l’IA, et les principes directeurs internationaux du G7 et le code de conduite international pour l’IA ont été publiés le 30 octobre. qui contiennent tous plus de substance que la Déclaration de Bletchley.

Cependant, Bennett a déclaré que le fait que la déclaration n’aurait pas d’impact direct sur la politique n’était pas nécessairement une mauvaise chose. « Le Sommet et la Déclaration de Bletchley visent davantage à donner des signaux et à démontrer une volonté de coopérer, et c’est important. Nous devrons attendre et voir si les bonnes intentions sont suivies d’actions significatives », a-t-elle déclaré.

Comment les gouvernements vont-ils tester les nouveaux modèles d’IA ?

Les gouvernements et les entreprises d’IA se sont également mis d’accord sur un nouveau cadre de test de sécurité pour les modèles d’IA avancés, dans le cadre duquel les gouvernements joueront un rôle plus important dans les évaluations avant et après le déploiement.

Le cadre, qui s’appuie sur la Déclaration de Bletchley, garantira aux gouvernements « ont un rôle à jouer pour veiller à ce que des tests de sécurité externes des modèles d’IA frontaliers aient lieu », en particulier dans les domaines concernant la sécurité nationale et le bien-être public. L’objectif est de transférer la responsabilité des tests de sécurité des modèles d’IA aux seules entreprises technologiques.

Au Royaume-Uni, cela sera réalisé par un nouvel institut de sécurité de l’IAqui fonctionnera avec l’Institut Alan Turing « tester soigneusement de nouveaux types d’IA de pointe » et « explorer tous les risques, depuis les préjudices sociaux comme les préjugés et la désinformation, jusqu’au risque le plus improbable mais extrême, comme celui de la perte totale du contrôle de l’humanité sur l’IA ».

VOIR: Kit de recrutement : Ingénieur Prompt (Prime TechRepublic)

L’informaticien de renom Yoshua Bengio a été chargé de diriger la création d’un rapport sur « l’état de la science », qui évaluera les capacités et les risques de l’intelligence artificielle avancée et tentera d’établir une compréhension unifiée de la technologie.

Lors de la conférence de presse de clôture du sommet, Sunak a été interrogé par un membre des médias sur la question de savoir si la responsabilité d’assurer la sécurité de l’IA devait incomber en premier lieu aux entreprises développant des modèles d’IA, comme l’a soutenu le professeur Bengio.

En réponse, Sunak a exprimé l’opinion que les entreprises ne peuvent pas être seules responsables de « noter leurs propres devoirs » et a suggéré que les gouvernements ont le devoir fondamental d’assurer la sécurité de leurs citoyens.

« Il incombe aux gouvernements d’assurer la sécurité et la protection de leurs citoyens, et c’est pourquoi nous avons investi de manière significative dans notre AI Safety Institute », a-t-il déclaré.

« Il est de notre devoir d’évaluer, de surveiller et de tester ces modèles de manière indépendante et externe pour nous assurer qu’ils sont sûrs. Est-ce que je pense que les entreprises ont une responsabilité morale générale de garantir que le développement de leur technologie se déroule de manière sûre et sécurisée ? Oui, (et) ils ont tous dit exactement la même chose. Mais je pense qu’ils seraient également d’accord sur le fait que les gouvernements doivent jouer ce rôle.

Un autre journaliste a interrogé Sunak sur l’approche du Royaume-Uni en matière de réglementation de la technologie de l’IA, et notamment sur la question de savoir si les accords volontaires étaient suffisants par rapport à un régime de licence formel.

En réponse, Sunak a fait valoir que le rythme auquel l’IA évoluait nécessitait une réponse gouvernementale qui suivait le rythme, et a suggéré que l’AI Safety Institute serait chargé de mener les évaluations et les recherches nécessaires pour éclairer la future réglementation.

« La technologie évolue à un tel rythme que les gouvernements doivent s’assurer que nous pouvons suivre le rythme dès maintenant, avant de commencer à imposer des choses et à légiférer », a déclaré Sunak. « Il est important que la réglementation soit fondée de manière empirique sur des preuves scientifiques, et c’est pourquoi nous devons d’abord faire le travail. »

Quelles sont les réactions des experts au AI Safety Summit ?

Poppy Gustafsson, directrice générale de la société de cybersécurité IA Darktrace, a déclaré à PA Media qu’elle craignait que les discussions ne se concentrent trop sur les « risques hypothétiques du futur » – comme les robots tueurs – mais que les discussions étaient plus « mesurées » en réalité.

Bennett de Forrester avait une opinion nettement différente, déclarant à TechRepublic qu’il y avait « un peu trop d’accent sur des scénarios lointains, potentiellement apocalyptiques ».

Elle a ajouté : « Même si la déclaration (de Bletchley) contient tous les mots justes sur la recherche scientifique et la collaboration, qui sont bien sûr cruciales pour répondre aux problèmes actuels liés à la sécurité de l’IA, la toute fin du document la ramène à l’IA de pointe. »

Bennet a également souligné que, même si une grande partie de la rhétorique entourant le sommet était axée sur la coopération et la collaboration, les pays individuels poursuivaient leurs propres efforts pour devenir des leaders en matière d’IA.

« Si quelqu’un espérait que le sommet inclurait une annonce concernant la création d’un nouvel organisme mondial de recherche sur l’IA, ces espoirs ont été déçus. Pour l’instant, les pays se concentrent sur leurs propres efforts : la semaine dernière, le Premier ministre britannique Rishi Sunak a annoncé la création du « premier institut de sécurité de l’IA au monde ». Aujourd’hui (1er novembre), le président américain Biden a annoncé la création de l’Institut américain de sécurité de l’intelligence artificielle.

Elle a ajouté : « Espérons que nous verrons le type de collaboration entre ces différents instituts que préconise la Déclaration de Bletchley. »

VOIR: Le Sommet des Nations Unies sur l’IA pour le bien explore la manière dont l’IA générative présente des risques et favorise les connexions (TechRépublique)

Rajesh Ganesan, président de ManageEngine, société détenue par Zoho, a déclaré dans un communiqué par courrier électronique que « même si certains pourraient être déçus si le sommet ne parvient pas à établir un organisme de réglementation mondial », le fait que les dirigeants mondiaux discutaient de la réglementation de l’IA était un pas en avant positif. .

« Parvenir à un accord international sur les mécanismes de gestion des risques posés par l’IA est une étape importante : une plus grande collaboration sera primordiale pour équilibrer les avantages de l’IA et limiter sa capacité destructrice », a déclaré Ganesan dans un communiqué.

« Il est clair que la réglementation et les pratiques de sécurité resteront essentielles à l’adoption en toute sécurité de l’IA et doivent suivre le rythme de ses progrès rapides. C’est quelque chose que la loi européenne sur l’IA et les accords sur le code de conduite du G7 pourraient stimuler et fournir un cadre pour lequel.»

Ganesan a ajouté : « Nous devons donner la priorité à la formation continue et donner aux gens les compétences nécessaires pour utiliser les systèmes d’IA générative en toute sécurité. Ne pas faire en sorte que l’IA soit adoptée par les personnes qui l’utilisent et en bénéficient, risque de produire des résultats dangereux et sous-optimaux. »

Pourquoi la sécurité de l’IA est-elle importante ?

Il n’existe actuellement aucun ensemble complet de réglementations régissant l’utilisation de l’intelligence artificielle, même si L’Union européenne a élaboré un cadre qui vise à établir des règles pour la technologie dans le bloc des 28 nations.

L’utilisation abusive potentielle de l’IA, que ce soit par malveillance ou par erreur humaine ou machine, reste une préoccupation majeure. Lors du sommet, il a été souligné que les vulnérabilités en matière de cybersécurité, les dangers biotechnologiques et la propagation de la désinformation représentaient certaines des menaces les plus importantes posées par l’IA, tandis que les problèmes liés aux biais algorithmiques et à la confidentialité des données ont également été soulignés.

La secrétaire britannique à la Technologie, Michelle Donelan, a souligné l’importance de la Déclaration de Bletchley comme première étape pour garantir le développement sûr de l’IA. Elle a également déclaré que la coopération internationale était essentielle pour renforcer la confiance du public dans les technologies de l’IA, ajoutant qu’« aucun pays ne peut à lui seul faire face aux défis et aux risques posés par l’IA ».

Elle a déclaré le 1er novembre : « La déclaration historique d’aujourd’hui marque le début d’un nouvel effort mondial visant à renforcer la confiance du public en garantissant le développement sûr de la technologie. »

Comment le Royaume-Uni a-t-il investi dans l’IA ?

À la veille du sommet britannique sur la sécurité de l’IA, le Le gouvernement britannique a annoncé un financement de 118 millions de livres sterling (143 millions de dollars) pour stimuler le financement des compétences en IA au Royaume-Uni.. Le financement ciblera les centres de recherche, les bourses et les programmes de visa et vise à encourager les jeunes à étudier les domaines de l’IA et de la science des données.

Parallèlement, 21 millions de livres sterling (25,5 millions de dollars) ont été réservés pour équiper le National Health Service du Royaume-Uni d’une technologie de diagnostic et d’imagerie basée sur l’IA, comme les rayons X et les tomodensitogrammes.

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles