Accueil La cyber-sécurité Les pays du G7 établissent un code de conduite volontaire en matière d’IA

Les pays du G7 établissent un code de conduite volontaire en matière d’IA

0
Les pays du G7 établissent un code de conduite volontaire en matière d’IA


Le code de conduite fournit des lignes directrices pour la réglementation de l’IA dans les pays du G7 et inclut des considérations en matière de cybersécurité et des normes internationales.

Le Les pays du Groupe des Sept ont créé un code de conduite volontaire en matière d’IApublié le 30 octobre, concernant l’utilisation de intelligence artificielle avancée. Le code de conduite se concentre, sans s’y limiter, sur les modèles de fondations et IA générative.

À titre de référence, les pays du G7 sont le Royaume-Uni, le Canada, la France, l’Allemagne, l’Italie, le Japon et les États-Unis, ainsi que l’Union européenne.

Sauter à:

Quel est le code de conduite du G7 en matière d’IA ?

Le code de conduite du G7 en matière d’IA, plus spécifiquement appelé « Code de conduite international du Processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés », est une approche basée sur les risques qui vise à « promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des orientations volontaires pour les systèmes d’IA avancés ». actions des organisations développant les systèmes d’IA les plus avancés.

Le code de conduite fait partie du Processus d’IA d’Hiroshimaqui constituent une série d’analyses, de lignes directrices et de principes pour une coopération basée sur des projets dans les pays du G7.

Que dit le code de conduite du G7 AI ?

Les 11 principes directeurs du code de conduite du G7 en matière d’IA cités directement dans le rapport sont :

    1. Prendre les mesures appropriées tout au long du développement de systèmes d’IA avancés, y compris avant et tout au long de leur déploiement et de leur mise sur le marché, pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA.
    2. Identifier et atténuer les vulnérabilités et, le cas échéant, les incidents et les schémas d’utilisation abusive, après le déploiement, y compris la mise sur le marché.
    3. Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriée et inappropriée des systèmes d’IA avancés, afin de garantir une transparence suffisante, contribuant ainsi à accroître la responsabilité.
    4. Œuvrer en faveur d’un partage responsable d’informations et d’un signalement des incidents entre les organisations développant des systèmes d’IA avancés, notamment avec l’industrie, les gouvernements, la société civile et le monde universitaire.
    5. Élaborer, mettre en œuvre et divulguer des politiques de gouvernance de l’IA et de gestion des risques, fondées sur une approche basée sur les risques – y compris des politiques de confidentialité et des mesures d’atténuation.
    6. Investissez et mettez en œuvre des contrôles de sécurité robustes, notamment des mesures de sécurité physique, de cybersécurité et de protection contre les menaces internes tout au long du cycle de vie de l’IA.
    7. Développer et déployer des mécanismes fiables d’authentification et de provenance du contenu, lorsque cela est techniquement possible, tels que le filigrane ou d’autres techniques pour permettre aux utilisateurs d’identifier le contenu généré par l’IA.
    8. Donner la priorité à la recherche pour atténuer les risques sociétaux, de sûreté et de sécurité et donner la priorité aux investissements dans des mesures d’atténuation efficaces.
    9. Donner la priorité au développement de systèmes d’IA avancés pour relever les plus grands défis mondiaux, notamment, mais sans s’y limiter, la crise climatique, la santé mondiale et l’éducation.
    10. Promouvoir l’élaboration et, le cas échéant, l’adoption de normes techniques internationales.
    11. Mettre en œuvre des mesures de saisie de données et des protections appropriées pour les données personnelles et la propriété intellectuelle.

Que signifie le code de conduite du G7 AI pour les entreprises ?

Idéalement, le cadre du G7 contribuera à garantir que les entreprises disposent d’un chemin simple et clairement défini pour se conformer à toutes les réglementations qu’elles pourraient rencontrer concernant l’utilisation de l’IA. En outre, le code de conduite fournit un cadre pratique sur la manière dont les organisations peuvent aborder l’utilisation et la création de modèles de fondation et d’autres produits ou applications d’intelligence artificielle destinés à une distribution internationale. Le code de conduite permet également aux chefs d’entreprise et aux employés de mieux comprendre à quoi ressemble une utilisation éthique de l’IA et de leur permettre d’utiliser l’IA pour créer un changement positif dans le monde.

Bien que ce document fournisse des informations et des conseils utiles aux pays et organisations du G7 qui choisissent de l’utiliser, le code de conduite de l’IA est volontaire et non contraignant.

Quelle est la prochaine étape après le code de conduite du G7 sur l’IA ?

La prochaine étape consiste pour les membres du G7 à créer le cadre politique global du processus d’IA de Hiroshima d’ici la fin 2023, selon une déclaration de la Maison Blanche. Le G7 prévoit d’« introduire des outils et des mécanismes de suivi pour aider les organisations à rester responsables de la mise en œuvre de ces actions » à l’avenir, selon le Processus d’Hiroshima.

VOIR : Les organisations souhaitant mettre en œuvre un Politique d’éthique de l’IA devrait consulter ce téléchargement TechRepublic Premium.

« Nous (les dirigeants du G7) pensons que nos efforts conjoints dans le cadre du processus d’IA d’Hiroshima favoriseront un environnement ouvert et favorable dans lequel des systèmes d’IA sûrs, sécurisés et dignes de confiance sont conçus, développés, déployés et utilisés pour maximiser les avantages de la technologie tout en atténuant les risques. ses risques, pour le bien commun mondial », peut-on lire dans le communiqué de la Maison Blanche.

Autres réglementations et directives internationales pour l’utilisation de l’IA

Le La loi européenne sur l’IA est une proposition de loi actuellement en discussion au Parlement de l’Union européenne ; elle a été introduite pour la première fois en avril 2023 et modifiée en juin 2023. La loi sur l’IA créerait un système de classification dans lequel les systèmes d’IA seraient réglementés en fonction des risques possibles. Les organisations qui ne suivent pas les obligations de la Loi, y compris les interdictions, la classification correcte ou la transparence, seraient passibles d’amendes. La loi sur l’IA n’a pas encore été adoptée.

Le 26 octobre, le Premier ministre britannique Rishi Sunak a annoncé son intention de Institut de sécurité de l’IAqui évaluerait les risques liés à l’IA et inclurait les contributions de plusieurs pays, dont la Chine.

Le président américain Joe Biden a publié le 30 octobre un décret précisant lignes directrices pour le développement et la sécurité de l’intelligence artificielle.

Le Royaume-Uni a organisé un sommet sur la sécurité de l’IA les 1er et 2 novembre 2023. Lors de ce sommet, le Royaume-Uni, les États-Unis et la Chine signé une déclaration déclarant qu’ils travailleraient ensemble pour concevoir et déployer l’IA d’une manière « centrée sur l’humain, digne de confiance et responsable ». Retrouvez la couverture TechRepublic de ce sommet ici.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici