vendredi, décembre 1, 2023

Les dirigeants mondiaux se démènent pour réglementer l’avenir de l’IA


VentureBeat présente : AI Unleashed – Un événement exécutif exclusif pour les leaders des données d’entreprise. Réseautez et apprenez avec vos pairs du secteur. Apprendre encore plus


Il ne fait aucun doute que le rythme du développement de l’IA s’est accéléré au cours de la dernière année. En raison des progrès rapides de la technologie, l’idée selon laquelle l’IA pourrait un jour être plus intelligente que les humains est passée de la science-fiction à une réalité plausible à court terme.

Geoffrey Hinton, lauréat du prix Turing, conclu en mai que le moment où l’IA pourrait être plus intelligente que les humains n’était pas d’ici 50 à 60 ans comme il l’avait initialement pensé – mais peut-être d’ici 2028. De plus, le co-fondateur de DeepMind, Shane Legg dit récemment qu’il pense qu’il y a une chance sur deux d’atteindre l’intelligence générale artificielle (AGI) d’ici 2028. (AGI fait référence au point où les systèmes d’IA possèdent des capacités cognitives générales et peuvent effectuer des tâches intellectuelles au niveau des humains ou au-delà, plutôt que d’être étroitement axé sur l’accomplissement de fonctions spécifiques, comme cela a été le cas jusqu’à présent.)

Cette possibilité à court terme a suscité des débats animés – et parfois houleux – sur l’IA, en particulier sur les implications éthiques et avenir réglementaire. Ces débats sont passés des cercles universitaires à l’avant-plan de la politique mondiale, incitant les gouvernements, les dirigeants de l’industrie et les citoyens concernés à s’attaquer aux questions qui pourraient façonner l’avenir de l’humanité.

Ces débats ont fait un grand pas en avant avec plusieurs annonces réglementaires significatives, même si une ambiguïté considérable demeure.

Événement

L’IA libérée

Une soirée exclusive d’informations et de réseautage sur invitation uniquement, conçue pour les cadres supérieurs d’entreprise supervisant les piles de données et les stratégies.

Apprendre encore plus

Le débat sur les risques existentiels de l’IA

Il n’existe guère d’accord universel sur les prévisions concernant l’IA, hormis la probabilité que de grands changements se produisent à l’avenir. Néanmoins, les débats ont suscité des spéculations sur la façon dont – et dans quelle mesure – les développements de l’IA pourraient mal tourner.

Par exemple, Sam Altman, PDG d’OpenAI a exprimé son point de vue sans détour lors d’une audition au Congrès en mai sur les dangers que pourrait engendrer l’IA. « Je pense que si cette technologie tourne mal, elle peut tourner mal. Et nous voulons le dire clairement. Nous voulons travailler avec le gouvernement pour empêcher que cela se produise.

Altman n’était pas le seul à partager ce point de vue. « Atténuer le risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire », peut-on lire dans une seule phrase. déclaration publié fin mai par le Center for AI Safety, une organisation à but non lucratif. C’était signé par des centaines de personnes, dont Altman et 38 membres de l’unité DeepMind AI de Google. Ce point de vue a été exprimé au plus fort de la catastrophe de l’IA, lorsque les inquiétudes concernant d’éventuels risques existentiels étaient les plus répandues.

Il est certainement raisonnable de spéculer sur ces questions à l’approche de 2028 et de se demander dans quelle mesure nous sommes préparés aux risques potentiels. Cependant, tout le monde ne croit pas que les risques soient si élevés, du moins pas les risques existentiels les plus extrêmes qui motivent tant de discussions sur la réglementation.

Les voix de scepticisme et d’inquiétude de l’industrie

Andrew Ng, l’ancien directeur de Google Brain, s’oppose aux scénarios apocalyptiques. Il a dit récemment que la « mauvaise idée selon laquelle l’IA pourrait nous faire disparaître » se confondait avec la « mauvaise idée selon laquelle un bon moyen de rendre l’IA plus sûre consiste à imposer de lourdes exigences en matière de licences » à l’industrie de l’IA.

Selon Ngc’est une façon pour les grandes technologies de créer une capture réglementaire pour garantir que les alternatives open source ne peut pas rivaliser. La capture réglementaire est un concept dans lequel un organisme de réglementation adopte des politiques qui favorisent l’industrie au détriment de l’intérêt public au sens large, dans ce cas avec des réglementations trop lourdes ou trop coûteuses à respecter pour les petites entreprises.

Scientifique en chef de l’IA de Meta Yann LeCun – qui, comme Hinton, est lauréat du prix Turing – est allé encore plus loin le week-end dernier. Affectation sur X, anciennement connu sous le nom de Twitter, il a affirmé qu’Altman, le PDG d’Anthropic, Dario Amodei, et le PDG de Google DeepMind, Demis Hassabis, se livraient tous à un « lobbying massif auprès des entreprises » en promouvant des scénarios apocalyptiques d’IA qui sont « absurdes ».

L’effet net de ce lobbying, a-t-il soutenu, serait une réglementation qui limiterait effectivement les projets d’IA open source en raison des coûts élevés liés au respect de la réglementation, ne laissant en réalité « qu’un petit nombre d’entreprises » [that] contrôlera l’IA.

La poussée réglementaire

Néanmoins, la marche vers la réglementation s’accélère. En juillet, la Maison Blanche a annoncé un engagement volontaire d’OpenAI et d’autres développeurs d’IA de premier plan, notamment Anthropic, Alphabet, Meta et Microsoft, qui se sont engagés à créer des moyens de tester leurs outils pour la sécurité avant sa diffusion publique. Entreprises supplémentaires rejoint cet engagement en septembre, portant le total à 15 entreprises.

Position du gouvernement américain

La Maison Blanche a publié cette semaine une vaste Décret exécutif sur « l’intelligence artificielle sûre, sécurisée et digne de confiance », visant une approche équilibrée entre un développement sans entrave et une surveillance stricte.

Selon Wired, l’ordonnance est conçue à la fois pour promouvoir une utilisation plus large de l’IA et pour maintenir l’IA commerciale sous contrôle plus strict, avec des dizaines de directives que les agences fédérales devront mettre en œuvre au cours de l’année prochaine. Ces directives couvrent une gamme de sujets, de la sécurité nationale et de l’immigration au logement et aux soins de santé, et imposent de nouvelles exigences aux entreprises d’IA pour qu’elles partagent les résultats des tests de sécurité avec le gouvernement fédéral.

Kevin Roose, journaliste technologique au New York Times, a noté que cette commande semble avoir un impact. un petit peu pour tout le monde, résumant la tentative de la Maison Blanche de suivre une voie médiane en matière de gouvernance de l’IA. Le cabinet de conseil EY a fourni une vaste analyse.

Même s’il n’a pas la permanence d’une législation – le prochain président peut simplement l’annuler s’il le souhaite – il s’agit d’un stratagème stratégique visant à placer le point de vue américain au centre de la course mondiale aux enjeux élevés pour influencer l’avenir de la gouvernance de l’IA. Selon le président Biden, le décret « est la mesure la plus importante qu’un gouvernement dans le monde ait jamais prise en matière de sûreté, de sécurité et de confiance en matière d’IA ».

Ryan Heath chez Axios commenté que « l’approche est plus la carotte que le bâton, mais qu’elle pourrait suffire à faire passer les États-Unis devant leurs rivaux étrangers dans la course à la réglementation de l’IA ». Écrivant dans sa newsletter Platformer, Casey Newton a applaudi l’administration. Ils ont « développé suffisamment d’expertise au niveau fédéral [to] rédiger un décret de grande envergure mais nuancé qui devrait atténuer au moins certains dommages tout en laissant une place à l’exploration et à l’entrepreneuriat.

La « Coupe du monde » de la politique en matière d’IA

Les États-Unis ne sont pas les seuls à prendre des mesures pour façonner l’avenir de l’IA. Le Centre pour l’IA et la politique numérique dit récemment que la semaine dernière avait lieu la « Coupe du monde » de la politique en matière d’IA. Outre les États-Unis, le G7 annoncé un ensemble de 11 principes d’IA non contraignants, appelant « les organisations développant des systèmes d’IA avancés à s’engager dans l’application des Code de conduite international

À l’instar de l’ordonnance américaine, le code du G7 est conçu pour favoriser « des systèmes d’IA sûrs, sécurisés et dignes de confiance ». Comme noté Cependant, selon VentureBeat, « différentes juridictions peuvent adopter leurs propres approches pour mettre en œuvre ces principes directeurs ».

Lors de sa grande finale la semaine dernière, le UK AI Safety Summit a réuni des gouvernements, des experts en recherche, des groupes de la société civile et des grandes entreprises d’IA du monde entier pour discuter des risques de l’IA et de la manière dont ils peuvent être atténués. Le sommet s’est particulièrement concentré sur les modèles « Frontier AI », les grands modèles de langage (LLM) les plus avancés avec des capacités qui se rapprochent ou dépassent les performances du niveau humain dans de multiples tâches, y compris celles développées par Alphabet, Anthropic, OpenAI et plusieurs autres sociétés.

Comme le rapporte Le New York Timesl’un des résultats de ce conclave est le «La déclaration de Bletchley« , signé par des représentants de 28 pays, dont les États-Unis et la Chine, qui ont mis en garde contre les dangers posés par les systèmes d’IA frontaliers les plus avancés. Positionné par le gouvernement britannique comme un « premier accord mondial » sur la gestion de ce qu’il considère comme les formes d’IA les plus risquées, la déclaration ajoute : « Nous sommes déterminés à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, digne de confiance et responsable. »

Cependant, l’accord ne fixe aucun objectif politique spécifique. Néanmoins, David Meyer de Fortune évalué il s’agit d’un « début prometteur » pour la coopération internationale sur un sujet qui n’est devenu un problème sérieux que l’année dernière.

Équilibrer innovation et réglementation

À l’approche de l’horizon tracé par des experts comme Geoffrey Hinton et Shane Legg, il est évident que les enjeux du développement de l’IA augmentent. De la Maison Blanche au G7, en passant par l’UE, les Nations Unies, la Chine et le Royaume-Uni, les cadres réglementaires sont devenus une priorité absolue. Ces premiers efforts visent à atténuer les risques tout en favorisant l’innovation, même si des questions subsistent quant à leur efficacité et leur impartialité dans leur mise en œuvre réelle.

Ce qui est tout à fait clair, c’est que l’IA est une question d’importance mondiale. Les prochaines années seront cruciales pour composer avec les complexités de cette dualité : trouver un équilibre entre la promesse d’innovations positives qui changent la vie, telles que des traitements médicaux plus efficaces et la lutte contre le changement climatique, et l’impératif de garanties éthiques et sociétales. Aux côtés des gouvernements, des entreprises et du monde universitaire, l’activisme populaire et la participation des citoyens deviennent de plus en plus des forces vitales pour façonner l’avenir de l’IA.

Il s’agit d’un défi collectif qui façonnera non seulement l’industrie technologique mais potentiellement l’avenir de l’humanité.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager contribuer à un article ton propre!

En savoir plus sur DataDecisionMakers



Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles