
Le même jour, le Royaume-Uni a réuni dans la même salle certains des dirigeants d’entreprise et politiques du monde entier. à Bletchley Park pour le AI Safety Summitplus de 70 signataires ont signé une lettre appelant à une approche plus ouverte du développement de l’IA.
« Nous sommes à un tournant critique dans la gouvernance de l’IA », peut-on lire dans la lettre. publié par Mozilla, Remarques. « Pour atténuer les dommages actuels et futurs causés par les systèmes d’IA, nous devons adopter l’ouverture, la transparence et un large accès. Cela doit être une priorité mondiale.
Tout comme ce qui s’est passé dans la sphère logicielle au sens large au cours des dernières décennies, la révolution naissante de l’IA s’explique principalement par la différence entre l’ouverture et la propriété, ainsi que les avantages et les inconvénients de chacun. Au cours du week-end, Yann Lecun, scientifique en chef de l’IA chez Meta, société mère de Facebook pris à X pour dénoncer les efforts de certaines entreprises, dont OpenAI et DeepMind de Google, pour assurer « la capture réglementaire de l’industrie de l’IA » en faisant pression contre la R&D ouverte sur l’IA.
« Si vos campagnes alarmistes réussissent, elles entraîneront *inévitablement* ce que vous et moi qualifierions de catastrophe : un petit nombre d’entreprises contrôleront l’IA », a écrit Lecun.
Et c’est un thème qui continue d’imprégner les efforts croissants de gouvernance émergeant du aime le décret du président Biden et le AI Safety Summit organisé cette semaine par le Royaume-Uni. D’un côté, les dirigeants des grandes sociétés d’IA mettent en garde contre les menaces existentielles que représente l’IA, arguant que l’IA open source peut être manipulée par de mauvais acteurs pour créer plus facilement des armes chimiques (par exemple), tandis que d’un autre côté, les contre-arguments avancent que ces propos alarmistes visent simplement à concentrer le contrôle entre les mains de quelques entreprises protectionnistes.
Contrôle propriétaire
La vérité est probablement un peu plus nuancée que cela, mais c’est dans ce contexte que des dizaines de personnes ont signé aujourd’hui une lettre ouverte appelant à plus d’ouverture.
« Oui, les modèles librement disponibles comportent des risques et des vulnérabilités : les modèles d’IA peuvent être abusés par des acteurs malveillants ou déployés par des développeurs mal équipés », indique la lettre. « Cependant, nous avons constaté à maintes reprises qu’il en va de même pour les technologies propriétaires – et que l’augmentation de l’accès et de la surveillance du public rend la technologie plus sûre, et non plus dangereuse. L’idée selon laquelle un contrôle strict et exclusif des modèles fondamentaux d’IA est le seul moyen de nous protéger des dommages à l’échelle de la société est au mieux naïve, au pire dangereuse.
Le chercheur estimé en IA Lecun – qui a rejoint Meta il y a 10 ans – a joint son nom à la lettre, aux côtés de nombreux autres noms notables, dont Google Brain et le co-fondateur de Coursera Andrew Ng; Co-fondateur et directeur technique de Hugging Face Julien Chaumond; et technologue renommé Brian Behlendorf de la Fondation Linux.
Plus précisément, la lettre identifie trois domaines principaux dans lesquels l’ouverture peut contribuer au développement sûr de l’IA, notamment en permettant une recherche et une collaboration plus indépendantes ; accroître la surveillance et la responsabilité du public; et abaisser les barrières à l’entrée pour les nouveaux entrants dans l’espace de l’IA.
« L’histoire nous montre que se précipiter rapidement vers un mauvais type de réglementation peut conduire à des concentrations de pouvoir qui nuisent à la concurrence et à l’innovation », note la lettre. « Les modèles ouverts peuvent éclairer un débat ouvert et améliorer l’élaboration des politiques. Si nos objectifs sont la sûreté, la sécurité et la responsabilité, alors l’ouverture et la transparence sont des ingrédients essentiels pour y parvenir.