vendredi, décembre 1, 2023

Les gens ne devraient pas payer un prix si élevé pour dénoncer les méfaits de l’IA


Le G7 vient de convenir d’un code de conduite (volontaire) que les entreprises d’IA devraient respecter, alors que les gouvernements cherchent à minimiser les dommages et les risques créés par les systèmes d’IA. Et plus tard cette semaine, le Royaume-Uni sera rempli de personnalités influentes en matière d’IA qui participeront au sommet gouvernemental sur la sécurité de l’IA, un effort visant à élaborer des règles mondiales sur la sécurité de l’IA.

Au total, ces événements suggèrent que le discours défendu par la Silicon Valley sur le « risque existentiel » posé par l’IA semble être de plus en plus dominant dans le discours public.

C’est préoccupant, car se concentrer sur la réparation des dommages hypothétiques qui pourraient survenir à l’avenir détourne l’attention des dommages très réels que l’IA cause aujourd’hui. « Les systèmes d’IA existants qui causent des dommages démontrés sont plus dangereux que les systèmes d’IA hypothétiques « sensibles » parce qu’ils sont réels », écrit Joy Buolamwini, chercheuse et activiste renommée en IA, dans ses nouveaux mémoires Unmasking AI: My Mission to Protect What Is Human in. un monde de machines. Découvrez ses réflexions dans un extrait de son livre, à paraître demain.

j’ai eu le plaisir de parler avec Buolamwini sur l’histoire de sa vie et ce qui la préoccupe aujourd’hui dans l’IA. Buolamwini est une voix influente dans le domaine. Ses recherches sur les biais dans les systèmes de reconnaissance faciale ont incité des entreprises telles qu’IBM, Google et Microsoft à modifier leurs systèmes et à renoncer à vendre leur technologie aux forces de l’ordre.

Aujourd’hui, Buolamwini a une nouvelle cible en vue. Elle appelle à repenser radicalement la façon dont les systèmes d’IA sont construits, en commençant par des pratiques de collecte de données plus éthiques et consensuelles. « Ce qui m’inquiète, c’est qu’on donne un laissez-passer à tant d’entreprises, ou qu’on applaudit l’innovation en tournant la tête [away from the harms] », m’a dit Buolamwini. Lire mon interview avec elle.

Si l’histoire de Buolamwini est à bien des égards une source d’inspiration, elle constitue également un avertissement. Buolamwini dénonce les méfaits de l’IA depuis près d’une décennie, et elle a fait des choses impressionnantes pour sensibiliser le public au sujet. Ce qui m’a vraiment frappé, c’est le prix à payer pour elle. Dans le livre, elle décrit avoir dû se présenter aux urgences en raison d’un épuisement sévère après avoir essayé de faire trop de choses à la fois : poursuivre son plaidoyer, fonder son organisation à but non lucratif, l’Algorithmic Justice League, assister à des audiences du Congrès et rédiger sa thèse de doctorat au MIT. .

Elle n’est pas seule. L’expérience de Buolamwini s’inscrit dans un article que j’ai écrit il y a presque exactement un an sur la façon dont L’IA responsable a un problème d’épuisement professionnel.

En partie grâce à des chercheurs comme Buolamwini, les entreprises technologiques sont soumises à un examen public plus minutieux de leurs systèmes d’IA. Les entreprises ont réalisé qu’elles avaient besoin d’équipes d’IA responsables pour garantir que leurs produits sont développés de manière à atténuer tout dommage potentiel. Ces équipes évaluent comment nos vies, nos sociétés et nos systèmes politiques sont affectés par la manière dont ces systèmes sont conçus, développés et déployés.

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles