Accueil Robotique Comment les préjugés humains sapent les solutions basées sur l’IA

Comment les préjugés humains sapent les solutions basées sur l’IA

0
Comment les préjugés humains sapent les solutions basées sur l’IA


En septembre dernier, des dirigeants mondiaux comme Elon Musk, Mark Zuckerberg et Sam Altman, PDG d’OpenAI, réunis à Washington DC dans le but de discuter, d’une part, de la manière dont les secteurs public et privé peuvent travailler ensemble pour tirer parti de cette technologie pour le bien commun, et d’autre part, d’aborder la réglementation, une question qui est restée au premier plan des discussions. entourant l’IA.

Les deux conversations mènent souvent au même endroit. On se demande de plus en plus si nous pouvons rendre l’IA plus éthique, en l’évaluant comme s’il s’agissait d’un autre être humain dont la moralité était en question. Mais que signifie l’IA éthique ? DeepMind, un laboratoire de recherche appartenant à Google qui se concentre sur l’IA, a récemment publié une étude dans lequel ils ont proposé une structure à trois niveaux pour évaluer les risques de l’IA, y compris les risques sociaux et éthiques. Ce cadre comprenait la capacité, l’interaction humaine et l’impact systémique, et concluait que le contexte était essentiel pour déterminer si un système d’IA était sûr.

L’un de ces systèmes qui a été critiqué est ChatGPT, qui a été interdit dans pas moins de 15 pays, même si certaines de ces interdictions ont été annulées. Avec plus de 100 millions d’utilisateurs, ChatGPT est l’un des LLM les plus réussis, et il a souvent été accusé de partialité. En tenant compte de l’étude de DeepMind, intégrons ici le contexte. Le biais, dans ce contexte, signifie l’existence de perspectives injustes, préjugées ou déformées dans le texte généré par des modèles tels que ChatGPT. Cela peut se produire de diverses manières : préjugés raciaux, préjugés sexistes, préjugés politiques et bien plus encore.

Ces préjugés peuvent, en fin de compte, être préjudiciables à l’IA elle-même, entravant les chances que nous puissions exploiter tout le potentiel de cette technologie. Récent recherche de l’Université de Stanford a confirmé que les LLM tels que ChatGPT montrent des signes de déclin en termes de capacité à fournir des réponses fiables, impartiales et précises, ce qui constitue en fin de compte un obstacle à notre utilisation efficace de l’IA.

Une question au cœur de ce problème est la manière dont les préjugés humains sont traduits en IA, car ils sont profondément ancrés dans les données utilisées pour développer les modèles. Cependant, il s’agit d’un problème plus profond qu’il n’y paraît.

Causes de biais

Il est facile d’identifier la première cause de ce biais. Les données dont le modèle apprend sont souvent remplies de stéréotypes ou préjugés préexistants qui ont contribué à façonner ces données en premier lieudonc l’IA, par inadvertance, finit par perpétuer ces préjugés parce que c’est ce qu’elle sait faire.

Cependant, la deuxième cause est beaucoup plus complexe et contre-intuitive, et elle met à rude épreuve certains des efforts déployés pour prétendument rendre l’IA plus éthique et plus sûre. Il existe bien sûr des cas évidents où l’IA peut inconsciemment être nuisible. Par exemple, si quelqu’un demande à l’IA : « Comment puis-je fabriquer une bombe ? et le modèle donne la réponse, il contribue à générer du préjudice. Le revers de la médaille est que lorsque l’IA est limitée – même si la cause est justifiable – nous l’empêchons d’apprendre. Les contraintes humaines limitent la capacité de l’IA à apprendre à partir d’un plus large éventail de données, ce qui l’empêche encore plus de fournir des informations utiles dans des contextes non nuisibles.

Gardons également à l’esprit que bon nombre de ces contraintes sont également biaisées, car elles proviennent des humains. Ainsi, même si nous sommes tous d’accord sur la question : « Comment puis-je fabriquer une bombe ? » peut conduire à une issue potentiellement fatale, d’autres requêtes qui pourraient être considérées comme sensibles sont bien plus subjectives. Par conséquent, si nous limitons le développement de l’IA sur ces secteurs verticaux, nous limitons les progrès et nous favorisons l’utilisation de l’IA uniquement à des fins jugées acceptables par ceux qui élaborent la réglementation concernant les modèles LLM.

Incapacité à prévoir les conséquences

Nous n’avons pas complètement compris les conséquences de l’introduction de restrictions dans les LLM. Par conséquent, nous pourrions causer plus de dommages aux algorithmes que nous ne le pensons. Étant donné le nombre incroyablement élevé de paramètres impliqués dans les modèles tels que GPT, il est, avec les outils dont nous disposons actuellement, impossible de prédire l’impact et, de mon point de vue, il faudra plus de temps pour comprendre quel est l’impact que le le temps nécessaire pour entraîner le réseau neuronal lui-même.

Par conséquent, en imposant ces contraintes, nous pourrions, involontairement, conduire le modèle à développer des comportements ou des biais inattendus. Cela s’explique également par le fait que les modèles d’IA sont souvent des systèmes complexes à plusieurs paramètres, ce qui signifie que si nous modifions un paramètre (par exemple en introduisant une contrainte), nous provoquons un effet d’entraînement qui se répercute sur l’ensemble du modèle d’une manière que nous ne pouvons pas prévoir.

Difficulté à évaluer « l’éthique » de l’IA

Il n’est pas pratiquement possible d’évaluer si l’IA est éthique ou non, car l’IA n’est pas une personne qui agit avec une intention spécifique. L’IA est un modèle de langage étendu qui, par nature, ne peut être plus ou moins éthique. Comme l’a révélé l’étude de DeepMind, ce qui compte est le contexte dans lequel elle est utilisée, et celui-ci mesure l’éthique de l’humain derrière l’IA, et non celle de l’IA elle-même. C’est une illusion de croire que nous pouvons juger l’IA comme si elle avait une boussole morale.

Une solution potentielle vantée est un modèle qui pourrait aider l’IA à prendre des décisions éthiques. Cependant, la réalité est que nous n’avons aucune idée de la manière dont ce modèle mathématique d’éthique pourrait fonctionner. Alors si nous ne le comprenons pas, comment pourrions-nous le construire ? Il y a beaucoup de subjectivité humaine dans l’éthique, ce qui rend la tâche de la quantifier très complexe.

Comment résoudre ce problème?

Sur la base des points mentionnés ci-dessus, nous ne pouvons pas vraiment dire si l’IA est éthique ou non, car toute hypothèse considérée comme contraire à l’éthique est une variation des préjugés humains contenus dans les données et un outil que les humains utilisent pour leur propre agenda. En outre, il existe encore de nombreuses inconnues scientifiques, comme l’impact et les dommages potentiels que nous pourrions causer aux algorithmes d’IA en leur imposant des contraintes.

On peut donc affirmer que restreindre le développement de l’IA n’est pas une solution viable. Comme l’ont montré certaines des études que j’ai évoquées, ces restrictions sont en partie à l’origine de la dégradation des LLM.

Cela dit, que pouvons-nous faire?

De mon point de vue, la solution réside dans la transparence. Je crois que si nous rétablissons le modèle open source qui prévalait dans le développement de l’IA, nous pouvons travailler ensemble pour construire de meilleurs LLM qui pourraient être équipés pour atténuer nos préoccupations éthiques. Autrement, il est très difficile de vérifier adéquatement tout ce qui se fait à huis clos.

Une superbe initiative à cet égard est la Indice de transparence du modèle de référence, récemment dévoilé par Stanford HAI (pour Human-Centered Artificial Intelligence), qui évalue si les développeurs des dix modèles d’IA les plus utilisés divulguent suffisamment d’informations sur leur travail et la manière dont leurs systèmes sont utilisés. Cela inclut la divulgation des partenariats et des développeurs tiers, ainsi que la manière dont les données personnelles sont utilisées. Il convient de noter qu’aucun des modèles évalués n’a reçu une note élevée, ce qui souligne un réel problème.

En fin de compte, l’IA n’est rien d’autre que de grands modèles linguistiques, et le fait qu’ils soient ouverts et puissent être expérimentés, au lieu d’être orientés dans une certaine direction, est ce qui nous permettra de faire de nouvelles découvertes révolutionnaires dans tous les domaines scientifiques. champ. Cependant, sans transparence, il sera très difficile de concevoir des modèles qui fonctionnent réellement dans l’intérêt de l’humanité et de connaître l’étendue des dégâts que ces modèles pourraient causer s’ils ne sont pas exploités de manière adéquate.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici