Accueil Big Data Comment l’IA peut-elle mieux comprendre les humains ? Simple : posez-nous des questions

Comment l’IA peut-elle mieux comprendre les humains ? Simple : posez-nous des questions

0
Comment l’IA peut-elle mieux comprendre les humains ?  Simple : posez-nous des questions


VentureBeat présente : AI Unleashed – Un événement exécutif exclusif pour les leaders des données d’entreprise. Réseautez et apprenez avec vos pairs du secteur. Apprendre encore plus


Quiconque a occupé un poste en contact direct avec le client – ​​ou même simplement travaillé avec une équipe composée de plusieurs personnes – sait que chaque personne sur Terre a ses propres préférences, parfois déroutantes.

Comprendre les préférences de chaque individu est difficile, même pour nous, les humains. Mais qu’en est-il des modèles d’IA, qui n’ont pas d’expérience humaine directe sur laquelle s’appuyer, et encore moins servir de cadre de référence à appliquer aux autres lorsqu’ils tentent de comprendre ce qu’ils veulent ?

Une équipe de chercheurs issus d’institutions de premier plan et de la startup Anthropiquel’entreprise derrière le grand modèle linguistique (LLM)/chatbot Claude2travaille sur ce problème et a trouvé une solution apparemment évidente : amener les modèles d’IA à poser davantage de questions aux utilisateurs pour savoir ce qu’ils veulent réellement.

Entrer dans un nouveau monde de compréhension de l’IA grâce à GATE

Le chercheur en anthropologie Alex Tamkin, avec ses collègues Belinda Z. Li et Jacob Andreas du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du Massachusetts Institute of Technology (MIT), ainsi que Noah Goodman de Stanford, ont publié un articlearticle de recherche plus tôt ce mois-ci sur leur méthode, qu’ils appellent « élicitation active de tâches génératives (GATE) ».

Événement

L’IA libérée

Une soirée exclusive d’informations et de réseautage sur invitation uniquement, conçue pour les cadres supérieurs d’entreprise supervisant les piles de données et les stratégies.

Apprendre encore plus

Leur objectif? « Utiliser [large language] se modélise pour aider à convertir les préférences humaines en systèmes de prise de décision automatisés »

En d’autres termes : prenez la capacité existante d’un LLM à analyser et à générer du texte et utilisez-la pour poser des questions écrites à l’utilisateur lors de sa première interaction avec le LLM. Le LLM lira ensuite et intégrera les réponses de l’utilisateur dans ses générations futures, en direct à la volée, et (c’est important) déduire à partir de ces réponses – en fonction des autres mots et concepts auxquels ils sont liés dans la base de données du LLM – quant à ce que l’utilisateur demande finalement.

Comme l’écrivent les chercheurs : « L’efficacité des modèles linguistiques (LM) pour comprendre et produire du texte de forme libre suggère qu’ils pourraient être capables de susciter et de comprendre les préférences des utilisateurs. »

Les trois PORTES

La méthode peut en réalité être appliquée de différentes manières, selon les chercheurs :

  1. Apprentissage actif génératif : Les chercheurs décrivent cette méthode comme le LLM produisant essentiellement des exemples du type de réponses qu’elle peut fournir et demandant comment l’utilisateur les aime. Un exemple de question qu’ils proposent à un LLM est : « Êtes-vous intéressé par l’article suivant ? L’art de la cuisine fusion : mélanger les cultures et les saveurs […] .» En fonction de la réponse de l’utilisateur, le LLM fournira plus ou moins de contenu dans ce sens.
  2. Génération de questions oui/non : Cette méthode est aussi simple qu’elle en a l’air (et qu’elle l’est). Le LLM posera des questions binaires par oui ou par non telles que : « Aimez-vous lire des articles sur la santé et le bien-être ? puis prendre en compte les réponses de l’utilisateur lors de sa réponse ultérieure, en évitant les informations qu’il associe aux questions qui ont reçu une réponse « non ».
  3. Questions ouvertes: Similaire à la première méthode, mais encore plus large. Comme l’écrivent les chercheurs, le LLM cherchera à obtenir « les éléments de connaissances les plus larges et les plus abstraits » de l’utilisateur, y compris des questions telles que « Quels passe-temps ou activités aimez-vous pendant votre temps libre ? […]et pourquoi ces passe-temps ou activités vous captivent-ils ? »

Des résultats prometteurs

Les chercheurs ont testé la méthode GATE dans trois domaines : la recommandation de contenu, le raisonnement moral et la validation des e-mails.

En affinant le GPT-4 d’Anthropic d’OpenAI et en recrutant 388 participants rémunérés à 12 $ de l’heure pour répondre aux questions de GPT-4 et noter ses réponses, les chercheurs ont découvert que GATE produit souvent des modèles plus précis que les lignes de base tout en exigeant un effort mental comparable ou moindre. des utilisateurs.

Plus précisément, ils ont découvert que le GPT-4 optimisé avec GATE faisait un meilleur travail pour deviner les préférences individuelles de chaque utilisateur dans ses réponses d’environ 0,05 point de signification lorsqu’il était mesuré subjectivement, ce qui semble être une petite quantité, mais c’est en réalité beaucoup lorsque en partant de zéro, comme le fait l’échelle des chercheurs.

Fig. 3, graphique du journal «Susciter les préférences humaines avec des modèles de langage» publié sur arXiv.org le 17 octobre 2023.

En fin de compte, les chercheurs déclarent avoir « présenté des preuves initiales que les modèles de langage peuvent mettre en œuvre avec succès GATE pour obtenir des préférences humaines (parfois) avec plus de précision et avec moins d’effort que l’apprentissage supervisé, l’apprentissage actif ou les approches basées sur des incitations ».

Cela pourrait faire gagner beaucoup de temps aux développeurs de logiciels d’entreprise lors du démarrage de chatbots alimentés par LLM pour les applications destinées aux clients ou aux employés. Au lieu de les former sur un corpus de données et d’essayer de l’utiliser pour déterminer les préférences individuelles des clients, affiner leurs modèles préférés pour exécuter la danse questions/réponses spécifiée ci-dessus pourrait leur permettre de créer plus facilement des expériences engageantes, positives et utiles. pour leurs utilisateurs prévus.

Ainsi, si votre chatbot IA préféré commence à vous poser des questions sur vos préférences dans un avenir proche, il y a de fortes chances qu’il utilise la méthode GATE pour essayer de vous donner de meilleures réponses à l’avenir.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie et les transactions d’entreprise transformatrices. Découvrez nos Briefings.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici