Accueil Robotique Invites analogiques et pas en arrière : une plongée dans les avancées récentes de Google DeepMind

Invites analogiques et pas en arrière : une plongée dans les avancées récentes de Google DeepMind

0
Invites analogiques et pas en arrière : une plongée dans les avancées récentes de Google DeepMind


Introduction

L’ingénierie des invites se concentre sur la conception d’invites efficaces pour guider les grands modèles linguistiques (LLM) tels que GPT-4 dans la génération des réponses souhaitées. Une invite bien conçue peut faire la différence entre une réponse vague ou inexacte et une réponse précise et perspicace.

Dans l’écosystème plus large de l’IA, l’ingénierie rapide est l’une des nombreuses méthodes utilisées pour extraire des informations plus précises et contextuellement pertinentes à partir de modèles de langage. D’autres incluent des techniques telles que l’apprentissage en quelques étapes, où le modèle reçoit quelques exemples pour l’aider à comprendre la tâche, et le réglage fin, où le modèle est entraîné davantage sur un ensemble de données plus petit pour spécialiser ses réponses.

Google DeepMind a récemment publié deux articles qui approfondissent l’ingénierie rapide et son potentiel pour améliorer les réponses à des situations multiples.

Ces articles font partie de l’exploration en cours dans la communauté de l’IA pour affiner et optimiser la façon dont nous communiquons avec les modèles de langage, et ils fournissent de nouvelles informations sur la structuration des invites pour une meilleure gestion des requêtes et une meilleure interaction avec les bases de données.

Cet article approfondit les détails de ces documents de recherche, élucidant les concepts, les méthodologies et les implications des techniques proposées, le rendant accessible même aux lecteurs ayant des connaissances limitées en IA et en PNL.

Article 1 : Les grands modèles de langage comme raisonneurs analogiques

Le premier article, intitulé « Les grands modèles linguistiques en tant que raisonneurs analogiques », présente une nouvelle approche d’incitation appelée Analogique Prompting. Les auteurs, Michihiro Yasunaga, Xinyun Chen et d’autres, s’inspirent du raisonnement analogique, un processus cognitif dans lequel les humains exploitent leurs expériences passées pour résoudre de nouveaux problèmes.

Concepts clés et méthodologie

L’invite analogique encourage les LLM à générer eux-mêmes des exemples ou des connaissances pertinents en contexte avant de procéder à la résolution d’un problème donné. Cette approche élimine le besoin d’exemples étiquetés, offrant généralité et commodité, et adapte les exemples générés à chaque problème spécifique, garantissant ainsi l’adaptabilité.

À gauche : les méthodes traditionnelles d'incitation aux LLM reposent sur des entrées génériques (CoT à 0 plan) ou nécessitent des exemples étiquetés (CoT à quelques plans).  À droite : la nouvelle approche incite les LLM à créer eux-mêmes des exemples pertinents avant de résoudre un problème, éliminant ainsi le besoin d'étiquetage tout en personnalisant les exemples pour chaque problème unique.

À gauche : les méthodes traditionnelles d’incitation aux LLM reposent sur des entrées génériques (CoT à 0 plan) ou nécessitent des exemples étiquetés (CoT à quelques plans). À droite : la nouvelle approche incite les LLM à créer eux-mêmes des exemples pertinents avant de résoudre le problème, éliminant ainsi le besoin d’étiquetage tout en personnalisant les exemples pour chacun.

Exemples auto-générés

La première technique présentée dans l’article concerne les exemplaires auto-générés. L’idée est de tirer parti des connaissances approfondies acquises par les LLM au cours de leur formation pour les aider à résoudre de nouveaux problèmes. Le processus consiste à augmenter un problème cible avec des instructions qui incitent le modèle à rappeler ou à générer des problèmes et des solutions pertinents.

Par exemple, face à un problème, le modèle doit rappeler trois problèmes distincts et pertinents, les décrire et expliquer leurs solutions. Ce processus est conçu pour être réalisé en un seul passage, permettant au LLM de générer des exemples pertinents et de résoudre le problème initial de manière transparente. L’utilisation des symboles « # » dans les invites aide à structurer la réponse, la rendant plus organisée et plus facile à suivre pour le modèle.

Les décisions techniques clés mises en évidence dans le document incluent l’accent mis sur la génération d’exemples pertinents et diversifiés, l’adoption d’une approche en un seul passage pour plus de commodité et la conclusion selon laquelle la génération de trois à cinq exemplaires donne les meilleurs résultats.

Connaissances auto-générées + exemples

La deuxième technique, connaissances auto-générées + exemples, est introduite pour relever les défis de tâches plus complexes, telles que la génération de code. Dans ces scénarios, les LLM pourraient trop s’appuyer sur des exemples de bas niveau et avoir du mal à généraliser lors de la résolution des problèmes cibles. Pour atténuer ce problème, les auteurs proposent d’améliorer l’invite avec une instruction supplémentaire qui encourage le modèle à identifier les concepts fondamentaux du problème et à fournir un didacticiel ou un point à retenir de haut niveau.

Une considération cruciale est l’ordre dans lequel les connaissances et les exemples sont générés. Les auteurs ont constaté que la génération de connaissances avant les exemples conduit à de meilleurs résultats, car cela aide le LLM à se concentrer sur les approches fondamentales de résolution de problèmes plutôt que sur les similitudes superficielles.

Avantages et applications

L’approche d’invite analogique offre plusieurs avantages. Il fournit des exemples détaillés de raisonnement sans avoir besoin d’un étiquetage manuel, abordant les défis associés aux méthodes de chaîne de pensée (CoT) à 0 coup et à quelques coups. De plus, les exemples générés sont adaptés à des problèmes individuels, offrant des conseils plus pertinents que le CoT traditionnel à quelques plans, qui utilise des exemples fixes.

L’article démontre l’efficacité de cette approche dans diverses tâches de raisonnement, notamment la résolution de problèmes mathématiques, la génération de code et d’autres tâches de raisonnement dans BIG-Bench.

Les tableaux ci-dessous présentent les mesures de performances de diverses méthodes d’invite dans différentes architectures de modèles. Notamment, la méthode « Exemplaires auto-générés » surpasse systématiquement les autres méthodes en termes de précision. En précision GSM8K, cette méthode atteint les performances les plus élevées sur le modèle PaLM2 à 81,7 %. De même, pour la précision MATH, il est en tête du classement sur GPT3.5-turbo à 37,3 %.

Performance sur des tâches mathématiques, GSM8K et MATH

Performance sur des tâches mathématiques, GSM8K et MATH

Dans le deuxième tableau, pour les modèles GPT3.5-turbo-16k et GPT4, « Connaissances auto-générées + exemples » affiche les meilleures performances.

Performances sur la tâche de génération de code Codeforces

Performances sur la tâche de génération de code Codeforces

Article 2 : Prendre du recul : évoquer le raisonnement via l’abstraction dans les grands modèles de langage

Aperçu

Le deuxième article, «Prendre du recul : évoquer le raisonnement via l’abstraction dans les grands modèles de langage » présente Step-Back Prompting, une technique qui encourage les LLM à faire abstraction des concepts de haut niveau et des premiers principes à partir d’instances détaillées. Les auteurs, Huaixiu Steven Zheng, Swaroop Mishra et d’autres, visent à améliorer les capacités de raisonnement des LLM en les guidant pour qu’ils suivent un chemin de raisonnement correct vers la solution.

  Représentant l'INVITE DE RETOUR EN ARRIÈRE à travers deux phases d'abstraction et de raisonnement, guidées par des concepts et principes clés.

Représentant l’INVITE DE RETOUR EN ARRIÈRE à travers deux phases d’abstraction et de raisonnement, guidées par des concepts et principes clés.

Créons un exemple plus simple en utilisant une question mathématique de base pour démontrer la technique de la « question Stepback » :

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Bien que les LLM puissent aujourd’hui facilement répondre à la question ci-dessus, cet exemple vise simplement à démontrer comment fonctionnerait la technique du stepback. Pour des scénarios plus difficiles, la même technique peut être appliquée pour disséquer et résoudre le problème systématiquement. Vous trouverez ci-dessous un cas plus complexe démontré dans l’article :

INVITE DE RETOUR EN RETOUR sur l'ensemble de données MMLU-Chimie

INVITE DE RETOUR EN RETOUR sur l’ensemble de données MMLU-Chimie

Concepts clés et méthodologie

L’essence du Step-Back Prompting réside dans sa capacité à faire prendre du recul métaphorique aux LLM, les encourageant à regarder la situation dans son ensemble plutôt que de se perdre dans les détails. Ceci est réalisé grâce à une série d’invites soigneusement conçues qui guident les LLM pour extraire des informations, dériver des concepts de haut niveau et appliquer ces concepts pour résoudre le problème donné.

Le processus commence lorsque le LLM est invité à extraire les détails des instances données, l’encourageant à se concentrer sur les concepts et principes sous-jacents. Cette étape est cruciale car elle prépare le terrain pour que le LLM puisse aborder le problème d’un point de vue plus informé et plus fondé sur des principes.

Une fois les concepts de haut niveau dérivés, ils sont utilisés pour guider le LLM à travers les étapes de raisonnement menant à la solution. Ces conseils garantissent que le LLM reste sur la bonne voie, en suivant un chemin logique et cohérent fondé sur les concepts et principes abstraits.

Les auteurs mènent une série d’expériences pour valider l’efficacité du Step-Back Prompting, en utilisant les modèles PaLM-2L dans une gamme de tâches difficiles à forte intensité de raisonnement. Ces tâches incluent les problèmes STEM, l’assurance qualité des connaissances et le raisonnement multi-sauts, fournissant un banc d’essai complet pour évaluer la technique.

Améliorations substantielles dans toutes les tâches

Les résultats sont impressionnants, le Step-Back Prompting conduisant à des gains de performances substantiels dans toutes les tâches. Par exemple, la technique améliore les performances du PaLM-2L en physique et en chimie MMLU de 7 % et 11 %, respectivement. De même, il augmente les performances sur TimeQA de 27 % et sur MuSiQue de 7 %.

Performance de l'INVITE DE RETOUR

Performance de STEP-BACK PROMPTING par rapport à CoT

Ces résultats soulignent le potentiel du Step-Back Prompting pour améliorer considérablement les capacités de raisonnement des LLM.

Conclusion

Les deux articles de Google DeepMind présentent des approches innovantes en matière d’ingénierie des invites, visant à améliorer les capacités de raisonnement des grands modèles de langage. L’Analogical Prompting exploite le concept de raisonnement analogique, encourageant les modèles à générer leurs propres exemples et connaissances, conduisant à une résolution de problèmes plus adaptable et plus efficace. D’autre part, Step-Back Prompting se concentre sur l’abstraction, guidant les modèles pour en dériver des concepts et des principes de haut niveau, qui à leur tour améliorent leurs capacités de raisonnement.

Ces documents de recherche fournissent des informations et des méthodologies précieuses qui peuvent être appliquées dans divers domaines, conduisant à des modèles linguistiques plus intelligents et plus performants. Alors que nous continuons à explorer et à comprendre les subtilités de l’ingénierie rapide, ces approches constituent un tremplin crucial vers la réalisation de systèmes d’IA plus avancés et plus sophistiqués.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici