Je suis sûr que personne ne sera surpris que le nombre de recherches de ChatGPT sur le Plateforme d’apprentissage O’Reilly a grimpé en flèche après sa sortie en novembre 2022. Il pourrait être surprenant de voir avec quelle rapidité il est arrivé en tête de nos classements : il a culminé en mai en tant que 6e requête de recherche la plus courante. Ensuite, il a chuté presque aussi rapidement : il est retombé à la 8e place en juin, puis à la 19e place en juillet. À son apogée, ChatGPT était en compagnie très exclusive : il n’est pas tout à fait au niveau de Python, Kubernetes et Java, mais il est dans le mix avec AWS et React, et nettement devant Docker.
Un examen du nombre de recherches de termes communément associés à l’IA montre à quel point cette augmentation a été spectaculaire :

ChatGPT est venu de nulle part en tête de tous les termes de recherche sur l’IA, à l’exception du Machine Learning lui-même, qui est systématiquement notre terme de recherche n°3. Et, malgré le déclin spectaculaire de ChatGPT en juin et juillet, il est toujours en avance sur tous les autres termes de recherche pertinents pour l’IA. Le nombre de recherches sur le Machine Learning lui-même est resté stable, même s’il a sans doute légèrement diminué lorsque ChatGPT est apparu. Ce qui est plus intéressant, cependant, c’est que le terme de recherche « IA générative » est soudainement apparu comme le troisième terme de recherche le plus populaire. Si les tendances actuelles se poursuivent, nous pourrions voir en août plus de recherches pour l’IA générative que pour ChatGPT.
Que pouvons-nous en penser ? Tout le monde sait que ChatGPT a connu l’un des lancements les plus réussis de tous les projets logiciels, passant devant un million d’utilisateurs au cours de ses cinq premiers jours. (Depuis lors, il a été battu par les fils de discussion de Facebook, même si ce n’est pas vraiment une comparaison juste.) Il y a de nombreuses raisons à cette hausse. Les ordinateurs parlants étaient un rêve de science-fiction bien avant Star Trek – en soi, c’est une bonne raison de la fascination du public. ChatGPT pourrait simplifier les tâches courantes, de la recherche à la rédaction d’essais en passant par la programmation de base, de sorte que de nombreuses personnes souhaitent l’utiliser pour économiser du travail, même si lui faire faire un travail de qualité est plus difficile qu’il n’y paraît à première vue. (Nous laisserons la question de savoir s’il s’agit d’une « triche » aux utilisateurs, à leurs enseignants et à leurs employeurs.) Et, même si j’ai souvent écrit sur la façon dont ChatGPT modifiera la programmation, cela aura sans aucun doute un effet encore plus important sur non-programmeurs. Cela leur donnera la possibilité de dire aux ordinateurs quoi faire sans programmation ; c’est l’expérience ultime du « low code ».
Il existe donc de nombreuses raisons pour lesquelles ChatGPT connaît un essor. Qu’en est-il des autres termes de recherche ? Il est facile de considérer ces requêtes de recherche comme étant également exécutées, mais elles figuraient toutes dans le top 300 pour mai 2023 et nous avons généralement quelques millions de termes de recherche uniques par mois. La suppression de ChatGPT et de Machine Learning du graphique précédent permet de voir plus facilement les tendances des autres termes de recherche populaires :

C’est principalement « en haut et à droite ». Trois termes de recherche ressortent : Generative AI, LLM et Langchain suivent tous des courbes similaires : ils démarrent avec une croissance relativement modérée qui devient soudainement beaucoup plus forte en février 2023. Nous avons déjà noté que le nombre de recherches pour Generative AI a fortement augmenté. depuis la sortie de ChatGPT, et n’ont pas diminué au cours des deux derniers mois. Nos utilisateurs préfèrent évidemment LLM plutôt que « Large Language Models », mais si vous additionnez ces deux termes de recherche, le nombre total de recherches pour juillet se situe à moins de 1 % de celui de l’IA générative. Cette poussée n’a vraiment commencé qu’en novembre dernier, lorsqu’elle a été stimulée par l’apparition de ChatGPT, même si des termes de recherche comme LLM étaient déjà en circulation en raison de GPT-3, DALL-E, StableDiffusion, Midjourney et d’autres langages. outils d’IA générative.
Contrairement aux LLM, Langchain n’existait pas avant ChatGPT, mais une fois apparu, le nombre de recherches a décollé rapidement et n’a pas diminué en juin et juillet. Ça a du sens; bien qu’il soit encore tôt, Langchain semble être la pierre angulaire du développement de logiciels basés sur LLM. Il s’agit d’une plate-forme largement utilisée pour créer des applications qui génèrent des requêtes par programmation et qui connectent les LLM entre eux, avec des bases de données et avec d’autres logiciels. Langchain est fréquemment utilisé pour rechercher des articles pertinents qui ne figuraient pas dans les données de formation de ChatGPT et les regrouper dans le cadre d’une longue invite.
Dans ce groupe, le seul terme de recherche qui semble en déclin est le traitement du langage naturel. Bien que les grands modèles de langage entrent clairement dans la catégorie de la PNL, nous soupçonnons que la plupart des utilisateurs associent la PNL à des approches plus anciennes de création de chatbots. Les recherches sur l’intelligence artificielle semblent tenir le coup, même s’il est surprenant qu’il y ait si peu de recherches sur l’IA par rapport à l’apprentissage automatique. La différence vient du public d’O’Reilly, qui est relativement technique et préfère le terme plus précis de Machine Learning. Néanmoins, le nombre de recherches sur l’IA a augmenté avec la sortie de ChatGPT, peut-être parce que l’attrait de ChatGPT ne se limitait pas à la communauté technique.
Maintenant que nous avons parcouru les données, il nous reste la grande question : qu’est-il arrivé à ChatGPT ? Pourquoi est-il passé d’environ 5 000 recherches à un peu plus de 2 500 en deux mois ? Il existe plusieurs raisons possibles. Peut-être que les étudiants ont arrêté d’utiliser ChatGPT pour leurs devoirs à l’approche de l’obtention du diplôme et des vacances d’été. Peut-être que ChatGPT a saturé le monde ; les gens savent ce qu’ils ont besoin de savoir et attendent le prochain blockbuster. Un article dans Ars Technica note que l’utilisation de ChatGPT a diminué de mai à juin et suggère de nombreuses causes possibles, y compris l’attention portée au drame Twitter/Threads et la frustration parce qu’OpenAI a mis en place des garde-fous plus stricts pour empêcher les abus. Il serait dommage que l’utilisation de ChatGPT diminue car les gens ne peuvent pas l’utiliser pour générer du contenu abusif, mais c’est un autre article…
Une raison plus importante de ce déclin pourrait être que ChatGPT n’est plus le seul jeu en ville. Il existe désormais de nombreux modèles linguistiques alternatifs. La plupart de ces alternatives descendent du LLaMA de Meta et de Georgi Gerganov. lama.cpp (qui peut fonctionner sur des ordinateurs portables, des téléphones portables et même sur Raspberry Pi). Les utilisateurs peuvent entraîner ces modèles pour qu’ils fassent ce qu’ils veulent. Certains de ces modèles disposent déjà d’interfaces de discussion, et tous pourraient prendre en charge des interfaces de discussion avec une programmation assez simple. Aucune de ces alternatives ne génère un trafic de recherche significatif chez O’Reilly, mais cela ne signifie pas qu’elles ne le feront pas à l’avenir, ou qu’elles ne constituent pas une partie importante de l’écosystème. Leur prolifération est un élément de preuve important sur ce qui se passe parmi les utilisateurs d’O’Reilly. Les développeurs d’IA doivent désormais se poser une question qui n’existait même pas en novembre dernier : doivent-ils s’appuyer sur de grands modèles de base comme ChatGPT ou Bard de Google, en utilisant des API publiques et en payant au jeton ? Ou devraient-ils commencer avec un modèle open source pouvant être exécuté localement et être formé pour leur application spécifique ?
Cette dernière explication a beaucoup de sens dans le contexte. Nous avons dépassé la phase initiale, lorsque ChatGPT était un jouet fascinant. Nous développons désormais des applications et incorporons des modèles linguistiques dans nos produits, de sorte que les tendances des termes de recherche ont évolué en conséquence. Un développeur intéressé par la construction avec de grands modèles de langage a besoin de plus de contexte ; apprendre ChatGPT en soi ne suffit pas. Les développeurs qui souhaitent en savoir plus sur les modèles de langage ont besoin de différents types d’informations, des informations à la fois plus approfondies et plus larges. Ils doivent apprendre le fonctionnement de l’IA générative, les nouveaux LLM, la programmation avec Langchain et d’autres plateformes. Tous ces termes de recherche ont augmenté tandis que ChatGPT a diminué. Maintenant qu’il existe des options et que tout le monde a eu la chance d’essayer ChatGPT, la première étape d’un projet d’IA n’est pas de rechercher ChatGPT. C’est avoir une idée du paysage, découvrir les possibilités.
Les recherches pour ChatGPT ont rapidement atteint un sommet et diminuent désormais rapidement. Et qui sait ce que les mois d’août et septembre nous réservent ? (Nous ne serions pas surpris de voir ChatGPT rebondir à mesure que les élèves retournent à l’école et aux devoirs.) La vraie nouvelle est que ChatGPT n’est plus toute l’histoire : vous ne pouvez pas observer le déclin de ChatGPT sans également considérer quoi d’autre. que nos utilisateurs recherchent lorsqu’ils commencent à intégrer l’IA dans d’autres projets. Les grands modèles linguistiques font très clairement partie de l’avenir. Ils vont changer notre façon de travailler et de vivre, et nous ne sommes qu’au début de la révolution.