DeepMind laisse l’IA apprendre seule, les perfs de GPT-4 explosent

L'intelligence artificielle peut apprendre seule grâce à ce nouveau cadre de raisonnement pour LLM. Ses performances connaissent ensuite une amélioration significative.

Des chercheurs de Google DeepMind et de l'université de Californie du Sud, aux États-Unis, pensent avoir trouvé un moyen de renforcer les capacités de raisonnement des grands modèles de langage (LLM). Leur approche repose sur un nouveau cadre de raisonnement pour LLM, appelé Self-Discover.

Un papier disponible sur l'archive en ligne arXiv détaille cette approche inédite. À noter que Self-Discover va au-delà des techniques de prompt existantes utilisées par les grands modèles de langage. De plus, les chercheurs l'ont ée sur GPT-4 d'OpenAI et PaLM 2 de Google. Cela a dopé significativement les performances des deux LLM.

Ce que change Self-Discover

Les grands modèles de langage sont capables de réaliser de nombreuses tâches. Pour cela, ils comptent sur leur capacité à suivre des instructions, à raisonner et à générer des réponses cohérentes.

Par ailleurs, les LLM, basés sur l'architecture des transformeurs, utilisent diverses techniques de prompt. Notons que ces dernières sont inspirées des théories cognitives de la façon dont les humains raisonnent et résolvent les problèmes.

Cependant, ces techniques font, toutes, une hypothèse implicite sur la façon d'aborder une tâche donnée. Cela peut ne pas être optimal, parce que chaque fonction possède une structure intrinsèque unique. De ce fait, une technique particulière peut être plus adaptée pour la résoudre qu'une autre.

Le cadre de raisonnement pour LLM de la nouvelle recherche permet aux modèles de découvrir eux-mêmes la structure de raisonnement adaptée à un problème.

Ils examinent plusieurs modules de raisonnement atomiques, comme la pensée critique et celle étape par étape. Les LLM composent ensuite ces modules en une structure de raisonnement explicite à suivre lors du décodage.

Un cadre de raisonnement pour doper les LLM

Pour voir comment la nouvelle approche fonctionne, les chercheurs ont fait une application sur -4 et PaLM 2-L sur 25 tâches de raisonnement. Il y avait parmi ces fonctions Big-Bench Hard, Thinking for Doing et MATH.

Self-Discover a montré sa supériorité aux autres approches dans 21 tâches sur 25. Précisons que les gains de performance peuvent aller jusqu'à 32 %. Le nouveau cadre de raisonnement pour LLM de est plus efficace en termes de calcul d'inférence, nécessitant 10 à 40 fois moins de calcul.

« Self-Discover améliore considérablement les performances de GPT-4 et de PaLM 2 sur des benchmarks de raisonnement difficiles », note l'équipe de recherche.

Avec GPT-4, la nouvelle approche a obtenu des résultats avec une précision de 81 %, 85 % et 73 % respectivement sur les tâches Big-Bench Hard, Thinking for Doing et MATH. D'autre part, PaLM 2-L donne des résultats avec une précision de 67 %, 69 % et 50,5 % sur les trois tâches.

« En regardant vers l'avenir, nous sommes enthousiastes à l'idée d'explorer davantage le raisonnement structuré des LLM pour repousser les limites de la résolution de problèmes et découvrir les potentiels pour la collaboration Homme-IA », expliquent les chercheurs dans le papier.

En dotant les grands modèles de langage de la capacité de résoudre facilement des problèmes complexes, on se rapproche un peu plus de l'intelligence artificielle générale.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *