ia chatgpt jamais humain

ChatGPT ne sera jamais égal à l’humain, pour une raison précise : voici laquelle

Même si l'IA semble de plus en plus intelligente, certains chercheurs estiment qu'elle est encore très loin d'égaler le cerveau humain et n'y parviendra peut-être jamais. Découvrez pour quelle raison !

L'intelligence artificielle va-t-elle nous surpasser ? Voilà une question qui inquiète les humains, et ce depuis plusieurs décennies.

Déjà en 1997, Deep Blue triomphait du champion d'échec Garry Kasparov. Toutefois, à cette époque, l'IA était encore très limitée et ne représentait pas de menace dans la plupart des domaines.

Tout a changé il y a environ 10 ans, lorsque les réseaux de neurones ont fortement évolué grâce à une nouvelle technique appelée Deep Learning.

Cette technique d'apprentissage profond a permis aux ordinateurs de rivaliser avec les humains sur de nombreuses tâches. Soudainement, ils sont devenus capables d'identifier des images, de lire des panneaux, de convertir du discours oral en texte ou même d'améliorer les photographies.

Malgré tout, ces capacités restaient limitées. Les réseaux de neurones pouvaient être facilement trompés, et nécessitaient un entraînement de grande envergure.

Pour chaque nouvelle capacité à apprendre, ils avaient besoin de milliers d'exemples et de démonstrations. Ainsi, les IA excellaient sur des actions très spécifiques, mais peinaient à adapter cette expertise à de nouvelles tâches.

Après le Deep Learning des années 2010, l'IA générative des années 2020

Néanmoins, comme l'explique Mélanie Mitchell, experte en informatique à l'Institut Santa Fe du Nouveau-Mexique, nous sommes entrés dans une nouvelle ère de l'IA : « nous avons dépassé la révolution Deep Learning des années 2010, et nous sommes maintenant dans l'ère de l'IA générative des années 2020 ».

Grâce à l'architecture Transformer créée par les chercheurs en 2018, les systèmes d'IA générative sont capables de produire du texte, des images, de la musique, ou tout autre type de contenu à la demande.

Ce type d'IA peut générer des choses qui ont toujours nécessité une créativité humaine auparavant. Ces capacités proviennent pour la plupart des Larges Modèles de Langage : les LLM.

On qualifie ces modèles de larges, car ils sont entraînés sur d'immenses volumes de données. Ils absorbent tout le contenu disponible sur internet pour apprendre à le reproduire. L'exemple le plus connu est sans nul doute ChatGPT.

En comprenant les motifs dans la façon dont les blocs de langage sont combinés, les LLM peuvent prédire dans quel ordre les mots doivent être placés. C'est ce qui leur permet d'écrire des phrases, ou de répondre à des questions.

Pour faire simple, un LLM calcule les probabilités qu'un mot en suive un autre dans un contexte spécifique. C'est ce qui lui permet d'imiter le style d'un auteur ou d'un parolier.

Parler avec un chatbot LLM ressemble beaucoup à une discussion avec un véritable humain, qui serait d'ailleurs très cultivé et parlerait de nombreuses langues.

L'IA générative cumule donc culture, créativité, talent pour l'écriture… on peut donc se demander : n'a-t-elle pas d'ores et déjà égalé l'humain ?

Intelligence artificielle, ou superficielle ?

Aux yeux de Melanie Mitchell, comme elle l'a expliqué lors de la réunion annuelle de l'American Association for the Advancement of Science à Denver, ce n'est pas le cas.

La raison est simple : l'IA parle, mais ne comprend pas un mot de ce qu'elle dit.

Dans une étude publiée sur arXiv, Melanie Mitchell et sa collègue Marha Lewis, spécialiste en sciences du langage à l'université de Bristol, exposent les limites des LLM.

Selon elles, les LLM n'égalent toujours pas la capacité de l'humain à adapter une compétence à une nouvelle situation.

En guise d'exemple, elles présentent un problème basé sur deux suites de lettres : ABCD et ABCE. La plupart des humains peuvent voir la différence entre les deux, à savoir que la lettre finale de la première suite est remplacée par la lettre suivante de l'alphabet dans la seconde suite.

Ainsi, en voyant une autre suite de lettres, par exemple IJKL, ils pourront deviner ce que la seconde suite doit être : IJKM.

Les LLM, eux aussi, peuvent résoudre ce problème. Ce qui est logique puisqu'ils ont été entraînés sur l'alphabet.

Néanmoins, si vous présentez ce problème avec un autre alphabet, avec par exemple des symboles à la place des lettres, les humains réussiront tandis que les LLM échoueront.

Ils sont tout bonnement incapables de prendre les concepts qu'ils ont appris avec un alphabet et de les appliquer à un autre.

Les deux chercheurs ont fait le sur les différents modèles , et tous ont échoué. Ce phénomène se retrouve sur bien d'autres tâches similaires, car les IA sont incapables de faire face à des situations pour lesquelles elles n'ont pas été entraînées.

Vers une IA capable de réellement comprendre ?

Voilà pourquoi Mitchell est convaincue qu'elles ne comprennent pas le monde de la même manière que les humains : « être fiable et faire la bonne chose dans une nouvelle situation est, à mon avis, au coeur de ce que la compréhension signifie vraiment ».

Elle explique que la compréhension humaine est basée sur des « concepts », à savoir des modèles mentaux de choses telles que des catégories, des situations et des événements.

Ils permettent aux gens de déterminer la cause et l'effet, et les aide à prédire les résultats probables de différentes actions. Et ce, même dans des situations qu'ils n'ont pas encore rencontrées.

Si vous demandez à s'il pense comme un humain, il vous dira d'ailleurs que sa compréhension est « basée sur les patterns dans les données et non sur une compréhension semblable à celle de l'humain ».

Aux yeux de la chercheuse, « ce qui est remarquable chez les gens, c'est que nous pouvons abstraire nos concepts à de nouvelles situations ».

Cependant, elle admet que l'IA pourrait un jour atteindre un niveau de compréhension similaire à celui des humains… ou même développer sa propre forme de compréhension et d'intelligence !

Elle pense cependant que ce ne sera pas le cas des IA de type LLM, qui commencent par apprendre le langage puis tentent de saisir les concepts. Une approche contraire aux bébés humains qui apprennent d'abord les concepts puis le langage pour les décrire.

Néanmoins, elle sous-estime peut-être le véritable potentiel des LLM. Rappelons que le CEO d' a annoncé que GPT-4 est totalement stupide en comparaison avec GPT-5, et que les startups qui se basent sur ce modèle vont se faire rouler dessus par cette IA qui sera capable de raisonner

Et vous, qu'en pensez-vous ? L'IA peut-elle rivaliser avec l'humain ? Où est-elle condamnée à se contenter d'une compréhension superficielle ? Partagez vos pronostics en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. Croire le CEO ? Quel est son objectif ?
    C’est de la probabilité, ce n’est jamais une réponse astucieuse mais moyenne.
    Ne pas confondre connaissance encyclopédique et intelligence.
    ChatGPT connait tous les mots de français mais n’utilisera pas celui qu’il faut car la production écrite depuis les 40 dernières années s’est appauvri.
    Il fera comme la majorité des français un mauvais usage du mot ‘glauque’ qui est une très jolie nuance de vert. Le probable, la moyenne n’est pas toujours le vrai.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *