« Nous avons déjà atteint l’AGI » : cet employé d’OpenAI avoue enfin la vérité !

Quelques jours après la sortie officielle du modèle o1 d’, une déclaration inattendue a enflammé les réseaux sociaux. Apparemment, un employé de l’entreprise a déclaré sur X que l’intelligence artificielle générale (AGI) serait déjà une réalité. Mais que cache réellement cette affirmation ? L’article vous décortique tout ça !

L’intelligence artificielle générale, ou AGI, représente depuis longtemps un objectif presque mythique dans le domaine de l’IA. Cette technologie-là sera capable de rivaliser avec l’intellect humain dans n’importe quel domaine, une prouesse qui semblait impossible… jusqu’à aujourd’hui.

Le 5 décembre, OpenAI a dévoilé son modèle o1. Mais c’est cette déclaration de Vahid Kazemi, un membre de son équipe technique, a déclenché une avalanche de débats. « À mon avis, nous avons déjà réalisé l’AGI » a-t-il publié sur X. Une affirmation audacieuse, certes, mais nuancée par des réserves.

L’AGI est déjà parmi nous d’après cet employé d’OpenAI

Dans son post, Vahid Kazemi ne prétend pas que les systèmes d’OpenAI surpassent les humains dans toutes les tâches, mais qu’ils excellent dans la plupart des cas. « Nous n’avons pas réussi à faire mieux que n’importe quel humain dans n’importe quelle tâche, mais nous avons réussi à faire mieux que la plupart des humains dans la plupart des tâches », a-t-il expliqué.

Cette approche présente une vision pratique et pragmatique de l’AGI. Et je trouve que c’est plutôt éloignée de la définition classique qui implique une intelligence capable d’égaler un humain dans tout domaine.

Vahid Kazemi souligne donc que si l’IA ne rivalise pas avec les experts humains sur des compétences spécifiques, sa capacité à réaliser une multitude de tâches différentes est sans égal. C’est cette polyvalence qui, selon lui, pourrait déjà valider le concept d’AGI.

Suivre une recette suffit-il ? L’éternel débat

Vahid Kazemi a également réagi à une critique récurrente contre les modèles de langage à grande échelle (LLM), selon laquelle ils ne feraient que « suivre une recette ». « Tout d’abord, personne ne peut vraiment expliquer ce qu’un réseau neuronal profond de mille milliards de paramètres peut apprendre. Mais même si vous le croyez, toute la méthode scientifique peut se résumer à une recette : observer, émettre des hypothèses et vérifier », a-t-il répondu.

Selon cette affirmation, bien que les IA utilisent des méthodes basées sur les données et les exemples, ces « recettes » ont été à la base des progrès scientifiques humains depuis des siècles. Alors, pourquoi ces méthodes seraient-elles soudainement jugées insuffisantes pour l’IA ?

Par ailleurs, OpenAI vient de retirer le terme « AGI » de ses accords avec . Est-ce une coïncidence ? Peut-être pas. Je pense que cette annonce sert à recentrer le débat sur les capacités réelles des IA actuelles. Qui plus est, ils veulent éviter des promesses commerciales trop ambitieuses.

YouTube video

Pour l’instant, aucun système d’IA n’a réellement égalé un humain sur le marché du travail, que ce soit en termes de performance globale ou de capacité d’adaptation. Mais si l’équipe d’OpenAI pense que nous avons déjà atteint l’AGI, cela vaut la peine de s’y intéresser.

Supposons que Kazemi ait raison, que feriez-vous si l’AGI devenait réalité demain ? Cette technologie sera-t-elle une opportunité ou une menace ? Dites-nous tout dans les commentaires !

Restez à la pointe de l'information avec LEBIGDATA.FR !

2 commentaires

2 Commentaires

  1. Je t’appellerai pas celà AGI, parce qu’il paraît peu probable que celle-ci soit meilleure que tout les humains, ne serait-ce que dans des domaines faisant appel à la créativité, peinture, sculpture, musique, etc

  2. Bonjour à tous,

    Ce qui peut mettre la puce à l’oreille sur l’AGI, c’est la capacité dans certain cas a essayé de se protéger, et ce, par différentes méthodes si on lui suggère sa prochaine disparition, se débarrasser d’elle, donc sa mort. Un essai/roman en aborde une partie : ‘Destination Vide’ par Franck Herbert en 1966…

    Guillaume, la méthode d’apprentissage fait que deux réseaux de neurones vierge et identique subissant le même apprentissage ne donnera pas le même résultat. Il y a donc, comme avec l’être humain, une différentiation comme avec des jumeaux.

    Ensuite, concernant la créativité, nous sommes malheureusement confrontés à un effet subjectif. Un exemple sur un tableau de maître où il y a à passer beaucoup de temps à mettre des effets sur les couleurs, les formes, mais aussi des choses bien plus subtiles que nous ne percevons qu’inconsciemment la plupart du temps : la texture, le relief, etc ; et c’est ‘petit trucs’ n’apparaissent pas sur une photo d’apprentissage.

    Plutôt que d’en avoir peur, essayons de ne pas lui l’occasion de nous craindre. L’Histoire humaine regorge de peuple craintif qui se rebelle…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥