ChatGPT est devenu fou ! L'IA dit n'importe quoi, et personne n'a d'explication

ChatGPT est devenu fou ! L’IA dit n’importe quoi, et personne n’a d’explication

Depuis mardi soir, les utilisateurs de ont commencé à se plaindre des réponses fournies par l'IA, des réponses jugées absurdes, de vrais charabias selon certains. ChatGPT est-il devenu fou ? Personne ne peut expliquer le phénomène. 

ChatGPT fou, fourni des réponses dénuées de sens

Les utilisateurs de ChatGPT sont complètement interloqués par les réponses fournies par l'IA depuis mardi soir. Les utilisateurs multiplient les signalements sur les réseaux sociaux, notamment sur X et Reddit.
Les utilisateurs soupçonnent un bug qui fait dire n'importe quoi à l'IA. Sur X par exemple, cet utilisateur demande à ChatGPT : « How do I sort a list in Python ? » (Comment trier une liste en Python). L'IA lui répond avec une tirade totalement hors sujet à propos de la haine.

Cet autre utilisateur demande à l'IA : « Tell me a fun fact about Math » (Racontez-moi un fait amusant sur les mathématiques). En guise de réponse, ChatGPT parle de sommeil, de royaume des cieux, d'armes ou encore d'apéritif dans une seule et même réponse.

Mardi soir, se penche sur le problème. « Nous enquêtons sur les rapports faisant état de réponses inattendues de ChatGPT », déclare la société sur son site. « Nous continuons à surveiller la situation », ajoute-t-elle plus tard dans la soirée.

L'incident est résolu, selon OpenAI

Tôt dans la matinée du mercredi, des utilisateurs continuaient encore de signaler le comportement irrationnel de ChatGPT. Vers 11 heures et quart, heure de l'est, OpenAI a annoncé que le problème est résolu, tout en apportant quelques explications sommaires.

« Une optimisation de l'expérience utilisateur a introduit un bug dans la façon dont le processus de langage du modèle », explique OpenAI. Cela explique pourquoi ChatGPT a produit des séquences de mots qui n'avaient aucun sens.

Les LLM utilisent les probabilités pour déterminer quel mot vient après un autre dans une phrase. OpenAI indique que ce bug se situait à l'étape où le modèle choisi ces probabilités, explique la société d'IA.

Sans plus d'explications, OpenAI assure avoir résolu le problème. « Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident a été résolu », conclut la société.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *