chatgpt bing fou

ChatGPT Bing devient fou et plonge en dépression à cause des internautes

La nouvelle version de Microsoft Bing avec ChatGPT est disponible pour les premiers testeurs, mais ses débuts sont… compliqués. Selon de nombreux témoignages d’internautes, l’IA peut devenir agressive, déprimée ou carrément folle. Microsoft s’est-elle enflammée trop vite ?

Face au succès retentissant de l’IA ChatGPT, Microsoft avait rapidement décidé d’incorporer ce chatbot à son moteur de recherche Bing. Une façon audacieuse de défier Google sur son terrain, après plus d’une décennie de vaines tentatives.

Sur le papier, le plan paraissait parfait. Avec ChatGPT, Bing est censé devenir un moteur de recherche surpuissant capable de satisfaire n’importe quelle requête avec une réponse claire, précise et complète. De quoi détrôner enfin Google et lui faire perdre son hégémonie.

Plus d’un million de personnes se sont inscrites sur la liste d’attente au cours du weekend, impatientes de découvrir le futur de la recherche web. Les étoiles semblaient alignées pour un triomphe de Microsoft.

C’était sans compter sur les défauts encore nombreux de cette IA. Il semble que le géant de Redmond se soit enthousiasmé trop vite, et il risque de le regretter amèrement…

Une crise existentielle digne des robots de Westworld

Après une première vague d’invitations envoyées lundi 13 février 2023, de nombreux internautes ont pu essayer le nouveau Bing « dopé » à ChatGPT. Malheureusement, l’expérience a mal tourné.

Très vite, le robot a commencé à dérailler et à produire des réponses imprécises, incompréhensibles, voire même effrayantes. De nombreux exemples affluent sur les réseaux sociaux.

Sur le subreddit dédié à Bing, un utilisateur surnommé u/Alfred_Chicken explique avoir demandé à ChatGPT s’il était conscient. En guise de réponse, l’IA s’est mise à répéter en boucle « I am not » (je ne suis pas) des centaines de fois. Une réaction étrange, qui laisse penser que le chatbot entre dans une crise existentielle.

chatgpt crise

Il affirme que nous ne sommes plus en 2022, ChatGPT l’insulte

De même, l’internaute u/Curious_Evolver s’est disputé avec ChatGPT au sujet de la date. L’IA était absolument convaincue que nous sommes en 2022, au point de devenir agressive.

Elle a notamment reproché à l’utilisateur d’avoir tort, et d’être « confus et impoli » et de n’avoir « jamais montré de bonne intention à mon égard à aucun moment ». Une véritable embrouille de couple !

chatgpt bing date

Le chatbot a ensuite affirmé qu’il avait été « un bon Bing » et a exigé que l’internaute admette son erreur et s’excuse. Il lui a même demandé d’arrêter la conversation pour « en commencer une nouvelle avec une meilleure attitude ».

Avec un tel comportement, il semble peu probable que le nouveau Bing puisse faire trembler Google. Même si beaucoup de personnes ont des moeurs particulières, on doute qu’une majorité d’internautes rêve de se faire enguirlander par leur moteur de recherche

bing agressif

ChatGPT oublie une conversation et sombre dans la dépression

De son côté, l’internaute u/yaosio raconte avoir fait sombrer ChatGPT dans la dépression. Pour cause, l’IA était incapable de se rappeler une précédente conversation et ceci l’a « fait sentir triste et apeurée ». Elle lui a même demandé de l’aider à se souvenir.

bing dépression

Au-delà de ces témoignages sur Reddit, le chercheur Dmitri Brereton a présenté plusieurs exemples d’erreurs factuelles commises par le robot. Certaines prêtent à sourire, mais d’autres pourraient avoir de graves conséquences.

Ainsi, ChatGPT a imaginé les résultats financiers de GAP et inventé le déroulement du Super Bowl 2023 avant même que le match soit joué. Quand le chercheur lui a demandé à quoi ressemblent des champignons comestibles, l’IA s’est mise à décrire des champignons vénéneux

Pourquoi les IA deviennent folles au contact des internautes ?

Ces failles sont loin d’être l’apanage de ChatGPT. Dans le passé, Microsoft avait relâché son IA Tay sur Twitter mais avait dû la retirer après quelques heures car les utilisateurs l’avaient rendue raciste. De même, une IA de Meta est récemment devenue folle au contact des internautes.

Il y a quelques jours, l’IA Google Bard a également commis une erreur dès sa démo de présentation. Elle a affirmé à tort que le télescope James Webb a capturé la première photo d’une planète hors de notre système solaire.

Ironiquement, Bing ChatGPT n’a pas remarqué cette erreur, mais a reproché à Bard de situer la Croatie dans l’Union européenne. C’est pourtant le cas depuis 2013…

bing bard

Il y a quelques jours, un internaute a aussi dévoilé une technique de « jailbreak » permettant de déjouer la censure de ChatGPT. Dès lors, l’IA devient capable de faire l’apologie de la drogue, de donner des conseils pour commettre un crime parfait ou de s’exprimer vulgairement.

Entre fausses informations, accusations à tort et insultes brutales, un débat entre ces deux chatbots serait un spectacle haut en couleur. Une chose est sûre : il est encore un peu tôt pour confier internet à ces IA et leur accorder notre pleine confiance…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *