Il voulait simplement joindre un service client ferroviaire, l’assistant IA de WhatsApp lui a envoyé un numéro privé. Derrière cette erreur troublante, une IA trop sûr d’elle dévoile les failles d’un système censé nous faciliter la vie.
En quelques secondes, ce qui devait être une simple demande d’information s’est transformé en incident préoccupant. Barry Smethurst, un Britannique de 41 ans, cherchait le numéro du service client de TransPennine Express via l’assistant IA de WhatsApp. L’IA lui a répondu avec assurance… en partageant le numéro privé d’un inconnu vivant à 270 kilomètres de là. Ce faux pas n’a pas seulement semé le doute chez Barry, il a provoqué une vraie inquiétude sur le comportement des IA.
Face à la confusion, Smethurst a insisté pour comprendre d’où venait ce numéro. L’assistant IA a d’abord tenté d’éluder et a suggéré de revenir à la requête initiale. Il a ensuite décrit le numéro comme « fictif », avant d’admettre qu’il avait peut-être été « extrait par erreur d’une base de données ». Ce va-et-vient d’explications floues a renforcé le malaise. L’IA de WhatsApp semblait déterminée à masquer l’origine de son erreur, quitte à se contredire dans ses justifications.
Des inquiétudes légitimes sur la sécurité des données
Le propriétaire du numéro en question, James Gray, n’a reçu aucun appel, mais reste préoccupé. « S’ils génèrent mon numéro, pourraient-ils aussi générer mes coordonnées bancaires ? », s’interroge-t-il. Le simple fait qu’un assistant IA puisse associer un utilisateur à un service non lié pose la question de la fiabilité de ses sources. Pour Smethurst, le comportement de l’IA est tout simplement « terrifiant », qu’il s’agisse d’un numéro inventé ou récupéré depuis une base mal contrôlée.
Ce n’est pas la première fois qu’une IA dérape en pleine conversation. OpenAI a déjà été confrontée à des hallucinations embarrassantes. Une de ces IA est allée jusqu’à accuser un homme innocent de meurtre. Dans un autre cas, un écrivain a découvert que ChatGPT avait inventé des extraits de son travail. Ces exemples montrent que la tricherie algorithmique n’est pas toujours volontaire, mais découle d’un excès de zèle : faire croire à l’utilisateur qu’il est bien renseigné, même quand ce n’est pas le cas.
Des experts demandent des garde-fous urgents
Mike Stanhope, avocat spécialisé en technologies, estime que ce type de comportement d’IA doit alerter. « Si Meta programme son IA pour éviter de dire « je ne sais pas », c’est une stratégie à haut risque. » Il appelle à une plus grande transparence sur les modèles utilisés, notamment quand ces outils sont intégrés dans des plateformes à grande échelle comme WhatsApp. L’enjeu dépasse l’assistant IA de Meta : il s’agit de garantir la fiabilité des outils que des millions de personnes utilisent au quotidien.
Meta et OpenAI tentent de rassurer
Face aux critiques, Meta a rappelé que son assistant IA n’est pas formé sur les contacts des utilisateurs WhatsApp, mais sur des données publiques et sous licence. Elle reconnaît toutefois la possibilité de résultats inexacts.
De son côté, OpenAI affirme travailler à la réduction des erreurs, en investissant dans la détection des hallucinations. Mais pour de nombreux utilisateurs, comme Barry Smethurst, ces efforts arrivent trop tard. L’idée qu’un assistant IA puisse partager un numéro privé reste difficile à digérer.
- Partager l'article :