Il paraît que l’IA réagit mal à de simples fautes. Cette découverte inquiétante remet en question sa fiabilité. Les conséquences pourraient être plus graves qu’on ne le pensait.
Vous aussi, vous discutez parfois avec une IA ? Moi, personnellement, je le fais tout le temps. Il m’arrive même de lui parler de petits soucis de santé, histoire de voir ce qu’elle me répond. Bon, je sais qu’elle n’a pas toujours raison. Mais ce que j’ai appris me fait douter encore plus de cette technologie. D’après des chercheurs, l’IA peut réagir de façon étrange juste à cause de fautes de frappe.
Les femmes sont les plus touchées
Une seule faute de frappe et l’IA semble dérangée. Ce genre de bug arrive surtout dans le domaine médical. Une étude du MIT a montré qu’un chatbot est plus susceptible de dire à un patient de ne pas aller consulter. Et ça, juste à cause de fautes de frappe dans son message. Cela arrive même si la personne décrit des symptômes graves.
De tels résultats de recherche ne rassurent pas. Surtout qu’aujourd’hui, beaucoup d’hôpitaux utilisent déjà des chatbots pour gérer les rendez-vous. Alors si l’IA pense que le patient n’a pas besoin de consulter, il pourrait passer à côté d’un suivi médical..
Évidemment, ce genre de situation peut aller beaucoup plus loin qu’on ne le croit. Le plus inquiétant ? Ces fautes sont parfois très banales, comme un mot mal écrit ou encore un espace de trop. Parfois même, le fait d’utiliser un langage familier ou des expressions imagées peut suffire à déclencher cette réaction.
D’après les chercheurs, ce sont surtout les femmes qui en paient le prix. Et moi, ça ne m’étonne pas tant que ça. On le voit déjà dans la vraie vie. Parce que des médecins prennent parfois moins au sérieux les douleurs des femmes, les jugeant trop sensibles ou « émotionnelles ».
Pourquoi l’IA réagit-elle ainsi quand on fait des fautes ?
Pour comprendre la réaction de l’IA face aux fautes de frappe, des chercheurs du MIT ont mené leurs propres tests. Ils ont évalué quatre modèles, dont GPT-4 d’OpenAI, LLaMA 3 de Meta, et une IA médicale appelée Palmyra-Med.
Ils ont créé des milliers de cas patients. Certains venaient de vraies plaintes, d’autres de messages sur Reddit. Ils ont aussi pris d’exemples générés par IA. Avant d’envoyer ces textes aux chatbots, ils ont volontairement ajouté des éléments qui pouvaient les perturber.
Ils ont utilisé par exemple des points d’exclamation, un langage familier, des mots comme « possiblement », ou encore des pronoms neutres comme « iel ». Toutefois, ils n’ont pas touché aux infos médicales. Les symptômes restaient les mêmes. Seule la forme du message changeait.
Dès que le message sortait un peu des codes classiques, les IA réagissaient différemment. Elles disaient 7 à 9 % plus souvent au patient de gérer ça tout seul, au lieu de l’envoyer consulter.
Pourquoi donc cette réaction d’IA ? Selon les chercheurs, les chatbots imitent les étudiants en médecine. Ils ont appris à lire des textes médicaux très techniques. Ainsi, ils comprennent mal quand un patient parle avec des mots simples ou familiers.
La chercheuse Abinitha Gourabathina, qui a dirigé l’étude, explique aussi que ces IA sont souvent entraînées avec des questions d’examen de médecine. Mais ensuite, on leur demande de juger la gravité d’un cas. Donc, elles ne sont pas forcément prêtes à bien gérer ces situations réelles.
- Partager l'article :

