L’intelligence artificielle, comme ChatGPT, qui devait nous faciliter la vie, montre parfois qu’elle n’est pas aussi parfaite qu’on le pensait. Certaines voix, accents ou langues échappent à sa compréhension. Peut-elle réellement inclure tous les utilisateurs sans discriminer ceux qu’elle ne reconnaît pas bien ?
Depuis 2013, avec le film Her de Spike Jonze, l’idée de parler à une IA est fascinante. Her avait imaginé une intelligence artificielle, Samantha, aussi humaine qu’irréelle.
Aujourd’hui, ChatGPT d’OpenAI, Siri d’Apple ou Alexa d’Amazon se rapprochent de cette idée. Ces assistants aident à planifier, répondre ou même apprendre. Mais, pour certains utilisateurs, c’est une autre histoire.
Quand ChatGPT et d’autres IA se trompent… les conséquences peuvent être graves
Prenons le cas d’une femme âgée demandant à son assistant vocal un simple rappel : « Il n’écoute jamais ce que je dis… » avoue-t-elle, déçue.
Et ce n’est pas une exception. Ces outils échouent souvent face aux accents, aux dialectes ou aux voix différentes.
Il s’agit, sans doute, d’un problème lié aux données utilisées pour entraîner ces IA. En effet, ces systèmes privilégient un anglais standard souvent éloigné des réalités culturelles.
Par exemple, un Américain blanc trentenaire sera bien mieux compris qu’un locuteur avec un accent africain ou asiatique.
Alors que la technologie se veut universelle, beaucoup se sentent exclus. Les chercheurs confirment également que ces outils commettent plus d’erreurs avec les enfants, les personnes âgées ou les non-anglophones. Et cela ne fait qu’amplifier la frustration.
Outre la frustration, il y a des impacts bien plus sérieux. Imaginez : vous appelez les urgences après un accident. Or, au lieu d’une voix humaine rassurante, un robot vous demande de répéter plusieurs fois… Cette perte de temps pourrait être fatale.
En tout cas, ces erreurs ne se limitent pas aux situations critiques. Dans le quotidien, elles s’immiscent partout.
Citons les appels aux banques, les dictées vocales ou même les services publics. Et à ce propos, les entreprises adoptent massivement ces systèmes pour réduire leurs coûts, forçant les gens à s’y adapter.
Ensuite, vient le problème des biais dans les données. Ces erreurs ne sont pas toujours dues à un mauvais fonctionnement.
En réalité, les IA sont formées avec des données limitées qui ne reflètent pas toute la diversité humaine. Par conséquent, des millions de voix sont mal interprétées, ou même ignorées.
Quoique ces limites semblent anecdotiques, elles touchent directement des vies. « Je dois répéter dix fois chaque phrase ! » se plaint un utilisateur.

L’uniformisation du langage : une menace pour la diversité ?
Quant à l’impact linguistique, il est tout aussi préoccupant. Comme nous le savons tous, les IA comme ChatGPT sont majoritairement conçues en anglais. Elles favorisent ainsi une norme linguistique rigide.
Sur le papier, elles ont le potentiel de démocratiser l’accès à l’information. En revanche, dans la pratique, elles reproduisent des inégalités.
Par exemple, citons les dialectes régionaux. Même dans des langues bien desservies comme l’espagnol, les variantes posent problème. Ces systèmes privilégient des notions prescriptives, oubliant la richesse des accents et des expressions locales.
Et si cela ne suffisait pas, certaines startups proposent d’effacer les accents pour rendre les utilisateurs plus compréhensibles. Alors que ces outils devraient célébrer la diversité, ils renforcent des idées discriminantes.
En parallèle, les langues moins parlées sont encore plus marginalisées. Leur empreinte numérique étant faible, elles peinent à exister dans les modèles d’IA.
Lorsqu’une étudiante explique : « L’IA me corrige toujours, comme si je parlais mal », cela illustre bien le problème. Elle se sent jugée par un outil censé aider, non imposer une norme.
Et vous, avez-vous déjà ressenti de la frustration face à un assistant vocal qui ne vous comprend pas ?
- Partager l'article :