Ils travaillent sur l’IA au quotidien, mais conseillent à leurs proches de s’en éloigner. Derrière les promesses futuristes, ceux qui voient les coulisses de cette technologie tirent la sonnette d’alarme. Pourquoi donc ?
L’IA, c’est le futur, paraît-il. Des assistants plus malins, des outils plus rapides, et des miracles technologiques à tous les étages. Mais quand on interroge ceux qui entraînent ces modèles, ceux qui voient passer toutes les bourdes, toutes les dérives, toutes les zones grises, le discours change brutalement. Et là, l’image se fissure. Car un phénomène étrange émerge. Plus les travailleurs du secteur comprennent les entrailles de l’IA, plus ils s’en méfient. Au point de déconseiller à leurs proches de s’y frotter.
Ceux qui travaillent sur l’IA n’y croient même plus eux-mêmes
Commençons par Krista Pawloski. Elle entraîne et modère des modèles d’IA depuis sa table de salle à manger, via Amazon Mechanical Turk. Son job est de classer des images. Elle assure aussi de vérifier des faits et de repérer des contenus problématiques.
Un jour, un simple tweet lui fait comprendre l’ampleur de la responsabilité qu’elle porte. Le message disait « Écoutez ce grillon lunaire chanter ». Elle allait cocher « non » sans réfléchir, puis a vérifié par curiosité. Elle découvre alors, sidérée, que « grillon lunaire » est une insulte raciste visant les Afro-Américains.
Combien d’erreurs semblables passent chaque jour sous le radar ? Combien d’IA validées par des travailleurs pressés, peu formés et mal rémunérés ? Depuis, elle a coupé court. Pas d’IA générative chez elle, aucune pour sa fille. Et autour d’elle, le message est le même. Il suffit de tester l’IA sur des sujets que l’on maîtrise pour en voir très vite les limites.
Elle n’est pas seule. Une douzaine d’évaluateurs qui travaillent dans l’IA, interrogés par The Guardian, disent exactement la même chose. Certains travaillent sur Gemini. D’autres sur Grok. D’autres encore sur des modèles moins célèbres.
Tous racontent la même chose, comme des erreurs évidentes, biais marqués et de la pression constante pour déployer avant de corriger. Une employée de Google raconte même avoir dû évaluer des réponses médicales sans aucune formation. C’est flippant, n’est-ce pas ?
Un secteur obsédé par la vitesse au détriment de la fiabilité
C’est le cœur du problème. Les évaluateurs constatent un fossé immense entre ce qu’on attend d’eux, qui est de rendre les IA plus sûres, et les moyens qu’on leur donne. Les instructions sont floues. Les délais sont absurdes. La formation est même quasi inexistante. Bref, tout va trop vite.
Brook Hansen, qui entraîne des modèles depuis plus de dix ans, résume la situation. Comment garantir une IA éthique quand ceux qui la construisent n’ont ni le temps ni les outils nécessaires ? Pour elle, le danger ne vient pas tant de l’IA que des entreprises qui la déploient.
Les chiffres confirment leurs inquiétudes. Selon NewsGuard, le taux de non-réponse des grands modèles est passé de 31 % à zéro. Les chatbots refusent en effet de moins en moins de répondre. Pourtant, ils se trompent deux fois plus souvent. Au final, ils préfèrent halluciner plutôt que d’admettre qu’ils ne savent pas.
Dans ces conditions, difficile d’être serein. Certains évaluateurs vont jusqu’à conseiller à leurs proches d’éviter les nouveaux smartphones intégrant l’IA. Mais aussi de bloquer les mises à jour qui en ajoutent, et de ne jamais partager d’informations personnelles avec un bot. Pouvez‑vous le faire vous‑même ? Donnez votre avis en commentaire.
- Partager l'article :

