Whisper d’OpenAI, l’outil de transcription audio dopé à l’IA, fait des merveilles… mais aussi des siennes ! Derrière sa façade de précision et de rapidité se cache un petit grain de folie. Quand Whisper commence à paniquer, il peut littéralement inventer des bouts de conversations entières. Ces fameuses « hallucinations » inquiètent, surtout dans les hôpitaux américains où l’outil gagne en popularité.
Le modèle de transcription développé par OpenAI, nommé Whisper, est un prodige de la technologie. Adopté dans des milliers d’hôpitaux et cabinets médicaux américains, il est vu comme un assistant précieux. Cette IA retranscrit des consultations en temps réel. Pourtant, ce super-scribe numérique a un petit problème. Ainsi, il hallucine. Non, Whisper ne voit pas de licornes. Mais sous le stress, l’IA peut s’inventer des paroles qui n’ont jamais été prononcées. Et le souci, c’est que dans les environnements critiques, comme le milieu médical, une simple erreur de transcription peut vite devenir problématique.
Whisper, l’IA de transcription d’OpenAI qui hallucine sous pression
L’IA de transcription audio d’OpenAI possède des atouts incroyables… mais aussi un gros talon d’Achille. Quand il se trompe, Whisper peut halluciner, c’est-à-dire, inventer des choses qui n’ont jamais été dites. Qui plus est, ce genre d’erreurs peut poser de sérieux problèmes. Surtout quand elles impliquent des commentaires sensibles ou même des traitements médicaux fictifs.
Selon une enquête d’APNews, Whisper produit des erreurs d’hallucination en analysant du texte et en voyant des « patterns » (modèles) qui n’existent pas. Je vais être plus précis ! L’IA essaie de trouver du sens dans des éléments aléatoires, et cela peut parfois partir dans des directions inattendues. Par exemple, Whisper a déjà produit des transcriptions incluant des propos racistes. Ou l’IA invente de toutes pièces des médicaments comme des « antibiotiques hyperactivés ».
Bien sûr, ce phénomène n’est pas propre à ce modèle de transcription d’OpenAI. Les grandes IA ont souvent ce type de bugs connu sous le nom d’« hallucinations ». L’IA de Google, Overviews, a aussi, un jour, suggéré de coller le fromage à la pizza avec de la colle non toxique. Par ailleurs, Tim Cook lui-même, le PDG d’Apple, a reconnu que les hallucinations de l’IA sont un risque pour l’avenir. Même si les entreprises travaillent dur pour limiter ces dérives.
Des erreurs risquées, surtout dans le médical
Un problème majeur réside dans l’adoption rapide de Whisper par des professionnels de la santé. Plus de 30 000 cliniciens américains l’utilisent déjà pour retranscrire des consultations médicales. Cela peut sembler rassurant… jusqu’à ce qu’on se rende compte que le modèle est loin d’être infaillible.
Alondra Nelson, professeure à Princeton, a également mis en garde. D’après elle, « Personne ne veut d’un mauvais diagnostic ». Je vous laisse donc imaginer une transcription d’une consultation qui mentionne un traitement imaginaire – cela pourrait entraîner de graves erreurs.
Microsoft, qui intègre Whisper dans son cloud, a déjà précisé que cet outil ne devrait pas être utilisé dans des situations critiques ou « à haut risque ». Pourtant, avec l’ampleur de son adoption, certains pensent qu’OpenAI devrait alerter davantage sur les limites de Whisper. Comme le dit William Saunders, ancien employé d’OpenAI : « C’est problématique si vous publiez cela et que les gens sont trop confiants quant à ce qu’il peut faire. »
Ce qui rend cette situation encore plus compliquée, c’est la popularité de Whisper. Disponible sur la plateforme HuggingFace, il a été téléchargé plus de 4,2 millions de fois ! Néanmoins, les chercheurs mettent en garde. En testant les transcriptions dans des réunions publiques, ils ont trouvé des erreurs dans 8 cas sur 10. D’ailleurs, un autre développeur a observé des hallucinations dans quasiment toutes les 26 000 transcriptions qu’il a passées au crible !
La réponse d’OpenAI aux hallucinations
Ces hallucinations peuvent prêter à confusion et même mettre en danger la crédibilité des transcriptions. En étudiant les erreurs dans la base de données TalkBank, des chercheurs de Carnegie Mellon ont déterminé que 40 % de ces erreurs pouvaient avoir des effets nocifs. Puisque l’IA déforme les propos des locuteurs ou en ajoutant des détails inexacts.
Alors, qu’a fait OpenAI pour résoudre ce problème ? Pour l’instant, l’entreprise conseille simplement de ne pas utiliser Whisper dans des décisions importantes. Là où la moindre erreur pourrait mener à de graves malentendus. Je pense que c’est un peu décevant. Mais après tout, c’est en fait une reconnaissance honnête des limites actuelles de cette technologie.
Malgré cela, l’industrie de l’IA continue d’avancer à un rythme impressionnant. La popularité de Whisper démontre bien l’appétit croissant pour les outils de transcription automatisée. Même si le phénomène des hallucinations reste une ombre au tableau. Les entreprises comme OpenAI et leurs concurrents travaillent encore sur ces défauts. Il faudra encore du temps pour voir une IA capable de transcrire sans fausses notes.
Alors, en attendant, j’aimerais vous rappeler que même la meilleure des IA peut parfois se prendre les pieds dans le tapis… Attention !
Qu’en pensez-vous ? Les IA sont-elles prêtes pour le milieu médical selon vous ? Partagez votre point de vue en commentaire !
- Partager l'article :