Attention, l’IA, censée nous faciliter la vie, peut nous inventer un passé criminel. Un journaliste allemand a vu sa réputation ternie par un modèle qui l’a traité d’auteur de délits.
Un journaliste allemand, Martin Bernklau, a vu son nom associé à des actes criminels qu’il avait pourtant dénoncés. L’IA a confondu ses enquêtes avec sa propre expérience, le présentant comme l’auteur des faits qu’il avait révélés.
L’IA, un alibi parfait pour les fausses informations
Le journaliste allemand Martin Bernklau a vécu une expérience troublante cette année en tapant son propre nom dans l’outil d’IA de Microsoft, Copilot. « J’ai découvert que j’étais décrit comme un pédophile de 54 ans », a-t-il confié à l’émission Law Report sur ABC Radio National.
L’IA affirmait qu’il avait avoué ce crime et exprimé des remords. Mais l’absurdité ne s’arrêtait pas là. Copilot le présentait même comme un évadé d’un hôpital psychiatrique, un escroc arnaquant les veuves, un trafiquant de drogue et un criminel violent.
« L’IA avait mélangé les affaires judiciaires que j’avais couvertes avec ma propre identité », précise Bernklau. L’outil a mélangé les reportages de Bernklau avec sa propre vie, le présentant comme l’auteur des crimes qu’il avait dénoncés.
De plus, Copilot a divulgué ses coordonnées et même un itinéraire pour accéder à son domicile depuis n’importe quel endroit. Ce phénomène de création de faux résultats par les outils d’IA est désigné sous le terme d’hallucination de l’IA.
Poursuivre Copilot en justice ou non ?
Après avoir découvert ces hallucinations, Bernklau a d’abord contacté le procureur de Tübingen et le délégué régional à la protection des données. Aucune réponse n’a été reçue de leur part pendant des semaines.
Face à ce silence, il a décidé de rendre l’affaire publique. Les médias locaux et nationaux s’en sont alors emparés et Bernklau a engagé un avocat pour déposer une demande de cessation et d’abstention.
Mais là encore, silence total de la part de Microsoft. Il se retrouve ainsi désemparé, ne sachant plus quelle action entreprendre. Son avocat l’a prévenu : une poursuite judiciaire pourrait s’étendre sur plusieurs années. Cela peut aussi coûter très cher sans pour autant garantir un résultat favorable.
En attendant, son nom est désormais bloqué et introuvable sur Copilot, ainsi que sur d’autres outils d’IA comme ChatGPT. Pour Bernklau, cette restriction résulte de l’incapacité des plateformes à retirer ces fausses informations de leur modèle d’IA.
Bon à savoir : Bernklau n’est pas le premier à vivre une telle situation. En Australie, Brian Hood, maire respecté du comté d’Hepburn, en a aussi fait l’expérience. ChatGPT, l’IA d’OpenAi, l’a accusé à tort d’être un criminel.
Cette erreur a failli coûter cher à OpenAI qui a échappé de justesse à un procès en diffamation. Cependant, Hood a finalement renoncé à le poursuivre en justice en raison des coûts exorbitants.
L’IA s’invite désormais aux tribunaux pour nous accuser de criminel
Saviez-vous qu’aujourd’hui, les avocats se servent de l’IA dans leur travail ? En effet, elle est maintenant utilisée pour rédiger des documents juridiques, comme des témoignages et des références de caractère.
Catherine Terry, avocate dans l’État de Victoria, dirige d’ailleurs une enquête pour la Commission de réforme du droit de Victoria sur le rôle de l’IA dans les tribunaux. Elle met toutefois en garde contre un risque : l’IA pourrait compromettre la voix humaine, essentielle dans les preuves.
« Il n’est pas toujours évident pour les tribunaux que l’IA a été utilisée… et c’est un autre aspect auquel les tribunaux devront faire face lorsqu’ils commenceront à voir l’IA utilisée dans les déclarations devant le tribunal », explique-t-elle.
Les tribunaux du Queensland et de Victoria ont d’ailleurs imposé la transparence en exigeant des avocats qu’ils signalent l’usage de l’IA dans leurs soumissions. Bientôt, les tribunaux en feront eux-même usage.
« L’IA pourrait améliorer l’efficacité de la gestion des affaires ou faciliter les traductions » précise Mme Terry. « En Inde, par exemple, la Cour suprême traduit les audiences en neuf langues locales. »
Et je dois dire que l’IA facilitera également la résolution en ligne des conflits, un domaine en forte expansion. Une réglementations juridiques claires sur l’IA, tant pour ceux qui l’utilisent avec précision que pour ceux impactés par ses erreurs, est ainsi essentielle.
Qu’en pensez-vous ? N’hésitez pas à partager votre avis en commentaire.
- Partager l'article :