openai détecteur chatgpt

OpenAI renonce à permettre de détecter ChatGPT : c’est juste impossible

vient de retirer son outil permettant de détecter les textes écrits par , faute d'efficacité. Cet aveu d'échec démontre une fois pour toutes qu'il est impossible d'empêcher la révolution de l'intelligence artificielle, alors comment s'adapter à ce grand bouleversement ?

À l'aube d'une ère nouvelle initiée par l'émergence de l'IA générative, la détection du contenu généré par les outils comme ChatGPT est un enjeu primordial.

Il semble impératif de pouvoir vérifier si un étudiant a triché, identifier les plagiats, et tout simplement savoir si un texte est écrit par l'intelligence artificielle ou par un humain.

C'est la raison pour laquelle dès le lancement de son chatbot fin 2022, OpenAI avait promis de développer une solution permettant de détecter son utilisation.

Quelques semaines plus tard, le 31 janvier 2023, la firme américaine avait donc lancé AI Classifier : un outil censé permettre de scanner n'importe quel texte pour reconnaître l'écriture de ChatGPT et la signaler.

Il s'agissait d'une réponse à la colère de nombreuses personnes, notamment des enseignants dont les étudiants se tournaient vers l'IA pour écrire leurs dissertations et faire leurs devoirs.

Cette annonce avait fait pousser à beaucoup un grand « ouf » de soulagement. Leurs pires craintes étaient estompées, puisqu'ils étaient convaincus de pouvoir très facilement déceler toute tentative de triche.

Une efficacité de seulement 26%

Toutefois, l'enthousiasme est vite retombé lorsqu'ils se sont aperçus que ce détecteur était tout aussi efficace qu'un pansement sur une jambe de bois.

Beaucoup d'humains écrivent exactement comme ChatGPT, et ChatGPT peut écrire comme un humain à condition de lui fournir le bon prompt.

Non seulement les outils comme AI Classifier ne parviennent pas toujours à reconnaître un texte par une IA, mais ils peuvent aussi souvent se tromper et signaler à tort un texte alors que l'auteur l'a écrit seul.

Un large nombre d'étudiants ont ainsi été accusés injustement, à l'instar de cette élève de l'UC Davis dont le magazine Rolling Stone a relaté la mésaventure.

Plusieurs études scientifiques ont également suggéré l'inefficacité du dispositif, tandis que certains profs ont découvert que même leurs propres travaux étaient identifiés comme générés par l'IA…

De plus, ces détecteurs d'intelligence artificielle tendent à discriminer les personnes dont l'anglais n'est pas la langue maternelle à commencer par les Français. De même, les textes écrits par des autistes sont constamment signalés selon ce témoignage sur Reddit.

Have any of you learned to write well? My friend told me my writing style was similar to AI's, and I am now finding that detectors constantly flag me.
byu/NeetMastery inautism

Dès le départ, OpenAI avait admis que son outil n'était pas « pleinement fiable » et n'identifiait correctement les textes écrits par l'IA que dans 26% des cas. À l'inverse, il estimait à tort qu'un texte était écrit par ChatGPT dans 9% des cas.

OpenAI retire officiellement son détecteur AI Classifier

Le 20 juillet 2023, la nouvelle est finalement tombée comme un couperet : l'entreprise jette l'éponge et retire son détecteur AI Classifier.

Embarrassée par cet échec, la firme n'a pas fait d'annonce en fanfare et s'est contentée d'ajouter une note discrète sur sa page web : « le AI Classifier n'est plus disponible à cause de son faible taux d'exactitude ».

Ce choix radical est raisonnable, car il est dangereux de laisser des entreprises se fier aveuglément à une solution si bancale pour dépister l'usage de l'IA et de mettre en péril la scolarité d'étudiants du monde entier à cause de faux positifs.

Cependant, cet abandon jette un froid et soulève nombre d'inquiétudes pour le futur. Comme le souligne le futuriste Daniel Jeffries sur X, « si OpenAI ne peut pas faire fonctionner son outil de détection IA, personne d'autre ne le peut ».

Avec cette décision, le créateur de ChatGPT vient probablement de réduire en miettes toute l'industrie naissante des détecteurs d'IA qui s'est formée au cours des six derniers mois. Les éditeurs de solutions comme Turnitin ou GPTZero vont à leur tour devoir avouer avoir vendu de la poudre aux yeux.

Une boîte de Pandore impossible à refermer ?

Néanmoins, malgré cette défaite cuisante, OpenAI précise continuer à « travailler pour incorporer le feedback et rechercher actuellement des techniques de provenance plus efficaces pour le texte ».

Elle réitère aussi son engagement à « développer et déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu visuel ou audio est généré par l'IA ».

En effet, les images et enregistrements sonores générés par l'intelligence artificielle représentent un danger encore plus grand que les textes rédigés avec .

Les DeepFakes créés à l'aide d'outils comme DALL-E d'OpenAI ou risquent de provoquer une vague de fausses informations sans précédent sur le web, effaçant totalement la frontière entre le réel et la fiction…

Jusqu'à ce qu'une méthode réellement efficace de « watermarking » du contenu généré par l'IA voit le jour, il semble que nous n'ayons d'autre choix que d'apprendre à cohabiter avec cette technologie.

Après tout, plutôt que de chercher à empêcher son utilisation par tous les moyens, il paraît plus sage d'apprivoiser ce nouveau type d'outils pour augmenter la qualité du contenu produit par l'humain. Et vous, qu'en pensez-vous ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. C’est tout à fait normal.
    L’objectif des développements de l’«IA» est justement d’obtenir des outils capables de simuler l’action humaine afin de s’y substituer pour… le soulager de sa morne existence en tirant des profits dans une autre direction. Alors s’il devient impossible de détecter la différence entre la production (anonymisée), au sens large, d’un être humain et d’une machine, alors la mission est parfaitement remplie.
    Où est donc le réel problème puisque cela en était le but, tout simplement ?
    Il serait salubre de prendre une réelle position d’ordre politique plutôt que technique et éviter d’éventuelles réactions d’angoisse qui sont au final totalement irrationnelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *