Ce nouvel outil de détection de contenus générés par ChatGPT se présente comme une méthode infaillible avec un taux d’efficacité impressionnant de 99%. Cette percée scientifique promet une solution sans précédent pour identifier et maîtriser les capacités du modèle de langage.
La détection de textes créés par ChatGPT revêt une importance cruciale dans la mesure où elle permet de distinguer de manière précise et fiable les interactions avec un modèle de langage. Cette avancée prometteuse ouvre des perspectives significatives pour diverses applications, notamment dans la lutte contre la désinformation en ligne.
Détection de ChatGPT : une IA pour repérer les publications scientifiques générées ?
Selon les indices, des universitaires ont développé un programme d’intelligence artificielle pour détecter les publications scientifiques générées par ChatGPT. Les résultats démontrent que ce logiciel affiche une précision exceptionnelle de plus de 99 %. Cependant, les progrès des systèmes d’intelligence artificielle générative ont considérablement renforcé leur aptitude à reproduire la prise humaine. Cela rend donc ardue la distinction entre un texte issu d’une machine et celui engendré par un individu. Par ailleurs, les enseignants et conférenciers craignent que les étudiants utilisent du code généré par une machine.
Cependant, les programmes conçus afin de repérer les textes générés par l’intelligence artificielle se révèlent fréquemment peu crédibles. Les spécialistes suggèrent donc de ne pas compter sur ces instruments pour évaluer les travaux universitaires.
Dans cette optique, un groupe de scientifiques, supervisé par l’université du Kansas, s’est lancé dans l’élaboration d’une approche. L’objectif vise à repérer les documents scientifiques produits par l’intelligence artificielle.
Détection ChatGPT : une méthode révolutionnaire pour discerner textes humains et IA
Heather Desaire, professeur de chimie à l’université du Kansas, et son équipe ont collecté des données pour créer un algorithme qui classe les écrits des chercheurs et de ChatGPT. Cependant, les premiers tests ont montré que le système de catégorisation distinguait à 100% les travaux scientifiques des articles IA.
Toutefois, d’après les écrivains, la justesse concernant les sections particulières a légèrement baissé, parvenant ainsi à un taux de 92%. Les scientifiques estiment que leur méthode de catégorisation est efficace, car elle se concentre sur différentes particularités stylistiques qui différencient les textes produits par les êtres humains de ceux engendrés par l’intelligence artificielle. Par ailleurs, les chercheurs ont l’habitude d’employer un lexique étendu et de composer des passages plus étendus qui intègrent une diversité plus vaste de termes en comparaison des machines. Ils utilisent également plus fréquemment la ponctuation, comme les signes d’interrogation, les parenthèses et les points-virgules, sauf lorsqu’il s’agit des points de suspension qui sont utilisés dans les citations.
Comment détecter ChatGPT ?
La détection de ChatGPT, un modèle de langage basé sur l’intelligence artificielle, peut être accomplie à l’aide de diverses méthodes. L’un des principaux moyens de détection est l’évaluation du comportement linguistique du modèle. Des chercheurs et des développeurs peuvent analyser les réponses produites par ce chatbot et les confronter à des réponses humaines. Si le modèle génère des réponses incohérentes, inappropriées ou déconnectées du contexte, cela peut constituer un indice de sa nature artificielle.
Une autre approche de détection consiste à recourir à des techniques de stéganographie, qui permettent d’identifier des schémas caractéristiques dans les sorties générées par cet outil d’IA. Cela peut impliquer des tests statistiques, des analyses de motifs ou des méthodes de détection d’anomalies.
De plus, il est possible d’examiner les métadonnées liées à l’utilisation de ChatGPT afin de repérer des indices révélateurs. Cela peut inclure des informations sur les requêtes envoyées, les adresses IP, les délais de réponse, et autres.
- Partager l'article :