plainte OpenAI

ChatGPT lui invente un passé de criminel, il porte plainte contre OpenAI

Une affaire a été portée devant un tribunal de l'État de Géorgie par un animateur de radio contre . Le plaignant conteste que ait fourni de fausses informations à son sujet, le traitant même de criminel.

Les « hallucinations » de l'IA générative peuvent induire en erreur les utilisateurs en leur fournissant des détails erronés. Cela pourrait créer un environnement propice à la désinformation en ligne. Cette affaire soulève des questions cruciales sur la nécessité de réglementer et de renforcer la fiabilité des informations produites l'IA.

OpenAI impliqué dans une plainte ? Divulgation de détails par ChatGPT !

D'après Bloomberg Law, Mark Walters, animateur radio, a soumis l'affaire au tribunal de l'État de Géorgie. Il réclame que ChatGPT a divulgué les détails d'une prétendue affaire en justice à un journaliste. Ce dernier cherchait des informations sur un procès authentique en cours. En outre, la Second Amendment Foundation a poursuivi un procureur général de Washington, excluant totalement Walters. Selon le rapport, Walters n'est en aucun cas lié à l'affaire de Washington ou employé par la Fondation pour le Second Amendment. 

Par ailleurs, OpenAI a été sollicité par Forbes pour recueillir des avis sur cette affaire judiciaire. L'inexactitude du résumé juridique provient probablement d'un problème courant avec les IA génératives, appelé “hallucination”. En outre, ce problème se révèle lorsque le modèle de langage produit des données totalement erronées sans avertissement préalable. Cependant, les informations illusoires peuvent sembler convaincantes, car elles ressemblent superficiellement à des données réelles. 

OpenAI émet une mise en garde sur -4 : plainte imminente contre l'IA ?

OpenAI ainsi que d'autres acteurs du domaine, tels que , ont tous reconnu les inquiétudes soulevées par les divagations de l'IA. Par ailleurs, en mars dernier, OpenAI a introduit GPT-4. Ce dernier est leur récent modèle d'apprentissage du langage, mais il a également présenté des « limitations analogues ». Ainsi, la société a émis une mise en garde : « il demeure partiellement fiable (en générant des scénarios imaginaires et en commettant des erreurs de raisonnement). 

Cependant, il est essentiel de faire preuve d'une grande prudence sur l'usage des informations générées par IA. Cela inclut les jugements critiques et l'introduction de contexte supplémentaire. En outre, le mois dernier, OpenAI a annoncé son engagement dans une nouvelle approche de formation pour l'IA. Tout ça, dans le but de résoudre le problème des divagations.

ChatGPT : peut-on se fier à ses réponses sans risquer des erreurs ?

Les résultats produits par ChatGPT peuvent occasionnellement comporter des erreurs en raison des limitations inhérentes au modèle. Bien que ce chatbot soit un outil puissant pour le traitement du langage naturel, il ne possède pas une connaissance exhaustive de tous les domaines. Par conséquent, ses réponses peuvent sembler cohérentes en apparence, mais elles peuvent être en réalité incorrectes ou trompeuses

De plus, le modèle ne dispose pas de capacités de discernement ni de jugement moral, ce qui peut conduire à des réponses inappropriées ou controversées dans certains contextes. De plus, des erreurs peuvent également survenir lorsque le modèle interprète incorrectement la formulation de la question ou lorsque les informations fournies sont vagues ou ambiguës. Il est donc essentiel de prendre en considération ces limitations lors de l'utilisation des résultats générés par ChatGPT, et de toujours vérifier et valider les informations auprès d'autres sources fiables.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *