livres ChatGPT

Amazon : les livres écrits par ChatGPT inondent Kindle, faut-il cesser cette folie ?

L’avènement de ChatGPT, un modèle de langage puissant développé par OpenAI, a permis la création de livres entièrement écrits par l’IA. Ces ouvrages inondent désormais la plateforme Kindle d’Amazon, suscitant des interrogations quant à leur qualité et à leur pertinence.

Amazon, le géant de la vente en ligne, est connue pour offrir un accès facile à des livres numériques. Récemment, une nouvelle tendance a été observée sur la plateforme de lecture électronique d’Amazon, Kindle. Il s’agit de livres écrits par ChatGPT. En tant que modèle de langage puissant, ChatGPT permet effectivement de générer du contenu dans une variété de domaines.

Amazon commercialise les livres écrits par ChatGPT : une tendance inquiétante ?

Selon une récente publication de Reuters, la boutique Kindle d’Amazon compterait plus de 200 livres attribués à ChatGPT en tant qu’auteur ou co-auteur. Cependant, le nombre de livres écrits par l’IA dépasse sûrement cette estimation. En effet, Amazon ne contraint pas explicitement les auteurs à révéler leur utilisation de l’IA.

Depuis la mise à disposition de l’outil gratuit d’OpenAI en novembre dernier, l’écriture générée par ChatGPT se répand sur le marché. Cela contribue à la création de contenus éthiquement douteux. Des vendeurs, comme Brett Schickler, ont déjà vu les avantages de l’IA en publiant des histoires rédigées par ChatGPT. 

Bien que Schickler ait affirmé que son livre lui avait rapporté moins de 100 dollars depuis sa sortie en janvier, il n’a consacré que quelques heures à le créer. Cependant, cette nouvelle tendance inquiète certains professionnels du milieu littéraire, tels que Mary Rasenberger, directrice exécutive de l’Authors Guil. La dirigeante  s’alarme du manque de transparence sur l’utilisation de l’IA dans la création de ces ouvrages. Ces derniers pourraient potentiellement impacter les auteurs professionnels.

Clarkesworld suspend la publication d’article : Amazon et ChatGPT pointé du doigt

Selon PCMag, Clarkesworld Magazine a été obligé de mettre en pause les soumissions de nouvelles en raison d’un grand nombre d’articles soupçonnés d’utiliser l’IA sans divulgation préalable. Le rédacteur en chef, Neil Clarke, confirme avoir reconnu ces histoires générées par IA grâce à de « modèles très évidents ». Clarkesworld interdit désormais les histoires écrites avec ChatGPT et a banni plus de 500 utilisateurs suspectés d’avoir soumis ce genre de contenu.

Amazon, qui permet aux auteurs d’utiliser ChatGPT pour l’écriture des livres, peut aggraver la situation. Les préoccupations concernant l’authenticité et la qualité des livres produits avec l’assistance de l’IA nécessitent une action immédiate pour garantir l’intégrité et la crédibilité du processus de publication.

ChatGPT dans l’écriture de livres : risques de désinformation et plagiat

L’utilisation de l’intelligence artificielle dans l’écriture de livres soulève des inquiétudes quant à la désinformation et au plagiat. Les algorithmes d’IA peuvent produire des informations erronées avec une grande confiance et peuvent même utiliser des syntaxes identiques à celles des contenus sources. 

La publication technologique CNET avait recours à un modèle interne d’IA pour écrire des articles économiques depuis l’année dernière. Cependant, ces articles ont été remplis d’erreurs factuelles et leur formulation était quasiment similaire à celle d’autres sites web. CNET a corrigé rapidement ses erreurs importantes et a suspendu l’utilisation de l’outil.

Malgré cela, l’un de ses sites affiliés a tenté de continuer à utiliser l’outil. Le risque d’un manque de transparence et de crédibilité dans la production de livres assisté par l’IA est réel. C’est d’autant plus impactant avec l’émergence de plateforme comme Amazon qui permet aux auteurs d’utiliser l’IA pour produire du contenu rapidement et à faible coût.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *