OpenAI, l’institut de recherche californien financé par Elon Musk, a créé une intelligence artificielle capable de rédiger des articles d’actualité. Cependant, craignant que cette IA soit utilisée pour générer et propager des Fake News, l’organisation a préféré tenir sa technologie à l’écart du public…
Après l’IA joueuse de Dota 2 ou la main robot aussi agile que celle d’un humain, OpenAI présente son nouveau projet. L’institut de recherche californien financé par des visionnaires comme Elon Musk et Peter Thiel a créé une intelligence artificielle conçue pour rédiger des articles d’actualité comme un journaliste.
Cependant, OpenAI préfère conserver sa technologie en interne et à l’écart du grand public. Pour cause, l’organisation craint que cette IA soi utilisée à des fins » malicieuses « … notamment pour produire des » Fake News » ultra convaincantes.
Ce système d’intelligence artificielle capable de produire du langage naturel a été créé grâce au Machine Learning. Il s’agit d’une IA » non supervisée « , capable de produire des articles cohérents sur n’importe quel sujet avec une intervention humaine minimale.
Pour générer du texte, l’IA utilise des données collectées sur environ 8 millions de pages web. Cependant, afin d’éviter qu’elle puise du contenu de piètre qualité sur n’importe quelle page web, les chercheurs ont créé un système lui permettant de trouver automatiquement du contenu de qualité.
Pour ce faire, l’intelligence artificielle se base uniquement sur des pages partagées sur le forum Reddit, et ayant reçu au minimum trois votes positifs de la part des utilisateurs. Cela signifie qu’au moins trois humaines ont estimé que le contenu était intéressant, éducatif ou même amusant.
Une intelligence artificielle capable de créer des Fake News et financée par Elon Musk
L’intelligence artificielle génère ensuite son article mot par mot. En règle générale, le texte qui en résulte est cohérent, et les phrases sont basées sur des informations déjà publiées en ligne. Cependant, la composition de cette information se veut unique et c’est la raison pour laquelle les textes créés par cette IA sont rarement véridiques.
Les citations sont entièrement fabriquées, et il arrive aussi que le système crée des phrases dont la structure n’a aucun sens ou qui contiennent d’hilarantes inexactitudes. Par exemple, dans une démo fournie à la BBC, l’IA écrit qu’une manifestation a été organisée par un homme dénommé » Paddy Power « , ou encore qu’AOL détient Facebook, Instagram et YouTube. Il arrive aussi que les textes soient répétitifs, ou qu’ils passent d’un sujet à l’autre d’une façon qui n’a rien de naturel.
A travers cette technologie, OpenAI explique vouloir ouvrir le débat sur la façon dont une telle IA devrait être utilisée et contrôlée. L’institut estime que les gouvernements devraient systématiquement mesurer l’impact sociétal et la diffusion des technologies d’intelligence artificielle, et mesurer la progression des capacités de tels systèmes.
De son côté, l’experte Brandie Nonnecke, directrice du CITRIS Policy Lab de l’Université de Berkeley, estime que la désinformation est inévitable. A ses yeux » il est certain que les personnes malveillantes utiliseront l’IA pour créer des Fake News ou des deepfakes « . De fait, le débat devrait selon elle se concentrer sur les plateformes comme Facebook où ces Fake News peuvent être disséminées.
Elle estime que ces plateformes doivent reconnaître leur rôle dans la mitigation de la portée et de l’impact de ces actualités mensongères. Elles doivent évaluer dans quelle mesure leurs systèmes peuvent être manipulés, et développer des mécanismes transparents pour identifier et mitiger la propagation de faux contenu.
- Partager l'article :