Accueil > Intelligence artificielle > OpenAI a finalement libéré son IA jugée trop dangereuse pour la société
openai ia dangereuse

OpenAI a finalement libéré son IA jugée trop dangereuse pour la société

OpenAI a finalement fait le choix de publier son intelligence artificielle GPT-2 capable de générer des textes cohérents à partir de quelques mots. Lors de sa création, les chercheurs avaient pourtant décidé de la garder sous scellé par peur qu’elle inonde le web de Fake News…

En février 2019, le laboratoire de recherche OpenAI dévoilait un système d’intelligence artificielle intitulé GPT-2 spécialisé dans la génération de texte automatisée. À l’époque, toutefois, l’institut avait fait le choix de garder cette IA isolée par peur qu’elle soit utilisée à mauvais escient par des personnes mal intentionnées.

Entraîné à partir de 8 millions de textes, le programme est si performant qu’il pourrait en effet être utilisé pour diffuser des Fake News à grande échelle ou pour organiser des campagnes de spam massives. Il fait partie d’une nouvelle génération de systèmes capables de générer de faux articles impressionnants de cohérence à partir d’un simple titre. C’est pourquoi Open AI a préféré ne pas la publier.

Depuis lors, l’organisation a cependant mis en ligne des versions plus petites et moins complexes de GPT-2 et a étudié la façon dont elles ont été exploitées. Dans un billet de blog publié cette semaine, OpenAI explique n’avoir constaté “ aucune preuve de mauvais usage ”. Elle a donc décidé de publier la version complète originale de son IA.

OpenAI estime que GPT-2 n’est pas assez performante pour constituer une menace

Les craintes de nombreux experts risquent donc désormais de devenir réalité. Quoi qu’il en soit, beaucoup d’experts avaient également critiqué la décision de ne pas publier ce système en estimant qu’elle freinait l’avancée de la recherche.

Fort heureusement, GPT-2 n’est pas encore infaillible et la cohérence des textes qu’elle génère tend à s’atténuer sur de longs récits. Les chercheurs d’OpenAI ont d’ailleurs créé des systèmes automatiques capables de détecter l’IA avec une précision de 95%.

Le laboratoire estime donc que le risque qu’elle inonde les réseaux sociaux de Fake News reste très limité pour le moment, mais continuera malgré tout à surveiller la façon dont cette IA est utilisée et adaptera sa politique en fonction. Vous pouvez d’ailleurs mesurer ses performances par vous-même en la testant sur le site TalkToTransformer.com à cette adresse

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend