Sécurité OpenAI danger

La mentalité d’OpenAI met le monde en danger : cet expert alerte

Ce n’est pas la première fois qu’on entend un bad buzz concernant l’IA, notamment ! Cette entreprise mère du fameux chatbot a fait l’objet d’une grande controverse. Pourquoi ? Un expert en IA accuse OpenAI de réécrire son histoire et de négliger gravement la sécurité.

Miles Brundage, ancien chercheur en politique chez OpenAI, critique le récent document sur la sécurité et l’alignement publié par l’entreprise la semaine dernière. Selon lui, OpenAI se présente comme une entreprise progressant vers l’intelligence artificielle générale (AGI) par petites étapes plutôt que par un « grand saut ». Il affirme également que cette approche itérative permettrait d’identifier les risques de sécurité et les abus potentiels à chaque phase.

OpenAI réécrit-il l’histoire de -2 ?

Dans son récent document, OpenAI suggère que le développement de GPT-2 a connu une discontinuité. Elle parle aussi du déploiement qui a été retardé en raison de préoccupations liées à un usage malveillant.

Par ailleurs, la société a affirmé qu’elle a adopté aujourd’hui une approche de déploiement progressif pour mieux gérer les risques.

Mais Miles Brundage ne croit pas du tout à ces affirmations ! Selon lui, cette version des faits est trompeuse. Il réfute l’idée que GPT-2 ait été traité différemment et a même déclaré que ce n’est pas la première fois qu’OpenAI applique cette méthode, mais depuis longtemps.

« Le déploiement de GPT-2, auquel j’ai participé, était parfaitement conforme à la philosophie actuelle d’OpenAI. Le modèle a été publié progressivement, avec un partage des enseignements à chaque étape. De nombreux experts en sécurité nous ont remerciés pour cette prudence », explique-t-il sur X.

Plus précisément, OpenAI chercherait à justifier son manque de transparence actuel en réécrivant son propre passé.

YouTube video

OpenAI minimise-t-elle réellement les dangers de l’IA ?

Ce n’est pas la seule chose que Miles Brundage reproche à OpenAI ! Il dénonce également la philosophie d’OpenAI en matière de gestion des risques. Il trouve que la société de impose un fardeau de la preuve excessif à ceux qui alertent sur les dangers potentiels de l’IA.

« Il semble qu’OpenAI considère toute préoccupation comme alarmiste et exige des preuves écrasantes de dangers imminents avant d’agir. Sinon, ils continuent à publier leurs modèles. C’est une mentalité très dangereuse pour des systèmes d’IA avancés », affirme-t-il.

D’ailleurs, je pense que cette affirmation ne fait qu’augmenter les craintes sur la culture du risque. Rappelons qu’OpenAI a déjà été accusée de privilégier l’innovation rapide au détriment de la sécurité et de la réglementation.

OpenAI affirme que sa stratégie de déploiement progressif est la meilleure façon de gérer les risques. Mais, il reste à savoir si OpenAI ajustera sa trajectoire ou poursuivra son avancée malgré les avertissements et les critiques.

Et vous, partagez-vous la même idée que cet ancien chercheur d’OpenAI ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥