Sécurité OpenAI danger

La mentalité d’OpenAI met le monde en danger : cet expert alerte

Ce n’est pas la première fois qu’on entend un bad buzz concernant l’IA, notamment OpenAI ! Cette entreprise mère du fameux chatbot ChatGPT a fait l’objet d’une grande controverse. Pourquoi ? Un expert en IA accuse OpenAI de réécrire son histoire et de négliger gravement la sécurité.

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

Miles Brundage, ancien chercheur en politique chez OpenAI, critique le récent document sur la sécurité et l’alignement publié par l’entreprise la semaine dernière. Selon lui, OpenAI se présente comme une entreprise progressant vers l’intelligence artificielle générale (AGI) par petites étapes plutôt que par un « grand saut ». Il affirme également que cette approche itérative permettrait d’identifier les risques de sécurité et les abus potentiels à chaque phase.

OpenAI réécrit-il l’histoire de GPT-2 ?

Dans son récent document, OpenAI suggère que le développement de GPT-2 a connu une discontinuité. Elle parle aussi du déploiement qui a été retardé en raison de préoccupations liées à un usage malveillant.

Par ailleurs, la société a affirmé qu’elle a adopté aujourd’hui une approche de déploiement progressif pour mieux gérer les risques.

Mais Miles Brundage ne croit pas du tout à ces affirmations ! Selon lui, cette version des faits est trompeuse. Il réfute l’idée que GPT-2 ait été traité différemment et a même déclaré que ce n’est pas la première fois qu’OpenAI applique cette méthode, mais depuis longtemps.

« Le déploiement de GPT-2, auquel j’ai participé, était parfaitement conforme à la philosophie actuelle d’OpenAI. Le modèle a été publié progressivement, avec un partage des enseignements à chaque étape. De nombreux experts en sécurité nous ont remerciés pour cette prudence », explique-t-il sur X.

Plus précisément, OpenAI chercherait à justifier son manque de transparence actuel en réécrivant son propre passé.

YouTube video

OpenAI minimise-t-elle réellement les dangers de l’IA ?

Ce n’est pas la seule chose que Miles Brundage reproche à OpenAI ! Il dénonce également la philosophie d’OpenAI en matière de gestion des risques. Il trouve que la société de Sam Altman impose un fardeau de la preuve excessif à ceux qui alertent sur les dangers potentiels de l’IA.

« Il semble qu’OpenAI considère toute préoccupation comme alarmiste et exige des preuves écrasantes de dangers imminents avant d’agir. Sinon, ils continuent à publier leurs modèles. C’est une mentalité très dangereuse pour des systèmes d’IA avancés », affirme-t-il.

D’ailleurs, je pense que cette affirmation ne fait qu’augmenter les craintes sur la culture du risque. Rappelons qu’OpenAI a déjà été accusée de privilégier l’innovation rapide au détriment de la sécurité et de la réglementation.

OpenAI affirme que sa stratégie de déploiement progressif est la meilleure façon de gérer les risques. Mais, il reste à savoir si OpenAI ajustera sa trajectoire ou poursuivra son avancée malgré les avertissements et les critiques.

Et vous, partagez-vous la même idée que cet ancien chercheur d’OpenAI ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥