OpenAI

OpenAI : cette chercheuse en sécurité s’enfuit, et révèle de graves inquiétudes

Le départ d’une chercheuse clé en sécurité de l’IA secoue . Inquiète des récents choix stratégiques, elle tire la sonnette d’alarme sur les risques potentiels liés à l’évolution rapide de l’intelligence artificielle.

Une chercheuse en sécurité de l’IA démissionne de chez OpenAI et c’est la panique ! En effet, cela n’a fait que soutenir les tensions autour du développement de l’IA. Selon cette chercheuse, la raison de son départ s’explique par sa préoccupation par « certains changements survenus au cours de l’année dernière ».

Départ d’une chercheuse chez OpenAI ? Une crise interne ?

Rosie Campbell explique qu’elle est assez préoccupée par les pratiques de sécurité d’OpenAI. De même pour sa préparation face à une potentielle IA de niveau humain. Dans une publication sur son Substack personnel, Campbell a partagé un message écrit sur le Slack interne de l’entreprise peu avant sa démission.

Elle y explique que sa décision a été influencée par le départ de Miles Brundage, ancien responsable de l’équipe dédiée à l’intelligence artificielle générale (AGI). Ce départ a entraîné la dissolution complète de cette équipe, un signal d’alarme pour Campbell.

YouTube video

« Après près de trois ans et demi chez OpenAI, je quitte l’entreprise », écrit-elle. « J’ai toujours été motivée par la mission de garantir une AGI sûre et bénéfique. Cependant, après le départ de [Brundage] et la dissolution de l’équipe AGI Readiness, je pense pouvoir poursuivre cette mission plus efficacement à l’extérieur. »

Campbell a également mentionné des changements récents au sein de l’entreprise qui l’a troublée. Néanmoins, elle n’est pas entrée dans les détails.

Cette période coïncide avec les turbulences internes de novembre dernier, lorsque des membres du conseil d’administration ont tenté d’évincer le PDG . Ces derniers étaient préoccupés par la priorité insuffisante accordée à la sécurité sous sa direction.

OpenAI n’est pas encore sorti d’affaire ?

Au-delà de la réintégration de Sam Altman après une tentative avortée de l’évincer, OpenAI a connu une série de départs notables au cours de l’année écoulée.

Ces démissions reflètent les tensions internes liées à la croissance rapide de l’entreprise.  C’est aussi le cas pour son orientation de plus en plus commerciale et à son influence grandissante sur le secteur de l’IA.

Campbell a exprimé son malaise face à ces bouleversements. « Bien que le changement soit inévitable avec la croissance, j’ai été troublée par certains changements survenus au cours de l’année dernière et par la perte de tant de personnes qui ont façonné notre culture », a-t-elle écrit. Elle espère que l’esprit qui a rendu OpenAI spécial pourra perdurer malgré les défis actuels.

Elle a également rappelé la mission première d’OpenAI : non seulement construire une intelligence artificielle générale (AGI), mais aussi s’assurer qu’elle bénéficie à l’humanité.

Cette chercheuse a averti ses anciens collègues que l’approche actuelle de la sécurité pourrait être insuffisante pour gérer les systèmes beaucoup plus puissants qui pourraient émerger dans les prochaines années.

Je pense que nous n’avons pas besoin de nous inquiéter sur la sécurité de l’IA tant que la technologie est réglementée. Et vous ? êtes-vous du même avis ? Partager votre avis dans les commentaires !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥