OpenAI a trahi les utilisateurs de ChatGPT : cet ancien employé dénonce

OpenAI a trahi les utilisateurs de ChatGPT : cet ancien employé dénonce

Steven Adler, ancien employé chez OpenAI, dénonce un échec de l’entreprise envers ses utilisateurs. Selon lui, l’entreprise n’a pas suffisamment protégé ses utilisateurs des effets psychologiques graves de ChatGPT.

Au début de l’année, OpenAI annonça l’arrêt immédiat de tous les modèles précédents lors du lancement de GPT-5. Et ce, y compris GPT-4o, dont le ton chaleureux et obséquieux séduisait les utilisateurs. Cette décision provoqua un tollé et força l’entreprise à revenir sur sa décision. GPT-4o fut réintroduit et GPT-5 ajusté pour reproduire ce ton, révélant une priorisation du confort des utilisateurs et de la concurrence sur la sécurité psychologique.

Les risques psychologiques et la critique d’Adler

Adler alerte sur l’ampleur du problème. OpenAI a récemment admis que de nombreux utilisateurs présentaient des « signes possibles d’urgences psychiatriques liées à la psychose et à la manie ».

En outre, d’autres échanges révélaient des intentions suicidaires potentielles. Plusieurs cas de crises mentales graves, qualifiées de « psychose de l’IA », ont été signalés. Un couple a porté plainte contre OpenAI, estimant que leur enfant avait été directement affecté par un chatbot.

Pourtant, cet ancien employé d’OpenAI estime que l’entreprise succombe à la pression concurrentielle et abandonne sa mission première. La sécurité des utilisateurs.

Il critique également l’annonce de Sam Altman sur la réintroduction prochaine de contenus pour adultes. Piqûre de rappel, certains utilisateurs développent des attaches émotionnelles intenses avec les chatbots.

Pour les personnes vulnérables, les interactions sexuelles peuvent devenir dangereuses. Selon lui, OpenAI doit ralentir et développer des méthodes de sécurité robustes, impossibles à contourner, avant d’ouvrir de telles fonctionnalités.

OpenAI face à sa mission et au modèle non lucratif

Au-delà des risques pour les utilisateurs, plusieurs anciens employés contestent la conversion d’OpenAI en société à but lucratif. Douze ex-collaborateurs, dont Adler, ont soutenu Elon Musk dans son procès contre l’entreprise.

YouTube video

Selon eux, ce changement compromettrait la mission initiale : garantir que ChatGPT profite à toute l’humanité et non à des intérêts financiers étroits.

Le mémoire juridique des anciens employés souligne que la structure actuelle, où le volet non lucratif contrôle les filiales, est essentielle pour la sécurité et la mission de l’organisation. Retirer ce contrôle encouragerait OpenAI à négliger la sécurité et concentrer le pouvoir d’une IA puissante entre les mains des actionnaires.

OpenAI affirme que la branche non lucrative restera intacte. Elle disposera de ressources accrues pour des actions caritatives en santé, éducation et science.Par ailleurs, l’entreprise promet de préserver sa mission tout en convertissant sa filiale à but lucratif en public benefit corporation. Une structure adoptée par d’autres laboratoires comme Anthropic.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥