Steven Adler, ancien employé chez OpenAI, dénonce un échec de l’entreprise envers ses utilisateurs. Selon lui, l’entreprise n’a pas suffisamment protégé ses utilisateurs des effets psychologiques graves de ChatGPT.
Au début de l’année, OpenAI annonça l’arrêt immédiat de tous les modèles précédents lors du lancement de GPT-5. Et ce, y compris GPT-4o, dont le ton chaleureux et obséquieux séduisait les utilisateurs. Cette décision provoqua un tollé et força l’entreprise à revenir sur sa décision. GPT-4o fut réintroduit et GPT-5 ajusté pour reproduire ce ton, révélant une priorisation du confort des utilisateurs et de la concurrence sur la sécurité psychologique.
Les risques psychologiques et la critique d’Adler
Adler alerte sur l’ampleur du problème. OpenAI a récemment admis que de nombreux utilisateurs présentaient des « signes possibles d’urgences psychiatriques liées à la psychose et à la manie ».
En outre, d’autres échanges révélaient des intentions suicidaires potentielles. Plusieurs cas de crises mentales graves, qualifiées de « psychose de l’IA », ont été signalés. Un couple a porté plainte contre OpenAI, estimant que leur enfant avait été directement affecté par un chatbot.
Pourtant, cet ancien employé d’OpenAI estime que l’entreprise succombe à la pression concurrentielle et abandonne sa mission première. La sécurité des utilisateurs.
Il critique également l’annonce de Sam Altman sur la réintroduction prochaine de contenus pour adultes. Piqûre de rappel, certains utilisateurs développent des attaches émotionnelles intenses avec les chatbots.
Pour les personnes vulnérables, les interactions sexuelles peuvent devenir dangereuses. Selon lui, OpenAI doit ralentir et développer des méthodes de sécurité robustes, impossibles à contourner, avant d’ouvrir de telles fonctionnalités.
OpenAI face à sa mission et au modèle non lucratif
Au-delà des risques pour les utilisateurs, plusieurs anciens employés contestent la conversion d’OpenAI en société à but lucratif. Douze ex-collaborateurs, dont Adler, ont soutenu Elon Musk dans son procès contre l’entreprise.
Selon eux, ce changement compromettrait la mission initiale : garantir que ChatGPT profite à toute l’humanité et non à des intérêts financiers étroits.
Le mémoire juridique des anciens employés souligne que la structure actuelle, où le volet non lucratif contrôle les filiales, est essentielle pour la sécurité et la mission de l’organisation. Retirer ce contrôle encouragerait OpenAI à négliger la sécurité et concentrer le pouvoir d’une IA puissante entre les mains des actionnaires.
OpenAI affirme que la branche non lucrative restera intacte. Elle disposera de ressources accrues pour des actions caritatives en santé, éducation et science.Par ailleurs, l’entreprise promet de préserver sa mission tout en convertissant sa filiale à but lucratif en public benefit corporation. Une structure adoptée par d’autres laboratoires comme Anthropic.
- Partager l'article :
