OpenAI cache un terrible secret : l’IA a 70% de chances de détruire l’humanité ! Toutefois, le CEO Sam Altman refuse de ralentir dans sa quête de création d’une AGI supérieure à l’Homme, et les employés qui tentent de révéler la vérité sont réduits au silence. Révélations choc !
Depuis plusieurs années, de nombreux experts alertent sur les dangers de l’intelligence artificielle. Peu après le lancement de ChatGPT fin 2022, notamment, le Future of Life Institute a publié une lettre ouverte appelant à mettre en pause le développement de l’IA.
Cette lettre a été signée par plusieurs centaines de spécialistes, dont Elon Musk, et appelait à un moratoire d’au moins six mois par crainte que les machines échappent à notre contrôle et détruisent l’humanité…
Toutefois, cette pétition n’a eu aucun impact. Les dangers de cette technologie ont été largement ignorés par l’industrie et le grand public, et les LLM comme GPT ont continué de s’améliorer et de se multiplier.
Alors, pourquoi ces avertissements sont-ils tombés dans l’oreille d’un sourd ? L’une des raisons est peut-être la confiance affichée par OpenAI, leader du marché, qui semblait totalement serein et certain de maîtriser sa propre créature.
En réalité, il s’avère qu’il ne s’agissait que d’une façade. Le CEO Sam Altman et les autres dirigeants de la startup sont bien moins confiants qu’ils le laissent paraître, mais les employés ont l’interdiction de s’exprimer sur les dangers de l’IA !
C’est ce que vient de révéler une coalition d’employés anciens et actuels d’OpenAI, ainsi que leurs confrères d’Anthropic et Google DeepMind.
Comme nous l’explique Magloire dans son article, ils appellent à un « Droit d’Avertir » les gouvernements et le grand public sur les inquiétudes concernant la sécurité de l’IA.
Les employés d’OpenAI muselés par des Accords de Non-Divulgation
Sous couvert d’anonymat, à travers une lettre ouverte, ils dévoilent l’existence d’accords de non-divulgation visant à les réduire au silence même après avoir quitté l’entreprise !
C’est pourquoi ils demandent aux entreprises de l’IA de « soutenir une culture de critique ouverte », du moment que leurs secrets commerciaux sont protégés.
Outre les employés, la lettre a aussi été signée par plusieurs pionniers de l’intelligence artificielle tels que Yoshua Bengio, Stuart Russell ou encore Geoffrey Hinton qui avait quitté Google en 2023 en expliquant être rongé par la peur et les regrets liés à ses travaux sur l’IA…
Selon le site web, les signataires estiment que l’IA va certes « délivrer des bénéfices sans précédent pour l’humanité », mais comporte aussi des risques liés à la concentration de pouvoir au sein de l’industrie et au musellement des travailleurs inquiets.
Un ancien employé d’OpenAI, dénommé William Saunders, explique que le CEO Sam Altman a déclaré qu’il « ne faut pas faire confiance à une entreprise et certainement pas à une personne pour gouverner l’IA », et partage cet avis.
Selon lui, « lorsque l’on traite de nouvelles technologies potentiellement dangereuses, il devrait y avoir des moyens de partager l’information sur les risques avec des experts indépendants, les gouvernements et le public ».
Cette initiative Right to Warn survient quelques jours après les révélations de Vox selon lesquelles OpenAI menace de récupérer les capitaux propres des employés s’ils ne signent pas les accords de non-divulgation.
De fausses promesses de prudence ?
Ancien employé d’OpenAI et chercheur au Alignment Research Center, Jacob Hilton appelle à travers un thread Twitter à empêcher les travailleurs de l’IA d’être sanctionnés pour s’exprimer en public, afin qu’OpenAI et les autres entreprises du secteur puissent être tenues pour responsables en cas de problèmes liés à l’IA.
Malgré les engagements pris par les entreprises IA pour rassurer le public, le chercheur souligne qu’il n’y a aucun moyen pour le public de savoir si elles respectent réellement ces engagements…
Rappelons d’ailleurs qu’OpenAI a récemment supprimé son équipe de « superalignement » chargée de veiller à ce que ses IA soient sûres, et que plusieurs chercheurs ont quitté l’entreprise sur fond de craintes…
« Le monde n’est pas prêt, nous ne sommes pas prêts ! »
Venons-en au vif du sujet : quelles sont réellement les craintes des professionnels de l’IA ? Quelques jours après la publication de la lettre ouverte, l’un des signataires vient de partager une terrifiante estimation.
Lors d’une interview au New York Times, l’ancien chercheur d’OpenAI Daniel Kokotajlo révèle que l’intelligence artificielle a 70% de chances de détruire l’humanité.
Personne n’accepterait un tel risque en connaissance de cause, et c’est la raison pour laquelle OpenAI veut taire cette vérité.
Toujours selon Kokotajlo, la startup ignore délibérément ce grave danger, car ses dirigeants sont obsédés par la quête de création d’une IA générale (AGI) et par les possibilités qu’elle pourrait offrir…
L’entreprise est « vraiment excitée par la création de l’AGI, et se livre à une course effrénée pour être la première à y arriver ».
Âgé de 31 ans, Kokotajlo a rejoint OpenAI en 2022, et s’est vu confier pour mission de prévoir les progrès de la technologie. Il a déterminé que l’AGI serait atteinte d’ici 2027… mais qu’elle avait de fortes chances de nuire à l’humanité de manière catastrophique ou même de la détruire.
C’est pourquoi il a personnellement supplié le CEO Sam Altman de recentrer l’entreprise sur la sécurité et de passer plus de temps à implémenter des barrières pour contrôler la technologie plutôt que de continuer à la rendre plus intelligente.
Toutefois, alors que le chef d’entreprise faisait mine de partager son avis, il a fini par se rendre compte que ce n’était qu’un jeu d’acteur. Rien ni personne ne semble pouvoir détourner Altman de son objectif ni même le ralentir…
C’est pourquoi Kokotajlo a quitté l’entreprise en avril 2024, indiquant à son équipe qu’il avait perdu confiance envers OpenAI et sa capacité à se comporter de façon responsable. « Le monde n’est pas prêt, et nous ne sommes pas prêts » a-t-il écrit dans son email…
Et vous, qu’en pensez-vous ? Les craintes des employés sont-elles fondées ? Comment arrêter Sam Altman et OpenAI dans leur quête de création d’une AGI ? Partagez votre avis en commentaire !
- Partager l'article :