safe superintelligence inc

Ce fondateur d’OpenAI claque la porte et crée sa propre startup IA

Après avoir œuvré au sein d', Ilya Sutskever s'est lancé dans sa propre voie. Ce spécialiste a créé Safe Superintelligence Inc. (SSI). Contrairement à son ancienne entreprise, la SSI se focalise davantage sur la sécurité. A-t-elle une chance pour réussir dans ce domaine compétitif ?

La sécurité a toujours été une question délicate dans le domaine de l'IA. Les utilisateurs craignent une exploitation massive des données, surtout avec les modèles de référence. OpenAI connait bien cette situation. Ilya Sutskever, un ancien scientifique en chef de l'entreprise a alors pris une décision radicale. Il a quitté OpenAI pour lancer Safe Superintelligence Inc. (SSI). Une véritable réussite ou un flop total ? Seul l'avenir nous le dira.

Safe Superintelligence Inc.: le résultat d'une confrontation avec les dirigeants d'OpenAI

« Après presque une décennie, j'ai pris la décision de quitter OpenAI ». Ce message d'Ilya Sutskever annonçait la fin de sa collaboration avec l'entreprise de .

Les divergences d'opinions sont toujours présentes dans une société, et OpenAI n'échappe pas à cette règle. Ilya Sutskever, le cerveau derrière la SSI, a quitté l'entreprise de Sam Altman après avoir confronté la direction. Il a été accompagné par quelques spécialistes de l'IA.

« OpenAI ne serait pas ce qu'elle est sans lui », explique Sam Altman, PDG d'OpenAI, après le départ d'Ilya Sutskever.

La question de la sécurité était le sujet de discussion entre ces professionnels. Il n'y avait plus aucun terrain d'entente possible. Sutskever, accompagné par Jan Leilke (maintenant un spécialiste du magasin IA d'), Daniel Gross, et Daniel Levy, a fondé Safe Superintelligence Inc.

Cette nouvelle startup IA se focalise ainsi sur la sécurité, et rien de plus. Après tout, cette valeur est inestimable, surtout dans ce domaine très compétitif de l'intelligence artificielle.

« Notre objectif unique signifie qu'il n'y a aucune distraction par les frais généraux de gestion ou les cycles de produits, et notre modèle commercial signifie que la sûreté, la sécurité, et le progrès sont tous à l'abri des pressions commerciales à court terme », indique Ilya Sutskever dans un communiqué.

Tout est question de sécurité

Ilya Sutskever a toujours été intrigué par la sécurité dans le domaine de l'intelligence artificielle. Lui, et son collaborateur Jan Leike avaient prédit qu'une IA capable de rivaliser avec l'être humain a besoin de quelques réglementations clés.

En 2023, les deux spécialistes ont prédit qu'une telle IA verra le jour d'ici une décennie. Certes, c'est une innovation considérable. Toutefois, les ingénieurs doivent trouver des moyens pour contrôler, voire restreindre ce genre d'IA.

C'est pour cette raison que ces anciens d'OpenAI ont lancé SSI (Safe Superintelligence Inc.)

« SSI est notre mission, notre nom et l'ensemble de notre feuille de route produit, car c'est notre seul objectif. Notre équipe, nos investisseurs, et notre modèle commercial sont tous alignés pour atteindre le SSI. Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à l'ingénierie révolutionnaire et à des percées scientifiques. »

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *