OpenAI dévoile son plan en cas de rébellion des IA : Espérons qu’il fonctionne

prend très au sérieux la possibilité d’une rébellion des IA dans le futur. La compagnie dévoile son plan pour nous protéger des risques.

Le monde de l’intelligence artificielle va franchir un nouveau cap avec les modèles d’avant-garde. Leurs capacités pourraient se révéler dangereuses. Mais OpenAI a déjà un plan pour nous protéger d’une éventuelle rébellion des IA.

En intelligence artificielle, les modèles d’avant-garde sont des modèles d’apprentissage automatique à grande échelle. Leurs capacités dépassent celles des modèles actuels, même celles des plus avancés. Beaucoup dans le milieu les considèrent comme les modèles d’intelligence artificielle du futur.

YouTube video

Cependant, tout le monde ne partage pas cet enthousiasme pour ces modèles de classe supérieure. Certains craignent notamment leurs performances exceptionnelles, car ces dernières pourraient se révéler dangereuses. Les alarmistes parlent de risques majeurs pour la sécurité publique.

Pour cette raison, les entreprises engagées dans la course à l’intelligence artificielle mettent l’accent sur la sécurité, la fiabilité et la responsabilité. OpenAI figure évidemment parmi ces entreprises. Rappelons que la startup californienne est propriétaire du populaire , chatbot IA qui tourne avec des modèles presque d’avant-garde.

Une équipe pour surveiller les IA

Grâce à son agent conversationnel génératif, la startup californienne se positionne aujourd’hui comme le leader du marché de l’intelligence artificielle. Elle veut aller plus loin dans la recherche et dans le développement. Néanmoins, OpenAI a conscience que la technologie est capable d’engendrer de graves menaces.

« Nous prenons au sérieux l’ensemble des risques de sécurité liés à l’IA, depuis les systèmes dont nous disposons aujourd’hui jusqu’aux confins de la superintelligence », peut-on lire dans un article de blog sur le site de la startup.

Fin octobre, la compagnie américaine a ainsi lancé une équipe pour surveiller les « risques catastrophiques de l’IA ». Ce groupe se charge également de lutter contre ces menaces. Si elle juge qu’un modèle est excessivement dangereux, l’équipe peut décider de suspendre son développement ou son déploiement.

Le plan d’OpenAI pour lutter contre la rébellion des IA

Le groupe de surveillance a consacré ses premières semaines d’activité à l’élaboration d’un nouveau système d’évaluation des modèles d’avant-garde. En début de semaine, OpenAI a publié sur son site un document qui détaille ce plan. Celui-ci renseigne ainsi sur la mise en place de quatre niveaux de risque pour quatre catégories.

Pour ce qui est des niveaux de risque, ce sont les suivants : faible, moyen, élevé et critique. D’autre part, les catégories fonctionnent comme suit :

  • Première catégorie – Faculté du modèle à mener des cyberattaques
  • Deuxième catégorie – Capacité à faciliter la création de menace biologique, radiologique, chimique ou nucléaire
  • Troisième catégorie – Capacité à influencer les comportements humains
  • Quatrième catégorie – Capacité à se soustraire du contrôle des humains ou son autonomie

De ce fait, poursuivre le développement d’un modèle noté “critique” selon la charte d’OpenAI peut mener à une rébellion des IA. D’après les précisions de la startup américaine, seuls les modèles avec un score “moyen” ou inférieur peuvent être déployés. Par ailleurs, un système noté “élevé” ne verra pas son développement interrompu.

« Nous mettrons également en œuvre des mesures de sécurité supplémentaires adaptées aux modèles présentant des niveaux de risques élevés ou critiques », a ajouté l’entreprise américaine.

YouTube video

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *