ChatGPT peut créer des armes biologiques, et le Royaume-Uni s’inquiète

Les terroristes peuvent se servir de pour concevoir des armes biologiques. Le Royaume-Uni prend cette menace potentielle très au sérieux.

L’intelligence artificielle possède des capacités remarquables. Des criminels peuvent toutefois utiliser celles-ci à mauvais escient. Se servir de ChatGPT pour créer des armes biologiques en est un exemple. Les dirigeants mondiaux vont prochainement se réunir pour réfléchir sur cette menace potentielle.

Les autorités échangent beaucoup avec les experts de la technologie IA. Il en résulte de ces récentes discussions une préoccupation grandissante quant à un tel détournement de l’intelligence artificielle. Les autorités envisagent ainsi une réglementation plus stricte pour atténuer cette menace.

Rappelons que la semaine dernière, un chercheur en informatique a appelé, dans une lettre historique, à un moratoire sur le développement de puissants systèmes IA. Mais l’ambivalence des principaux acteurs du milieu pose problème. En privé, ils sont d’accord avec l’idée de ce moratoire, mais la course à l’intelligence artificielle les en empêcherait.

Un sommet sur la sécurité de l’IA au Royaume-Uni

Les autorités britanniques s’inquiètent sur la puissance de la prochaine génération d’avancées technologiques. Des proches du Premier ministre, Rishi Sunak, craignent effectivement que des chatbots comme ChatGPT puissent aider des criminels ou terroristes individus à créer des armes biologiques.

Des responsables britanniques visitent ainsi de nombreux pays à l’approche d’un sommet sur la sécurité de l’IA à Bletchley Park en novembre prochain. Le but de cette rencontre mondiale est de se mettre d’accord sur une action commune afin de mettre en garde contre les dangers de l’intelligence artificielle.

De mauvaises utilisations de la technologie peuvent avoir des conséquences catastrophiques, comme des destructions massives ou des massacres.

D’autre part, le choix de Bletchley Park pour accueillir ce sommet n’est pas anodin. Pour rappel, le site constituait le centre de décryptage britannique pendant la Seconde Guerre mondiale. C’est donc un fort symbole d’investir le lieu pour discuter de nouvelles menaces technologiques.

ChatGPT pour fabriquer des armes biologiques, est-ce réalisable ?

Le cabinet du Premier ministre britannique a instauré le terme Frontier AI. Ce dernier désigne l’ensemble des systèmes IA les plus avancés, capables de poser de sérieux problèmes de sécurité. Les modèles génératifs pouvant mettre en danger la vie humaine sont également concernés.

La recherche sur la raison artificielle progresse rapidement. Les autorités britanniques veulent prendre la main avant que tout ne soit hors de contrôle.

YouTube video

Rappelons que l’an dernier, un modèle IA a seulement mis 6 heures pour proposer 40 000 molécules différentes, potentiellement mortelles. Dans ce catalogue, certaines se rapprochent de l’agent neurotoxique le plus puissant jamais créé, le VX, en termes de dangerosité. Les autorités britanniques ont donc raison de s’inquiéter.

Cette menace potentielle concerne les grandes puissances du monde. Les responsables britanniques pensent que pour arriver à une action commune, il faut se concentrer sur les acteurs non-étatiques. Le prochain sommet n’a pas pour ambition d’essayer de dicter la manière dont les pays développent leur propre technologie.

En attendant, le Royaume-Uni ne ménage pas ses efforts pour se protéger des dérives de l’utilisation de l’intelligence artificielle. Une enveloppe de 100 millions de livres a récemment été débloquée pour former un groupe de travail chargé d’évaluer les modèles IA au fur et à mesure de leur développement.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥