L’an dernier, un hacker a compromis OpenAI, la société derrière ChatGPT, volant des informations cruciales. Pourtant, l’entreprise a choisi de ne pas informer le public, ce qui a mené à des désaccords parmi les employés.
En avril 2023, un incident majeur a ébranlé OpenAI. Un hacker a pénétré les messageries internes de l’entreprise, semant l’inquiétude parmi les employés. Il a extrait des informations critiques sur les technologies d’IA en développement. Cela s’est passé lors de discussions sur un forum en ligne.
En dépit de cela, il n’a pas pu accéder aux systèmes principaux où l’IA est développée et stockée. Cet acte malveillant a été révélé aux employés lors d’une réunion à San Francisco.
Or, les dirigeants ont choisi de ne pas rendre l’affaire publique. Ils jugeaient que l’incident n’impliquait pas de données de clients ou de partenaires. Ils ont estimé que le pirate était probablement un acteur isolé, sans liens avec des gouvernements étrangers. Pour cette raison, ni le FBI ni aucune autre agence n’ont été informés.
Piratage chez OpenAI : les employés redoutent des fuites vers l’étranger
Sans doute, cet incident a suscité une grande inquiétude parmi le personnel d’OpenAI. Certains employés craignaient que des adversaires internationaux, comme la Chine, puissent également tenter de voler des secrets similaires.
C’est le cas de la technologie IA, qui est cruciale non seulement pour le commerce mais aussi pour la recherche. Cela pourrait, à terme, compromettre la sécurité nationale des États-Unis.
De plus, cet événement a révélé des fractures internes sur la manière dont la sécurité était gérée. Il a également provoqué des interrogations sur le sérieux de l’approche d’OpenAI en matière de sécurité.
Après la violation, Leopold Aschenbrenner, responsable d’un programme technique chez OpenAI, a pris une position critique. Il a envoyé une note au conseil d’administration. Il a affirmé que l’entreprise ne faisait pas assez pour empêcher le vol de ses secrets.
Aschenbrenner a par la suite été licencié au printemps pour avoir divulgué d’autres informations en dehors de l’entreprise. Il a argué que son licenciement avait été motivé par des raisons politiques.
« Nous comprenons les inquiétudes soulevées par Leopold lorsqu’il travaillait chez OpenAI, et cela n’a pas conduit à sa séparation, » a expliqué Liz Bourgeois, porte-parole d’OpenAI. Elle a ajouté que bien qu’ils partageaient l’engagement de créer une IA sûre, ils ne s’accordaient pas avec toutes ses affirmations.
L’IA est-elle menacée par l’espionnage chinois ?
Autrement, les craintes d’une connexion entre le piratage technologique et la Chine ne sont pas infondées. Brad Smith, président de Microsoft, a témoigné sur des attaques similaires au Capitole le mois dernier.
OpenAI, conformément aux lois fédérales et californiennes, ne peut exclure personne en raison de sa nationalité. « Nous avons besoin des esprits les plus brillants pour travailler sur cette technologie, » a souligné Matt Knight, responsable de la sécurité chez OpenAI. Cette déclaration montre qu’il y a des risques, mais ils sont nécessaires pour avancer.
Notons que certaines entreprises, comme Meta, partagent leurs conceptions d’IA sous forme de logiciels open source. Elles estiment que les dangers actuels de l’IA sont minimes et que le partage de code aide à identifier et résoudre les problèmes. Quoi qu’il en soit, cela rend ces technologies accessibles aux ennemis des États-Unis, comme la Chine.
Les systèmes d’IA actuels peuvent diffuser de fausses informations en ligne, notamment sous forme de textes, d’images fixes et de vidéos. Ils commencent aussi à supprimer certains emplois. Des entreprises comme OpenAI et ses concurrents ajoutent des garde-fous à leurs applications d’IA pour empêcher la désinformation et autres problèmes.
- Partager l'article :