Alors que la concurrence accélère le lancement de leur agent IA, OpenAI hésite encore à dévoiler sa propre version. Ces derniers promettent pourtant de révolutionner notre quotidien en accomplissant des tâches autonomes. Et OpenAI est un leader incontesté de l’IA, qui n’a jamais cessé de pousser les limites de la technologie pour garder sa position sur le marché.
Qu’est-il à l’entreprise qui a laissé tomber sa filiale non lucrative pour devenir entièrement commerciale ? Pourquoi investir des milliards pour un produit qu’au final on hésite à lancer ?
Mais qu’est-ce qui pouvait bien leur faire peur au point d’hésiter à lancer une technologie aussi prometteuse, pour eux comme pour chacun de nous ? Tant de questions…
Apparemment, l’agent IA n’est pas digne de confiance
Et ben pour une fois, OpenAI pense à autre chose que se faire une fortune. Qui l’eût cru ? Cela dit, ce que l’entreprise avance est du sérieux.
Imaginez un assistant virtuel qui gère vos e-mails, fait vos courses en ligne ou organise votre planning à la perfection. C’est pratique, qui n’en rêverait pas ? Cependant, que se passe-t-il si cet agent autonome se fait manipuler par un tiers malveillant ?
Vous avez sûrement déjà entendu parler des attaques par injections rapides non ? Pour faire simple : ce sont des techniques permettant de détourner un assistant IA de sa mission, le transformant en un genre d’agent double.
Prenons un scénario : vous lui demandez de réserver un produit en ligne. Il tombe sur un site malveillant qui lui demande d’accéder à vos e-mails ou, pire, à vos informations bancaires.
Ce serait une catastrophe assurée, non seulement pour les utilisateurs mais aussi pour la crédibilité d’OpenAI. Maintenant, vous êtes au courant de ce qui est en jeu, ce que la startup derrière ChatGT redoute.
C’est mignon, mais OpenAI ne réagit comme tel que dans son propre intérêt
La méfiance d’OpenAI n’est pas exagérée. La société marque même un point car, contrairement à Microsoft et Anthropic qui ont déjà lancé leur agent IA, elle, au moins, se préoccupe de notre sécurité.
Du moins, c’est la conclusion qu’elle espère qu’on tire. Moi, personnellement, je crois qu’elle a surtout peur que son propre agent IA nuit à son image. Microsoft en a, d’ailleurs, déjà fait l’expérience avec son Copilot, dupé par des hackers pour divulguer des informations sensibles.
Oh, et il n’y a pas si longtemps, des chercheurs ont montré que même ChatGPT pouvait être piégé via de simples documents Word. Alors, je vous laisse deviner le niveau de dégâts que pourraient causer des agents IA ayant accès à votre ordinateur.
Bref, selon des sources internes, les ingénieurs d’OpenAI travaillent activement à renforcer les barrières de sécurité avant de dévoiler leur propre technologie. Ce qui signifie qu’ils pourraient être lancés très prochainement.
Le temps pris pour ajuster la technologie sera suffisant pour éviter une catastrophe ? J’en doute fort.
C’est sûrement la raison pour laquelle Anthropic, soutenu par Google, a adopté une approche plus minimaliste. Elle a conseillé à ses utilisateurs de limiter l’accès de ses agents IA à des données sensibles. Tout simplement.
Plutôt que de faire de fausses promesses, elle a choisi de faire comprendre aux utilisateurs que les attaques sont du genre inévitable. À chacun de minimiser les dégâts dans le cas échéant.
Vous, qu’est-ce que vous en pensez ?
- Partager l'article :
Pour moi c’est pas compliqué je crée plusieurs comptes avec différents niveaux de sensibilité et là où mes données sont très sensibles ben je ne mets aucun agent IA. Un exemple pour déployer un agent IA pour faire des courses, lire mes mails, je le mettrais sur un compte déclaré sur un appareil où je n’ai aucune donnée sensible et où mes échanges de mails est sans danger et aussi une carte bancaire à solde solde minimal + une bonne discipline