La photo d’une explosion au Pentagone a provoqué une chute de la bourse américaine et a été diffusée sur les chaînes de télévision du monde entier. En réalité, c’était une fausse image créée par l’intelligence artificielle. Retour sur un incident qui pourrait devenir habituel au cours des années à venir…
Face à l’essor des intelligences artificielles génératives comme ChatGPT et MidJourney, de nombreux experts s’inquiètent d’une vague de désinformation et appellent à ralentir le développement technologique.
Si les fausses photos virales du Pape en Balenciaga montraient déjà la dangereuse crédibilité des DeepFakes créés par l’IA, un nouvel incident met en lumière les conséquences potentiellement catastrophiques.
Le lundi 22 mai 2023, de multiples comptes Twitter « vérifiés » ont partagé une photo présentant une explosion près du Pentagone.
L’un d’eux affirmait être associé à Bloomberg News, et a publié l’image sur laquelle on peut voir un épais nuage de fumée noir près d’un grand bâtiment avec la légende « large explosion près du complexe du Pentagone à Washington DC ».
https://twitter.com/IAPonomarenko/status/1660655467872366593
Très vite, l’information a été reprise par Republic TV : l’une des plus grandes chaînes de télévision indiennes. La photo a été montrée à l’antenne, et le média russe RT a été cité.
Quelques instants plus tard, à 10h06, la bourse américaine a commencé à plonger. Le Dow Jones Industrial Average a perdu 80 points, et le S&P 500 s’est également effondré.
Pourtant, quelques minutes plus tard, ces indices avaient repris du poil de la bête. Et pour cause : l’image de l’explosion du Pentagone n’était qu’un faux généré par une IA.
Une fausse photo générée par l’IA
Il suffit de l’observer attentivement pour s’en apercevoir : le bâtiment ne ressemble pas au Pentagone, il comporte des erreurs structurelles et des barrières qu’il ne serait pas possible de voir si quelqu’un avait ajouté de la fumée sur une photo existante.
Les pompiers d’Arlington en Virginie ont ensuite confirmé qu’il n’y avait eu aucun incident dans la zone, et que la Pentagon Force Protection Agency était au courant de cette fausse rumeur circulant sur les réseaux sociaux.
@PFPAOfficial and the ACFD are aware of a social media report circulating online about an explosion near the Pentagon. There is NO explosion or incident taking place at or near the Pentagon reservation, and there is no immediate danger or hazards to the public. pic.twitter.com/uznY0s7deL
— Arlington Fire & EMS (@ArlingtonVaFD) May 22, 2023
Le compte faussement affilié à Bloomberg a été suspendu par Twitter, et on ignore toujours qui se cachait derrière. Les origines de l’image demeurent également inconnues.
La chaîne de télévision indienne Republic TV a présenté son mea culpa, et RT a supprimé sa publication. En quelques minutes, cette simple image a donc semé la zizanie dans le monde entier.
Un avant-goût du chaos à venir ?
Cet incident peut prêter à sourire, mais met en lumière plusieurs problèmes inquiétants. D’abord, c’est la preuve s’il en fallait une que la vérification Twitter n’est plus un indicateur fiable d’authenticité ou de fiabilité.
Pour rappel, depuis le rachat par Elon Musk, n’importe qui peut obtenir un compte vérifié en échange d’un paiement mensuel. Ce n’est donc plus une garantie que le compte appartienne réellement au prétendu propriétaire.
Au-delà de ce souci lié au changement de politique de Twitter, cet épisode confirme l’impact cataclysmique que peut avoir un simple DeepFake.
Cette photo a rapidement été identifiée comme fausse, mais que se passera-t-il quand les intelligences artificielles auront progressé et pourront générer des images parfaitement réalistes ?
Dans un avenir proche, une simple image générée à partir d’un prompt pourrait provoquer un effondrement des marchés financiers, une crise géopolitique ou même un conflit militaire. Il est urgent de développer des outils permettant de détecter le contenu créé par l’IA !
- Partager l'article :