Dans un rapport publié le 5 juin , OpenAI met en lumière une intensification de l’utilisation malveillante de ChatGPT par des groupes liés à la Chine. Et ce, à des fins différentes les unes que les autres.
Selon l’entreprise californienne, plusieurs opérations de désinformation ont été détectées. Ce, sur diverses plateformes, où des contenus politiques pro-chinois ont été générés grâce à ChatGPT.
Bien que ces campagnes soient encore de portée limitée, OpenAI note qu’elles se sophistiquent de plus en plus et adoptent des stratégies variées. Les messages produits visaient des audiences réduites, principalement sur les réseaux sociaux.
Mais la diversité des tactiques employées montre une évolution inquiétante de ces pratiques. Le CEO Sam Altman, inquiet, déclare que ses outils n’ont jamais été conçus pour servir de relais à ce type d’usage détourné.
ChatGPT, le préféré de tous, même les hackers chinois
Selon le rapport, certaines plateformes exploitaient ChatGPT pour attaquer un jeu vidéo centré sur Taïwan. D’autres diffamaient une activiste pakistanaise ou relayaient des messages trompeurs sur la fermeture de l’Agence des États-Unis pour le développement international (USAID).
Des contenus dirigés contre la politique économique américaine ont aussi été identifiés. L’un des messages générés via l’IA dénonçait, par exemple, les politiques douanières du président Donald Trump.
Il affirme que les tarifs douaniers rendaient les produits importés excessivement chers, alors que l’État continuait de financer généreusement l’aide étrangère. Ce type de message, rédigé de manière à paraître crédible et spontané, alimente un climat de méfiance et de division.
Plusieurs comptes ont déjà été suspendus pour avoir généré des contenus sensibles sur le plan politique ou géopolitique. Cependant, je ne crois pas qu’ils soient les seuls.
Une arme entre de mauvaises mains
Dans le rapport, OpenAI explique que certains groupes ont recours à ChatGPT non seulement pour produire du contenu idéologique. Mais aussi pour optimiser la dimension technique de leurs opérations.
L’IA est mobilisée dans des tâches telles que la recherche d’informations en ligne, la conception et la correction de scripts malveillants. La startup a même découvert que sa technologie a aidé dans le réglage de configurations systèmes et le développement d’outils de piratage et d’automatisation des réseaux sociaux.
Le rapport évoque également une campagne spécifique menée depuis la Chine, visant à alimenter les fractures au sein de l’opinion publique américaine. Les contenus générés par l’IA prenaient délibérément des positions opposées sur des sujets sensibles.
Et ce, avec des textes et des photos de profils entièrement fabriqués, dans le seul objectif de brouiller les repères et d’attiser la polarisation.
Alors, qu’est-ce que vous en dites ? OpenAI arrivera-t-elle à protéger sa technologie contre les usages malveillants… tout en continuant à croître ?
Pour moi, l’utilisation à mauvais escient est inévitable et ne dépend pas de son créateur. Et vous ? On vous attend dans le commentaire !
- Partager l'article :