En 2024, l’IA est devenue une arme de propagande pour les extrémistes néonazis. Grâce à des vidéos et des discours générés par IA, Adolf Hitler reprend vie en ligne. En plus, il touche une nouvelle génération à travers les réseaux sociaux. Le contenu, qui glorifie le dictateur comme une figure « incomprise », a attiré plus de 50 millions de vues cette année.
De nos jours, des groupes néonazis détournent l’IA pour raviver l’image d’Adolf Hitler. En quelques clics, il est désormais possible de cloner la voix du dictateur et de traduire ses discours en plusieurs langues. Par conséquent, ces contenus exposent des millions de personnes à des réinterprétations des messages véhéments d’Hitler, adaptés au climat politique actuel. Une menace sérieuse, en particulier pour les jeunes générations.
L’IA fait renaître Hitler : un contenu viral alimenté par l’IA
Grâce à des outils d’IA, des extrémistes créent des vidéos, dans lesquelles Hitler parle en anglais. Notamment de ses célèbres discours, comme celui du Reichstag de 1939. Ces contenus, parfois modifiés pour les rendre plus attrayants, touchent des millions de personnes. Ceux-ci ont accumulé jusqu’à 25 millions de vues en seulement quelques mois sur X, TikTok et Instagram.
Les plateformes sociales deviennent ainsi un terreau fertile pour la diffusion de la propagande néonazie. Des commentaires glorifiant Hitler, comme « Tu me manques, oncle A » ou encore « C’était un héros », apparaissent en ligne. Les forums sur le « dark web » et Telegram vantent la facilité avec laquelle les extrémistes utilisent ces discours pour recruter de nouveaux adeptes. En particulier parmi les jeunes.
Est-ce une nouvelle arme pour la radicalisation ?
Des groupes néonazis se sont donc emparés de l’IA pour amplifier leur message de haine. Des formations en ligne montrent comment utiliser des outils de clonage vocal. Ce dernier permet de recréer des discours de propagande juste en quelques minutes. Par exemple, un utilisateur, identifié comme néonazi, a expliqué lors d’un livestream comment il espérait inspirer un futur leader pro-Trump avec cette technologie.
Les experts alertent sur le fait que ces vidéos génèrent un « engagement émotionnel » nouveau et séduisant, surtout pour un jeune public. Les messages subliminaux ou les speechs hostiles d’Hitler prononcés par une voix recréée par IA frappent un grand coup. Par conséquent, cela normalise le discours extrémiste.
Un défi pour les entreprises technologiques
Face à ce phénomène, les entreprises de médias sociaux sont débordées. TikTok, YouTube et Instagram ont supprimé plusieurs vidéos signalées par des journalistes. Mais leur contrôle reste limité. Certaines des vidéos d’Hitler ne portent même pas les symboles traditionnels du nazisme. Il est donc difficile de les détecter par les algorithmes de modération. Sur TikTok, les vidéos peuvent même être partagées via les fonctions « duo », ce qui amplifie leur viralité.
La montée de ce genre de contenu coïncide avec un regain d’intérêt pour les idéologies d’extrême droite. Des personnalités publiques comme Elon Musk alimentent ce phénomène en permettant à certaines figures controversées de revenir en ligne. Ce retour donne plus de visibilité aux théories du complot, comme celle du « grand remplacement », souvent citée par les néonazis.
Si l’IA facilite la création de contenus extrémistes, elle devient un réel problème pour la société. Bien que des groupes néonazis traditionnels aient décliné, la radicalisation en ligne prend de l’ampleur. Ce phénomène montre que la technologie, entre de mauvaises mains, peut raviver des idéologies mortifères comme celle d’Hitler.
Outre d’être choquants, ces vidéos désensibilisent et normalisent les idées haineuses. Le danger réside non seulement dans la facilité de diffusion, mais aussi dans l’impact sur une génération qui pourrait, en étant exposée de façon répétée, voir ces messages comme banals.
La technologie : alliée ou danger ? Selon vous, quels sont les risques de ces contenus pour la société ? Comment, à votre avis, la technologie pourrait-elle être mieux encadrée pour éviter de telles dérives ? Donnez-nous votre avis en commentaire.
- Partager l'article :