YOUTUBE algorithme

Radicalisation sur YouTube : des chercheurs soupçonnent l’algorithme

Des chercheurs universitaires suisses, brésiliens et américains ont découvert que l'algorithme de recommandation de YouTube serait susceptible de renvoyer à des chaînes racistes et d'extrême droite de plus en plus radicalisées.

Après avoir analysé le contenu de 360 chaînes américaines aux idéologies racistes, les auteurs ont effectué un tri à partir des 200 mots clés les plus utilisés par ces communautés. Ils repèrent trois types de profil : les chaînes associées à l'alt-right, la droite alternative américaine prônant un nationalisme blanc. D'autres partagent les idées l'Alt-lite, une mouvance moins radicalisée. Enfin les chaînes de l'Intellectual Dark Web (IDW) sont animées par des intellectuels et des personnalités publiques. Ils s'opposent au politiquement correct et, souvent, à une forme de progressisme.

Selon les chercheurs, les vidéastes traitent de sujets toxiques associés à des idées homophobes, islamophobes et racistes.

Les communautés américaines se radicalisent à l'extrême droite dans les commentaires

Leur objectif était de comprendre comment les internautes se radicalisent sur YouTube. Ils ont notamment analysé 79 millions de commentaires. Ces derniers partagent leurs opinions sur des contenus de plus en plus extrémistes. En suivant ces profils, ils ont remarqué que les abonnés ont d'abord visionné des vidéos associées à l'IDW, puis à l'Alt-lite, et enfin à la droite alternative américaine.

Les chercheurs se sont interrogés sur l'influence de l'algorithme de recommandation de YouTube dans cette radicalisation. Ils ont labellisé 330 000 vidéos, 2 millions de recommandations vidéo et 10 000 recommandations de chaînes. Pour éviter les biais liés à la géolocalisation, ils ont utilisé des VPN.

Les auteurs de l'étude écrivent : « Nos analyses montrent que, notamment grâce au système de recommandation de chaînes, les chaînes Alt-lite sont accessibles facilement à partir des chaînes IDW, et que les deux autres communautés peuvent atteindre les chaînes Alt-right « .

Après 10 000 simulations, les auteurs de cette étude observent que les chaînes Youtube IDW et Alt Lite “recommandent” les mêmes chaînes 50 % du temps. En partant d'un contenu Intellectual Dark Web, il y a 25 % de chance de se voir proposer une chaîne Alt-Lite après 5 étapes. Cependant, les vidéastes de l'Alt-Right sont moins souvent affichés par l'algorithme de YouTube.

L'algorithme de recommandation de YouTube soupçonné, mais pas condamné

Toutefois, ils notent une faille dans leur analyse. Ils ne peuvent pas affirmer avec certitude que l'algorithme de recommandation est un vecteur de radicalisation. En effet, ils n'ont pas pris en compte les paramètres de personnalisation habituellement appliqués par ce dernier. Les auteurs soupçonnent qu'il joue un rôle important dans ce phénomène de montée des extrémismes. Ils espèrent par la suite analyser l'évolution des discours partagés dans les contenus et dans les commentaires. Concernant le modèle de machine learning de YouTube, ils souhaitent prendre en compte la personnalisation.

Le travail effectué concernant les migrations des communautés, lui se révèle particulièrement pertinent. Nous vous renvoyonsà l'article en question. Celui-ci tend à prouver par l'analyse des commentaires que les utilisateurs de YouTube se radicalisent.

« YouTube est extrêmement populaire, en particulier auprès des enfants et des adolescents, et si le site de streaming vidéo radicalise les individus, cela peut pousser des idéologies marginales comme la suprématie blanche à devenir un courant dominant », écrivent les chercheurs.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *