Exploitation et abus sexuels d'enfants : les GAFAM pointés du doigt

Exploitation et abus sexuels d’enfants : les GAFAM pointés du doigt

L'exploitation et les abus sexuels des enfants en ligne sont un vrai fléau, mais les GAFAM semblent peu impliquées dans la lutte contre cette catastrophe numérique. C'est ce que révèle en tout cas une étude menée par l'eSafety Commissioner,  l'autorité nationale australienne de réglementation de la sécurité en ligne.

Inaction évidente face à l'exploitation et les abus sexuel des enfants en ligne 

Au mois d'août de cette année, l'autorité nationale australienne de réglementation de la sécurité en ligne a mené une enquête auprès de sept plateformes technologiques. La plupart font partie des GAFAM. Il s'agit d', de , de WhatsApp, de , de Snap, de Skype et d'Omegle. 

L'agence eSafety Commissioner leur a demandé en quoi consiste leurs outils et politiques de lutte contre l'exploitation et les abus sexuels d'enfants en ligne. L'autorité australienne a insisté sur le processus utilisé pour stopper la prolifération des contenus inappropriés et l'utilisation de services d'appels vidéo pour fournir des flux en direct sur la maltraitance des enfants.

Les résultats de l'enquête révèlent que certaines ne disposent d'aucun processus adéquat pour lutter contre ce fléau pourtant grandissant. Par ailleurs, la plupart des sociétés ne réagissent pas assez rapidement en cas d'incident, déplore l'autorité australienne.

Les autorités s'attendent à ce que les plateformes technologiques populaires mettent à disposition des utilisateurs des outils permettant de signaler les contenus préjudiciables aux autorités compétentes. 

Les plateformes ne détectent pas de façon proactive les contenus pédopornographiques

L'autorité australienne s'étonne pourquoi ces plateformes n'utilisent aucun outil pour détecter en amont les contenus pédopornographiques. L'eSafety Commissioner pointe notamment Microsoft du doigt en sachant que l'entreprise a participé au développement de PhotoDNA. 

PhotoDNA est une technologie d'identification d'images et de filtrage de contenu largement utilisée par les fournisseurs de services en ligne. Apple et Microsoft avouent n'utiliser aucune technologie pour détecter la diffusion en direct d'abus sexuels sur des enfants. Ceci, dans les chats vidéo sur Skype, Microsoft Teams ou FaceTime.

Seul Omegle essaie de détecter l'exploitation et les abus sexuels des enfants en ligne dans les flux en direct, les appels vidéo ou les vidéoconférences. En cas de signalement, Meta fait au moins des efforts sur ce point. Instagram peut supprimer ce type de contenu en deux heures et quarante secondes après sa détection.

Pour Microsoft, le processus peut prendre deux jours et peut aller jusqu'à 19 jours. L'autorité australienne détaille tous ces manquements sur une soixantaine de pages. Si toutes ces inactions étaient corrigées dit-elle, ces entreprises offriraient une meilleure protection aux enfants.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *