IA Meta

Les pubs porno perverses générés par IA pullulent sur Insta : que fait Meta ?

, propriétaire de et Instagram, s’emploie à intégrer l’IA générative partout dans ses produits. Par contre, un rapport de Forbes révèle son échec à bloquer les images sexuelles d’enfants générées par l’intelligence artificielle sur ces plateformes.

Selon Forbes, les outils d’IA génèrent une vague inquiétante d’images sexualisées d’enfants. Le pire, ces images prolifèrent partout, sur TikTok, Instagram et le Web.

D’après l’information, les images dépeignent souvent des filles prépubères vêtues de façon suggestive. Les abonnés, principalement des hommes âgés, postent des commentaires répugnants. Bien que clairement déplorables, ces images restent dans une zone grise juridique.

Certaines images proviennent de photos réelles d’enfants, et parfois de contenu abusif, selon une étude de Stanford. Ces images transforment les originaux en faux humains.

Bien qu’illégales, elles ne sont pas toujours explicitement interdites, donc parfois considérées légales. Les prédateurs exploitent cette ambiguïté pour explorer leurs fantasmes sombres, risquant de vraies exploitations d’enfants. « L’érotisme infantile est souvent un début troublant », dit Heather Mahalik Barnhart à Forbes, remarquant une audience anormale pour ces images.

YouTube video

Les défis de Meta avec les contenus illégaux générés par l’IA sur ses plateformes

Il est choquant de constater l’existence de certains contenus. Ironiquement, leur présence sur Instagram place Meta dans une situation compliquée.

Cette entreprise s’efforce de rester compétitive dans le domaine de l’intelligence artificielle. Ses investissements massifs en IA, y compris un chatbot critiquant , n’ont pas eu l’impact culturel espéré.

En général, Meta semble débordée par les contenus nuisibles en IA sur ses plateformes, malgré ses avancées technologiques. On espérait de l’innovation, mais Meta semble livrer un chaos qui affecte négativement sa plateforme, un chaos difficile à gérer pour elle.

D’après Forbes, Meta a récemment fermé des comptes repérés par des journalistes sur Instagram. Un représentant de l’entreprise a souligné leur engagement à supprimer tout contenu inapproprié, vrai ou faux, et à signaler ces images au Centre national pour les enfants disparus et exploités (NCMEC).

Par contre, TikTok, suite aux alertes de Forbes, a également clôturé les comptes problématiques. Un porte-parole a précisé que TikTok applique des règles strictes contre les contenus en IA mettant en scène des mineurs afin de protéger les jeunes et de rendre la plateforme inhospitalière à tout comportement nuisible.

Pour une solution durable : agir contre les contenus problématiques sur les réseaux sociaux

Les réseaux sociaux éliminent les contenus problématiques un par un, seulement lorsque les journalistes les signalent. Certes, cela aide, mais ce n’est pas une solution durable pour l’avenir.

Fallon McNulty, du NCMEC, a indiqué à Forbes que ces images dérivent de photos de vrais enfants, qu’elles soient modifiées ou non. En ce sens, il est clair que leur utilisation n’est pas acceptable.

McNulty a aussi remarqué que les réactions des gens à ces images ne semblent pas innocentes. Effectivement, juste retirer les images n’est pas suffisant.

Autrement dit, les réseaux sociaux devraient non seulement supprimer ces contenus mais aussi prévenir leur apparition.

Pour que cela soit possible, il ne suffit pas de réagir une fois le problème signalé. Au lieu de cela, il est crucial de créer un environnement où les enfants ne sont pas sexualisés.

En raison de ces faits, McNulty espère que les plateformes agiront avec plus de fermeté, afin que de tels abus ne se reproduisent plus.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥