deepfake tout savoir

Deepfake : tout savoir sur la nouvelle menace liée à l’IA

Un Deepfake est une vidéo fallacieuse produite ou modifiée grâce à l’intelligence artificielle. Découvrez tout ce que vous devez savoir sur ce nouveau phénomène, et sur les nombreux dangers qu’il représente.

Un Deepfake est une vidéo ou un enregistrement audio produit ou altéré grâce à l’intelligence artificielle. Le terme désigne non seulement le contenu ainsi généré, mais aussi les technologies utilisées à cet effet.

Qu’est-ce qu’un deepfake ?

Le mot Deepfake est une contraction entre  » Deep Learning  » et  » Fake «  que l’on pourrait traduire par  » faux profond « . En effet, il s’agit de contenus fallacieux, rendus  » profondément  » crédibles grâce à l’intelligence artificielle. Plus précisément au Deep Learning ou apprentissage approfondi.

Cependant, le nom est plus directement lié au pseudonyme d’un utilisateur de Reddit qui a utilisé en Deep Learning pour intégrer les visages de célébrités dans des films pornographiques. Il s’agit du premier cas d’usage du Deepfake à connaître une popularité massive, allez savoir pourquoi…

Comment fonctionnent les Deepfakes ?

deepfake comment fonctionne

Les Deepfakes reposent sur la technique des GANs ou réseaux antagonistes génératifs. Il s’agit d’une technique de Machine Learning consistant à mettre en compétition deux algorithmes.

À partir d’images fournies en amont, le premier algorithme  » générateur «  cherche à créer de fausses imitations aussi crédibles que possible. Le second algorithme  » discriminateur « , quant à lui, cherche à détecter les faux le plus efficacement possible.

Au fil du temps, les deux algorithmes progressent dans leurs tâches respectives. Le premier continue à produire de fausses vidéos jusqu’à ce que le second ne puisse plus déceler la supercherie. En résultent, au final, des  » fakes  » suffisamment réalistes pour tromper même les humains

Plus les données fournies à l’algorithme au début du processus sont nombreuses, plus celui-ci sera capable d’apprendre à créer des faux facilement. C’est la raison pour laquelle les anciens présidents américains et les stars d’Hollywood sont souvent utilisés pour créer des Deepfakes : de nombreuses vidéos d’archives sont en libre accès et peuvent être utilisées pour nourrir les modèles de Machine Learning.

Quels sont les risques liés aux Deepfakes ?

Grâce à l’IA, n’importe qui peut créer un Deepfake assez facilement et sans compétences techniques particulières en téléchargeant un simple logiciel comme FakeApp. Tout un chacun peut donc produire un tel contenu afin de servir ses intérêts en manipulant l’opinion des spectateurs.

https://www.youtube.com/watch?v=Lsv38PkLsGU

Ainsi, après les Fake News et leur impact néfaste sur les réseaux sociaux, la propagation des Deepfakes sur le web représente une nouvelle menace liée aux technologies.

Jusqu’à présent, seuls quelques plaisantins ont utilisé les Deepfakes pour intégrer des vidéos de stars dans des films porno ou pour faire dire des âneries aux politiciens. Cependant, cette innovation pourrait aussi être utilisée à des fins de propagande ou même de terrorisme.

On peut facilement imaginer une fausse vidéo d’alerte à la bombe semer la panique, ou encore une fausse sex tape visant à ruiner un mariage ou à détruire une réputation.

Une fausse vidéo visant à discréditer un candidat aux élections pourrait aussi avoir de graves conséquences. Manipulation, désinformation, humiliation, diffamation… les dangers liés aux Deepfakes sont multiples.

Outre le risque que des personnes se laissent manipuler par des vidéos Deepfakes, ces vidéos présentent un autre risque. Si ces contenus fallacieux viennent à proliférer sur la toile, les internautes pourraient cesser définitivement de faire confiance à ce qu’ils voient en vidéo

Quelques exemples de Deepfakes bien connus

Le phénomène Deepfakes a commencé en 2017, sur Reddit, lorsqu’un utilisateur s’est amusé à intégrer les visages de célébrités dans des films X. Comme vous vous en doutez, nous ne pourrons toutefois pas vous présenter d’extrait de ces  » créations  » ici…

De son côté, la chaîne YouTube derpfakes s’amuse à modifier des bandes-annonces de films grâce à l’IA. Admirez par exemple ce trailer du film Star Wars Solo dans lequel l’acteur principal est remplacé par Harrison Ford…

https://www.youtube.com/watch?v=ANXucrz7Hjs

Citons aussi le site web  » ThisPersonDoesNotExist.com «  qui génère un faux visage toutes les deux secondes. Le résultat est tout simplement bluffant de réalisme. Le géant américain NVIDIA s’est également amusé à créer une IA capable de générer de faux visages.

Plus récemment, une vidéo diffusée sur Instagram montre , le créateur de , révéler  » toute la vérité  » sur son réseau social et sur son intention de contrôler l’humanité. Problème ? Cette vidéo était un fake…

https://www.youtube.com/watch?v=yV7sR5jpQNs&t=72s

Ces quelques exemples témoignent du potentiel, mais aussi du danger que représentent les Deepfakes. Il ne fait aucun doute que cette technologie n’en est qu’à ses balbutiements, et que de fausses vidéos de plus en plus crédibles verront le jour à l’avenir

Comment détecter un deepfake ?

À mesure que les deepfakes deviennent plus courants, la société devra très probablement s’adapter à la détection des vidéos deepfakes. Il en est de même pour les utilisateurs en ligne qui sont désormais habitués à détecter d’autres types de fake news. 

Il existe une poignée d’indicateurs qui démasquent les deepfakes.

Les deepfakes actuels ont du mal à animer les visages de manière réaliste. On obtient ainsi des vidéos dans lesquelles le sujet ne cligne jamais des yeux, ou bien cligne beaucoup trop souvent ou de manière anormale. Cependant, après que des chercheurs ont publié une étude détectant l’anomalie du clignement des yeux, de nouveaux deepfakes ont été publiés, qui ne présentaient plus ce problème. 

Identifiez des anomalies au niveau de la peau ou des cheveux, ou des visages qui semblent plus flous que l’environnement dans lequel ils se trouvent. La mise au point peut sembler anormalement faible. 

L’éclairage ne semble pas naturel ? Souvent, les algorithmes de deepfake conservent l’éclairage des clips qui ont été utilisés comme modèles pour la fausse vidéo, ce qui ne correspond pas à l’éclairage de la vidéo cible. 

L’audio peut ne pas sembler correspondre à la personne, surtout si la vidéo a été truquée, mais que l’audio original n’a pas été manipulé avec autant de soin. 

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. Peut-on diffuser les deepfakes,ces video fallacieuses produites et manipulées par l’intelligence arificielle,à tous les collégiens et lycéens européens afin de développer leur esprit critique de citoyen éduqué et préparé à ne pas porter un crédit aveugle à toutes les videos circulant et à ne pas servir de relais en diffusant ces deepfakes?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *