Reconnaître une image générée par l’IA devient de plus en plus difficile, surtout lorsqu’il s’agit de paysages.
Une étude menée par Microsoft, dans le cadre de son initiative AI for Good, révèle que nous ne parvenons à les reconnaître qu’à 62 %. En moins de trois ans, des modèles comme DALL·E 3 ou Midjourney ont atteint un niveau de réalisme bluffant. L’image produite par l’IA rivalise désormais avec la photographie.
Test grandeur nature et résultat décevant
L’étude de Microsoft a mobilisé 12 500 participants dans le monde. À travers un quiz « Vrai ou pas », les chercheurs ont soumis plus de 287 000 images mêlant photos authentiques et artificielles.
Chaque image, soigneusement sélectionnée, reflétait des contenus réalistes, similaires à ceux que l’on retrouve en ligne. Sans formation préalable en détection d’IA, les participants devaient simplement reconnaître si une image était réelle ou générée par l’IA.
Contre toute attente, les images issues de l’IA n’ont été correctement identifiées que dans 62 % des cas. À peine mieux qu’un tirage au sort.
Pas de panique, ce n’est pas vous qui perdez la main. Ce sont les IA qui affinent leur art à une vitesse un peu trop impressionnante.
Perception aiguisée face aux visages humains
Les chercheurs notent que les participants ont plus d’aisance à reconnaître une image de visage humain générée par IA. Cette faculté découle d’une aptitude innée, comme repérer irrégularités faciales, textures étranges ou asymétries subtiles.
En revanche, les paysages naturels ou urbains posent un défi coriace. Le taux de réussite tombe alors à 59‑61 %. Privées d’indices stylistiques marquants, ces images trompent plus facilement l’œil humain.
Un portrait IA conserve souvent une légère asymétrie, une peau artificielle ou un regard sans profondeur ; autant de signaux utiles pour reconnaître l’artifice.
À l’inverse, une forêt générée par IA imite finement la lumière et la texture des arbres. Tandis qu’une ville artificielle reproduit chaque étage d’un gratte‑ciel sans trahir son origine numérique.
Filigranes et outils de détection comme repères
L’étude alerte aussi sur des techniques comme l’inpainting. Ce dernier consiste à remplacer une partie d’une photo réelle par un élément généré par IA.
Ces modifications, parfois infimes, deviennent presque impossibles à reconnaître, même pour un œil averti. Remodeler un visage dans une photo authentique ou insérer un objet fictif dans une scène réelle suffit à brouiller la frontière entre vrai et faux.
Microsoft rappelle que même les anciens modèles comme les GAN, en imitant les codes visuels de l’esthétique amateur, dupent souvent plus facilement que les images très léchées de DALL·E 3.
Pour y faire face, le géant de Redmond propose d’ajouter des filigranes visibles aux images générées par IA. Insérés dans un coin, ces marqueurs indiquent clairement l’origine artificielle du contenu. Toutefois, un simple recadrage ou un outil d’édition suffit à les faire disparaître.
Microsoft mise aussi sur une solution plus robuste comme des outils de détection par IA. Son propre système affiche un taux de réussite de plus de 95 % pour reconnaître une image créée artificiellement.
- Partager l'article :