Les spécialistes de l’intégrité et les éditeurs redoutent un flot de fausses données scientifiques. Pour quelles raisons ? Les technologies d’IA générative peuvent générer facilement des données scientifiques convaincantes.
La tâche des détectives scientifiques devient de plus en plus difficile depuis l’introduction de la technologie d’IA générative, qui est devenue un puissant outil pour les fraudeurs.
Selon Jana Christopher, analyste en intégrité des images chez FEBS Press à Heidelberg, en Allemagne, « L’IA générative évolue très rapidement ». « Les personnes qui travaillent dans mon domaine – l’intégrité des images et l’éthique des publications – s’inquiètent de plus en plus des possibilités qu’elle offre. »
Les outils d’IA générative ont été conçus spécialement pour pouvoir créer facilement du texte, des données et des images. Cela pourrait ainsi entraîner une littérature scientifique de moins en moins fiable, pleine de chiffres, de manuscrits ou encore des conclusions falsifiées qui seront difficiles à repérer par les humains.
Des solutions face au danger des images IA pour la science
Une course aux armements est déjà lancée. Les spécialistes de l’intégrité, les entreprises technologiques ainsi que les éditeurs tentent par tous les moyens de concevoir des outils d’IA qui peuvent détecter rapidement des éléments trompeurs générés par l’IA dans les articles.
« C’est une évolution effrayante », déclare Christopher. « Mais il y a aussi des gens intelligents et de bons changements structurels qui sont proposés. »
De leur côté, les spécialistes de l’intégrité de la recherche confirment que les outils pour générer des images ou d’autres données sont encore loin de se faire accepter. Et ce, même si plusieurs revues acceptent déjà les textes édités par l’IA dans certaines circonstances.
« Dans un avenir proche, nous accepterons peut-être les textes générés par l’IA », déclare Elisabeth Bik , spécialiste et consultante en criminalistique des images à San Francisco, en Californie. « Mais je ne veux pas générer de données. »
Bik, Christopher et d’autres suspectent que les données, incluant les images, générées à l’aide de l’IA générative sont déjà largement répandues dans la littérature. De ce fait, les usines à papier profitent des outils d’IA pour développer des manuscrits en masse.
Comment éliminer les contrefaçons ?
Effectivement, il ne sera pas possible de détecter les images générées par l’IA avec les yeux humains, mais l’IA en est capable.
Il existe déjà des outils, dont Imagetwin et Proofig, qui utilisent l’IA pour détecter les problèmes d’intégrité dans les figures scientifiques. Ces logiciels ont été développés afin d’éliminer les images créées par l’IA générative.
Il s’agit souvent de types d’images difficiles à détecter, les deux sociétés développent leurs propres bases de données d’images générées par l’IA générative afin d’entraîner leurs algorithmes. D’ailleurs, l’outil de Proofig est déjà doté d’une fonctionnalité qui détecte les images de microscopie générées par l’IA.
On peut affirmer que la technique fonctionne. En effet, Dror Kolodkin-Gal, cofondateur de la société Rehovot, en Israël, le confirme grâce à son test. Il a effectué le test sur des milliers d’images générées par l’IA et de vraies images issues de documents sur papier.
L’algorithme a détecté les images générées par l’IA dans 98 % des cas et avait un taux de faux positifs de 0,02 %. Dror a noté que l’équipe essaie aujourd’hui de comprendre ce que détecte réellement son algorithme.
Trouvez-vous que les images IA représentent réellement un danger pour la science ? Dites-nous votre avis dans les commentaires.
- Partager l'article :