Les modèles d’IA sont formés à partir d’une énorme quantité de textes et de supports créatifs, notamment des vidéos, des images ou encore de la musique. Ces contenus peuvent pourtant être les vôtres, protégés par des droits d’auteur. Peu importe, les sociétés d’IA en dispose à leur guise. Pour empêcher l’IA d’aspirer vos images, cet outil peut vous être utile !
IA : quand le droit d’auteur n’est pas respecté
Les défenseurs des droits d’auteur ont toujours exprimé leur mécontentement quant à la façon dont les sociétés d’IA entraînent ses modèles d’IA avec les créations originales d’autrui. Au lieu de s’en défendre, OpenAI admet avec toupet qu’elle viole effectivement ces droits d’auteurs. D’ailleurs, bon nombre d’artistes et d’auteurs poursuivent actuellement la société en justice en justice.
New York Time fait partie de ceux qui lui ont intenté un procès. En marge de cette affaire, OpenAI déclaré aux journaliste du journal d’information britannique The Guardian qu’« il serait impossible de former les principaux modèles d’IA d’aujourd’hui sans utiliser des contenus protégés par le droit d’auteur ».
« Les droit d’auteur couvre aujourd’hui pratiquement tous les types d’expression humaine – y compris les articles de blog, les photographies, les messages de forum, les fragments de code logiciel et les documents gouvernementaux », explique la société d’IA. Et les modèles d’IA ne peuvent se passer de ces contenus.
Conscients que les entreprises d’IA continueront de bafouer les droits d’auteurs, des chercheurs de l’Université de Chicago ont développé un outil pour protéger les créations en ligne. Longtemps en développement, cette solution est désormais disponible et accessible à tout un chacun.
Nightshade, un outil pour protéger vos oeuvres contre l’IA
Pour les sociétés d’IA, Nightshade vient un peu comme un cheveux sur la soupe. Cet outil est en effet conçu pour les empêcher d’utiliser le travail des créateurs pour former leurs modèles sans l’autorisation exprès de l’auteur. La solution est conçue par les chercheurs de l’Université de Chicago sous la direction du professeur Ben Zhao,
L’idée n’est pas tellement de les empêcher d’utiliser ces œuvres, mais plutôt d’« empoisonner » les données pour les rendre inutilisables pour l’IA. En réalité, les sociétés peuvent toujours les utiliser pour former et entraîner leurs modèles d’IA. Seulement, ces contenus peuvent endommager ces derniers.
Concrètement, Nightshade permet aux artistes de modifier subtilement les pixels de leur image. Ces modifications, imperceptibles, permettent de biaiser pour ainsi dire la perception des modèles d’apprentissage automatique qui interprétera l’image différemment. L’image d’un chat par exemple peut être perçue par l’IA comme un chien.
Cette technique confond non seulement les modèles d’IA, mais remet également en question le fonctionnement fondamental de l’IA générative. Les contenus générés par l’IA peuvent être facilement compromis. Dans ce sens, Nightshade peut être utilisée de façon abusive. Néanmoins, les chercheurs veulent décourager les violations de la propriété intellectuelle.
- Partager l'article :