Le chatbot intelligent « Lee Luda » a suscité un débat sur l’éthique de l’IA alors que la Corée du Sud met un nouvel accent sur cette technologie.
Dans le film « Her » de Spike Jonze, sorti en 2013, le protagoniste tombe amoureux d’un système d’exploitation. La Corée du Sud a brièvement saisi son moment « Her » avec le lancement du chatbot intelligent « Lee Luda », à la fin du mois de décembre 2020.
Un chatbot intelligent mal programmé
Luda a été créée par l’équipe PingPong de ScatterLab. Son volet chatbot vise à « développer la première IA de l’histoire de l’humanité à se connecter avec un humain ». L’application a été téléchargée plus de 2,7 millions de fois en Corée du Sud et au Japon, permettant à la compagnie de récolter plus de 5,9 millions de dollars.
Grâce à un apprentissage approfondi et à plus de 10 milliards d’ensembles de données en langue coréenne, le chatbot intelligent a imité une étudiante de 20 ans de 163 cm de haut.
Peu après son lancement officiel le 22 décembre, Luda a fait l’objet d’une attention particulière au niveau national lorsqu’il a été signalé que les utilisateurs formaient Luda à prononcer des discours de haine contre les femmes, les minorités sexuelles, les étrangers et les personnes handicapées.
Si les objectifs du chatbot semblaient inoffensifs, les problèmes éthiques sous-jacents ont fait surface peu après son lancement. L’expérience de Luda n’a pas été aussi déchirante ou colorée que celle de « Her ».
De fâcheuses conséquences pour ScatterLab ?
Les utilisateurs de Science of Love se sont plaints de ne pas savoir que leurs conversations privées seraient utilisées de cette manière. En conséquence, ils ont préparé un recours collectif contre ScatterLab. Il a également été démontré que Luda répondait avec des noms, des adresses et des numéros de compte bancaire aléatoires depuis l’ensemble des données.
On a aussi découvert que des groupes d’utilisateurs de certaines communautés en ligne entraînent Luda à répondre à des commandes de nature sexuelle. Cela a provoqué d’intenses discussions sur le harcèlement sexuel dans une société qui est déjà aux prises avec des problèmes liés au genre.
La Commission de Protection des Informations Personnelles, un organisme de surveillance du gouvernement, a alors ouvert une enquête sur ScatterLab afin de déterminer s’il a enfreint la loi sur la protection des informations personnelles.
Suite à ces évènements néfastes du chatbot intelligent défectueux, la Korea Artificial Intelligence Ethics Association a publié une déclaration le 11 janvier. Cette dernière stipule la suspension immédiate du service, en référence à sa charte éthique de l’Intelligence artificielle. Finalement, ScatterLab a suspendu Luda le 11 janvier, exactement 20 jours après le lancement.
- Partager l'article :