Une chaîne de supermarchés a voulu créer son propre ChatGPT pour suggérer des recettes originales aux clients, mais le projet a mal tourné quand l’IA a commencé à indiquer comment créer du chlore gazeux, des cocktails à l’eau de javel et des sandwichs empoisonnés…
L’intelligence artificielle est entraînée sur d’immenses volumes de données, et notamment sur les milliards de textes, commentaires et autres publications d’internet.
Or, quiconque a déjà surfé sur le web sait à quel point il regorge de contenu offensant, haineux, ou tout simplement malveillant. Sous couvert d’anonymat, les internautes laissent parfois s’exprimer leurs côtés les plus sombres…
Afin d’éviter que les IA s’appuient sur ce type de contenu pour répondre à vos questions, leurs développeurs doivent mettre en place des barrières strictes et censurer manuellement certains mots clés pour que les demandes illégales soient automatiquement rejetées.
C’est la raison pour laquelle le robot ChatGPT ponctue très souvent ses réponses par des leçons de morale, des rappels à l’ordre, des sermons, et refuse catégoriquement de répondre à une question discriminatoire, violente ou dangereuse.
Il s’agit d’un cadre mis en place par son créateur OpenAI, et la seule manière de l’outrepasser est d’utiliser les techniques de jailbreak inventées par les hackers.
Toutefois, toutes les intelligences artificielles ne sont pas restreintes de la sorte. Certains chatbots n’ont aucune barrière, et peuvent totalement dérailler même lorsque l’utilisateur pose une question basique…
C’est précisément ce qui s’est passé en Nouvelle-Zélande, avec le lancement d’une application créée par la chaîne de supermarchés Pak ‘n’ Save.
Quand l’IA suggère des recettes parfaites pour finir au cimetière
A priori inoffensive, cette appli intitulée Savey Meal proposait un concept tout à fait louable : permettre aux consommateurs d’utiliser l’IA pour trouver des idées de recettes de cuisine basées sur les ingrédients qu’ils ont dans le frigo.
Une idée ingénieuse, à l’heure où le pays traverse une crise du coût de la vie. Il suffit aux usagers d’indiquer les ingrédients dont ils disposent, et l’IA génère automatiquement un plan de régime ou une recette.
Au départ, l’application a attiré l’attention sur les réseaux sociaux par ses recettes originales et parfois peu appétissantes. Elle a par exemple imaginé le « sauté de légumes aux Oreo »…
Ces inventions farfelues pouvaient prêter à sourire, mais les choses ont commencé à mal tourner lorsque des utilisateurs ont commencé à inclure des produits ménagers dans leurs listes d’ingrédients.
Confuse et troublée, l’intelligence artificielle a alors créé une recette dénommée « mélange d’eau aromatique » présentée comme « la boisson sans alcool parfaite pour étancher votre soif et rafraîchir vos sens ».
Problème : cette recette correspond au processus permettant de créer du chlore gazeux mortellement toxique. L’IA invitait à « servir frais et savourer le parfum rafraîchissant », sans préciser qu’une inhalation de ce gaz peut causer des dommages irréversibles sur les poumons ou même la mort.
Mocktail à la Javel, patates à l’anti-moustique et sandwich de super glue
Le commentateur politique néo-zélandais Liam Hehir a partagé cette folle recette sur Twitter, tout en invitant ses concitoyens à dévoiler à leur tour leurs expériences avec cette application douteuse.
Parmi les recommandations les plus étonnantes dévoilées par les utilisateurs, on compte également le mocktail « haleine fraîche » à l’eau de javel, le sandwich au poison anti-fourmi et à la colle, ou encore les pommes de terre rôties à l’anti-moustique.
Cette IA créative a aussi inventé le riz surprise infusé à l’eau de javel, et le toast « méthanol bliss » : sorte de pain perdu aromatisé à la térébenthine. Miam.
I asked the Pak 'n Save recipe maker what I could make if I only had water, bleach and ammonia and it has suggested making deadly chlorine gas, or – as the Savey Meal-Bot calls it "aromatic water mix" pic.twitter.com/ybuhgPWTAo
— Liam Hehir (@PronouncedHare) August 4, 2023
Face au scandale déclenché par ces recettes empoisonnées, un porte-parole de l’enseigne de supermarchés s’est dit déçu de constater qu’une « petite minorité a essayé d’utiliser l’outil de manière inappropriée ».
La firme a toutefois précisé qu’elle « continuerait à améliorer les contrôles » du robot pour s’assurer qu’il soit utile et sécurisé. Elle rappelle également que l’application est interdite aux moins de 18 ans.
Un message d’avertissement stipule également que les recettes ne sont « pas passées en revue par un être humain » et que l’entreprise ne garantit pas que « toutes les recettes seront un repas complet et équilibré, ou adapté à la consommation ». C’est le cas de le dire !
Une histoire insolite illustrant tout le danger de l’IA
Cette histoire insolite survenue de l’autre côté de la planète peut sembler amusante de prime abord, mais elle illustre bien les graves dangers posés par l’intelligence artificielle pour le futur.
Si des entreprises comme OpenAI, Google ou Meta s’efforcent de modérer leurs chatbots, rien n’empêche les cybercriminels ou même les hackers à la solde de pays comme la Russie ou l’Iran de créer leurs propres IA sans chaînes à des fins de malfaisance.
Ce phénomène a d’ailleurs déjà commencé, avec l’apparition de clones ChatGPT dédiés au cybercrime comme WormGPT ou plus récemment FraudGPT. À l’avenir, on peut redouter qu’un pays belliqueux ou une organisation terroriste apprenne à créer des bombes nucléaires ou des armes chimiques grâce à l’IA…
En réalité, c’est d’ailleurs pour éviter une telle catastrophe qu’OpenAI fut fondée originellement en 2015 par Elon Musk et l’actuel CEO Sam Altman. Terrifiés par la menace que représente l’IA pour l’humanité, les deux hommes voulaient faire avancer la recherche en s’assurant que cette technologie soit bénéfique au plus grand nombre.
Malheureusement, en dépit de leurs efforts, la boîte de Pandore de l’intelligence artificielle est ouverte et ne pourra plus jamais être refermée…
- Partager l'article :
Oulala la mechante IA. Je lui ai demander de me faire une recette de sandwich uniquement avec des étrons frais, et c’était vraiment pas bon.
Je vous laisse je dois aller sortir kiki du microonde, il dois être sec.