Un YouTuber américain a déboursé près de 80 000 dollars pour s’offrir un robot humanoïde Unitree G1. Dans une vidéo choc, il le programme pour « détester les humains », lui colle une machette dans les mains et finit par le détruire sous un camion.
Cody Detwiler, alias WhistlinDiesel, n’est pas un inconnu sur YouTube : sa spécialité, c’est de malmener des machines hors de prix.
Pour sa dernière folie, il s’est attaqué à un robot humanoïde chinois vendu pour 80 000 $ : le Unitree G1, qu’il a rebaptisé « Ben ».
Dans une vidéo de 17 minutes intitulée « What Happens if You Abuse a Robot », publiée le 30 septembre, on le voit pousser son cobaye à bout : insultes, reprogrammation pour « considérer les humains comme ennemis », simulation de cambriolage…
Et même une mission « nounou » où le robot, armé d’une machette, tente de transpercer le berceau d’une poupée avant de la balancer par la jambe.
Plus de 2 millions de vues en quelques jours et une scène finale spectaculaire, où Ben est renversé par un pick-up puis vendu en pièces détachées.
Ce qu’est (vraiment) un Unitree G1
Pas de trucage, le Unitree G1 est bel et bien un robot humanoïde commercialisable. Sorti par la société chinoise Unitree, il affiche des specs sérieuses :
- Taille : 1,32 m de haut (plié : 69 cm).
- Poids : ~35 kg avec batterie.
- Articulations : 23 degrés de liberté (DoF).
- Vitesse : jusqu’à 2 m/s (≈ 7 km/h).
- Charge utile : 2 kg par bras.
- Autonomie : 2 heures en moyenne.
- Capteurs : caméra de profondeur Intel D435i, LiDAR 3D, micros.
Proposé aussi en version EDU pour la recherche, il sert de plateforme aux labos pour expérimenter la locomotion et la manipulation. À 16 000–40 000 $ selon les versions “développeur”, on est loin du gadget : c’est un outil sérieux, pensé pour l’éducation, la R&D et la robotique avancée.
Quand un robot IA apprend la haine
Soyons clairs : un robot « programmé à haïr les humains » reste un gag de mise en scène. Aucune IA ne confère aujourd’hui de « sentime » de rancune ou de haine. Le code injecté par WhistlinDiesel sert surtout à lancer des séquences pré-écrites.
La machette ? Un accessoire. La « colère » après une insulte ? Probablement une séquence de contrôle moteur déclenchée à un signal précis.
L’attaque du berceau ? Une mise en scène pour choquer et faire cliquer. Bref, le spectacle prime sur la science.
Mais c’est précisément ce mélange qui inquiète : la vidéo brouille la frontière entre ce que les robots savent déjà faire et ce qu’ils pourraient faire demain.
Le vrai péril n’est pas la machette : c’est le réseau
Le plus dangereux dans un G1, ce n’est pas la lame qu’on lui colle dans la main, mais bien ce qu’il transporte dans ses circuits. Des chercheurs alertent déjà : les humanoïdes pourraient devenir des chevaux de Troie numériques.
Caméras 3D, micros, LiDAR… ces capteurs accumulent des données sensibles. Mal sécurisés, ils pourraient être piratés et transformés en outils d’espionnage industriel ou domestique.
Un papier récent sur la cybersecurité des humanoïdes évoque la possibilité d’attaques via Wi-Fi ou mises à jour OTA, rendant le robot complice involontaire d’exfiltration de données.
Autrement dit : un G1 armé d’une machette inquiète moins qu’un G1 piraté, connecté à votre réseau d’entreprise.
En termes de dangers, trois scénarios émergent :
- Attaque physique orchestrée : improbable sans préparation lourde (batterie limitée, fragilité mécanique, besoin de supervision humaine).
- Sabotage ou cyberattaque : plausible — un robot piraté peut collecter, transmettre ou manipuler des données.
- Dérive sociale / légale : certain — l’arrivée d’humanoïdes dans les foyers posera des questions d’assurance, de normes et de responsabilité juridique.
Ce que ça change pour régulateurs et entreprises
Ces vidéos virales mettent le doigt sur un vide réglementaire. Aujourd’hui, aucun standard international n’exige de test de durabilité pour humanoïdes, ni de certification stricte en cybersécurité.
Les assureurs, eux, sont déjà sur les dents : qui paie si un robot blesse quelqu’un, même accidentellement ?
Les experts appellent à :
- des protocoles de test indépendants (au-delà des shows YouTube),
- une labellisation cybersécurité pour les robots connectés,
- des clauses contractuelles claires sur la responsabilité (fabricant, vendeur, utilisateur).
La vidéo de WhistlinDiesel amuse, choque et fascine. Mais derrière le show, une réalité : les humanoïdes comme le Unitree G1 existent déjà, progressent vite, et posent de vraies questions de sécurité.
Reste à savoir si nous voulons les accueillir comme des assistants… ou les redouter comme des colocataires imprévisibles.
- Partager l'article :