Les chercheurs de Meta viennent de parvenir à créer une main robotique combinant plusieurs technologies extrêmement avancées pour ressentir le toucher de la même façon que les humains. Une étape majeure dans le développement de l’IA incarnée !
Au cours des dernières années, l’intelligence artificielle a donné aux robots la capacité de « voir » et « d’entendre » le monde. Le but ? Leur permettre de mieux comprendre les ordres donnés par les humains pour mieux accomplir leurs tâches.
À présent, un nouveau cap pourrait être franchi. Les chercheurs de Meta testent différentes méthodes pour permettre aux robots d’imiter un troisième sens : le toucher.
La division FAIR (Fundamental AI Research) de la firme américaine vient d’introduire un ensemble d’outils qui pourraient permettre aux outils robotiques de détecter, déchiffrer, et réagir à ce qu’ils touchent.
Ainsi, même le plus basique des bras robots pourrait devenir assez sensible pour prendre en main des objets délicats sans les endommager. Il deviendrait donc utile dans beaucoup plus de situations qu’à l’heure actuelle.
Une main robotique regroupant 3 technologies de pointe
Afin de donner aux robots la capacité de sentir les choses qu’ils touchent, Meta a présenté une combinaison de nouvelles technologies fonctionnant conjointement.
La solution de détection tactile Sparsh donne à l’IA un moyen d’identifier des choses comme la pression, la texture ou le mouvement sans avoir besoin d’une vaste base de données.
Il s’agit en quelque sorte d’une version IA de la façon dont vous sentez quelque chose dans le noir, et pouvez décrire la sensation sans même savoir ce dont il s’agit.
Pour envoyer des informations sur ce que le robot touche au modèle IA, Meta s’est associé avec une entreprise nommée GelSIght pour créer ce qu’on peut décrire comme un bout de doigt robotique : Digit 360.
Ses capteurs sont très sensibles et permettent non seulement à l’IA de déterminer des détails sur ce que le robot touche, mais aussi d’appliquer la pression appropriée pour une tâche impliquant l’objet : soulever, tourner…
Pour le reste de cette main robotique, Meta a créé un système appelé Plexus en collaboration avec Wonik Robotics. Il permet de répartir de multiples capteurs tactiles sur l’appareil.
Selon Meta, Plexus peut imiter le sens humain du toucher de façon suffisamment précise pour manipuler les objets fragiles ou inhabituels. Notons que ces trois technologies pourraient être appliquées à un autre dispositif qu’une main robot !
Meta is Working on Robots!! They unveiled three major developments in touch sensing:
⦿ A universal touch encoder
⦿ An artificial fingertip with multimodal sensing for tactile interaction
⦿ A platform for robotic hands for integrated tactile sensing pic.twitter.com/Ph4pp1EblV— The Humanoid Hub (@TheHumanoidHub) October 31, 2024
De la médecine au cybersexe : d’innombrables cas d’usage
Une telle main robotique capable de sentir, connectée à une IA pouvant interpréter ces sensations, pourrait être utile dans d’innombrables situations.
Par exemple, des assistants chirurgicaux robotiques pourraient sentir des changements infimes dans le corps et réagir plus rapidement que l’humain avec des mouvements à la fois doux et précis.
Au sein des usines, les robots pourraient fabriquer des objets très fragiles sans les briser. On peut même envisager une coordination entre de multiples mains robotiques, à la manière dont plusieurs humains travaillent ensemble.
Cette technologie pourrait aussi rendre les expériences virtuelles plus réalistes pour les humains, puisque les ordinateurs et les IA deviendront capables de savoir quelle sensation ressentir au contact d’un objet. Cela pourrait révolutionner le monde du jeu vidéo !
Un autre cas d’usage est celui des rapports intimes avec les robots. De toute évidence, des machines capables de ressentir le toucher pourraient offrir des expériences beaucoup plus réalistes…
Une étape clé sur la route de l’IA incarnée
Sur son blog, Meta souligne que « la main humaine excelle pour signaler au cerveau les informations tactiles à travers la peau, depuis le bout des doigts jusqu’à la paume ».
Or, « ceci permet d’activer les muscles dans la main lors de la prise de décision, par exemple sur la façon de taper sur un clavier ou d’interagir avec un objet trop chaud ».
Afin d’atteindre « l’IA incarnée » (embodied AI), la firme estime qu’une « coordination similaire entre la capture tactile et l’actionnement moteur sur une main robot » est nécessaire.
Outre Meta, de nombreux scientifiques travaillent à rendre les robots plus sensibles. Les chercheurs de Penn State ont récemment présenté une langue électronique capable de simuler le sens du goût afin de distinguer des saveurs avec précision.
De même, une entreprise appelée Osmo vient tout juste d’apprendre à ses modèles IA à émuler un sens de l’odorat beaucoup plus avancé que celui d’un humain.
Son intelligence artificielle est capable d’analyser une odeur avec suffisamment de précision pour la recréer en combinant des produits chimiques en toute autonomie !
Grâce à ces différents efforts, je suis convaincu que nous assisterons très prochainement à l’émergence de machines dotées des cinq sens… et peut-être même encore plus sensibles que les humains !
Et vous, qu’en pensez-vous ? Un robot peut-il réellement ressentir de la même façon qu’un humain ? Quelles seraient à votre avis les possibilités offertes ? Partagez votre opinion en commentaire !
- Partager l'article :