Ces dernières années, il y a eu des avancées significatives dans le domaine de la robotique. Les robots agiles alimentés par IA ressemblent de plus en plus à l’humain, disposant des capacités humaines extraordinaires.
Prenons l’exemple du transport d’un objet lourd et volumineux dans un escalier. Un être humain peut saisir, soulever et maintenir ce type d’objet contre sa poitrine. Et cela en l’équilibrant sur ses avant-bras, tout en engageant l’ensemble de son corps pour déplacer cet objet.
Par contre, pour les robots d’IA, moins agiles, chaque point potentiel de contact entre l’objet et ses doigts, ses bras et sa poitrine doit être pris en compte comme un événement d’interaction. Planifier de cette tâche devient rapidement incommode en raison du nombre astronomique de combinaisons d’interactions à considérer.
Le MIT a trouvé la solution
Pour résoudre ce problème, le MIT a mis au point un processus de planification de manipulation riche en contacts, visant à simplifier cette démarche. Ce processus tire parti d’une technique d’intelligence artificielle appelée Lissage. Ce qui permet ensuite de réduire un grand nombre d’événements de contact en un nombre limité de décisions. Cela permet à un algorithme relativement simple d’identifier rapidement un plan de manipulation efficace pour le robot.
Les robots sont habituellement conçus pour adopter une approche d’apprentissage par renforcement. Cette méthode d’apprentissage automatique permet à un modèle de robots humanoïdes d’accomplir une tâche en effectuant des essais et des erreurs. Mais aussi en récompensant les actions qui le rapprochent de son objectif.
Étant donné que ce processus nécessite que le système apprend tout sur le monde extérieur par tâtonnements, les chercheurs expliquent que cette forme d’apprentissage adopte une approche qualifiée de « boîte noire ».
Involontairement, cette technique impose une charge de traitement considérable. Le robot doit en effet prendre en compte un très grand nombre de points tactiles potentiels au niveau de la prise de décision. Surtout quand il s’agit de recourir à ses doigts, ses mains, ses bras, ou encore son corps pour interagir avec un objet.
Les robots d’IA les plus agiles de cette décennie ?
Selon HJ Terry Suh, étudiant diplômé en génie électrique et informatique (EECS) et co-auteur principal d’un article sur cette technique, l’apprentissage par renforcement peut nécessiter des millions d’années en temps de simulation pour pouvoir apprendre une politique.
Parallèlement, le processus de lissage améliore considérablement l’efficacité de l’apprentissage par renforcement. De manière générale, la plupart des décisions que prend un robot quand il détermine comment manipuler un objet n’ont pas une grande importance.
En éliminant les décisions intermédiaires non pertinentes grâce au lissage des moyennes, le processus de l’apprentissage par renforcement devient plus efficace.
En testant de nombreux points de contact et en calculant ensuite une moyenne contrebalancée des résultats, l’apprentissage par renforcement effectue implicitement un lissage. À partir de cette constatation, les chercheurs du MIT ont développé un modèle simple incorporant un lissage similaire. Ce qui lui permet de se concentrer sur les interactions essentielles entre le robot et l’objet. Mais aussi sur la prédiction de leur comportement à long terme.
Ils ont aussi démontré que cette approche pouvait générer des plans complexes et améliorer l’apprentissage par renforcement. Cela afin de réduire le temps de calcul à environ une minute sur un ordinateur portable standard.
Les résultats des tests sont prometteurs
Des résultats prometteurs ont été obtenus lors de simulations initiales de cette intelligence artificielle. C’est-à-dire au moment où on l’a testé avec des mains de robots agiles effectuant quelques tâches spécifiques. Dont déplacer un stylo vers une configuration spécifique, ouvrir une porte, ramasser une assiette.
Dans chacun des cas, leur approche basée sur un modèle a été plus rapide que l’apprentissage par renforcement. Quand les chercheurs du MIT ont utilisé de véritables bras robotiques pour valider leur modèle en situation réelle, les résultats étaient comparables.
Selon Tedrake, auteur principal et professeur Toyota de l’EECS, les mêmes principes qui permettent la manipulation du corps entier sont également applicables à la planification avec des mains de robots agiles similaires à celles des humains.
Antérieurement, les chercheurs considéraient que l’apprentissage par renforcement était la seule approche adaptée aux mains agiles des robots d’IA. Mais les résultats de cette recherche ont montré que grâce au lissage de l’apprentissage par renforcement, les méthodes de planification plus traditionnelles peuvent fonctionner de manière extrêmement efficace.
Encore des limites à surpasser
Cependant, il convient de noter que le modèle qu’ils ont développé se base sur une approximation simplifiée de la réalité. Il ne peut donc pas gérer ni anticiper des mouvements extrêmement dynamiques. Dont la chute d’objets ou autres cas similaires.
Bien qu’il soit efficace pour des tâches de manipulation, cette méthodologie n’est pas encore capable de permettre à un robot de réaliser certaines actions. Notamment le lancement d’une canette dans une poubelle. Les chercheurs travaillent désormais sur l’amélioration de leur méthode pour faire face à ces mouvements extrêmement dynamiques à l’avenir.
- Partager l'article :