De nouveaux algorithmes aident les robots à quatre pattes à courir dans la nature

[ad_1]

Une équipe dirigée par l’Université de Californie à San Diego a développé un nouveau système d’algorithmes qui permet aux robots à quatre pattes de marcher et de courir sur des terrains difficiles tout en évitant les obstacles statiques et mobiles.

Lors des tests, le système a guidé un robot pour manœuvrer de manière autonome et rapide sur des surfaces sablonneuses, du gravier, de l’herbe et des collines de terre cahoteuses couvertes de branches et de feuilles mortes sans heurter des poteaux, des arbres, des arbustes, des rochers, des bancs ou des personnes. Le robot a également navigué dans un espace de bureau occupé sans heurter des boîtes, des bureaux ou des chaises.

Ces travaux rapprochent les chercheurs de la construction de robots capables d’effectuer des missions de recherche et de sauvetage ou de collecter des informations dans des endroits trop dangereux ou difficiles pour les humains.

L’équipe présentera ses travaux lors de la Conférence internationale 2022 sur les robots et systèmes intelligents (IROS), qui se tiendra du 23 au 27 octobre à Kyoto, au Japon.

Le système offre à un robot à pattes plus de polyvalence en raison de la manière dont il combine le sens de la vue du robot avec une autre modalité de détection appelée proprioception, qui implique le sens du mouvement, la direction, la vitesse, l’emplacement et le toucher du robot – dans ce cas, la sensation de le sol sous ses pieds.

Actuellement, la plupart des approches pour entraîner des robots à pattes à marcher et à naviguer reposent soit sur la proprioception, soit sur la vision, mais pas les deux en même temps, a déclaré l’auteur principal de l’étude Xiaolong Wang, professeur de génie électrique et informatique à l’UC San Diego Jacobs School of Engineering. .

« Dans un cas, c’est comme entraîner un robot aveugle à marcher simplement en touchant et en sentant le sol. Et dans l’autre, le robot planifie ses mouvements de jambes en se basant uniquement sur la vue. Il n’apprend pas deux choses en même temps », a déclaré Wang. « Dans notre travail, nous combinons la proprioception avec la vision par ordinateur pour permettre à un robot à pattes de se déplacer efficacement et en douceur – tout en évitant les obstacles – dans une variété d’environnements difficiles, pas seulement bien définis. »

Le système que Wang et son équipe ont développé utilise un ensemble spécial d’algorithmes pour fusionner les données des images en temps réel prises par une caméra de profondeur sur la tête du robot avec les données des capteurs sur les jambes du robot. Ce n’était pas une tâche simple. « Le problème est que pendant le fonctionnement dans le monde réel, il y a parfois un léger retard dans la réception des images de la caméra », a expliqué Wang, « de sorte que les données des deux modalités de détection différentes n’arrivent pas toujours en même temps. »

La solution de l’équipe consistait à simuler cette inadéquation en randomisant les deux ensembles d’entrées – une technique que les chercheurs appellent la randomisation multimodale des délais. Les entrées fusionnées et randomisées ont ensuite été utilisées pour former une politique d’apprentissage par renforcement de bout en bout. Cette approche a aidé le robot à prendre des décisions rapidement pendant la navigation et à anticiper les changements de son environnement à l’avance, afin qu’il puisse se déplacer et éviter les obstacles plus rapidement sur différents types de terrains sans l’aide d’un opérateur humain.

Pour aller de l’avant, Wang et son équipe travaillent à rendre les robots à pattes plus polyvalents afin qu’ils puissent conquérir des terrains encore plus difficiles. « En ce moment, nous pouvons entraîner un robot à faire des mouvements simples comme marcher, courir et éviter les obstacles. Nos prochains objectifs sont de permettre à un robot de monter et descendre des escaliers, de marcher sur des pierres, de changer de direction et de sauter par-dessus des obstacles. »

Vidéo : https://youtu.be/GKbTklHrq60

L’équipe a publié son code en ligne sur : https://github.com/Mehooz/vision4leg.

Source de l’histoire :

Matériel fourni par Université de Californie – San Diego. Original écrit par Liezel Labios. Remarque : Le contenu peut être modifié pour le style et la longueur.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*