Un robot bimanuel innovant affiche une sensibilité tactile proche de la dextérité humaine en utilisant l'IA pour éclairer ses actions.
Le nouveau système Bi-Touch, conçu par des scientifiques de l'Université de Bristol et basé au Bristol Robotics Laboratory, permet aux robots d'effectuer des tâches manuelles en détectant ce qu'ils doivent faire à partir d'un assistant numérique.
Les résultats, publiés dans Lettres IEEE sur la robotique et l'automatisationmontrent comment un agent d'IA interprète son environnement grâce à un retour tactile et proprioceptif, puis contrôle les comportements des robots, permettant une détection précise, une interaction douce et une manipulation efficace des objets pour accomplir des tâches robotiques.
Cette évolution pourrait révolutionner des secteurs tels que la cueillette des fruits, le service domestique et, à terme, recréer le toucher dans les membres artificiels.
L'auteur principal Yijiong Lin, de la Faculté d'ingénierie, a expliqué : « Avec notre système Bi-Touch, nous pouvons facilement former des agents IA dans un monde virtuel en quelques heures pour réaliser des tâches bimanuelles adaptées au toucher. Et plus important encore, nous peut directement appliquer ces agents du monde virtuel au monde réel sans formation supplémentaire.
"L'agent bimanuel tactile peut résoudre des tâches même en cas de perturbations inattendues et manipuler des objets délicats en douceur."
La manipulation bimanuelle avec retour tactile sera la clé de la dextérité des robots au niveau humain. Cependant, ce sujet est moins exploré que les paramètres à un seul bras, en partie à cause de la disponibilité d'un matériel approprié ainsi que de la complexité de concevoir des contrôleurs efficaces pour des tâches avec des espaces d'état-action relativement grands. L’équipe a pu développer un système robotique tactile à deux bras en utilisant les progrès récents de l’IA et de la détection tactile robotique.
Les chercheurs ont construit un monde virtuel (simulation) contenant deux bras robotisés équipés de capteurs tactiles. Ils ont ensuite conçu des fonctions de récompense et un mécanisme de mise à jour des objectifs qui pourraient encourager les agents robots à apprendre à accomplir les tâches bimanuelles et ont développé un système robot tactile à deux bras réel auquel ils pourraient appliquer directement l'agent.
Le robot acquiert des compétences bimanuelles grâce à l'apprentissage par renforcement profond (Deep-RL), l'une des techniques les plus avancées dans le domaine de l'apprentissage robotique. Il est conçu pour apprendre aux robots à faire des choses en leur permettant d'apprendre par essais et erreurs, un peu comme dresser un chien avec des récompenses et des punitions.
Pour la manipulation robotique, le robot apprend à prendre des décisions en essayant divers comportements pour accomplir des tâches désignées, par exemple soulever des objets sans les laisser tomber ni les casser. Lorsqu’il réussit, il reçoit une récompense et lorsqu’il échoue, il apprend ce qu’il ne faut pas faire.
Avec le temps, il découvre les meilleurs moyens de récupérer des objets en utilisant ces récompenses et punitions. L'agent IA est visuellement aveugle et ne s'appuie que sur le retour proprioceptif, c'est-à-dire la capacité d'un corps à ressentir le mouvement, l'action et l'emplacement, ainsi que sur le retour tactile.
Ils ont réussi à permettre au robot à double bras de soulever en toute sécurité des objets aussi fragiles qu'un seul croustillant Pringle.
Le professeur Nathan Lepora, co-auteur, a ajouté : « Notre système Bi-Touch présente une approche prometteuse avec des logiciels et du matériel abordables pour apprendre les comportements bimanuels avec simulation tactile, qui peuvent être directement appliqués au monde réel. Notre simulation de robot tactile à deux bras développée permet des recherches plus approfondies sur des tâches plus différentes car le code sera open source, ce qui est idéal pour développer d'autres tâches en aval.
Yijiong a conclu : « Notre système Bi-Touch permet à un robot tactile à deux bras d'apprendre beaucoup de la simulation et d'accomplir diverses tâches de manipulation de manière douce dans le monde réel. »
"Et maintenant, nous pouvons facilement former des agents IA dans un monde virtuel en quelques heures pour réaliser des tâches bimanuelles adaptées au toucher."
Plus d'information: Yijiong Lin et al, Bi-Touch : Manipulation tactile bimanuelle avec apprentissage par renforcement profond de simulation à réalité, Lettres IEEE sur la robotique et l'automatisation (2023). DOI : 10.1109/LRA.2023.3295991
Citation: Un nouveau robot à deux bras réalise des tâches bimanuelles en apprenant de la simulation (24 août 2023) récupéré le 26 août 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Source