Crédito:Berscheid, Meissner y Kröger.
Cuando los seres humanos se estiran para agarrar un objeto dado, a menudo necesitan apartar el desorden del camino para aislarlo y asegurarse de que haya suficiente espacio para recogerlo. Aunque los humanos no siempre son plenamente conscientes de que lo están haciendo, esta estrategia, conocido como "manipulación previa al agarre, "les permite agarrar objetos de manera más eficiente.
En años recientes, varios investigadores han intentado reproducir estrategias de manipulación humana en robots, sin embargo, pocos estudios se han centrado en la manipulación previa al agarre. Teniendo esto en cuenta, Un equipo de investigadores del Instituto de Tecnología de Karlsruhe (KIT) ha desarrollado recientemente un algoritmo que se puede utilizar para entrenar a los robots en estrategias de manipulación pre-agarre y pre-agarre. Este nuevo enfoque se presentó en un artículo publicado previamente en arXiv.
"Si bien el agarre es una tarea bien entendida en robótica, La manipulación dirigida previa al agarre sigue siendo muy desafiante, "Lars Berscheid, uno de los investigadores que realizó el estudio, dijo a TechXplore. "Esto hace que sea muy difícil para los robots agarrar objetos del desorden o espacios reducidos en este momento. Sin embargo, con las innovaciones recientes en el aprendizaje de máquinas y robots, Los robots pueden aprender a resolver diversas tareas interactuando con su entorno. En este estudio, queríamos aplicar un enfoque que presentamos en nuestro trabajo anterior no solo para captar, sino también a la manipulación previa al aferramiento ".
Crédito:Berscheid, Meissner y Kröger.
Cuando un robot está aprendiendo a realizar una determinada tarea, esencialmente necesita descubrir cómo resolver un problema maximizando sus recompensas. En su estudio, los investigadores se centraron en una tarea que implicaba agarrar objetos de un contenedor lleno al azar.
El robot fue entrenado en cómo agarrar objetos durante aproximadamente 80 horas, utilizando información de una cámara y retroalimentación de su pinza. Cuando sostuvo con éxito un objeto en su pinza robótica, obtuvo una recompensa. El algoritmo desarrollado por Berscheid y sus colegas lleva el entrenamiento del robot un paso más allá, lo que le permite adquirir también útiles para preaprender estrategias de manipulación, como cambiar o empujar.
"La idea clave de nuestro trabajo fue ampliar las acciones de agarre mediante la introducción de movimientos adicionales de desplazamiento o empuje, "Explicó Berscheid." El robot puede decidir qué acción aplicar en diferentes situaciones. Entrenar robots en realidad es muy complicado:primero, Toma mucho tiempo, por lo que la capacitación en sí debe ser automatizada y auto supervisada, y en segundo lugar, pueden suceder muchas cosas inesperadas si el robot explora su entorno. Similar a otras técnicas de aprendizaje automático, El aprendizaje de los robots siempre está limitado por su consumo de datos. En otras palabras, nuestro trabajo está relacionado con dos preguntas de investigación muy desafiantes:¿Cómo puede un robot aprender lo más rápido posible y qué tareas puede aprender un robot utilizando los conocimientos descubiertos? "
Crédito:Berscheid, Meissner y Kröger.
Como explica Berscheid, un robot puede aprender de manera más eficiente si recibe retroalimentación directa después de cada acción que realiza, ya que esto supera el problema de las recompensas escasas. En otras palabras, Cuanta más retroalimentación se le brinde a un robot (es decir, más recompensas recibe por acciones exitosas), más rápida y eficazmente aprende a completar una tarea determinada.
"Esto suena fácil, pero a veces es complicado de implementar:por ejemplo, ¿Cómo se define la calidad de una manipulación previa al agarre? ”, dijo Berscheid.
El enfoque propuesto por los investigadores se basa en un estudio previo que investigó el uso de diferencias en la captación de probabilidades antes y después de una acción en particular. centrándose en un área pequeña alrededor de donde se realiza la acción. En su nuevo estudio, Berscheid y sus colegas también intentaron descubrir acciones que un robot debería intentar aprender lo más rápido posible.
"Este es el conocido problema de la exploración en el aprendizaje de robots, ", Explicó Berscheid." Definimos una estrategia de exploración que maximiza la autoinformación o minimiza la incertidumbre de las acciones y se puede calcular de manera muy eficiente ".
El algoritmo presentado por los investigadores permite que un robot aprenda la pose óptima para acciones previas al agarre, como sujetar o cambiar, así como cómo realizar estas acciones para aumentar la probabilidad de un agarre exitoso. Su enfoque hace que una acción en particular (es decir, cambiar) dependa de la otra (es decir, agarrar), lo que, en última instancia, elimina la necesidad de recompensas escasas y permite un aprendizaje más eficiente.
Los investigadores aplicaron su algoritmo a un brazo robótico de Franka y luego evaluaron su desempeño en una tarea que implica recoger objetos de un contenedor hasta que esté completamente vacío. Entrenaron el sistema usando 25, 000 agarre diferente y 2, 500 acciones de turno. Sus hallazgos fueron muy prometedores, con el brazo robótico agarrando y archivando con éxito tanto los objetos con los que estaba familiarizado como otros que nunca antes había encontrado.
"Encuentro dos resultados de nuestro trabajo particularmente emocionantes, "Dijo Berscheid." Primero, creemos que este trabajo muestra realmente la capacidad del aprendizaje de los robots. En lugar de programar cómo hacer algo, le decimos al robot lo que debe hacer, y él necesita descubrir cómo hacerlo por sí mismo. A este respecto, pudimos aplicar y generalizar los métodos que hemos desarrollado para captar hacia la manipulación previa al agarre. En segundo lugar y de mayor relevancia práctica, esto podría ser muy útil en la automatización de muchas tareas industriales, especialmente para la recogida de contenedores, donde el robot debería poder vaciar el contenedor completamente por sí solo ".
En el futuro, el enfoque desarrollado por Berscheid y sus colegas podría aplicarse a otras plataformas robóticas, mejorando sus habilidades de manipulación previa al agarre y agarre. Los investigadores ahora planean realizar más estudios que exploren otras preguntas de investigación.
Por ejemplo, Hasta ahora, su enfoque solo permite que el brazo robótico de Frank agarre objetos con una mano erguida, utilizando lo que se conoce como "prensiones planas". A los investigadores les gustaría ampliar su algoritmo para permitir también agarres laterales, introduciendo más parámetros y utilizando datos de entrenamiento adicionales. Según Berscheid, El principal desafío al intentar lograr esto será asegurar que el robot adquiera agarres laterales mientras mantiene constante el número de intentos de agarre que realiza durante la fase de entrenamiento.
"Además, agarrar objetos es a menudo parte de una tarea de alto nivel, p.ej. queremos colocar el objeto en una posición específica, ", Dijo Berscheid." ¿Cómo podemos ubicar un objeto desconocido con precisión? Creo que la respuesta a esta pregunta es muy importante para abordar tanto las aplicaciones industriales como las nuevas en la robótica de servicios. En nuestro proyecto queremos mantener el enfoque en el aprendizaje de robots del mundo real, reduciendo la brecha entre los ejemplos de juguetes en la investigación y las complejas aplicaciones del mundo real ".
© 2019 Science X Network