Trabajo extraño, uno de los dos robots del laboratorio del profesor asociado de CSE Chad Jenkin, agarra un objeto. Trabajo extraño y su doble Galleta, actualmente son capaces de agarrar objetos según la profundidad y la percepción del color. Crédito:Joseph Xu, Ingeniería de Michigan
En un paso hacia los robots de ayuda a domicilio que pueden navegar rápidamente por espacios impredecibles y desordenados, Los investigadores de la Universidad de Michigan han desarrollado un algoritmo que permite a las máquinas percibir sus entornos en órdenes de magnitud más rápido que enfoques anteriores similares.
"La percepción de los robots es uno de los mayores cuellos de botella a la hora de proporcionar robots de asistencia capaces que se puedan implementar en los hogares de las personas, "dijo Karthik Desingh, estudiante de posgrado en ciencias de la computación e ingeniería y autor principal de un artículo sobre el trabajo publicado en Ciencia Robótica .
"En entornos industriales, donde hay estructura, los robots pueden completar tareas como construir autos muy rápidamente. Pero vivimos en entornos no estructurados, y queremos que los robots puedan lidiar con nuestro desorden ".
Históricamente, los robots operan con mayor eficacia en entornos estructurados, detrás de barandillas o jaulas para mantener a los humanos seguros y el espacio de trabajo del robot limpio y ordenado. Sin embargo, el entorno de un ser humano, en el trabajo o en casa, es típicamente un revoltijo de objetos en varios estados:papeles en un teclado, una bolsa que esconde las llaves del coche, o un delantal que esconde armarios entreabiertos.
El nuevo algoritmo del equipo se llama Pull Message Passing para la propagación de creencias no paramétricas. En 10 minutos puede calcular una comprensión precisa de la pose de un objeto, o la posición y orientación, a un nivel de precisión que requiere enfoques previos de más de una hora y media.
El equipo demostró esto con un robot Fetch. Demostraron que su algoritmo puede percibir y utilizar correctamente un conjunto de cajones, incluso cuando está medio cubierto con una manta, cuando un cajón está entreabierto, o cuando el propio brazo del robot oculta una vista completa del sensor de los cajones. El algoritmo también puede escalar más allá de un simple tocador a un objeto con múltiples articulaciones complicadas. Demostraron que el robot puede percibir con precisión su propio cuerpo y brazo de agarre.
"Los conceptos detrás de nuestro algoritmo, como la propagación de creencias no paramétricas, ya se utilizan en visión artificial y funcionan muy bien para capturar las incertidumbres de nuestro mundo. Pero estos modelos han tenido un impacto limitado en robótica, ya que son muy costosos computacionalmente, requiriendo más tiempo que práctico para que un robot interactivo ayude en las tareas diarias, "dijo Chad Jenkins, profesor de ciencias de la computación e ingeniería y miembro principal de la facultad del Instituto de Robótica de Michigan.
Las técnicas anteriores se basaban en la 'mensajería push'
La técnica de propagación de creencias no paramétricas junto con la técnica similar de transmisión de mensajes de partículas se publicaron por primera vez en 2003. Son eficaces en la visión por computadora, que intenta obtener una comprensión profunda de una escena a través de imágenes y videos. Esto se debe a que las imágenes o videos bidimensionales requieren menos tiempo y poder computacional que las escenas tridimensionales involucradas en la percepción del robot.
Estos enfoques anteriores entienden una escena traduciéndola en un modelo gráfico de nodos y bordes, que representan cada componente de un objeto y sus relaciones entre sí. Luego, los algoritmos plantean hipótesis (o crean creencias sobre) las ubicaciones y orientaciones de los componentes cuando se les da un conjunto de restricciones. Estas creencias que los investigadores llaman partículas, varían en un rango de probabilidades.
Para delimitar las ubicaciones y orientaciones más probables, los componentes utilizan "mensajería push" para enviar información de ubicación probable a través de los nodos y viceversa. Luego, esa información de ubicación se compara con los datos del sensor. Este proceso requiere varias iteraciones para llegar finalmente a una creencia precisa de una escena.
Por ejemplo, dado una cómoda con tres cajones, cada componente del objeto, en este caso, cada cajón y la cómoda misma, serían un nodo. Las restricciones serían que los cajones deben estar dentro de la cómoda, y los cajones se mueven lateralmente pero no verticalmente.
La información, pasó entre los nodos, se compara con observaciones reales de sensores, como una imagen 2-D y una nube de puntos 3-D. Los mensajes se repiten a través de iteraciones hasta que hay un acuerdo entre las creencias y los datos del sensor.
Los nuevos algoritmos cambian a "mensajes de extracción"
Para simplificar las demandas de la informática, Desingh y el equipo de Michigan utilizaron lo que se llama "mensajería pull". Su enfoque convierte la cacofonía de ida y vuelta, mensajes densos en información en una conversación concisa entre los componentes de un objeto.
En este ejemplo, en lugar de que el tocador envíe información de ubicación a un cajón solo después de calcular la información de los otros cajones, el tocador comprueba primero con los cajones. Pide a cada cajón su propia creencia de su ubicación, luego, Para precisión, sopesa esa creencia con la información de los otros cajones. Converge en una comprensión precisa de una escena a través de iteraciones, al igual que el acercamiento de empuje.
Para comparar directamente su nuevo enfoque con enfoques anteriores, lo probaron en una simple escena bidimensional de un círculo con cuatro brazos rectangulares ocultos entre un patrón de círculos y rectángulos similares.
Los enfoques anteriores requerían más de 20 minutos de tiempo de procesamiento por iteración para pasar mensajes, mientras que el nuevo método del equipo tomó menos de dos minutos, y a medida que aumentaba el número de creencias o partículas, esta mejora se vuelve exponencialmente más rápida.
En estos ensayos, se necesitaron cinco iteraciones con su nuevo algoritmo para lograr un error promedio de menos de 3.5 pulgadas en la estimación de ubicación de los cajones y la cómoda, o un error promedio de menos de 8 pulgadas en la estimación de ubicación cuando el tocador está parcialmente oscurecido por una manta.
Esto está a la par con enfoques anteriores, y varía según el tamaño de un objeto, número de piezas, y cuánto es visible para los sensores. Lo más importante, la precisión aumenta lo suficiente para que un robot manipule con éxito los objetos a través de iteraciones continuas.
"Este es solo el comienzo de lo que podemos hacer con la propagación de creencias en la percepción de los robots, ", Dijo Desingh." Queremos escalar nuestro trabajo a varios objetos y rastrearlos durante la ejecución de la acción, e incluso si el robot no está mirando un objeto en ese momento. Luego, el robot puede utilizar esta capacidad para observar continuamente el mundo en busca de manipulación orientada a objetivos y completar tareas con éxito ".