• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El robot puede recoger cualquier objeto después de inspeccionarlo.

    Manuelli usa el sistema DON y el robot Kuka para agarrar una taza. Crédito:Tom Buehler

    Los humanos han sido durante mucho tiempo maestros de la destreza, una habilidad que se puede atribuir en gran medida a la ayuda de nuestros ojos. Robots mientras tanto, todavía se están poniendo al día. Ciertamente, ha habido algunos avances:durante décadas, los robots en entornos controlados como líneas de montaje han podido recoger el mismo objeto una y otra vez.

    Más recientemente, Los avances en la visión por computadora han permitido a los robots hacer distinciones básicas entre objetos, pero aún así, no entienden realmente las formas de los objetos, por lo que es poco lo que pueden hacer después de una recogida rápida.

    En un nuevo periódico investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL), dicen que han hecho un desarrollo clave en esta área de trabajo:un sistema que permite a los robots inspeccionar objetos aleatorios, y comprenderlos visualmente lo suficiente como para realizar tareas específicas sin haberlos visto antes.

    El sistema, denominado "Redes de objetos densos" (DON), mira los objetos como conjuntos de puntos que sirven como "mapas de ruta visuales" de algún tipo. Este enfoque permite a los robots comprender y manipular mejor los elementos, y, Más importante, les permite incluso recoger un objeto específico entre un montón de objetos similares, una habilidad valiosa para los tipos de máquinas que empresas como Amazon y Walmart utilizan en sus almacenes.

    Por ejemplo, alguien podría usar DON para hacer que un robot se agarre a un punto específico de un objeto, digamos, la lengua de un zapato. A partir de ese, puede mirar un zapato que nunca antes había visto, y agarre con éxito su lengua.

    "Muchos enfoques de la manipulación no pueden identificar partes específicas de un objeto en las muchas orientaciones que puede encontrar el objeto, "dice el estudiante de doctorado Lucas Manuelli, quien escribió un nuevo artículo sobre el sistema con el autor principal y compañero Ph.D. estudiante Pete Florence, junto al profesor del MIT Russ Tedrake. "Por ejemplo, los algoritmos existentes no podrían agarrar una taza por su asa, especialmente si la taza puede estar en múltiples orientaciones, como en posición vertical, o de lado ".

    El equipo ve las aplicaciones potenciales no solo en entornos de fabricación, pero también en los hogares. Imagínese darle al sistema una imagen de una casa ordenada, y dejándolo limpiar mientras estás en el trabajo, o usar una imagen de platos para que el sistema guarde sus platos mientras está de vacaciones.

    Lo que también es digno de mención es que ninguno de los datos fue etiquetado realmente por humanos; bastante, el sistema es "autosupervisado, "por lo que no requiere anotaciones humanas.

    Haciéndolo fácil de entender

    Dos enfoques comunes para agarrar un robot implican el aprendizaje específico de la tarea, o creando un algoritmo de comprensión general. Ambas técnicas tienen obstáculos:los métodos específicos de la tarea son difíciles de generalizar a otras tareas, y la comprensión general no se vuelve lo suficientemente específica para lidiar con los matices de tareas particulares, como poner objetos en lugares específicos.

    El sistema DON, sin embargo, esencialmente crea una serie de coordenadas en un objeto dado, que sirven como una especie de "hoja de ruta visual" de los objetos, para que el robot comprenda mejor lo que necesita comprender, y donde.

    El equipo entrenó al sistema para mirar los objetos como una serie de puntos que forman un sistema de coordenadas más grande. Luego puede mapear diferentes puntos juntos para visualizar la forma tridimensional de un objeto, similar a cómo se unen las fotos panorámicas a partir de varias fotos. Después de entrenar, si una persona especifica un punto en un objeto, el robot puede tomar una foto de ese objeto, e identificar y unir puntos para poder recoger el objeto en ese punto especificado.

    Esto es diferente de sistemas como DexNet de UC-Berkeley, que puede comprender muchos elementos diferentes, pero no puede satisfacer una solicitud específica. Imagínese un bebé de 18 meses, que no entiende con qué juguete quieres que juegue, pero aún puede agarrar muchos artículos, en comparación con un niño de cuatro años que puede responder "ve a buscar tu camioneta por el extremo rojo".

    En un conjunto de pruebas realizadas en un juguete de oruga suave, un brazo robótico Kuka impulsado por DON podría agarrar la oreja derecha del juguete desde una variedad de configuraciones diferentes. Esto demostró que, entre otras cosas, el sistema tiene la capacidad de distinguir la izquierda de la derecha en objetos simétricos.

    Al probar en un contenedor de diferentes gorras de béisbol, DON podía elegir un sombrero objetivo específico a pesar de que todos los sombreros tenían diseños muy similares y nunca antes había visto imágenes de los sombreros en los datos de entrenamiento.

    "En las fábricas, los robots a menudo necesitan alimentadores de piezas complejas para funcionar de manera confiable, ", dice Manuelli." Pero un sistema como este que puede entender las orientaciones de los objetos podría simplemente tomar una fotografía y ser capaz de agarrar y ajustar el objeto en consecuencia ".

    En el futuro, el equipo espera mejorar el sistema a un lugar donde pueda realizar tareas específicas con una comprensión más profunda de los objetos correspondientes, como aprender a agarrar un objeto y moverlo con el objetivo final de decir, limpiar un escritorio.

    El equipo presentará su artículo sobre el sistema el próximo mes en la Conferencia sobre aprendizaje de robots en Zürich, Suiza.


    © Ciencia https://es.scienceaq.com