• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Uso de sensores táctiles y aprendizaje automático para mejorar la forma en que los robots manipulan las telas

    1) Inicialmente nos acercamos a la tela y luego 2) Tratamos de agarrar algunas capas de tela. Usando la detección táctil, determinamos si estamos agarrando la cantidad correcta de capas y luego 3) reajustamos la tela según sea necesario. Finalmente, 4) levantamos la tela con el número correcto de capas agarradas. Crédito:Tirumala et al.

    En los últimos años, los especialistas en robótica han estado tratando de mejorar la forma en que los robots interactúan con diferentes objetos que se encuentran en entornos del mundo real. Si bien algunos de sus esfuerzos arrojaron resultados prometedores, las habilidades de manipulación de la mayoría de los sistemas robóticos existentes aún están por detrás de las de los humanos.

    Las telas se encuentran entre los tipos de objetos que han demostrado ser más desafiantes para que los robots interactúen. Las razones principales de esto son que las piezas de tela y otras telas se pueden estirar, mover y doblar de diferentes maneras, lo que puede resultar en dinámicas de materiales complejas y autooclusiones.

    Investigadores del Instituto de Robótica de la Universidad Carnegie Mellon han propuesto recientemente una nueva técnica computacional que podría permitir que los robots comprendan y manejen mejor las telas. Esta técnica, presentada en un conjunto de documentos que se presentarán en la Conferencia Internacional sobre Robots y Sistemas Inteligentes y prepublicada en arXiv, se basa en el uso de un sensor táctil y un algoritmo de aprendizaje automático simple, conocido como clasificador.

    "Estamos interesados ​​en la manipulación de telas porque las telas y los objetos deformables en general son difíciles de manipular para los robots, ya que su deformabilidad significa que pueden configurarse de muchas maneras diferentes", Daniel Seita, uno de los investigadores que llevó a cabo el estudio. le dijo a TechXplore. "Cuando comenzamos este proyecto, sabíamos que había mucho trabajo reciente en robots que manipulaban tela, pero la mayor parte de ese trabajo implica manipular una sola pieza de tela. Nuestro artículo aborda las direcciones relativamente menos exploradas de aprender a manipular una montón de tela usando sensores táctiles".

    La mayoría de los enfoques existentes para permitir la manipulación de telas en robots solo se basan en el uso de sensores de visión, como cámaras o reproductores de imágenes que solo recopilan datos visuales. Si bien algunos de estos métodos lograron buenos resultados, su dependencia de sensores visuales puede limitar su aplicabilidad para tareas simples que involucran la manipulación de una sola pieza de tela.

    El nuevo método ideado por Seita y sus colegas Sashank Tirumala y Thomas Weng, por otro lado, utiliza datos recopilados por un sensor táctil llamado ReSkin, que puede inferir información relacionada con la textura de un material y su interacción con el medio ambiente. Usando estos datos táctiles, el equipo entrenó a un clasificador para determinar la cantidad de capas de tela agarradas por un robot.

    "Nuestros datos táctiles provienen del sensor ReSkin, que se desarrolló recientemente en CMU el año pasado", explicó Weng. "Usamos este clasificador para ajustar la altura de una pinza con el fin de agarrar una o dos capas superiores de tela de una pila de telas".

    Para evaluar su técnica, el equipo llevó a cabo 180 pruebas experimentales en un entorno real, utilizando un sistema robótico que consiste en un brazo robótico Franka, una pinza mini-Delta y un sensor Reskin (integrado en el "dedo" de la pinza) para agarrar una o dos piezas de tela en una pila. Su enfoque logró resultados prometedores, superando a los métodos de referencia que no consideran la retroalimentación táctil.

    "En comparación con los enfoques anteriores que solo usan cámaras, nuestro enfoque basado en la detección táctil no se ve afectado por los patrones en la tela, los cambios en la iluminación y otras discrepancias visuales", dijo Tirumala. "Nos entusiasmó ver que la detección táctil de dispositivos electromagnéticos como el sensor ReSkin puede proporcionar una señal suficiente para una tarea de manipulación de grano fino, como agarrar una o dos capas de tela. Creemos que esto motivará futuras investigaciones en detección táctil para tela manipulación por robots."

    En el futuro, Tirumala, Weng, Seita y sus colegas esperan que este enfoque de manipulación pueda ayudar a mejorar las capacidades de los robots diseñados para implementarse en instalaciones de fabricación de telas, servicios de lavandería o en los hogares. Específicamente, podría mejorar la capacidad de estos robots para manejar textiles complejos, múltiples piezas de tela, ropa sucia, mantas, ropa y otros objetos a base de tela.

    "Nuestro plan es continuar explorando el uso de la detección táctil para captar un número arbitrario de capas de tela, en lugar de una o dos capas en las que nos enfocamos en este trabajo", agregó Weng. "Además, estamos investigando enfoques multimodales que combinan tanto la visión como la detección táctil para que podamos aprovechar las ventajas de ambas modalidades de sensores". + Explora más

    Generar datos sensoriales multimodales para la percepción visual-táctil robótica

    © 2022 Red Ciencia X




    © Ciencia https://es.scienceaq.com