• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Un sensor táctil óptico multicámara que podría habilitar máscaras robóticas basadas en la visión

    Una imagen del sensor multicámara. Crédito:Trueeb, Sferrazza &D’Andrea.

    Un equipo de investigadores de ETH Zurich en Suiza ha desarrollado recientemente un sensor táctil óptico multicámara (es decir, un sensor táctil basado en dispositivos ópticos) que recopila información sobre la distribución de la fuerza de contacto aplicada a su superficie. Este sensor, presentado en un artículo prepublicado en arXiv, podría usarse para desarrollar pieles robóticas suaves basadas en algoritmos de visión por computadora.

    "En comparación con las capacidades de visión que los robots pueden lograr con cámaras modernas, el sentido del tacto en los robots está muy poco desarrollado, "Camill Trueeb, Carmelo Sferrazza y Raffaello D "Andrea, los investigadores que llevaron a cabo el estudio, dicho Tech Xplore vía correo electrónico. "Los aspectos táctiles basados ​​en la visión tienen como objetivo cerrar esta brecha, explotar las capacidades de los sensores de visión y los algoritmos de inteligencia artificial de última generación, beneficiándose de la accesibilidad de grandes cantidades de datos y poder computacional ".

    El sensor táctil óptico desarrollado por Trueeb, Sferrazza y D "Andrea consta de cuatro cámaras colocadas debajo de una material transparente que contiene una extensión incrustada de partículas esféricas en su interior. Las cámaras rastrean el movimiento de estas partículas esféricas, que surge de la deformación del material cuando se le aplica una fuerza.

    Los investigadores también desarrollaron una arquitectura de aprendizaje automático (ML) que analiza el movimiento de las partículas esféricas en el material. Al analizar este movimiento, esta arquitectura puede reconstruir las fuerzas que están provocando una deformación en el material, también conocida como distribución de la fuerza de contacto.

    "Usamos cámaras relativamente económicas que proporcionan imágenes simultáneamente para un total de aproximadamente 65, 000 píxeles, "explicaron los investigadores." Por lo tanto, generan una gran cantidad de información a muy alta resolución, que es ideal para un enfoque basado en datos para la detección táctil ".

    En lugar de solo proporcionar valores de fuerza total, como la mayoría de los sensores de fuerza estándar existentes para aplicaciones robóticas, el sensor desarrollado por los investigadores ofrece información sobre la distribución de todas las fuerzas aplicadas a su superficie blanda, desacoplamiento de componentes normales y tangenciales. Debido a su estructura y diseño único, El nuevo sensor multicámara también exhibe una superficie de contacto más grande y una estructura más delgada que otros sensores táctiles basados ​​en cámaras sin requerir componentes reflectantes adicionales (p. ej., espejos).

    "El uso de varias cámaras permite utilizar este tipo de sensor táctil para cubrir áreas más grandes con formas arbitrarias, ", dijeron los investigadores." Este trabajo muestra cómo el conocimiento adquirido en un subconjunto de las cámaras se puede transferir a cámaras adicionales, resultando en un escalable, enfoque de uso eficiente de datos ".

    El impulsado por IA, El sensor multicámara podría, en última instancia, escalarse a superficies más grandes, permitiendo la creación de pieles robóticas suaves y sensibles. En su artículo reciente, los investigadores discuten cómo su arquitectura ML podría adaptarse para facilitar estas aplicaciones en el futuro.

    "Ahora planeamos ampliar las capacidades del sensor para reconstruir información sobre el contacto con objetos de formas complejas y genéricas, ", dijeron los investigadores." Creemos que el desarrollo de algoritmos de detección siempre debe tener en cuenta el componente de eficiencia de datos para facilitar el uso generalizado en robótica, y, por lo tanto, seguiremos esta dirección en el trabajo futuro, así como."

    © 2019 Science X Network




    © Ciencia https://es.scienceaq.com