• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los robots pueden aprender mucho de la naturaleza si quieren ver el mundo.

    "Ver" a través de ojos de robot. Crédito:Shutterstock / TrifonenkoIvan

    La visión es una de las increíbles creaciones de la naturaleza que ha estado con nosotros durante cientos de millones de años. Es un sentido clave para los humanos pero uno que a menudo damos por sentado:es decir, hasta que empezamos a perderlo o intentamos recrearlo para un robot.

    Muchos laboratorios de investigación (incluido el nuestro) han estado modelando aspectos de los sistemas de visión que se encuentran en animales e insectos durante décadas. Nos basamos en gran medida en estudios como los realizados en hormigas, en abejas e incluso en roedores.

    Para modelar un sistema biológico y hacerlo útil para robots, Por lo general, debe comprender tanto el conductual y neural base de ese sistema de visión.

    El componente conductual es lo que observas que hace el animal y cómo cambia ese comportamiento cuando te metes con lo que puede ver. por ejemplo, probando diferentes configuraciones de puntos de referencia. Los componentes neuronales son los circuitos en el cerebro del animal que subyacen al aprendizaje visual de las tareas, como la navegación.

    Reconociendo caras

    El reconocimiento es un proceso visual fundamental para todos los animales y robots. Es la capacidad de reconocer a personas conocidas, animales objetos y puntos de referencia del mundo.

    Por su importancia, el reconocimiento facial viene en parte "integrado" a sistemas naturales como un bebé. Somos capaces de reconocer caras desde el principio.

    Entre esas líneas, algunos sistemas de reconocimiento facial artificial se basan en cómo se cree que funcionan los sistemas biológicos. Por ejemplo, Los investigadores han creado conjuntos de redes neuronales que imitan diferentes niveles de la jerarquía de procesamiento visual en primates para crear un sistema que es capaz de reconocimiento facial.

    Reconocer visualmente un lugar es sencillo ... hasta que la apariencia de ese lugar cambia drásticamente. Crédito:Michael Milford

    Reconociendo lugares

    El reconocimiento visual de un lugar es un proceso importante para cualquier cosa que navegue por el mundo.

    El reconocimiento de lugar es el proceso mediante el cual un robot o animal mira el mundo que lo rodea y es capaz de reconciliar lo que está viendo actualmente con algún recuerdo pasado de un lugar. o en el caso de los humanos, una descripción o expectativa de ese lugar.

    Antes de la llegada de la navegación GPS, Es posible que nos hayan dado instrucciones como "conduzca hasta que vea la iglesia a la izquierda y gire a la derecha". Sabemos cómo es una iglesia típica y, por lo tanto, podemos reconocer una cuando la vemos.

    El reconocimiento de este lugar puede parecer una tarea fácil, hasta que uno se encuentra con desafíos como el cambio de apariencia, por ejemplo, el cambio en la apariencia causado por los ciclos día-noche o por condiciones climáticas adversas.

    Otro desafío al reconocer visualmente un lugar es cambio de punto de vista :cambios en la apariencia de un lugar si lo ves desde una perspectiva diferente.

    Cuando se ve desde puntos de vista opuestos, el mismo lugar parece muy diferente. Crédito:neyro2008 / Alexander Zelnitskiy / Maxim Popov / 123rf.com / 1 año, 1, 000km:el conjunto de datos Oxford RobotCar

    Un ejemplo extremo de esto se encuentra al volver sobre una ruta a lo largo de una carretera por primera vez:se encuentra con todo en el entorno desde el punto de vista opuesto.

    Crear un sistema robótico que pueda reconocer este lugar a pesar de estos desafíos requiere que el sistema de visión tenga una comprensión más profunda de lo que hay en el entorno que lo rodea.

    Capacidad de detección

    El hardware de detección visual ha avanzado rápidamente durante la última década, impulsado en parte por la proliferación de cámaras de alta capacidad en los teléfonos inteligentes. Las cámaras modernas ahora igualan o superan incluso a los sistemas de visión natural más capaces, al menos en ciertos aspectos.

    Por ejemplo, una cámara de consumo ahora puede ver tan bien como un ojo humano ajustado en la oscuridad.

    Las nuevas cámaras de teléfonos inteligentes también pueden grabar video a 1, 000 cuadros por segundo, habilitando el potencial de los sistemas de visión robótica que operan a una frecuencia más alta que un sistema de visión humana.

    Prueba de poca luz de Sony A7s.

    La detección de visión robótica especializada, como el sensor de visión dinámica (DVS), es aún más rápida, pero solo informa la cambio en el brillo de un píxel, en lugar de su color absoluto. Puedes ver la diferencia aquí en un paseo por Hyde Park en Londres:

    Tampoco todas las cámaras robóticas tienen que ser como las cámaras convencionales:los especialistas en robótica utilizan cámaras especializadas en función de cómo ven el mundo animales como las hormigas.

    ¿Resolución requerida?

    Una de las preguntas fundamentales en toda investigación basada en la visión para robots y animales es qué resolución visual (o agudeza visual) se requiere para "hacer el trabajo".

    Para muchos insectos y animales como los roedores, a relatively low visual resolution is all they have access to—equivalent to a camera with a few thousand pixels in many cases (compared with a modern smartphone which has camera resolutions ranging from 8 Megapixels to 40 Megapixels).

    The required resolution varies greatly depending on the task—for some navigation tasks, only a few pixels are required for both animals such as ants and bees and robots.

    Mapping a walk through Hyde Park using an event camera. The top left panel shows the pixel intensity change “events”, the bottom left a normal colour camera for reference, and the right panel shows the resultant mapping of the person’s trajectory through the park, as if viewed from above.

    But for more complex tasks—such as self-driving cars—much higher camera resolutions are likely to be required.

    If cars are ever to reliably recognise and predict what a human pedestrian is doing, or intending to do, they will likely require high resolution visual sensing systems that can pick up subtle facial expressions and body movement.

    A tension between bio-inspiration and pragmatism

    For roboticists looking to nature for inspiration, there is a constant tension between mimicking biology and capitalising on the constant advances in camera technology.

    Skyline-based localisation for aggressively manoeuvring robots using UV sensors and spherical harmonics.

    While biological vision systems were clearly superior to cameras in the past, constant rapid advancement in technology has resulted in cameras with superior sensing capabilities to natural systems in many instances. It's only sensible that these practical capabilities should be exploited in the pursuit of creating high performance and safe robots and autonomous vehicles.

    But biology will still play a key role in inspiring roboticists. The natural kingdom is superb at making highly capable vision systems that consume minimal space, computational and power resources, all key challenges for most robotic systems.

    Bees navigate effectively using a relatively low resolution visual sensing capability. Credit:Bogdan Mircea Hoda / 123rf.com

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com