• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Enseñar a los vehículos autónomos a predecir el movimiento de los peatones

    Crédito:CC0 Public Domain

    Al concentrarse en el paso de los humanos, simetría corporal y colocación del pie, Los investigadores de la Universidad de Michigan están enseñando a los vehículos autónomos a reconocer y predecir los movimientos de los peatones con mayor precisión que las tecnologías actuales.

    Datos recopilados por vehículos a través de cámaras, LiDAR y GPS permiten a los investigadores capturar fragmentos de video de humanos en movimiento y luego recrearlos en una simulación por computadora en 3-D. Con ese, han creado una "red neuronal recurrente de inspiración biomecánica" que cataloga los movimientos humanos.

    Con eso, pueden predecir poses y ubicaciones futuras para uno o varios peatones hasta aproximadamente 50 yardas del vehículo. Eso es aproximadamente la escala de una intersección de la ciudad.

    "El trabajo anterior en esta área, por lo general, solo se enfocaba en imágenes fijas. No estaba realmente preocupado por cómo las personas se mueven en tres dimensiones, "dijo Ram Vasudevan, Profesor asistente de ingeniería mecánica de la U-M. "Pero si estos vehículos van a operar e interactuar en el mundo real, tenemos que asegurarnos de que nuestras predicciones de hacia dónde se dirige un peatón no coincidan con el próximo destino del vehículo ".

    Equipar los vehículos con el poder predictivo necesario requiere que la red se sumerja en las minucias del movimiento humano:el ritmo de la marcha de un humano (periodicidad), la simetría de espejo de las extremidades, y la forma en que la colocación del pie afecta la estabilidad al caminar.

    Gran parte del aprendizaje automático utilizado para llevar la tecnología autónoma a su nivel actual se ha ocupado de imágenes bidimensionales:fotografías. Una computadora que muestra varios millones de fotos de una señal de alto eventualmente reconocerá las señales de alto en el mundo real y en tiempo real.

    Pero al utilizar videoclips que se ejecutan durante varios segundos, el sistema de U-M puede estudiar la primera mitad del fragmento para hacer sus predicciones, y luego verifique la precisión con la segunda mitad.

    "Ahora, estamos entrenando al sistema para que reconozca el movimiento y haga predicciones no solo de una sola cosa, ya sea una señal de alto o no, sino de dónde estará el cuerpo de ese peatón en el siguiente paso y el siguiente y el siguiente, "dijo Matthew Johnson-Roberson, profesor asociado en el Departamento de Arquitectura e Ingeniería Naval de la U-M.

    Para explicar el tipo de extrapolaciones que puede hacer la red neuronal, Vasudevan describe una vista común.

    "Si un peatón está jugando con su teléfono, sabes que están distraídos, "Dijo Vasudevan." Su pose y hacia dónde miran te dice mucho sobre su nivel de atención. También te dice mucho sobre lo que serán capaces de hacer a continuación ".

    Los resultados han demostrado que este nuevo sistema mejora la capacidad de un vehículo sin conductor para reconocer lo que es más probable que suceda a continuación.

    "El error de traducción medio de nuestra predicción fue de aproximadamente 10 cm después de un segundo y menos de 80 cm después de seis segundos. Todos los demás métodos de comparación fueron hasta 7 metros de distancia, ", Dijo Johnson-Roberson." Somos mejores para averiguar dónde va a estar una persona ".

    Para controlar el número de opciones para predecir el próximo movimiento, los investigadores aplicaron las limitaciones físicas del cuerpo humano:nuestra incapacidad para volar o nuestra velocidad más rápida posible a pie.

    Para crear el conjunto de datos utilizado para entrenar la red neuronal de U-M, Los investigadores estacionaron un vehículo con características autónomas de Nivel 4 en varias intersecciones de Ann Arbor. Con las cámaras del coche y LiDAR de cara a la intersección, el vehículo podría registrar varios días de datos a la vez.

    Los investigadores reforzaron ese mundo real, datos "en la naturaleza" de conjuntos de datos de pose tradicionales capturados en un laboratorio. El resultado es un sistema que elevará el listón de lo que son capaces de hacer los vehículos sin conductor.

    "Estamos abiertos a diversas aplicaciones y emocionantes oportunidades de colaboración interdisciplinaria, y esperamos crear y contribuir a una mas saludable, y un entorno de vida más eficiente, "dijo el ingeniero de investigación de la UM Xiaoxiao Du.


    © Ciencia https://es.scienceaq.com