• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Quiere que las computadoras vean mejor en el mundo real? Entrénelos en realidad virtual

    Los científicos han desarrollado una nueva forma de mejorar la forma en que las computadoras "ven" y "comprenden" objetos en el mundo real al entrenar los sistemas visuales de las computadoras en un entorno virtual.

    El equipo de investigación publicó sus hallazgos en Revista IEEE / CAA de Autmatica Sinica , una publicación conjunta del IEEE y la Asociación China de Automatización.

    Para que las computadoras aprendan y reconozcan con precisión objetos como edificios, calles o humanos, las máquinas deben confiar en el procesamiento de una gran cantidad de datos etiquetados, en este caso, imágenes de objetos con anotaciones precisas. Un coche autónomo por ejemplo, necesita miles de imágenes de carreteras y automóviles de las que aprender. Por lo tanto, los conjuntos de datos juegan un papel crucial en el entrenamiento y prueba de los sistemas de visión por computadora. Usando conjuntos de datos de entrenamiento etiquetados manualmente, un sistema de visión por computadora compara su situación actual con situaciones conocidas y toma la mejor acción, lo que sea que sea.

    "Sin embargo, recopilar y anotar imágenes del mundo real es demasiado exigente en términos de inversión de mano de obra y dinero, "escribe el primer autor Kunfeng Wang, profesor asociado en el Laboratorio Estatal Clave de Gestión y Control de Sistemas Complejos de China. Wang dice que el objetivo de su investigación es superar las limitaciones de los conjuntos de datos de imágenes del mundo real, que son insuficientes para entrenar y probar sistemas de visión por computadora.

    Para resolver este problema, Wang y sus colegas crearon un conjunto de datos llamado ParallelEye. ParallelEye se generó virtualmente mediante el uso de software informático disponible comercialmente, específicamente el motor de videojuegos Unity3D. Usando un mapa de Zhongguancun, una de las zonas urbanas más concurridas de Beijing, Porcelana, como su referencia, recrearon virtualmente el entorno urbano agregando edificios, coches e incluso condiciones meteorológicas. Luego colocaron una "cámara" virtual en un automóvil virtual. El automóvil recorrió el Zhongguancun virtual y creó conjuntos de datos que son representativos del mundo real.

    A través de su "control total" del entorno virtual, El equipo de Wang pudo crear datos utilizables extremadamente específicos para su sistema de detección de objetos:un vehículo autónomo simulado. Los resultados fueron impresionantes, produciendo un marcado aumento en el rendimiento en casi todas las métricas probadas. Al diseñar conjuntos de datos personalizados, una mayor variedad de sistemas autónomos será más práctico de entrenar.

    Si bien sus mayores aumentos de rendimiento provienen de la incorporación de conjuntos de datos de ParallelEye con conjuntos de datos del mundo real, El equipo de Wang ha demostrado que su método es capaz de crear fácilmente diversos conjuntos de imágenes. "Con el marco de visión de ParallelEye, Las imágenes masivas y diversificadas se pueden sintetizar de forma flexible, y esto puede ayudar a construir sistemas de visión por computadora más robustos, ", dice Wang. El enfoque propuesto por el equipo de investigación se puede aplicar a muchos escenarios de computación visual, incluida la vigilancia visual, procesamiento de imágenes médicas, y biometría.

    Próximo, el equipo creará un conjunto aún mayor de imágenes virtuales, mejorar el realismo de las imágenes virtuales, y explorar la utilidad de las imágenes virtuales para otras tareas de visión por computadora. Wang dice:"Nuestro objetivo final es construir una teoría sistemática de visión paralela capaz de entrenar, prueba, comprender y optimizar los modelos de visión por computadora con imágenes virtuales y hacer que los modelos funcionen bien en escenas complejas ".


    © Ciencia https://es.scienceaq.com