• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La nueva IA ve como un humano llenando los espacios en blanco

    Los informáticos de la Universidad de Texas en Austin han enseñado a un agente de inteligencia artificial cómo hacer algo que normalmente solo los humanos pueden hacer:echar un vistazo rápido e inferir todo su entorno. Crédito:Jenna Luecke / Universidad de Texas en Austin.

    Los informáticos de la Universidad de Texas en Austin le han enseñado a un agente de inteligencia artificial cómo hacer algo que normalmente solo los humanos pueden hacer:echar un vistazo rápido e inferir todo su entorno. una habilidad necesaria para el desarrollo de robots efectivos de búsqueda y rescate que algún día puedan mejorar la efectividad de misiones peligrosas. El equipo, dirigido por la profesora Kristen Grauman, Doctor. el candidato Santhosh Ramakrishnan y ex Ph.D. candidato Dinesh Jayaraman (ahora en la Universidad de California, Berkeley) publicaron hoy sus resultados en la revista Ciencia Robótica .

    La mayoría de los agentes de inteligencia artificial (sistemas informáticos que podrían dotar de inteligencia a robots u otras máquinas) están entrenados para tareas muy específicas, como reconocer un objeto o estimar su volumen, en un entorno que han experimentado antes. como una fábrica. Pero el agente desarrollado por Grauman y Ramakrishnan es de propósito general, recopilar información visual que luego se puede utilizar para una amplia gama de tareas.

    "Queremos un agente que esté generalmente equipado para ingresar a entornos y estar listo para nuevas tareas de percepción a medida que surjan, ", Dijo Grauman." Se comporta de una manera que es versátil y capaz de tener éxito en diferentes tareas porque ha aprendido patrones útiles sobre el mundo visual ".

    Los científicos utilizaron el aprendizaje profundo, un tipo de aprendizaje automático inspirado en las redes neuronales del cerebro, para capacitar a su agente en miles de imágenes de 360 ​​grados de diferentes entornos.

    Ahora, cuando se le presenta una escena que nunca antes había visto, el agente usa su experiencia para elegir algunos destellos, como un turista parado en medio de una catedral tomando algunas instantáneas en diferentes direcciones, que en conjunto suman menos del 20 por ciento de la escena completa. Lo que hace que este sistema sea tan efectivo es que no solo toma fotografías en direcciones aleatorias, sino que después de cada vislumbre, elegir la siguiente toma que predice agregará la información más nueva sobre toda la escena. Esto es muy parecido a si estuviera en una tienda de comestibles que nunca antes había visitado, y viste manzanas, esperarías encontrar naranjas cerca, pero para localizar la leche, podría mirar para otro lado. Basado en vislumbres, el agente infiere lo que habría visto si hubiera mirado en todas las demás direcciones, reconstruyendo una imagen completa de 360 ​​grados de su entorno.

    Un nuevo agente de inteligencia artificial desarrollado por investigadores de la Universidad de Texas en Austin echa un vistazo a sus alrededores. lo que representa menos del 20 por ciento de la vista completa de 360 ​​grados, e infiere el resto de todo el entorno. Lo que hace que este sistema sea tan efectivo es que no solo toma fotografías en direcciones aleatorias, sino que después de cada vislumbre, elegir la siguiente toma que predice agregará la información más nueva sobre toda la escena. Crédito:David Steadman / Santhosh Ramakrishnan / Universidad de Texas en Austin

    "Del mismo modo que usted trae información previa sobre las regularidades que existen en entornos previamente experimentados, como todas las tiendas de comestibles en las que ha estado, este agente busca de una manera no exhaustiva, ", Dijo Grauman." Aprende a hacer conjeturas inteligentes sobre dónde recopilar información visual para tener éxito en las tareas de percepción ".

    Uno de los principales desafíos que los científicos se propusieron fue diseñar un agente que pueda funcionar con limitaciones de tiempo estrictas. Esto sería fundamental en una aplicación de búsqueda y rescate. Por ejemplo, en un edificio en llamas, se recurría a un robot para localizar rápidamente a las personas, llamas y materiales peligrosos y transmita esa información a los bomberos.

    Un video de la finalización de la observación activa de entornos desconocidos. Crédito:Ramakrishnan et al., Sci. Robot. 4, eaaw6326 (2019)

    Por ahora, el nuevo agente opera como una persona parada en un lugar, con la capacidad de apuntar una cámara en cualquier dirección pero sin poder moverse a una nueva posición. O, equivalentemente, el agente podría mirar fijamente un objeto que está sosteniendo y decidir cómo girar el objeto para inspeccionar otro lado. Próximo, los investigadores están desarrollando el sistema para que funcione en un robot completamente móvil.

    Un video de ejemplos de recorridos de los entornos reconstruidos desde el punto de vista egocéntrico del sistema de visión por computadora. Crédito:Ramakrishnan et al., Sci. Robot. 4, eaaw6326 (2019)

    Usando las supercomputadoras en el Centro de Computación Avanzada de Texas y el Departamento de Ciencias de la Computación de UT Austin, tomó alrededor de un día entrenar a su agente usando un enfoque de inteligencia artificial llamado aprendizaje por refuerzo. El equipo, con el liderazgo de Ramakrishnan, desarrolló un método para acelerar el entrenamiento:construir un segundo agente, llamado compañero, para ayudar al agente principal.

    "El uso de información adicional que está presente únicamente durante el entrenamiento ayuda al agente [principal] a aprender más rápido, "Dijo Ramakrishnan.


    © Ciencia https://es.scienceaq.com