• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Robot autónomo que interactúa con humanos utilizando lenguaje natural y procesamiento visual.

    Los investigadores Jared Johansen (izquierda) y Thomas Ilyevsky (derecha) evalúan el robot autónomo, Hosh, revisar los sistemas operativos en el entorno. El robot localizará de forma autónoma una habitación, edificio o individual a través de su visión integradora y software de lenguaje. Crédito:Imagen de Hope Sale / Purdue Research Foundation

    Los investigadores de la Universidad Purdue de la Facultad de Ingeniería Eléctrica e Informática están desarrollando un software de visión y lenguaje integrador que puede permitir que un robot autónomo interactúe con personas en diferentes entornos y logre objetivos de navegación.

    "El objetivo general del proyecto es decirle al robot que encuentre a una persona en particular, habitación o edificio y haga que el robot interactúe con los personas no capacitadas para pedir en lenguaje natural direcciones hacia un lugar en particular, "dijo Jeffrey Mark Siskind, un profesor asociado que dirige el equipo de investigación. "Para realizar esta tarea, el robot debe funcionar de forma segura en presencia de personas, anímelos a que den direcciones y utilicen su información para encontrar la meta ".

    Los candidatos a doctorado Thomas Ilyevsky y Jared Johansen están trabajando con Siskind para desarrollar un robot llamado Hosh que pueda integrar datos gráficos y de lenguaje en su proceso de navegación para localizar un lugar o persona específicos. El equipo está desarrollando el robot a través de una subvención financiada por la Iniciativa Nacional de Robótica de la National Science Foundation.

    Este robot podría ayudar a los automóviles autónomos a comunicarse con pasajeros y peatones o podría completar tareas de pequeña escala en un lugar comercial, como entregar correo. El robot contribuiría al crecimiento esperado de $ 14 mil millones de la industria de la robótica de consumo para 2025, según lo proyectado por Boston Consulting Group.

    El robot recibirá una tarea para localizar una habitación específica, edificio o individuo en un lugar conocido o desconocido. Luego, el robot unirá un lenguaje novedoso y un procesamiento visual para navegar por el entorno, preguntar por direcciones, solicitar que se abran las puertas o que se presionen los botones del ascensor y alcanzar su objetivo.

    Los investigadores están desarrollando software de alto nivel para dar al robot "conocimiento de sentido común, "la capacidad de comprender objetos y entornos con intuición a nivel humano, permitiéndole reconocer las convenciones de navegación. Por ejemplo, el robot incorporará tanto declaraciones habladas como gestos físicos en su proceso de navegación.

    El robot autónomo, llamado Hosh, navegará por los entornos e interactuará con la gente. En la foto superior se muestra la pantalla de la computadora del robot que incluye un mapa, vista de cámara y software operativo adicional. La parte inferior muestra a los investigadores Jeffrey Mark Siskind (izquierda), Thomas Ilyevsky (centro) y Jared Johansen (derecha) a través de la visión por computadora del robot. Crédito:Imagen de Hope Sale / Purdue Research Foundation

    "El robot necesita intuición a nivel humano para comprender las convenciones de navegación, "Dijo Ilyevsky." Aquí es donde entra el conocimiento del sentido común. El robot debe saber que las habitaciones pares e impares se encuentran una frente a la otra en un pasillo o que la habitación 317 debe estar en el tercer piso del edificio ".

    Para desarrollar el conocimiento del sentido común del robot, Las investigaciones desarrollarán software de visión por computadora y procesamiento integrador del lenguaje natural. Típicamente, El procesamiento del lenguaje natural permitirá que el robot se comunique con las personas, mientras que el software de visión por computadora permitirá que el robot navegue por su entorno. Sin embargo, los investigadores están avanzando en el software para informarse unos a otros mientras el robot se mueve.

    "El robot necesita comprender el lenguaje en un contexto visual y la visión en un contexto de lenguaje, ", Dijo Siskind." Por ejemplo, al localizar a una persona específica, el robot puede recibir información en un comentario o gesto físico y debe comprender ambos dentro del contexto de sus objetivos de navegación ".

    Por ejemplo, si la respuesta es "Busque a esa persona en la habitación 300, "el robot deberá procesar la declaración en un contexto visual e identificar en qué habitación se encuentra actualmente, así como la mejor ruta para llegar a la habitación 300. Si la respuesta es" Esa persona está allí "con una señal física, el robot deberá integrar la señal visual con el significado de la declaración para identificar a la Persona A.

    "La interacción con humanos es un problema sin resolver en inteligencia artificial, "Dijo Johansen." Para este proyecto, estamos tratando de ayudar al robot a comprender ciertas convenciones con las que podría encontrarse o de anticipar que una docena de respuestas diferentes podrían tener el mismo significado ".

    "Esperamos que esta tecnología sea realmente grande, porque la industria de los robots autónomos y los coches autónomos se está volviendo muy grande, ", Dijo Siskind." La tecnología podría adaptarse a los coches autónomos, permitir que los coches pidan direcciones o que los pasajeros soliciten un destino específico, al igual que lo hacen los conductores humanos ".

    Los investigadores esperan enviar al robot en misiones autónomas con una complejidad creciente a medida que avanza la tecnología. Primero, el robot aprenderá a navegar en interiores en un solo piso. Luego, para trasladarse a otros pisos y edificios, le pedirá a las personas que operen el ascensor o le abran las puertas. Los investigadores esperan progresar a misiones al aire libre en la primavera.


    © Ciencia https://es.scienceaq.com