• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La visión mejorada del robot permite una interacción más natural con los humanos

    Crédito:Instituto Politécnico Rensselaer

    Con los ojos muy abiertos Robot de voz suave llamado Pepper Motors alrededor del Laboratorio de Sistemas Inteligentes en el Instituto Politécnico Rensselaer. Uno de los investigadores prueba Pepper, haciendo varios gestos mientras el robot describe con precisión lo que está haciendo. Cuando se cruza de brazos el robot identifica por su lenguaje corporal que algo está mal.

    "Oye, se amigable conmigo, "Dice Pepper.

    La capacidad de Pepper para captar señales no verbales es el resultado de la "visión" mejorada que están desarrollando los investigadores del laboratorio. Utilizando tecnología avanzada de visión artificial e inteligencia artificial, el equipo está mejorando la capacidad de robots como este para interactuar de forma natural con los humanos.

    "Lo que hemos estado haciendo hasta ahora es agregar capacidades de comprensión visual al robot, para que pueda percibir la acción humana y pueda interactuar naturalmente con los humanos a través de estos comportamientos no verbales, como gestos corporales, expresiones faciales, y pose del cuerpo, "dijo Qiang Ji, profesor de electricidad, computadora, e ingeniería de sistemas, y el director del Laboratorio de Sistemas Inteligentes.

    Con el apoyo de fondos gubernamentales a lo largo de los años, Los investigadores de Rensselaer han mapeado el rostro y el cuerpo humanos para que las computadoras, con la ayuda de cámaras integradas en robots y tecnologías de aprendizaje automático, Puede percibir señales no verbales e identificar la acción y la emoción humanas.

    Entre otras cosas, Pepper puede contar cuántas personas hay en una habitación, escanear un área para buscar a una persona en particular, estimar la edad de un individuo, reconocer expresiones faciales, y mantenga el contacto visual durante una interacción.

    Otro robot llamado Zenón, se parece más a una persona y tiene motores en la cara que lo hacen capaz de reflejar de cerca la expresión humana. El equipo de investigación ha estado perfeccionando la capacidad de Zeno para imitar la comunicación facial humana en tiempo real hasta el movimiento de las cejas, e incluso del globo ocular.

    Crédito:Instituto Politécnico Rensselaer

    Ji ve la visión por computadora como el siguiente paso en el desarrollo de tecnologías con las que las personas interactúan en sus hogares todos los días. En la actualidad, Los asistentes virtuales habilitados para IA más populares se basan casi por completo en interacciones vocales.

    "No hay un componente de visión. Básicamente, es solo un componente de audio, "Dijo Ji." En el futuro, creemos que va a ser multimodal, con interacción verbal y no verbal con el robot ".

    El equipo está trabajando en otros desarrollos centrados en la visión, como la tecnología que podría rastrear el movimiento de los ojos. Herramientas como esa podrían aplicarse a teléfonos inteligentes y tabletas.

    Ji dijo que la investigación que se está realizando en su laboratorio cuenta actualmente con el apoyo de la Fundación Nacional de Ciencias y la Agencia de Proyectos de Investigación Avanzada de Defensa. Además, el Laboratorio de Sistemas Inteligentes ha recibido financiación a lo largo de los años de fuentes públicas y privadas, incluido el Departamento de Defensa de EE. UU. el Departamento de Transporte de EE. UU., y Honda.

    Lo que el equipo de Ji está desarrollando también podría usarse para hacer las carreteras más seguras, él dijo, mediante la instalación de sistemas de visión por computadora en automóviles.

    "Podremos utilizar esta tecnología para detectar en última instancia si el conductor está fatigado, o el conductor se distrae, ", dijo." La investigación que estamos haciendo es más una IA centrada en el ser humano. Queremos desarrollar IA, tecnología de aprendizaje automático, para ampliar no solo las capacidades físicas de los humanos, sino también sus capacidades cognitivas ".

    Ahí es donde entran Pepper y Zeno. Ji imagina un momento en el que los robots podrían hacer compañía a los humanos y mejorar sus vidas. Dijo que ese es el objetivo final.

    "Este robot podría ser un compañero para los humanos en el futuro, "Ji dijo, apuntando a Pepper. "Podría escuchar a los humanos, entender las emociones humanas, y responder a través de comportamientos tanto verbales como no verbales para satisfacer las necesidades de los humanos ".


    © Ciencia https://es.scienceaq.com