Los asistentes personales de hoy pueden averiguar lo que está diciendo, pero ¿y si pudieran inferir lo que estaba pensando basándose en sus acciones? Un equipo de investigadores académicos e industriales dirigido por la Universidad Carnegie Mellon está trabajando para construir agentes con inteligencia artificial con esta habilidad social.
El objetivo de los cuatro años, Proyecto de $ 6.6 millones, dirigido por Katia Sycara del Instituto de Robótica de CMU y patrocinado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), es utilizar la inteligencia social de la máquina para ayudar a los equipos humanos y mecánicos a trabajar juntos de forma segura, eficiente y productivamente. El proyecto incluye expertos en factores humanos y neurocientíficos de la Universidad de Pittsburgh y Northrop Grumman.
"La idea es que la máquina intente inferir lo que las personas piensan en función de su comportamiento, "dijo Sycara, un profesor de investigación que ha pasado décadas desarrollando agentes de software. "¿Está la persona confundida? ¿Está prestando atención a lo que se necesita? ¿Está sobrecargada?" En algunos casos, el agente de software podría incluso determinar que un compañero de equipo está cometiendo errores debido a información errónea o falta de capacitación, ella añadió.
Los seres humanos tienen la capacidad de inferir los estados mentales de los demás, llamada teoría de la mente, algo que las personas hacen como parte de la conciencia de la situación mientras evalúan su entorno y consideran posibles acciones. Los sistemas de inteligencia artificial aún no son capaces de esta habilidad, pero Sycara y sus colegas esperan lograrlo a través del metaaprendizaje, una rama del aprendizaje automático en la que el agente de software esencialmente aprende a aprender.
Crédito:Universidad Carnegie Mellon
Además de Sycara, el equipo incluye tres investigadores co-principales:Changliu Liu, profesor asistente en el Instituto de Robótica; Michael Lewis, profesor de la Escuela de Computación e Información de Pitt; y Ryan McKendrick, un científico cognitivo en Northrop Grumman.
El equipo de investigación pondrá a prueba a sus agentes socialmente inteligentes en un escenario de búsqueda y rescate dentro del mundo virtual del videojuego Minecraft. en un banco de pruebas desarrollado con investigadores de la Universidad Estatal de Arizona. En el primer año, los investigadores se centrarán en entrenar a su agente de software para inferir el estado mental de un miembro individual del equipo. En los años siguientes, el agente interactuará con múltiples jugadores humanos e intentará comprender lo que cada uno de ellos está pensando, incluso cuando cambia su entorno virtual.
Los agentes de software son programas autónomos que pueden percibir su entorno y tomar decisiones. Además de los asistentes personales digitales, los ejemplos van desde los programas que operan vehículos autónomos hasta los que hacen que aparezcan anuncios en los correos electrónicos de productos en los que el usuario ha expresado interés. Los agentes también se pueden utilizar para ayudar a las personas con tareas complejas, como programación y logística.
DARPA patrocina el proyecto a través de su programa de Inteligencia Social Artificial para Equipos Exitosos (ASIST).