Profesor asistente de psicología Dr. Nathan Tenhundfeld, izquierda, recientemente establecido Advanced Teaming, Tecnología, Automatización, y Laboratorio de Computación para estudiar la formación de equipos entre humanos y máquinas. Crédito:Michael Mercier
Se llama el valle inquietante. Aquellos que son fanáticos del programa de HBO "Westworld" o que han visto la película "Ex Machina" pueden estar familiarizados con el fenómeno. Pero para los que no lo son, es esencialmente la idea de que los humanos se sienten cómodos con robots que tienen características humanoides, pero se siente muy incómodo cuando el robot se parece casi, pero no exactamente, a un humano.
Para el Dr. Nathan Tenhundfeld, sin embargo, el valle inquietante es solo uno de los muchos factores que debe tener en cuenta al investigar la interacción humano-automatización como profesor asistente en el Departamento de Psicología de la Universidad de Alabama en Huntsville (UAH).
"Estamos en un punto único con el desarrollo de la tecnología donde los sistemas o plataformas automatizados ya no son una herramienta sino un compañero de equipo que se incorpora a nuestras experiencias del día a día, ", dice." Así que estamos buscando plataformas comerciales que ofrezcan los mismos sistemas pero en diferentes formas para ver si una determinada apariencia o característica afecta al usuario y de qué manera ".
Toma por ejemplo, el reciente impulso del Departamento de Defensa de los EE. UU. para incorporar la automatización en la guerra. Como concepto, tiene sentido:cuantos más robots tengamos luchando guerras, menor costo hay para la vida humana. Pero en la práctica es un poco más complejo. ¿Cómo debería ser un robot de guerra? ¿Una persona? ¿Una maquina?
Para responder a estas preguntas, El Dr. Tenhundfeld se ha asociado con un colega de la Academia de la Fuerza Aérea de EE. UU., donde realizó una investigación como becario postdoctoral, utilizar "una base de datos masiva de robots" para que determinen cómo varios componentes pueden afectar la percepción de las capacidades de un robot. "Queremos saber cosas como, ¿un robot con ruedas o una pista encaja mejor con nuestras expectativas de lo que deberíamos enviar a la guerra en comparación con un robot humanoide? ", dice." Y, ¿Tener una cara en el robot afecta si queremos ponerlo en peligro? "
Un estudiante del ATTAC Lab participa en una simulación de vuelo. Crédito:Michael Mercier
Incluso si hubiera respuestas fáciles, que no las hay, hay otro factor igualmente importante a considerar más allá de la interfaz de usuario del robot:la confianza. Para que un robot sea eficaz, el usuario debe confiar en la información que está proporcionando. Para explicar, El Dr. Tenhundfeld señala la investigación que realizó sobre el Tesla Model X mientras estaba en la Academia. Mirando específicamente la función de estacionamiento automático del automóvil, él y su equipo querían determinar la voluntad del usuario de dejar que el automóvil completara su tarea en función de su preferencia por tomar riesgos o la confianza en sus habilidades.
"Los datos sugieren que los vehículos automatizados tienden a ser más seguros que los humanos, pero a los humanos no les gusta ceder el control, ", dice riendo." Así que teníamos este patrón en el que había altas tasas de intervención al principio, pero a medida que desarrollaron la confianza en el sistema, después de que no fuera tan novedoso y comenzara a cumplir con sus expectativas, comenzaron a confiar más en él y las tasas de intervención disminuyeron ".
La otra cara de esa moneda sin embargo, es el potencial de empatía en, o apego a, un sistema automatizado en particular en el que los usuarios pueden haber desarrollado confianza. Para ilustrar este concepto, relata un estudio de caso de equipos de eliminación de artefactos explosivos que emplean robots para hacer estallar bombas de forma segura. "Cuando tienen que enviar los robots para que los reparen, tienen un problema cuando se les asigna un robot diferente, ", dice." Así que han depositado esta confianza en un robot específico a pesar de que la inteligencia / capacidad es la misma en todos los robots ".
Y para que no parezca que ya hay más que suficiente para que el Dr. Tenhundfeld lo tenga en cuenta, también hay confianza situacional, que se encuentra en algún lugar entre la confianza y la sobreconfianza. En este escenario, un usuario puede desarrollar un cierto nivel de confianza en su conjunto a lo largo del tiempo, pero luego se dan cuenta de que no confían tanto en algunos aspectos como en otros. "Digamos que tengo un sistema automatizado, o robot, proporcionar inteligencia en un entorno de planificación de misiones, y lo arruina, ", dice." Puede que no confíe en él en un entorno diferente, como en el campo de batalla, a pesar de que tiene una encarnación física diferente para su uso en ese entorno, y puede ser claramente capaz en el campo de batalla ".
En breve, la naturaleza cada vez más digital de nuestro mundo presenta una lista aparentemente interminable de consideraciones cuando se trata de garantizar que los sistemas automatizados puedan satisfacer con éxito las necesidades humanas, todo lo cual el Dr. Tenhundfeld debe tener en cuenta con la investigación que está haciendo en su equipo avanzado. Tecnología, Automatización, y laboratorio de computación, o ATTAC Lab. Pero dado el papel de la UAH como socio académico de esta industria emergente, es un desafío que él y sus compañeros investigadores han aceptado. "Las empresas se centran en ser las primeras en comercializar un producto, ", dice." Les ayudamos a mejorar el producto para que funcione bien para el usuario ".