• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los nuevos modelos detectan la confianza humana en las máquinas inteligentes

    ¿Cómo deberían diseñarse las máquinas inteligentes para "ganarse" la confianza de los humanos? Los nuevos modelos están informando estos diseños. Crédito:Foto de la Universidad de Purdue / Marshall Farthing

    Los nuevos "modelos de clasificación" detectan qué tan bien los humanos confían en las máquinas inteligentes con las que colaboran, un paso hacia la mejora de la calidad de las interacciones y el trabajo en equipo.

    El objetivo a largo plazo del campo general de investigación es diseñar máquinas inteligentes capaces de cambiar su comportamiento para mejorar la confianza humana en ellas. Los nuevos modelos fueron desarrollados en una investigación dirigida por la profesora asistente Neera Jain y la profesora asociada Tahira Reid. en la Escuela de Ingeniería Mecánica de la Universidad de Purdue.

    "Máquinas inteligentes, y más ampliamente, Los sistemas inteligentes se están volviendo cada vez más comunes en la vida cotidiana de los humanos, ", Dijo Jain." A medida que se requiere cada vez más que los humanos interactúen con sistemas inteligentes, la confianza se convierte en un factor importante para las interacciones sinérgicas ".

    Por ejemplo, los pilotos de aviones y los trabajadores industriales interactúan de forma rutinaria con los sistemas automatizados. Los seres humanos a veces anulan innecesariamente estas máquinas inteligentes si creen que el sistema está fallando.

    "Está bien establecido que la confianza humana es fundamental para las interacciones exitosas entre humanos y máquinas, "Dijo Reid.

    Los investigadores han desarrollado dos tipos de "modelos de sensores de confianza empíricos basados ​​en clasificadores, "un paso hacia la mejora de la confianza entre humanos y máquinas inteligentes.

    El trabajo se alinea con la celebración de Saltos Gigantes de Purdue, reconociendo los avances globales de la universidad en IA, algoritmos y automatización como parte del 150 aniversario de Purdue. Este es uno de los cuatro temas del Festival de Ideas de la celebración de un año, diseñado para mostrar Purdue como un centro intelectual que resuelve problemas del mundo real.

    Los modelos utilizan dos técnicas que proporcionan datos para medir la confianza:electroencefalografía y respuesta galvánica de la piel. El primero registra patrones de ondas cerebrales, y el segundo monitorea los cambios en las características eléctricas de la piel, proporcionar "conjuntos de características" psicofisiológicas correlacionadas con la confianza.

    Cuarenta y cinco sujetos humanos se pusieron auriculares EEG inalámbricos y usaron un dispositivo en una mano para medir la respuesta galvánica de la piel.

    Uno de los nuevos modelos, un "modelo de sensor de confianza general, "utiliza el mismo conjunto de características psicofisiológicas para los 45 participantes. El otro modelo está personalizado para cada sujeto humano, resultando en una precisión media mejorada pero a expensas de un aumento en el tiempo de entrenamiento. Los dos modelos tenían una precisión media del 71,22 por ciento, y 78,55 por ciento, respectivamente.

    Es la primera vez que se utilizan mediciones de EEG para medir la confianza en tiempo real, o sin demora.

    "Estamos utilizando estos datos de una forma muy nueva, ", Dijo Jain." Lo estamos viendo en una especie de flujo continuo en lugar de mirar las ondas cerebrales después de un desencadenante o evento específico ".

    Los hallazgos se detallan en un artículo de investigación que aparece en un número especial de Transactions on Interactive Intelligent Systems de la Association for Computing Machinery. El número especial de la revista se titula "Confianza e influencia en la interacción inteligente entre humanos y máquinas". El artículo fue escrito por el estudiante graduado en ingeniería mecánica Kumar Akash; ex estudiante de posgrado Wan-Lin Hu, quien ahora es investigador asociado postdoctoral en la Universidad de Stanford; Jain y Reid.

    "Estamos interesados ​​en utilizar principios de control de retroalimentación para diseñar máquinas que sean capaces de responder a los cambios en el nivel de confianza humana en tiempo real para generar y gestionar la confianza en la relación hombre-máquina". "Dijo Jain." Para hacer esto, necesitamos un sensor para estimar el nivel de confianza humana, de nuevo en tiempo real. Los resultados presentados en este documento muestran que las medidas psicofisiológicas podrían usarse para hacer esto ".

    La cuestión de la confianza humana en las máquinas es importante para el funcionamiento eficiente de los "colectivos de agentes humanos".

    "El futuro se construirá en torno a colectivos de agentes humanos que requerirán una coordinación y colaboración eficiente y exitosa entre humanos y máquinas, "Dijo Jain." Digamos que hay un enjambre de robots que ayudan a un equipo de rescate durante un desastre natural. En nuestro trabajo estamos tratando con un solo humano y una máquina, pero, en última instancia, esperamos escalar a equipos de humanos y máquinas ".

    Se han introducido algoritmos para automatizar varios procesos.

    "Pero todavía tenemos humanos que monitorean lo que está sucediendo, ", Dijo Jain." Por lo general, hay una función de anulación, donde, si piensan que algo no está bien, pueden recuperar el control ".

    A veces, esta acción no está justificada.

    "Hay situaciones en las que los humanos pueden no entender lo que está sucediendo, por lo que no confían en que el sistema haga lo correcto, "Dijo Reid." Así que recuperan el control incluso cuando en realidad no deberían ".

    En algunos casos, por ejemplo, en el caso de pilotos que anulan el piloto automático, recuperar el control podría obstaculizar el funcionamiento seguro de la aeronave, causando accidentes.

    "Un primer paso hacia el diseño de máquinas inteligentes que sean capaces de generar y mantener la confianza con los humanos es el diseño de un sensor que permitirá a las máquinas estimar el nivel de confianza humana en tiempo real, "Dijo Jain.

    Para validar su método, Se pidió a 581 participantes en línea que operaran una simulación de conducción en la que una computadora identificaba obstáculos en la carretera. En algunos escenarios, la computadora identificó correctamente los obstáculos el 100 por ciento del tiempo, mientras que en otros escenarios la computadora identificó incorrectamente los obstáculos el 50 por ciento de las veces.

    "Entonces, en algunos casos te diría que hay un obstáculo, para que pise los frenos y evite un accidente, pero en otros casos le diría incorrectamente que existe un obstáculo cuando no lo había, Entonces golpeas los descansos sin razón, "Dijo Reid.

    Las pruebas permitieron a los investigadores identificar características psicofisiológicas que están correlacionadas con la confianza humana en los sistemas inteligentes. y construir un modelo de sensor de confianza en consecuencia. "Hicimos la hipótesis de que el nivel de confianza sería alto en ensayos confiables y bajo en ensayos defectuosos, y validamos esta hipótesis utilizando respuestas recopiladas de 581 participantes en línea, " ella dijo.

    Los resultados validaron que el método inducía efectivamente confianza y desconfianza en la máquina inteligente.

    "Para estimar la confianza en tiempo real, Necesitamos la capacidad de extraer y evaluar continuamente medidas psicofisiológicas clave, ", Dijo Jain." Este trabajo representa el primer uso de medidas psicofisiológicas en tiempo real para el desarrollo de un sensor de confianza humana ".

    El auricular EEG registra señales en nueve canales, cada canal capta diferentes partes del cerebro.

    "Las ondas cerebrales de todos son diferentes, por lo que debe asegurarse de crear un clasificador que funcione para todos los seres humanos ".

    Para sistemas autónomos, La confianza humana se puede clasificar en tres categorías:disposicional, situacional y aprendido.

    La confianza disposicional se refiere al componente de confianza que depende de la demografía, como el género y la cultura, que conllevan posibles sesgos.

    "Sabemos que probablemente hay diferencias matizadas que deben tenerse en cuenta, "Reid dijo." Las mujeres confían de manera diferente a los hombres, por ejemplo, y la confianza también puede verse afectada por diferencias de edad y nacionalidad ".

    La confianza situacional puede verse afectada por el nivel de riesgo o dificultad de una tarea, mientras que lo aprendido se basa en la experiencia pasada del ser humano con sistemas autónomos.

    Los modelos que desarrollaron se denominan algoritmos de clasificación.

    "La idea es poder utilizar estos modelos para clasificar cuándo es probable que alguien se sienta confiado o desconfiado, " ella dijo.

    Jain y Reid también han investigado la confianza disposicional para dar cuenta de las diferencias culturales y de género, así como modelos dinámicos capaces de predecir cómo cambiará la confianza en el futuro en función de los datos.


    © Ciencia https://es.scienceaq.com