Crédito:CC0 Public Domain
Para que las máquinas sean verdaderamente inteligentes, algunos investigadores de inteligencia artificial (IA) creen que las computadoras deben reconocer, comprender y responder a las emociones humanas. En breve, las máquinas deben estar equipadas con inteligencia emocional:la capacidad de expresar e identificar las propias emociones, e interactuar empáticamente con los demás.
Esa cualidad inequívocamente humana "es clave para desbloquear la aparición de máquinas que no solo son más generales, robusto y eficiente, pero que además estén alineados con los valores de la humanidad, "Los investigadores de Microsoft AI Daniel McDuff y Ashish Kapoor escribieron en un artículo reciente.
El dominio de la inteligencia emocional permitirá que las computadoras apoyen mejor a los humanos en su salud física y mental, así como aprender nuevas habilidades, escribieron McDuff y Kapoor.
The Seattle Times habló con el vicepresidente corporativo de inteligencia artificial e investigación de Microsoft, Lili Cheng, sobre los desarrollos en la inteligencia emocional de las máquinas, y lo que significa para los humanos. (La conversación ha sido editada para mayor claridad y extensión).
P:¿Cuál es la tecnología detrás de la inteligencia emocional de las máquinas?
R:La forma en que funciona el cerebro humano es que hay algunas cosas que has aprendido con el tiempo, pero luego hay otras cosas que haces de manera muy intuitiva. Justo antes de tener un accidente su cuerpo puede ponerse tenso y es posible que no piense en (cómo respondería) a ciertas cosas, (en varias otras situaciones) que se aplica a muchas emociones diferentes como la felicidad y la alegría.
(El artículo de McDuff y Kapoor) analizó cómo los humanos responden con miedo. ¿Podríamos ayudar a los sistemas automatizados a aprender de algunas de las mismas técnicas?
Tomaron una simulación de alguien conduciendo y midieron el pulso de la persona para ver cómo respondía si estaba tratando de evitar chocar o golpear algo.
Y luego construyeron ese modelo y lo aplicaron a un automóvil automatizado que está conduciendo a través de la misma simulación. Descubrieron que al aplicar la (reacción) de lucha o huida que una persona (experimenta), construyendo un algoritmo alrededor de eso, y aplicar eso a un automóvil automatizado lo ayudó a responder muy rápidamente en algunas situaciones.
No solo usan el miedo. Están combinando eso con la otra tecnología que es más racional, como lo haría una persona, porque no siempre estás respondiendo al miedo.
Pueden simular algunas cosas en un entorno virtual y aún hacer estas pruebas sin tener que tener autos reales instrumentados. Sería muy difícil hacer este tipo de pruebas en el mundo real.
P:¿Cuáles son algunas otras aplicaciones prácticas de la inteligencia emocional de las máquinas?
R:El verdadero sueño es que (la inteligencia emocional) pueda ayudarlo mejor en situaciones que son más significativas para usted (por ejemplo, ) estás en una reunión estresante, o quieres conocer a alguien nuevo. Y ayudar a las personas a manejar mejor sus emociones y hacerlo mejor en ese tipo de situaciones sería realmente genial ... (No solo) "abrir mi correo. Ayúdame a realizar esa tarea. Ayúdame a programar mi reunión más rápidamente".
P:¿Cómo podrían estas máquinas ayudar a las personas a manejar sus emociones?
Xiaoice es un chatbot muy popular en China. Comenzó como un proyecto de investigación. El objetivo del proyecto es realmente fascinante, porque, a diferencia de mucha de la asistencia que le ayuda a realizar su trabajo, el objetivo de Xiaoice era simplemente crear una experiencia atractiva. ¿Cómo podemos ayudar al sistema a animar a las personas a hablar (entre sí) y animarles a incluir este chatbot en las conversaciones?
Una de las cosas que hace (Xiaoice) en la conversación es entender, "Oh, esa es una pregunta, o este es un momento en el que solo quieres conversar conmigo, y realmente no quieres que tenga una respuesta ". Entonces (el chatbot) está tratando de dividir la conversación en diferentes formas en las que una persona podría pensar sobre la comunicación. Quizás el bot solo escucha un poco más.
Tienen conversaciones que duran horas con personas que básicamente solo necesitan empatía, hablar con alguien, para hacer más divertido, cosas sociales. Ese es un ejemplo de un sistema que está diseñado para estudiar más interacciones emocionales y sociales, que simplemente ser productivo.
P:¿Es como un robot de terapia?
Potencialmente podría (ser). Una de las habilidades podría ser ayudarte si tienes problemas en las relaciones. Pero también hace cosas muy prácticas, como te enseña ingles, o te ayuda con la traducción, para que comprenda mejor cuál es su objetivo y luego muestre las habilidades que le gustaría.
P:¿Cómo puede el bot comprender si alguien está triste o hace una pregunta?
R:Son muchas cosas diferentes, puede ser la entonación de tu voz o las palabras reales que estás diciendo, así como el tipo de interacción que tiene, su historial y algunas de las cosas que ha hecho en el pasado.
P:¿Podría la inteligencia emocional también ayudar a combatir la perpetuación de sesgos en los algoritmos de IA?
R:Es nuestro sueño, todavía estamos muy lejos de que la IA sea consciente de cuándo está siendo sesgada y cuándo no. Todavía tenemos ese problema con la gente, por lo que probablemente sea algo en lo que debemos trabajar durante mucho tiempo. Pero si no empezamos a pensar en ello y a trabajar en ello ahora en la raíz de los sistemas que creamos, entonces seguramente crearemos sistemas que reproduzcan muchos de los problemas que vemos en la sociedad.
Tenemos una colaboración con un grupo llamado OpenAI para asegurarnos de que las herramientas estén disponibles, para que no tenga que tener un doctorado en IA para hacer cosas. Capacitar a las personas para que puedan construir el tipo de cosas que quieren experimentar es muy crítico para la sociedad en general.
Y (en términos de) conjuntos de datos, queremos asegurarnos de que hombres y mujeres, personas mayores y más jóvenes, y aquellos que viven en diferentes lugares están todos representados en los datos que usamos para entrenar los modelos (AI). Si es solo un lado muy limitado de la sociedad, entonces, solo desde una perspectiva empresarial, no llegará a ... muchos de sus clientes, y queremos que estas herramientas resuelvan muchos problemas.
P:¿Qué tan lejos crees que están los desarrolladores de incorporar inteligencia emocional en cada máquina de IA?
Depende de cómo se defina la inteligencia emocional. Lo que me encanta de la IA de conversación es que, desde un nivel muy básico, si no tienes algunas cualidades humanas en los sistemas, se sienten rotos. Si algo no sabe cómo responder si lo saluda, o no conoce algo de tu historia, no se sienten muy inteligentes.
En muchos de los sistemas de conversación que estamos viendo, la gente piensa en (inteligencia emocional) desde el principio (en el desarrollo). Muchas veces las personas que diseñan los sistemas no son ingenieros, son escritores, o son diseñadores que han pensado en el tipo de emociones que podrías tener si usas un producto. Estamos muy lejos de automatizar ese (proceso). Pero creo que es genial ver a la gente pensar en (inteligencia emocional) desde el principio.
P:¿Prevé algún peligro potencial para las máquinas que tienen inteligencia emocional?
R:Como con todo, cuantas más cosas parezcan naturales, debemos asegurarnos de que la gente comprenda cuándo las cosas son reales o no. Por todo lo que hacemos tenemos una junta de ética para analizar los productos de Microsoft y tenemos un conjunto de pautas de diseño.
Aplicamos las leyes de privacidad a todo lo que hacemos y ... asegurarnos de que no tengamos sesgos en nuestros propios datos es muy importante para todos los productos que tenemos. Intentamos compartir esas pautas con cualquiera que utilice nuestras herramientas para crear su propia experiencia.
© 2019 The Seattle Times
Distribuido por Tribune Content Agency, LLC.