Crédito:Foto de Phonlamai / Shutterstock
"Lo siento, No entendí bien eso ". Cualquiera que haya intentado tener una conversación más profunda con un asistente virtual como Siri sabe lo frustrante que puede ser. Eso es a pesar del hecho de que los sistemas de inteligencia artificial como este están presionando cada vez más en nuestras vidas, con nuevas historias de éxito casi a diario. Las IA no solo ayudan ahora a los radiólogos a detectar tumores, Pueden actuar como repelentes de gatos e incluso detectar señales de posibles tecnologías extraterrestres desde el espacio.
Pero cuando se trata de habilidades humanas fundamentales, como tener una buena charla, La IA se queda corta. Simplemente no puede proporcionar el humor, calidez y la capacidad de construir una relación coherente y personal que es crucial en las conversaciones humanas. Pero, ¿por qué es así? ¿Llegará algún día?
Los chatbots han recorrido un largo camino desde sus inicios, con Eliza del MIT en la década de 1960. Eliza se basó en un conjunto de reglas cuidadosamente elaboradas que daban la impresión de ser un oyente activo y simulaban una sesión con un psicoterapeuta.
Los sistemas como Eliza eran buenos para dar una primera impresión sofisticada, pero se descubrieron fácilmente después de algunos turnos de conversación. Dichos sistemas se construyeron sobre la base de los esfuerzos para recopilar la mayor cantidad de conocimiento mundial posible, y luego formalizarlo en conceptos y cómo se relacionan entre sí. Los conceptos y las relaciones se integraron aún más en la gramática y los léxicos que ayudarían a analizar y generar el lenguaje natural a partir de representaciones lógicas intermedias. Por ejemplo, El conocimiento mundial puede contener hechos como "el chocolate es comestible" y "la roca no es comestible".
Aprendiendo de los datos
Los sistemas de IA conversacional de hoy son diferentes en que se dirigen a la conversación de dominio abierto:no hay límite para la cantidad de temas, preguntas o instrucciones que un humano puede hacer. Esto se logra principalmente evitando por completo cualquier tipo de representación intermedia o ingeniería de conocimiento explícito. En otras palabras, el éxito de la IA conversacional actual se basa en la premisa de que no conoce ni comprende nada del mundo.
El modelo básico de aprendizaje profundo que subyace en la mayoría de los trabajos actuales en el procesamiento del lenguaje natural se denomina red neuronal recurrente. mediante el cual un modelo predice una secuencia de salida de palabras basada en una secuencia de entrada de palabras por medio de una función de probabilidad que se puede deducir de los datos. Dada la entrada del usuario "¿Cómo estás?" el modelo puede determinar que una respuesta estadísticamente frecuente es "Estoy bien".
El poder de estos modelos radica en parte en su simplicidad, al evitar representaciones intermedias, más datos normalmente conducirán a mejores modelos y mejores resultados. Aprender para una IA es muy similar a cómo aprendemos:digerir un conjunto de datos de entrenamiento muy grande y compararlo con datos conocidos pero no vistos (conjunto de prueba). Según el rendimiento de la IA frente al conjunto de prueba, Luego, el modelo predictivo de la IA se ajusta para obtener mejores resultados antes de que se repita la prueba.
Pero, ¿cómo se determina qué tan bueno es? Puedes mirar la gramática de las expresiones, qué tan "humanos" suenan, o la coherencia de una contribución en una secuencia de turnos conversacionales. La calidad de los resultados también se puede determinar como una evaluación subjetiva de cuán cerca se cumplen las expectativas. DeepDrumpf del MIT es un buen ejemplo:un sistema de inteligencia artificial entrenado con datos de la cuenta de Twitter de Donald Trump y que sorprendentemente suena como él. comentando sobre una serie de temas como la salud, mujeres, o inmigración.
Sin embargo, los problemas comienzan cuando los modelos reciben entradas "incorrectas". Tay de Microsoft fue un intento de construir una IA conversacional que "mejoraría" gradualmente y se volvería más humana al tener conversaciones en Twitter. Tay pasó de ser un filántropo a un matón político con una visión del mundo incoherente y extremista dentro de las 24 horas posteriores al despliegue. Pronto se desconectó.
A medida que las máquinas aprenden de nosotros, también asumen nuestros defectos:nuestras ideologías, estados de ánimo y opiniones políticas. Pero a diferencia de nosotros, no aprenden a controlarlos o evaluarlos, solo asignan una secuencia de entrada a una secuencia de salida, sin filtro ni brújula moral.
Esto tiene, sin embargo, también se ha presentado como una ventaja. Algunos argumentan que los recientes éxitos del debatidor de proyectos de IBM, una IA que puede construir "argumentos convincentes basados en evidencia" sobre cualquier tema dado, se debe a su falta de prejuicios e influencia emocional. Para hacer esto, busca datos en una gran colección de documentos y extrae información para expresar el punto de vista opuesto al de la persona con la que está debatiendo.
Próximos pasos
Pero incluso si más datos pueden ayudar a la IA a aprender a decir cosas más relevantes, ¿Alguna vez sonará realmente humano? Las emociones son esenciales en la conversación humana. Reconocer la tristeza o la felicidad en la voz de otra persona o incluso en los mensajes de texto es increíblemente importante al momento de adaptar nuestra propia respuesta o emitir un juicio sobre una situación. Normalmente tenemos que leer entre líneas.
Las IA conversacionales son esencialmente psicópatas, sin sentimientos ni empatía. Esto se vuelve dolorosamente claro cuando gritamos nuestro número de cliente en el teléfono por séptima vez, con la esperanza de que el sistema reconozca nuestra agonía y nos comunique con un representante de servicio al cliente humano.
Similar, las IA conversacionales generalmente no entienden el humor o el sarcasmo, que la mayoría de nosotros consideramos cruciales para una buena charla. Aunque los programas individuales diseñados para enseñar a la IA a detectar comentarios sarcásticos entre una serie de oraciones han tenido cierto éxito, nadie ha logrado integrar esta habilidad en una IA conversacional real todavía.
Claramente, el siguiente paso para las IA conversacionales es integrar esta y otras funciones "humanas". Desafortunadamente, todavía no tenemos las técnicas disponibles para hacer esto con éxito. E incluso si lo hiciéramos el problema sigue siendo que cuanto más intentamos incorporar en un sistema, más potencia de procesamiento requerirá. Por lo tanto, puede pasar algún tiempo antes de que tengamos los tipos de computadoras disponibles que lo harán posible.
Los sistemas de inteligencia artificial aún carecen claramente de una comprensión más profunda del significado de las palabras, las opiniones políticas que representan, las emociones transmitidas y el impacto potencial de las palabras. Esto los aleja mucho tiempo de sonar realmente humanos. Y puede que pase aún más tiempo antes de que se conviertan en compañeros sociales que realmente nos comprendan y puedan tener una conversación en el sentido humano de la palabra.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.