Los chatbots de IA todavía luchan por comprender el impacto de sus palabras. Crédito:Shutterstock
En esta era de información y desinformación, los avances en la tecnología nos desafían a repensar cómo funciona el lenguaje.
Tome chatbots conversacionales, por ejemplo. Estos programas de computadora imitan la conversación humana a través de texto o audio. La empresa de colchones Casper creó Insomnobot-3000 para comunicarse con personas que tienen trastornos del sueño. Les da a aquellos que tienen problemas para dormir la oportunidad de hablar con "alguien" mientras todos los demás duermen.
Pero Insomnobot-3000 no solo charla con sus usuarios, respondiendo preguntas. Tiene como objetivo reducir la soledad que sienten los enfermos de insomnio. Sus palabras tienen el potencial de tener un impacto en el usuario humano.
En su forma más básica, el lenguaje hace cosas con las palabras. Es una forma de acción que hace más que simplemente declarar hechos.
Esta observación bastante sencilla fue hecha en la década de 1950 por un filósofo oscuro y ligeramente excéntrico de la Universidad de Oxford, John Langshaw Austin. En su libro, Como hacer cosas con palabras , Austin desarrolló el concepto de lenguaje performativo.
Lo que Austin quiso decir es que el lenguaje no solo describe cosas, en realidad "funciona". Por ejemplo, si digo que lego el collar de perlas de mi abuela a mi hija, Estoy haciendo más que simplemente describir o informar algo. Estoy realizando una acción significativa.
Austin también clasificó el habla en tres partes:significado, uso e impacto. Su estudio y sus descubrimientos sobre el lenguaje se conocieron como teoría de los actos de habla. Esta teoría fue importante no solo en filosofía, pero también en otras áreas como el derecho, literatura y pensamiento feminista.
Una receta para la industria de los chatbots
Teniendo esto en cuenta, ¿Qué nos puede decir la teoría de Austin sobre los chatbots conversacionales de hoy?
Mi investigación se centra en la intersección de la ley y el lenguaje, y lo que dice la teoría de Austin sobre nuestra comprensión de cómo la maquinaria creativa está cambiando las operaciones sociales tradicionales, como la IA escribiendo novelas, robo-reporteros escribiendo artículos de noticias, cursos masivos abiertos en línea (MOOC) que reemplazan a las aulas y profesores que utilizan software de calificación de ensayos.
La tecnología actual de los chatbots se centra en mejorar la capacidad de los chatbots para imitar el significado y el uso del habla. Un buen ejemplo de esto es Cleverbot.
Pero la industria del chatbot debería centrarse en el tercer aspecto de la teoría de Austin:determinar el impacto del discurso del chatbot en la persona que lo usa.
Seguramente, si somos capaces de enseñar a los chatbots a imitar el significado y el uso del habla humana, también deberíamos poder enseñarles a imitar su impacto?
Aprender a tener una conversación
Los chatbots más recientes se basan en el aprendizaje automático de vanguardia, conocido como aprendizaje profundo.
El aprendizaje automático es una aplicación de IA que puede aprender sin ayuda humana. Aprendizaje profundo, que sigue el modelo de la red de neuronas del cerebro humano, lleva el aprendizaje automático aún más lejos. Los datos se introducen en redes neuronales artificiales profundas que están diseñadas para imitar la toma de decisiones humana.
Los chatbots diseñados con esta tecnología de red neuronal no solo repiten lo que se dice o producen respuestas enlatadas. En lugar de, aprenden a tener una conversación.
Los chatbots analizan cantidades masivas de habla humana, y luego tomar decisiones sobre cómo responder después de evaluar y clasificar qué tan bien las posibilidades reflejan ese discurso. Sin embargo, a pesar de estas mejoras, Estos nuevos bots todavía sufren algún que otro paso en falso, ya que se concentran principalmente en el significado y el uso de su habla.
Los chatbots anteriores eran mucho peores. En menos de 24 horas desde su publicación en Twitter en 2016, El chatbot de Microsoft, un sistema de inteligencia artificial llamado Tay (una abreviatura formada a partir de "Pensando en ti") y modelado a partir de los patrones de lenguaje de una adolescente, tenía más de 50, 000 seguidores y ha producido más de 100, 000 tweets.
Mientras Tay saludaba al mundo, sus primeros tuits fueron lo suficientemente inocentes. Pero luego comenzó a imitar a sus seguidores.
Ella rápidamente se volvió racista chatbot sexista y francamente desagradable. Microsoft se vio obligado a desconectarla.
Tay había dependido por completo de los datos que se le proporcionaban ... y, más importante, sobre las personas que estaban creando y dando forma a esos datos. No entendía qué estaban "haciendo" los usuarios humanos con el lenguaje. Tampoco comprendió los efectos de su discurso.
Enseñar a los chatbots lo incorrecto
Algunos investigadores creen que cuantos más datos adquieren los chatbots, menos ofensa causarán.
Pero tener en cuenta todas las posibles respuestas a una pregunta determinada podría llevar mucho tiempo o depender de una gran potencia informática. Más, esta solución de recopilar más datos sobre el significado y el uso es en realidad solo una historia que se repite. Zo, de Microsoft "sucesor de Tay, todavía lucha con cuestiones difíciles sobre política.
En pocas palabras, la industria de los chatbots va en la dirección equivocada; la industria de los chatbots está enseñando a los chatbots lo incorrecto.
Chatbots transformadores
Un mejor chatbot no solo observaría el significado y el uso de las palabras, pero también las consecuencias de lo que dice.
El habla también funciona como una forma de acción social. En su libro Problema de género , La filósofa Judith Butler analizó la performatividad del lenguaje y cómo aumenta nuestra comprensión del género. Ella vio el género como algo que uno hace, en lugar de algo que uno es, que se construye a través del habla y los gestos cotidianos.
Los chatbots conversacionales están destinados a públicos diversos. Centrarse en el efecto del habla podría mejorar la comunicación, ya que el chatbot también se preocuparía por el impacto de sus palabras.
En una industria tecnológica desafiada por su falta de diversidad e inclusión, un chatbot de este tipo podría ser transformador, como Butler nos ha mostrado en la construcción del género.
Hay, por supuesto, una advertencia. Centrarse en el impacto del lenguaje es el rasgo definitorio de los engaños, propaganda y desinformación - "noticias falsas" - un acto de habla deliberadamente diseñado, preocupado sólo por lograr el efecto. No importa su forma, Las noticias falsas simplemente imitan al periodismo y se crean solo para lograr un efecto.
La teoría de la performatividad en el lenguaje de Austin nos ayudó a descubrir cómo hablar entre nosotros.
La industria de los chatbots debería concentrar sus esfuerzos ahora en el impacto del habla, además del trabajo ya realizado sobre el significado y uso de las palabras. Porque un chatbot solo puede ser verdaderamente conversacional si se involucra en todos los aspectos de un acto de habla.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.