Crédito:CC0 Public Domain
La evidencia sugiere que la interfaz entre los humanos y la tecnología solo se volverá más central para la vida moderna.
Para que los seres humanos puedan extraer información significativa de los tesoros de datos que recopilan las máquinas "inteligentes" con las que interactuamos, como los teléfonos móviles, las computadoras deben ser capaces de procesar el lenguaje como los humanos. La rama de la inteligencia artificial que aborda esta necesidad se denomina procesamiento del lenguaje natural.
Un artículo titulado "Algoritmos en el surgimiento histórico de los sentidos de las palabras", que aparece en línea hoy en procedimientos de la Academia Nacional de Ciencias ( PNAS ):Es el primero en mirar 1, 000 años de desarrollo del inglés y detectar los tipos de algoritmos que las mentes humanas han utilizado para extender las palabras existentes a nuevos sentidos de significado. Este tipo de "ingeniería inversa" de cómo se ha desarrollado el lenguaje humano podría tener implicaciones para el procesamiento del lenguaje natural por parte de las máquinas.
"Para comunicarse con éxito con los humanos, las computadoras deben poder usar palabras de manera flexible pero siguiendo los mismos principios que guían el uso del lenguaje por parte de los humanos, "explica Barbara Malt, Director del Programa de Ciencias Cognitivas de la Universidad de Lehigh y uno de los colaboradores del proyecto.
Según Malt, las palabras acumulan familias de sentidos relacionados a lo largo de la historia. Por ejemplo, la palabra 'cara' originalmente significaba la parte frontal de una cabeza, pero con el tiempo también pasó a significar la parte frontal de otros objetos, como la 'cara' del acantilado, y un estado emocional, como poner una 'cara' valiente.
"Este trabajo, "dice Malt, "tenía como objetivo investigar los procesos cognitivos que crean estas familias de sentidos".
El equipo, incluido el investigador principal Yang Xu, lingüista computacional de la Universidad de Toronto y Mahesh Srinivasan, profesor asistente de psicología en la Universidad de California Berkeley, junto con el estudiante de Berkeley Christian Ramiro, identificaron un algoritmo llamado "encadenamiento del vecino más cercano" como el mecanismo que mejor describe cómo los sentidos de las palabras se acumulan con el tiempo.
En el "encadenamiento del vecino más cercano", los puntos de entrada se analizan como una jerarquía de grupos. El modelo de los investigadores capturó el proceso de encadenamiento que ocurre cuando las ideas emergentes se expresan usando la palabra con el sentido existente más estrechamente relacionado. Este modelo de encadenamiento se ajusta al patrón histórico de aparición de los sentidos mejor que los modelos alternativos.
"Es una pregunta abierta cómo los algoritmos que exploramos aquí se pueden aplicar directamente para mejorar la comprensión de las máquinas del uso de un lenguaje novedoso, "dice Xu.
Después de desarrollar los algoritmos computacionales que predijeron el orden histórico en el que han surgido los sentidos de una palabra, el equipo probó estas predicciones con registros de inglés durante el último milenio utilizando el tesauro histórico de inglés, una gran base de datos en la que cada uno de los muchos sentidos de una palabra está marcado por su fecha de aparición en el idioma.
Sus hallazgos sugieren que los sentidos de las palabras surgen de maneras que minimizan los costos cognitivos, cuáles son los costos colectivos de generar, interpretar y aprender los sentidos de las palabras. En otras palabras, los nuevos sentidos de las palabras emergen a través de un mecanismo eficiente que expresa nuevas ideas a través de un conjunto compacto de palabras.
"Cuando las ideas emergentes se codifican en inglés, es más probable que se codifiquen mediante la ampliación del significado de una palabra existente que mediante la creación de una nueva palabra, "dice Malt." Una idea popular puede ser que cuando tienes una nueva idea necesitas inventar una nueva palabra para ella, pero descubrimos que esta estrategia es menos común ".
El año pasado, el mismo equipo fue el primero en identificar un conjunto de principios que gobiernan otro aspecto del desarrollo del lenguaje:el mapeo metafórico.
Durante el último milenio, Los sentidos de las palabras han evolucionado en gran medida desde dominios literales a dominios metafóricos, lo que se denomina mapeo metafórico. Las palabras que originalmente solo tenían un significado concreto o externo (como 'agarrar' un objeto físico) han llegado a tener significado en los reinos de lo abstracto y lo interno (como en 'agarrar' una idea). El grupo fue el primero en demostrar que esta progresión ha seguido un conjunto compacto de principios psicológicos y cognitivos y que se puede predecir el movimiento a través de reinos.
Los hallazgos del grupo se publicaron en Cognitive Psychology en un artículo titulado "Evolución de los significados de las palabras a través del mapeo metafórico:Sistematización durante el último milenio".
"Juntos, Nuestros estudios están comenzando a mostrar que la forma en que las palabras han desarrollado nuevos significados no es arbitraria, sino que reflejan propiedades fundamentales de cómo pensamos y nos comunicamos entre nosotros, "explica Mahesh Srinivasan, Profesora asistente de psicología y directora del laboratorio de Lenguaje y Desarrollo Cognitivo en UC Berkeley