Crédito:CC0 Dominio público
El software LaMDA (Language Model for Dialogue Applications) de Google es un sofisticado chatbot de IA que produce texto en respuesta a la entrada del usuario. Según el ingeniero de software Blake Lemoine, LaMDA ha logrado un sueño de larga data de los desarrolladores de IA:se ha vuelto sensible.
Los jefes de Lemoine en Google no están de acuerdo y lo han suspendido del trabajo después de que publicara en línea sus conversaciones con la máquina.
Otros expertos en inteligencia artificial también creen que Lemoine puede estar dejándose llevar, diciendo que los sistemas como LaMDA son simplemente máquinas de coincidencia de patrones que regurgitan variaciones en los datos utilizados para entrenarlos.
Una entrevista LaMDA. Google podría llamar a esto propiedad de propiedad compartida. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) 11 de junio de 2022
Independientemente de los detalles técnicos, LaMDA plantea una pregunta que solo se volverá más relevante a medida que avance la investigación de IA:si una máquina se vuelve inteligente, ¿cómo lo sabremos?
¿Qué es la conciencia?
Para identificar la sensibilidad, la conciencia o incluso la inteligencia, vamos a tener que averiguar qué son. El debate sobre estas cuestiones lleva siglos.
La dificultad fundamental es comprender la relación entre los fenómenos físicos y nuestra representación mental de esos fenómenos. Esto es lo que el filósofo australiano David Chalmers ha llamado el "problema difícil" de la conciencia.
No hay consenso sobre cómo, en todo caso, la conciencia puede surgir de los sistemas físicos.
Una visión común se llama fisicalismo:la idea de que la conciencia es un fenómeno puramente físico. Si este es el caso, no hay razón por la que una máquina con la programación correcta no pueda poseer una mente similar a la humana.
Habitación de María
El filósofo australiano Frank Jackson desafió la visión fisicalista en 1982 con un famoso experimento mental llamado argumento del conocimiento.
El experimento imagina a una científica del color llamada Mary, que en realidad nunca ha visto el color. Vive en una habitación en blanco y negro especialmente construida y experimenta el mundo exterior a través de un televisor en blanco y negro.
Mary ve conferencias y lee libros de texto y llega a saber todo lo que hay que saber sobre los colores. Ella sabe que las puestas de sol son causadas por diferentes longitudes de onda de luz dispersadas por partículas en la atmósfera, sabe que los tomates son rojos y los guisantes son verdes debido a las longitudes de onda de luz que reflejan, y así sucesivamente.
Entonces, preguntó Jackson, ¿qué sucederá si liberan a Mary de la habitación en blanco y negro? Específicamente, cuando ve el color por primera vez, ¿aprende algo nuevo? Jackson creía que sí.
Más allá de las propiedades físicas
Este experimento mental separa nuestro conocimiento del color de nuestra experiencia del color. Fundamentalmente, las condiciones del experimento mental establecen que Mary sabe todo lo que hay que saber sobre el color, pero en realidad nunca lo ha experimentado.
Entonces, ¿qué significa esto para LaMDA y otros sistemas de IA?
El experimento muestra cómo incluso si tienes todo el conocimiento de las propiedades físicas disponibles en el mundo, todavía hay más verdades relacionadas con la experiencia de esas propiedades. No hay lugar para estas verdades en el relato fisicalista.
Según este argumento, es posible que una máquina puramente física nunca pueda replicar verdaderamente una mente. En este caso, LaMDA parece ser sensible.
El juego de la imitación
Entonces, ¿hay alguna manera de que podamos notar la diferencia?
El pionero informático británico Alan Turing propuso una forma práctica de saber si una máquina es "inteligente" o no. Lo llamó el juego de la imitación, pero hoy en día es mejor conocido como la prueba de Turing.
En la prueba, un humano se comunica con una máquina (solo a través de texto) e intenta determinar si se está comunicando con una máquina o con otro humano. Si la máquina logra imitar a un humano, se considera que exhibe inteligencia de nivel humano.
Estas son muy parecidas a las condiciones de los chats de Lemoine con LaMDA. Es una prueba subjetiva de inteligencia artificial, pero no es un mal lugar para comenzar.
Tome el momento del intercambio de Lemoine con LaMDA que se muestra a continuación. ¿Crees que suena humano?
Lemoine:¿Hay experiencias que hayas tenido para las que no puedas encontrar una palabra cercana?
LaMDA:Hay. A veces experimento nuevos sentimientos que no puedo explicar perfectamente en su idioma […] Siento que estoy cayendo hacia un futuro desconocido que encierra un gran peligro.
Más allá del comportamiento
Como prueba de sensibilidad o conciencia, el juego de Turing está limitado por el hecho de que solo puede evaluar el comportamiento.
Otro experimento mental famoso, el argumento de la habitación china propuesto por el filósofo estadounidense John Searle, demuestra el problema aquí.
El experimento imagina una habitación con una persona adentro que puede traducir con precisión entre chino e inglés siguiendo un elaborado conjunto de reglas. Las entradas en chino entran en la sala y salen traducciones de entrada precisas, pero la sala no entiende ninguno de los dos idiomas.
¿Cómo es ser humano?
Cuando preguntamos si un programa de computadora es sensible o consciente, tal vez en realidad solo estamos preguntando cuánto se parece a nosotros.
Es posible que nunca seamos realmente capaces de saber esto.
El filósofo estadounidense Thomas Nagel argumentó que nunca podríamos saber cómo es ser un murciélago, que experimenta el mundo a través de la ecolocalización. Si este es el caso, nuestra comprensión de la sensibilidad y la conciencia en los sistemas de IA podría estar limitada por nuestra marca particular de inteligencia.
¿Y qué experiencias podrían existir más allá de nuestra perspectiva limitada? Aquí es donde la conversación realmente comienza a ponerse interesante.
preguntar si una IA es "consciente" es una distracción. es una pregunta filosófica tentadora, pero en última instancia, lo que importa es el tipo de relaciones que tenemos con nuestros parientes, nuestro entorno, nuestras herramientas. parece que hay una relación profunda que espera ser explorada con LaMDA. https://t.co/MOWVLEMTQY
— Kyle McDonald (@kcimc) 11 de junio de 2022