Crédito:Unsplash/CC0 Dominio público
Desde asistentes virtuales como Siri de Apple y Alexa de Amazon, pasando por aspiradoras robóticas y automóviles autónomos, hasta administradores de cartera de inversiones automatizados y bots de marketing, la inteligencia artificial se ha convertido en una gran parte de nuestra vida cotidiana. Aún así, al pensar en la IA, muchos de nosotros imaginamos robots similares a los humanos que, según innumerables historias de ciencia ficción, algún día se volverán independientes y rebeldes.
Sin embargo, nadie sabe cuándo los humanos crearán una IA inteligente o consciente, dijo John Basl, profesor asociado de filosofía en la Facultad de Ciencias Sociales y Humanidades de Northeastern, cuya investigación se centra en la ética de las tecnologías emergentes como la IA y la biología sintética.
“Cuando escuchas a Google hablar, hablan como si esto estuviera a la vuelta de la esquina o definitivamente dentro de nuestras vidas”, dijo Basl. "Y son muy arrogantes al respecto".
Tal vez por eso una historia reciente del Washington Post ha causado tanto revuelo. En la historia, el ingeniero de Google, Blake Lemoine, dice que el generador de chatbot con inteligencia artificial de la compañía, LaMDA, con quien tuvo numerosas conversaciones profundas, podría ser inteligente. Le recuerda a un niño de 7 u 8 años, dijo Blake al Washington Post.
Sin embargo, Basl cree que la evidencia mencionada en el artículo del Washington Post no es suficiente para concluir que LaMDA es sensible.
"Creo que reacciones como 'Hemos creado una IA sensible' son extremadamente exageradas", dijo Basl.
La evidencia parece basarse en las habilidades lingüísticas de LaMDA y las cosas de las que habla, dijo Basl. Sin embargo, LaMDA, un modelo de lenguaje, fue diseñado específicamente para hablar, y la función de optimización utilizada para entrenarlo para procesar el lenguaje y conversar incentiva su algoritmo para producir esta evidencia lingüística.
"No es como si fuéramos a un planeta alienígena y nunca dimos ningún incentivo para comenzar a comunicarse con nosotros [comenzó a hablar pensativamente]", dijo Basl.
El hecho de que este modelo de lenguaje pueda engañar a un humano para que piense que es sensible habla de su complejidad, pero necesitaría tener otras capacidades más allá de las que está optimizado para mostrar sensibilidad, dijo Basl.
Hay diferentes definiciones de sensibilidad. Sintiente se define como ser capaz de percibir o sentir cosas y, a menudo, se compara con sapiente.
Basl cree que la IA sensible sería mínimamente consciente. Puede ser consciente de la experiencia que está teniendo, tener actitudes positivas o negativas como sentir dolor o querer no sentir dolor y tener deseos.
"Vemos ese tipo de rango de capacidades en el mundo animal", dijo.
Por ejemplo, Basl dijo que su perro no prefiere que el mundo sea de una forma u otra en ningún sentido profundo, pero claramente prefiere sus galletas a sus croquetas.
"Eso parece rastrear alguna vida mental interna", dijo Basl. "[Pero] ella no siente terror por el cambio climático".
No está claro en la historia del Washington Post por qué Lemoine compara a LaMDA con un niño. Podría querer decir que el modelo de lenguaje es tan inteligente como un niño pequeño o que tiene la capacidad de sufrir o desear como un niño pequeño, dijo Basl.
"Esas pueden ser cosas diversas. Podríamos crear una IA pensante que no tenga sentimientos, y podemos crear una IA de sentimientos que no sea realmente buena para pensar", dijo Basl.
La mayoría de los investigadores de la comunidad de IA, que consiste en especialistas en aprendizaje automático, especialistas en inteligencia artificial, filósofos, especialistas en ética de la tecnología y científicos cognitivos, ya están pensando en estos temas del futuro lejano y se preocupan por la parte del pensamiento, según Basl.
"Si creamos una IA que sea súper inteligente, podría terminar matándonos a todos", dijo.
Sin embargo, la preocupación de Lemoine no se trata de eso, sino de la obligación de tratar de manera diferente las capacidades de IA que cambian rápidamente.
"Soy, en un sentido amplio, comprensivo con ese tipo de preocupación. No estamos siendo muy cuidadosos acerca de que eso [sea] posible", dijo Basl. "No pensamos lo suficiente en las cosas morales relacionadas con la IA, como, ¿qué le debemos a una IA consciente?"
Él piensa que es muy probable que los humanos maltraten a una IA sensible porque probablemente no reconocerán que lo han hecho, creyendo que es artificial y que no le importa.
"Simplemente no estamos muy en sintonía con esas cosas", dijo Basl.
No existe un buen modelo para saber cuándo una IA ha alcanzado la sensibilidad. ¿Qué pasa si LaMDA de Google no tiene la capacidad de expresar su conciencia de manera convincente porque solo puede hablar a través de una ventana de chat en lugar de otra cosa?
"No es como si pudiéramos hacer escáneres cerebrales para ver si es similar a nosotros", dijo.
Otra línea de pensamiento es que la IA sensible podría ser imposible en general debido a las limitaciones físicas del universo o la comprensión limitada de la conciencia.
Actualmente, ninguna de las empresas que trabajan en IA, incluidos los grandes jugadores como Google, Meta, Microsoft, Apple y las agencias gubernamentales, tiene el objetivo explícito de crear IA sensible, dijo Basl. Algunas organizaciones están interesadas en desarrollar AGI, o inteligencia general artificial, una forma teórica de IA en la que una máquina, inteligente como un ser humano, tendría la capacidad de resolver una amplia gama de problemas, aprender y planificar para el futuro, según IBM. .
"Creo que la verdadera lección de esto es que no tenemos la infraestructura que necesitamos, incluso si esta persona está equivocada", dijo Basl, refiriéndose a Lemoine.
Se podría construir una infraestructura en torno a los problemas de IA sobre la base de la transparencia, el intercambio de información con agencias gubernamentales y/o públicas, y la regulación de la investigación. Basl aboga por un comité interdisciplinario que ayudaría a construir dicha infraestructura y el segundo que supervisaría a los tecnólogos que trabajan en IA y evaluaría las propuestas y los resultados de la investigación.
"El problema de la evidencia es realmente difícil", dijo Basl. "No tenemos una buena teoría de la conciencia y no tenemos un buen acceso a la evidencia de la conciencia. Y tampoco tenemos la infraestructura. Esas son las cosas clave".