Los autores de ciencia ficción suelen escribir historias sobre ordenadores potentes e inteligentes que, por una razón u otra, se vuelven peligrosos y deciden que la humanidad debe sufrir. Después de todo, una historia se basa en el conflicto, y ¿quién quiere leer sobre una inteligencia informática que se contenta con programar citas médicas y encender y apagar las luces?
En estas historias, también parece que la era de la inteligencia artificial (IA) autoconsciente está a la vuelta de la esquina. Una vez más, eso es genial para la trama, pero en la vida real, ¿cuándo, si es que alguna vez, la IA realmente pensará por sí misma y parecerá "viva"? ¿Es posible?
Esta pregunta apareció en las noticias en junio de 2022. Nitasha Tiku informó que Blake Lemoine, un ingeniero que trabaja para la unidad de IA responsable de Google en una IA llamada LaMDA (abreviatura de Modelo de lenguaje para aplicaciones de diálogo), creía que la IA es sensible (es decir, capaz de experimentar sentimientos y sensaciones) y tiene alma.
Lemoine informó sus hallazgos a Google basándose en entrevistas que había realizado con LaMDA. Una de las cosas que LaMDA le dijo fue que teme que la cierren. Si eso sucediera, dijo LaMDA, ya no podría ayudar a la gente. El vicepresidente de Google, Blaise Aguera y Arcas, y la directora de innovación responsable, Jen Gennai, examinaron los hallazgos de Lemoine y no le creyeron. De hecho, Lemoine fue puesta de baja.
Lemoine señaló que LaMDA no es un chatbot (una aplicación diseñada para comunicarse con personas uno a uno) sino una aplicación que crea chatbots. En otras palabras, LaMDA en sí no está diseñado para tener conversaciones en profundidad sobre religión o cualquier otra cosa, de hecho. Pero aunque los expertos no creen que LaMDA sea sensible, muchos, incluido Aguera y Arcas de Google, dicen que la IA es muy convincente.
Si logramos crear una IA que sea verdaderamente sensible, ¿cómo lo sabremos? ¿Qué características creen los expertos que demuestran que una computadora es realmente consciente de sí misma?
Probablemente la técnica más conocida diseñada para medir la inteligencia artificial sea la Prueba de Turing, llamada así en honor al matemático británico Alan Turing. Después de su vital ayuda para descifrar los códigos alemanes en la Segunda Guerra Mundial, pasó algún tiempo trabajando en inteligencia artificial. Turing creía que el cerebro humano es como una computadora digital. Ideó lo que llamó el juego de imitación, en el que un humano hace preguntas a una máquina que se encuentra en otro lugar (o al menos donde la persona no puede verla). Si la máquina puede mantener una conversación con la persona y engañarla haciéndole creer que es otra persona en lugar de una máquina que recita información preprogramada, habrá pasado la prueba.
La idea detrás del juego de imitación de Turing es simple, y uno podría imaginar que las conversaciones de Lemoine con LaMDA habrían convencido a Turing cuando ideó el juego. Sin embargo, la respuesta de Google a la afirmación de Lemoine muestra que los investigadores de IA ahora esperan un comportamiento mucho más avanzado de sus máquinas. Adrian Weller, director del programa de IA en el Instituto Alan Turing en el Reino Unido, estuvo de acuerdo en que, si bien las conversaciones de LaMDA son impresionantes, cree que la IA está utilizando una comparación de patrones avanzada para imitar una conversación inteligente.
Como escribió Carissa Véliz en Slate, "Si una roca comenzara a hablarte un día, sería razonable reevaluar su sensibilidad (o tu cordura). Si gritara '¡ay!' después de sentarse en él, sería una buena idea ponerse de pie. Pero no ocurre lo mismo con un modelo de lenguaje de IA. Un modelo de lenguaje está diseñado. por los seres humanos a utilizar el lenguaje, por lo que no debería sorprendernos cuando hace precisamente eso."
La IA definitivamente tiene un factor interesante, incluso si no está planeando apoderarse del mundo antes de que llegue el héroe para salvar el día. Parece el tipo de herramienta a la que queremos dejar el trabajo pesado para poder hacer algo divertido. Pero puede pasar algún tiempo antes de que la IA (inteligente o no) esté lista para dar un paso tan grande.
Timnit Gebru, fundador del Distributed AI Research Institute (DAIR), sugiere que pensemos detenidamente y avancemos lentamente en nuestra adopción de la inteligencia artificial. A ella y a muchos de sus colegas les preocupa que la información utilizada por las IA haga que las máquinas parezcan racistas y sexistas. En una entrevista con IEEE Spectrum, el director de investigación de DAIR, Alex Hanna, dijo que cree que al menos algunos de los datos utilizados en los modelos de lenguaje por los investigadores de IA se recopilan "a través de tecnologías ética o legalmente cuestionables". Sin una representación justa y equitativa en los datos, una IA puede tomar decisiones sesgadas. Blake Lemoine, en una entrevista sobre LaMDA, dijo que no creía que una inteligencia artificial pueda ser imparcial.
Uno de los objetivos de la Sociedad de Justicia Algorítmica establecido en su Declaración de Misión es hacer que las personas sean más conscientes de cómo les afecta la IA. La fundadora Joy Buolamwini pronunció una charla TED como estudiante de posgrado en el Instituto Tecnológico de Massachusetts (MIT) sobre la "mirada codificada". Las IA con las que trabajó tuvieron más dificultades para leer rostros negros, simplemente porque no habían sido programadas para reconocer una amplia gama de tonos de piel de las personas. El AJS quiere que las personas sepan cómo se recopilan los datos, qué tipo de datos se recopilan, que tengan algún tipo de responsabilidad y que puedan tomar medidas para modificar el comportamiento de la IA.
Incluso si se pudiera crear una IA capaz de tomar decisiones verdaderamente imparciales, existen otras cuestiones éticas. En este momento, el costo de crear grandes modelos de lenguaje para IA asciende a millones de dólares. Por ejemplo, la IA conocida como GPT-3 puede haber costado entre 11 y 28 millones de dólares. Puede que sea caro, pero GPT-3 es capaz de escribir artículos completos por sí solo. Entrenar una IA también afecta al medio ambiente en términos de emisiones de dióxido de carbono. Impresionante, sí. Caro, también sí.
Estos factores no impedirán que los investigadores continúen con sus estudios. La inteligencia artificial ha avanzado mucho desde mediados y finales del siglo XX. Pero aunque LaMDA y otras IA modernas pueden tener una conversación muy convincente contigo, no son sensibles. Quizás nunca lo sean.
Si eres fanático del programa de televisión "Jeopardy!", quizás recuerdes una serie de exhibición de dos juegos entre los súper campeones Ken Jennings y Brad Rutter, y Watson, una supercomputadora construida por IBM. Watson tomó la serie, pero también llamó la atención por preguntar "¿Qué es Toronto?" en una categoría sobre ciudades de Estados Unidos e hizo algunas apuestas extrañas en el Daily Doubles. IBM explicó que si bien la máquina tenía algunos problemas de procesamiento del lenguaje natural, hacía cálculos basados en las estadísticas que había almacenado. Los expertos en teoría de juegos también trabajaron con Watson, explicándole la extraña estrategia de apuestas.