Los personajes virtuales pronto pueden ser más inteligentes que nosotros. Miguel Ángel/Shutterstock
La mayor parte de la investigación sobre la ética de la inteligencia artificial (IA) se refiere a su uso para armamento, transporte o elaboración de perfiles. Aunque no se pueden subestimar los peligros que presenta un tanque autónomo y racista, hay otro aspecto en todo esto. ¿Qué pasa con nuestras responsabilidades con las IA que creamos?
Los juegos de rol multijugador masivos en línea (como World of Warcraft) son realidades de bolsillo pobladas principalmente por personajes que no son jugadores. Por el momento, estos personajes no son particularmente inteligentes, pero denle 50 años y lo serán.
¿Lo siento? ¿50 años no serán suficientes? Toma 500. Toma 5,000,000. Tenemos el resto de la eternidad para lograrlo.
¿Quieres computadoras del tamaño de un planeta? Puedes tenerlos. ¿Quieres computadoras hechas de tejido cerebral humano? Puedes tenerlos. Eventualmente, creo que lo haremos tener mundos virtuales que contengan personajes tan inteligentes como nosotros, si no más inteligentes, y en plena posesión del libre albedrío. ¿Cuáles serán nuestras responsabilidades hacia estos seres? Después de todo, seremos los dioses literales de las realidades en las que habitan, controlando la física de sus mundos. Podemos hacerles lo que queramos.
Entonces, sabiendo todo eso... ¿deberíamos?
Dificultades éticas del libre albedrío
Como he explorado en mi libro reciente, cada vez que se trata de un "debería", la ética interviene y se hace cargo, incluso para los videojuegos. La primera pregunta que debemos hacernos es si los personajes de nuestro juego del futuro son dignos de ser considerados como entidades morales o simplemente son bits en una base de datos. Si es lo último, no tenemos por qué preocupar nuestra conciencia con ellos más de lo que lo haríamos con los caracteres de un procesador de textos.
Sin embargo, la pregunta es realmente discutible. Si creamos nuestros personajes para ser seres de pensamiento libre, entonces debemos tratarlos como si fueran tales, independientemente de cómo puedan aparecer ante un observador externo.
Siendo ese el caso, entonces, ¿podemos apagar nuestros mundos virtuales? Hacerlo podría estar condenando a miles de millones de criaturas inteligentes a la inexistencia. Sin embargo, ¿estaría bien si guardamos una copia de su mundo en el momento en que lo terminamos? ¿La posibilidad teórica de que podamos volver a encender su mundo exactamente como antes significa que no estamos realmente asesinarlos? ¿Qué pasa si no tenemos el software original del juego?
¿Podemos legítimamente causar sufrimiento a estos personajes? Nosotros mismos implementamos el concepto mismo, por lo que no se trata tanto de si está bien atormentarlos, sino de si atormentarlos es algo. En las sociedades modernas, la posición por defecto es que es inmoral hacer sufrir a los individuos de pensamiento libre a menos que estén de acuerdo o sea para salvarlos a ellos (oa alguien más) de algo peor. No podemos pedirles a nuestros personajes que den su consentimiento para nacer en un mundo de sufrimiento; no existirán cuando creemos el juego.
Entonces, ¿qué pasa con la alternativa de "algo peor"? Si posees libre albedrío, debes ser inteligente, por lo que debes ser un ser moral tú mismo. Eso significa que debe haber desarrollado moral, por lo que debe ser posible que te sucedan cosas malas. De lo contrario, no podrías haber reflexionado sobre lo que está bien o mal para desarrollar tu moral. Dicho de otra manera, a menos que sucedan cosas malas, no hay libre albedrío. Eliminar el libre albedrío de un ser equivale a destruir el ser que era anteriormente, por lo tanto, sí, tenemos que permitir el sufrimiento o el concepto de carácter inteligente es un oxímoron.
¿Más allá?
Aceptando que nuestros personajes del futuro son seres de libre pensamiento, ¿dónde encajarían en una jerarquía de importancia? En general, ante una elección directa entre salvar a un ser inteligente (como un niño pequeño) o uno meramente consciente (como un perro), la gente elegiría el primero sobre el segundo. Ante una elección similar entre salvar a un perro real o a un santo virtual, ¿cuál prevalecería?
Ten en cuenta que si tus personajes se perciben a sí mismos como seres morales pero tú no los percibes como tales, pensarán que eres un idiota. Como Alphinaud Leveilleur, un personaje de Final Fantasy XIV , lo expresa claramente (spoiler:acaba de descubrir que su mundo fue creado por las acciones de seres que, como consecuencia, no lo consideran como propiamente vivo):"Nosotros define nuestro valor, no las circunstancias de nuestra creación!"
¿Vamos a permitir que nuestros personajes mueran? Es trabajo extra implementar el concepto. Si viven para siempre, ¿los hacemos invulnerables o simplemente evitamos que mueran? Después de todo, la vida no sería muy divertida después de caer en una licuadora. Si mueren, ¿los trasladamos al cielo (o al infierno) de los juegos o simplemente los borramos?
Estas no son las únicas preguntas que podemos hacer. ¿Podemos insertar ideas en sus cabezas? ¿Podemos cambiar su mundo para meternos con ellos? ¿Les imponemos nuestra moral o dejamos que desarrollen la suya propia (con lo que podemos estar en desacuerdo)? Hay muchos más.
En última instancia, la pregunta más importante es:¿deberíamos crear personajes inteligentes en primer lugar?
Ahora habrás notado que he hecho muchas preguntas aquí. Es posible que se pregunte cuáles son las respuestas.
¡Pues yo también! Ese es el punto de este ejercicio. La humanidad aún no tiene un marco ético para la creación de realidades de las que somos dioses. Todavía no existe ningún sistema de metaética que nos ayude. Tenemos que resolver esto antes construimos mundos poblados por seres con libre albedrío, ya sea dentro de 50, 500, 5,000,000 años o mañana. Estas son preguntas para usted para responder.
Eso sí, ten cuidado con cómo lo haces. Puede sentar un precedente.
Nosotros mismos somos los personajes no jugadores de la Realidad.