¿Qué haría la Inteligencia General Artificial con el mundo humano? Crédito:Shutterstock / Nathapol Kongseang
La inteligencia artificial puede jugar al ajedrez, conducir un automóvil y diagnosticar problemas médicos. Los ejemplos incluyen AlphaGo de Google DeepMind, Los vehículos autónomos de Tesla, y Watson de IBM.
Este tipo de inteligencia artificial se conoce como Inteligencia Artificial Estrecha (ANI):sistemas no humanos que pueden realizar una tarea específica. Nos encontramos con este tipo a diario, y su uso está creciendo rápidamente.
Pero si bien se han demostrado muchas capacidades impresionantes, también estamos empezando a ver problemas. El peor de los casos involucró un auto de prueba autónomo que atropelló a un peatón en marzo. El peatón murió y el incidente aún está bajo investigación.
La próxima generación de IA
Con la próxima generación de IA, es casi seguro que lo que está en juego sea mucho mayor.
La Inteligencia General Artificial (AGI) tendrá poderes computacionales avanzados e inteligencia a nivel humano. Los sistemas AGI podrán aprender, resolver problemas, adaptarse y superarse. Incluso realizarán tareas más allá de aquellas para las que fueron diseñados.
En tono rimbombante, su tasa de mejora podría ser exponencial a medida que avanzan mucho más que sus creadores humanos. La introducción de AGI podría generar rápidamente una superinteligencia artificial (ASI).
Si bien aún no existen sistemas AGI en pleno funcionamiento, se ha estimado que estarán con nosotros entre 2029 y finales de siglo.
Lo que parece casi seguro es que llegarán eventualmente. Cuando lo hacen existe una gran y natural preocupación de que no seremos capaces de controlarlos.
Los riesgos asociados con AGI
No hay duda de que los sistemas AGI podrían transformar a la humanidad. Algunas de las aplicaciones más poderosas incluyen curar enfermedades, resolver desafíos globales complejos como el cambio climático y la seguridad alimentaria, e iniciar un boom tecnológico mundial.
Pero la falta de implementación de los controles adecuados podría tener consecuencias catastróficas.
A pesar de lo que vemos en las películas de Hollywood, No es probable que las amenazas existenciales involucren robots asesinos. El problema no será de malevolencia, sino más bien uno de inteligencia, escribe el profesor del MIT Max Tegmark en su libro de 2017 Life 3.0:Being Human in the Age of Artificial Intelligence.
Es aquí donde la ciencia de los sistemas humano-máquina, conocidos como factores humanos y ergonomía, pasará a primer plano. Los riesgos surgirán del hecho de que los sistemas superinteligentes identificarán formas más eficientes de hacer las cosas, inventar sus propias estrategias para alcanzar los objetivos, e incluso desarrollar metas propias.
Imagina estos ejemplos:
Estos escenarios plantean el espectro de sistemas AGI dispares que luchan entre sí, ninguno de los cuales toma las preocupaciones humanas como su mandato central.
Se han adelantado varios futuros distópicos, incluidos aquellos en los que los humanos eventualmente se vuelven obsoletos, con la subsiguiente extinción de la raza humana.
Otros han remitido disrupciones menos extremas pero aún significativas, incluido el uso malintencionado de AGI para terroristas y ciberataques, la eliminación de la necesidad de trabajo humano, y vigilancia masiva, por nombrar solo algunos.
Por lo tanto, es necesario realizar investigaciones centradas en el ser humano sobre las formas más seguras de diseñar y gestionar AGI para minimizar los riesgos y maximizar los beneficios.
Cómo controlar la AGI
Controlar AGI no es tan sencillo como simplemente aplicar los mismos tipos de controles que tienden a mantener a los humanos bajo control.
Muchos controles sobre el comportamiento humano dependen de nuestra conciencia, nuestras emociones, y la aplicación de nuestros valores morales. Los AGI no necesitarán ninguno de estos atributos para causarnos daño. Las formas actuales de control no son suficientes.
Posiblemente, hay tres conjuntos de controles que requieren desarrollo y prueba de inmediato:
Factores humanos y ergonomía ofrece métodos que se pueden utilizar para identificar, diseñar y probar dichos controles mucho antes de que lleguen los sistemas AGI.
Por ejemplo, es posible modelar los controles que existen en un sistema en particular, para modelar el comportamiento probable de los sistemas AGI dentro de esta estructura de control, e identificar los riesgos de seguridad.
Esto nos permitirá identificar dónde se requieren nuevos controles, diseñarlos, y luego remodelar para ver si los riesgos se eliminan como resultado.
Además, Nuestros modelos de cognición y toma de decisiones se pueden utilizar para garantizar que los AGI se comporten de manera adecuada y tengan valores humanistas.
Actuar ahora, después no
Este tipo de investigación está en progreso, pero no hay suficiente y no hay suficientes disciplinas involucradas.
Incluso el empresario tecnológico de alto perfil Elon Musk ha advertido sobre la "crisis existencial" que enfrenta la humanidad debido a la inteligencia artificial avanzada y ha hablado sobre la necesidad de regular la inteligencia artificial antes de que sea demasiado tarde.
La próxima década representa un período crítico. Existe la oportunidad de crear sistemas AGI seguros y eficientes que pueden tener beneficios de gran alcance para la sociedad y la humanidad.
Al mismo tiempo, Un enfoque de negocios como de costumbre en el que nos ponemos al día con los rápidos avances tecnológicos podría contribuir a la extinción de la raza humana. La pelota está en nuestra cancha pero no será por mucho más tiempo.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.