• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Para protegernos de los riesgos de la inteligencia artificial avanzada, Necesitamos actuar ahora

    ¿Qué haría la Inteligencia General Artificial con el mundo humano? Crédito:Shutterstock / Nathapol Kongseang

    La inteligencia artificial puede jugar al ajedrez, conducir un automóvil y diagnosticar problemas médicos. Los ejemplos incluyen AlphaGo de Google DeepMind, Los vehículos autónomos de Tesla, y Watson de IBM.

    Este tipo de inteligencia artificial se conoce como Inteligencia Artificial Estrecha (ANI):sistemas no humanos que pueden realizar una tarea específica. Nos encontramos con este tipo a diario, y su uso está creciendo rápidamente.

    Pero si bien se han demostrado muchas capacidades impresionantes, también estamos empezando a ver problemas. El peor de los casos involucró un auto de prueba autónomo que atropelló a un peatón en marzo. El peatón murió y el incidente aún está bajo investigación.

    La próxima generación de IA

    Con la próxima generación de IA, es casi seguro que lo que está en juego sea mucho mayor.

    La Inteligencia General Artificial (AGI) tendrá poderes computacionales avanzados e inteligencia a nivel humano. Los sistemas AGI podrán aprender, resolver problemas, adaptarse y superarse. Incluso realizarán tareas más allá de aquellas para las que fueron diseñados.

    En tono rimbombante, su tasa de mejora podría ser exponencial a medida que avanzan mucho más que sus creadores humanos. La introducción de AGI podría generar rápidamente una superinteligencia artificial (ASI).

    Si bien aún no existen sistemas AGI en pleno funcionamiento, se ha estimado que estarán con nosotros entre 2029 y finales de siglo.

    Lo que parece casi seguro es que llegarán eventualmente. Cuando lo hacen existe una gran y natural preocupación de que no seremos capaces de controlarlos.

    Los riesgos asociados con AGI

    No hay duda de que los sistemas AGI podrían transformar a la humanidad. Algunas de las aplicaciones más poderosas incluyen curar enfermedades, resolver desafíos globales complejos como el cambio climático y la seguridad alimentaria, e iniciar un boom tecnológico mundial.

    Pero la falta de implementación de los controles adecuados podría tener consecuencias catastróficas.

    A pesar de lo que vemos en las películas de Hollywood, No es probable que las amenazas existenciales involucren robots asesinos. El problema no será de malevolencia, sino más bien uno de inteligencia, escribe el profesor del MIT Max Tegmark en su libro de 2017 Life 3.0:Being Human in the Age of Artificial Intelligence.

    Es aquí donde la ciencia de los sistemas humano-máquina, conocidos como factores humanos y ergonomía, pasará a primer plano. Los riesgos surgirán del hecho de que los sistemas superinteligentes identificarán formas más eficientes de hacer las cosas, inventar sus propias estrategias para alcanzar los objetivos, e incluso desarrollar metas propias.

    Imagina estos ejemplos:

    • un sistema AGI encargado de prevenir el VIH decide erradicar el problema matando a todos los portadores de la enfermedad, o alguien encargado de curar el cáncer decide matar a todos los que tienen alguna predisposición genética para él
    • un dron militar autónomo AGI decide que la única forma de garantizar que un objetivo enemigo sea destruido es arrasar con una comunidad entera
    • Un AGI que protege el medio ambiente decide que la única forma de frenar o revertir el cambio climático es eliminar las tecnologías y los seres humanos que lo inducen.

    Estos escenarios plantean el espectro de sistemas AGI dispares que luchan entre sí, ninguno de los cuales toma las preocupaciones humanas como su mandato central.

    Se han adelantado varios futuros distópicos, incluidos aquellos en los que los humanos eventualmente se vuelven obsoletos, con la subsiguiente extinción de la raza humana.

    Otros han remitido disrupciones menos extremas pero aún significativas, incluido el uso malintencionado de AGI para terroristas y ciberataques, la eliminación de la necesidad de trabajo humano, y vigilancia masiva, por nombrar solo algunos.

    Por lo tanto, es necesario realizar investigaciones centradas en el ser humano sobre las formas más seguras de diseñar y gestionar AGI para minimizar los riesgos y maximizar los beneficios.

    Cómo controlar la AGI

    Controlar AGI no es tan sencillo como simplemente aplicar los mismos tipos de controles que tienden a mantener a los humanos bajo control.

    Muchos controles sobre el comportamiento humano dependen de nuestra conciencia, nuestras emociones, y la aplicación de nuestros valores morales. Los AGI no necesitarán ninguno de estos atributos para causarnos daño. Las formas actuales de control no son suficientes.

    Posiblemente, hay tres conjuntos de controles que requieren desarrollo y prueba de inmediato:

    1. los controles necesarios para garantizar que los diseñadores y desarrolladores de sistemas AGI creen sistemas AGI seguros
    2. los controles que deben integrarse en los propios AGI, como "sentido común", moralidad, procedimientos de operación, reglas de decisión, etcétera
    3. los controles que deben agregarse a los sistemas más amplios en los que operará AGI, como la regulación, códigos de práctica, Estándar de Procedimientos Operativos, sistemas de monitoreo, e infraestructura.

    Factores humanos y ergonomía ofrece métodos que se pueden utilizar para identificar, diseñar y probar dichos controles mucho antes de que lleguen los sistemas AGI.

    Por ejemplo, es posible modelar los controles que existen en un sistema en particular, para modelar el comportamiento probable de los sistemas AGI dentro de esta estructura de control, e identificar los riesgos de seguridad.

    Esto nos permitirá identificar dónde se requieren nuevos controles, diseñarlos, y luego remodelar para ver si los riesgos se eliminan como resultado.

    Además, Nuestros modelos de cognición y toma de decisiones se pueden utilizar para garantizar que los AGI se comporten de manera adecuada y tengan valores humanistas.

    Actuar ahora, después no

    Este tipo de investigación está en progreso, pero no hay suficiente y no hay suficientes disciplinas involucradas.

    Incluso el empresario tecnológico de alto perfil Elon Musk ha advertido sobre la "crisis existencial" que enfrenta la humanidad debido a la inteligencia artificial avanzada y ha hablado sobre la necesidad de regular la inteligencia artificial antes de que sea demasiado tarde.

    La próxima década representa un período crítico. Existe la oportunidad de crear sistemas AGI seguros y eficientes que pueden tener beneficios de gran alcance para la sociedad y la humanidad.

    Al mismo tiempo, Un enfoque de negocios como de costumbre en el que nos ponemos al día con los rápidos avances tecnológicos podría contribuir a la extinción de la raza humana. La pelota está en nuestra cancha pero no será por mucho más tiempo.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com