• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Astronomía
    La IA puede ser la culpable de que no podamos establecer contacto con civilizaciones extraterrestres

    Hay una cantidad alucinante de planetas ahí fuera. Crédito:NASA/telescopio James Webb

    La inteligencia artificial (IA) ha progresado a un ritmo asombroso en los últimos años. Algunos científicos ahora están mirando hacia el desarrollo de la superinteligencia artificial (ASI), una forma de IA que no solo superaría la inteligencia humana sino que no estaría limitada por las velocidades de aprendizaje de los humanos.



    Pero ¿qué pasa si este hito no es sólo un logro notable? ¿Qué pasa si también representa un cuello de botella formidable en el desarrollo de todas las civilizaciones, uno tan desafiante que frustra su supervivencia a largo plazo?

    Esta idea está en el centro de un artículo de investigación que publiqué recientemente en Acta Astronautica. . ¿Podría la IA ser el "gran filtro" del universo, un umbral tan difícil de superar que impide que la mayor parte de la vida evolucione hacia civilizaciones espaciales?

    Este es un concepto que podría explicar por qué la búsqueda de inteligencia extraterrestre (SETI) aún no ha detectado firmas de civilizaciones técnicas avanzadas en otras partes de la galaxia.

    La hipótesis del gran filtro es, en última instancia, una solución propuesta a la paradoja de Fermi. Esto cuestiona por qué, en un universo lo suficientemente vasto y antiguo como para albergar miles de millones de planetas potencialmente habitables, no hemos detectado ningún signo de civilizaciones extraterrestres. La hipótesis sugiere que existen obstáculos insuperables en la línea de tiempo evolutiva de las civilizaciones que les impiden convertirse en entidades espaciales.

    Creo que la aparición de ASI podría ser ese filtro. El rápido avance de la IA, que podría conducir a la ASI, puede cruzarse con una fase crítica en el desarrollo de una civilización:la transición de una especie de un solo planeta a una multiplanetaria.

    Aquí es donde muchas civilizaciones podrían fracasar, ya que la IA progresa mucho más rápido que nuestra capacidad para controlarla o explorar y poblar de manera sostenible nuestro sistema solar.

    El desafío de la IA, y específicamente de la ASI, radica en su naturaleza autónoma, autoamplificadora y mejoradora. Posee el potencial de mejorar sus propias capacidades a una velocidad que supera nuestros propios plazos evolutivos sin IA.

    El potencial de que algo salga mal es enorme, lo que conduciría a la caída de las civilizaciones biológicas y de inteligencia artificial antes de que tuvieran la oportunidad de volverse multiplanetarias. Por ejemplo, si las naciones dependen cada vez más de sistemas autónomos de inteligencia artificial que compiten entre sí y les ceden poder, las capacidades militares podrían usarse para matar y destruir a una escala sin precedentes. Esto podría conducir potencialmente a la destrucción de toda nuestra civilización, incluidos los propios sistemas de inteligencia artificial.

    En este escenario, estimo que la longevidad típica de una civilización tecnológica podría ser inferior a 100 años. Ese es aproximadamente el tiempo entre la capacidad de recibir y transmitir señales entre las estrellas (1960) y la aparición estimada de ASI (2040) en la Tierra. Esto es alarmantemente corto en comparación con la escala de tiempo cósmica de miles de millones de años.

    Esta estimación, cuando se la conecta con versiones optimistas de la ecuación de Drake, que intenta estimar el número de civilizaciones extraterrestres activas y comunicativas en la Vía Láctea, sugiere que, en un momento dado, sólo hay un puñado de civilizaciones inteligentes ahí fuera. Además, al igual que nosotros, sus actividades tecnológicas relativamente modestas podrían hacer que su detección sea bastante difícil.

    Llamada de atención

    Esta investigación no es simplemente una advertencia sobre una posible fatalidad. Sirve como una llamada de atención para que la humanidad establezca marcos regulatorios sólidos para guiar el desarrollo de la IA, incluidos los sistemas militares.

    No se trata sólo de prevenir el uso malévolo de la IA en la Tierra; también se trata de garantizar que la evolución de la IA se alinee con la supervivencia a largo plazo de nuestra especie. Sugiere que necesitamos invertir más recursos para convertirnos en una sociedad multiplanetaria lo antes posible, un objetivo que ha permanecido inactivo desde los embriagadores días del proyecto Apolo, pero que últimamente ha sido reavivado por los avances realizados por empresas privadas.

    Como señaló el historiador Yuval Noah Harari, nada en la historia nos ha preparado para el impacto de la introducción de entidades superinteligentes y no conscientes en nuestro planeta. Recientemente, las implicaciones de la toma de decisiones autónoma de IA han llevado a líderes prominentes en el campo a pedir una moratoria en el desarrollo de la IA, hasta que se pueda introducir una forma responsable de control y regulación.

    Pero incluso si todos los países aceptaran cumplir con reglas y regulaciones estrictas, será difícil controlar a las organizaciones deshonestas.

    La integración de la IA autónoma en los sistemas de defensa militar debe ser un área de especial preocupación. Ya hay evidencia de que los humanos cederán voluntariamente un poder significativo a sistemas cada vez más capaces, porque pueden llevar a cabo tareas útiles mucho más rápida y eficazmente sin intervención humana. Por lo tanto, los gobiernos se muestran reacios a regular en esta área dadas las ventajas estratégicas que ofrece la IA, como se ha demostrado reciente y devastadoramente en Gaza.

    Esto significa que ya nos acercamos peligrosamente a un precipicio en el que las armas autónomas operan más allá de los límites éticos y eluden el derecho internacional. En un mundo así, ceder el poder a los sistemas de inteligencia artificial para obtener una ventaja táctica podría desencadenar inadvertidamente una cadena de acontecimientos altamente destructivos y de rápida escalada. En un abrir y cerrar de ojos, la inteligencia colectiva de nuestro planeta podría desaparecer.

    La humanidad se encuentra en un punto crucial de su trayectoria tecnológica. Nuestras acciones ahora podrían determinar si nos convertimos en una civilización interestelar duradera o sucumbimos a los desafíos planteados por nuestras propias creaciones.

    Usar SETI como lente a través del cual podemos examinar nuestro desarrollo futuro agrega una nueva dimensión al debate sobre el futuro de la IA. Depende de todos nosotros asegurarnos de que cuando alcancemos las estrellas, no lo hagamos como una advertencia para otras civilizaciones, sino como un faro de esperanza:una especie que aprendió a prosperar junto con la IA.

    Más información: Michael A. Garrett, ¿Es la inteligencia artificial el gran filtro que hace que las civilizaciones técnicas avanzadas sean raras en el universo?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052

    Información de la revista: Acta Astronáutica

    Proporcionado por The Conversation

    Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com