Un nuevo artículo de RAND Corporation encuentra que la inteligencia artificial tiene el potencial de cambiar los cimientos de la disuasión nuclear para el año 2040.
Si bien las máquinas apocalípticas controladas por IA se consideran poco probables, los peligros de la inteligencia artificial para la seguridad nuclear radican en cambio en su potencial para alentar a los humanos a asumir riesgos potencialmente apocalípticos, según el papel.
Durante la Guerra Fría, la condición de destrucción mutua asegurada mantenía una paz incómoda entre las superpotencias al garantizar que cualquier ataque se enfrentaría con una represalia devastadora. La destrucción mutua asegurada fomentó así la estabilidad estratégica al reducir los incentivos para que cualquiera de los países tomara acciones que pudieran convertirse en una guerra nuclear.
La nueva publicación de RAND dice que en las próximas décadas, La inteligencia artificial tiene el potencial de erosionar la condición de destrucción mutua asegurada y socavar la estabilidad estratégica. Las tecnologías de sensores mejoradas podrían introducir la posibilidad de que las fuerzas de represalia, como los misiles submarinos y móviles, puedan ser atacadas y destruidas.
Las naciones pueden verse tentadas a perseguir las capacidades de primer ataque como un medio de ganar influencia en la negociación sobre sus rivales, incluso si no tienen la intención de llevar a cabo un ataque. dicen los investigadores. Esto socava la estabilidad estratégica porque incluso si el estado que posee estas capacidades no tiene intención de utilizarlas, el adversario no puede estar seguro de eso.
"La conexión entre la guerra nuclear y la inteligencia artificial no es nueva, de hecho, los dos tienen una historia entrelazada, "dijo Edward Geist, coautor del artículo e investigador asociado de políticas en RAND Corporation, una organización sin fines de lucro, organización de investigación no partidista. "Gran parte del desarrollo inicial de la IA se realizó en apoyo de esfuerzos militares o con objetivos militares en mente".
Dijo que un ejemplo de tal trabajo fue el Experimento de Planificación Adaptativa de Supervivencia en la década de 1980 que buscaba usar IA para traducir datos de reconocimiento en planes de objetivos nucleares.
En circunstancias fortuitas, La inteligencia artificial también podría mejorar la estabilidad estratégica al mejorar la precisión en la recopilación y el análisis de inteligencia. según el papel. Si bien la IA puede aumentar la vulnerabilidad de las fuerzas de segundo ataque, Un análisis mejorado para monitorear e interpretar las acciones del adversario podría reducir los errores de cálculo o las malas interpretaciones que podrían conducir a una escalada no intencional.
Los investigadores dicen que, dadas las mejoras futuras, Es posible que eventualmente los sistemas de IA desarrollen capacidades que, aunque falible, serían menos propensos a errores que sus alternativas humanas y, por lo tanto, se estabilizarían a largo plazo.
"Algunos expertos temen que una mayor dependencia de la inteligencia artificial pueda conducir a nuevos tipos de errores catastróficos, "dijo Andrew Lohn, coautor del artículo e ingeniero asociado en RAND. "Puede haber presión para utilizar la IA antes de que esté tecnológicamente madura, o puede ser susceptible a la subversión adversaria. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede resultar extremadamente difícil y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a limitar el riesgo nuclear ".
Los investigadores de RAND basaron su perspectiva en la información recopilada durante una serie de talleres con expertos en cuestiones nucleares, ramas del gobierno, Investigación de IA, Política de IA y seguridad nacional.
"¿La inteligencia artificial aumentará el riesgo de una guerra nuclear?" está disponible en http://www.rand.org.
La perspectiva es parte de un esfuerzo más amplio para visualizar los desafíos de seguridad críticos en el mundo de 2040, considerando los efectos de la política, tecnológico, social, y tendencias demográficas que darán forma a esos desafíos de seguridad en las próximas décadas.
Los fondos para la iniciativa Security 2040 se obtuvieron mediante obsequios de los partidarios de RAND y los ingresos de las operaciones.
La investigación se llevó a cabo dentro del Centro RAND para Riesgos y Seguridad Globales, que trabaja en RAND Corporation para desarrollar investigaciones multidisciplinarias y análisis de políticas que se ocupan de los riesgos sistémicos para la seguridad global. El centro se basa en la experiencia de RAND para complementar y ampliar la investigación de RAND en muchos campos, incluida la seguridad, ciencias económicas, salud, y Tecnología.