Si eres fanático de la franquicia de películas "Terminator", ya has visto un aterrador vistazo ficticio de un campo de batalla distópico de pesadilla en el que las máquinas equipadas con inteligencia artificial tienen el poder ilimitado de matar humanos.
Si bien las armas completamente autónomas, el término técnico para los robots asesinos, aún no son una realidad, el rápido avance de la robótica y la inteligencia artificial levanta el espectro de que algún día los ejércitos pronto tendrán tanques y aviones capaces de atacar sin un humano a los mandos.
Según un informe de 2017 del Center for a New American Security, más de 30 países tienen o están desarrollando aviones no tripulados armados. La agencia de noticias rusa TASS también informó en 2017 sobre el desarrollo de ese país de un "módulo de combate" automatizado, un tanque robótico, capaz de utilizar inteligencia artificial para identificar objetivos y tomar decisiones. Y aunque la política actual de Estados Unidos descarta las armas totalmente autónomas, el Pentágono está desarrollando robots aéreos y terrestres que operarían en enjambres de 250 o más, realizar vigilancia y otras funciones para apoyar a las tropas humanas. Y según el South China Morning Post, China está trabajando para desarrollar submarinos equipados con inteligencia artificial que ayudaría a los comandantes a tomar decisiones tácticas.
La rápida prisa por automatizar la guerra está alarmando a los científicos, y en todo el mundo, Hay un movimiento creciente para detener el desarrollo de armas autónomas antes de que la tecnología tenga la oportunidad de proliferar. Cerca de 4, 000 investigadores y científicos de inteligencia artificial y robótica en otros campos, incluidos SpaceX y el fundador de Tesla, Elon Musk, El cofundador de Apple, Steve Wozniak, y el fallecido astrofísico Stephen Hawking, firmaron una carta abierta al mundo. instando a la prohibición de "armas autónomas ofensivas que están más allá del control humano significativo". Organizaciones como la Campaign to Stop Killer Robots se han vuelto cada vez más vocales sobre la necesidad de restricciones a dicha tecnología.
"Estamos a solo unos años de distancia, "Toby Walsh, el Profesor de Scientia de Inteligencia Artificial en la Universidad de Nueva Gales del Sur de Australia, advierte en un correo electrónico. "Los prototipos existen en todas las esferas de la batalla:en el aire, en el piso, sobre el mar y debajo del mar ".
Walsh se involucró en el esfuerzo hace varios años, cuando se hizo evidente para él que "se estaba iniciando una carrera armamentista para desarrollar tales armas, y tuvimos la oportunidad de prevenir el futuro distópico que tan a menudo retrata Hollywood ".
Walsh y otros investigadores de IA recientemente utilizaron su prominencia en el campo para ejercer presión. Después de KAIST (Instituto Avanzado de Ciencia y Tecnología de Corea), una universidad de investigación de Corea del Sur, puso en marcha un nuevo centro dedicado a las convergencias de la IA y la defensa nacional, enviaron una carta abierta al presidente de KAIST, Sung-Chul Shin, amenazando con un boicot a menos que ofreciera garantías de que el centro no desarrollaría armas totalmente autónomas que carecieran de un control humano significativo. (Sung posteriormente emitió una declaración afirmando que la universidad no desarrollaría tales armas, según Times Higher Education.)
El movimiento de robots anti-asesino también está siguiendo de cerca los desarrollos en Ginebra, donde representantes de varios países se reunieron en abril de 2018 para una conferencia de las Naciones Unidas sobre qué hacer con las armas autónomas.
Richard Moyes, el director gerente del artículo 36, una organización de control de armas con sede en el Reino Unido, dice en un correo electrónico que las armas autónomas podrían erosionar el marco legal que rige la guerra, que depende de que los humanos tomen decisiones sobre si el uso de la fuerza es legal en una situación determinada. "Si las máquinas reciben una licencia amplia para llevar a cabo ataques, esas evaluaciones legales humanas ya no se basarán en una comprensión real de las circunstancias en el terreno". "escribe Moyes, recibió el Premio Nobel de la Paz en 2017 por su trabajo en la reducción de armas nucleares. "Esto abre el camino para una verdadera deshumanización del conflicto".
Estados Unidos presumiblemente apoyaría una prohibición de los robots asesinos. En 2012, La administración Obama emitió una directiva, que aparentemente la Casa Blanca de Trump decidió continuar, requiriendo que la tecnología de armas autónomas se diseñe "para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza". La directiva también requiere salvaguardias para proteger contra el mal funcionamiento de las armas autónomas y el lanzamiento de ataques por su cuenta. El director de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), Steven Walker, dijo en marzo que dudaba que EE. UU. Permitiera alguna vez que las máquinas tomen decisiones sobre el uso de fuerza letal. según The Hill.
En un correo electrónico El portavoz de DARPA, Jared Adams, dice que la investigación de la agencia se centra en "investigar formas de garantizar que la tecnología mejore la capacidad de los operadores humanos para tomar decisiones rápidas en momentos críticos en lugar de erosionar esa capacidad". Existe la preocupación de que la dependencia de los operadores humanos de la automatización pueda reducir su conocimiento de la situación cuando necesitan recurrir a ella, un problema que, según Adams, está ilustrado por el accidente del vuelo 447 de Air France en 2009. "Por esta razón, La investigación de DARPA relacionada con la autonomía busca encontrar un equilibrio óptimo entre varios modos de operación con énfasis en brindar el máximo apoyo a las decisiones de los combatientes, " él dice.
Pero prohibir los robots asesinos a nivel internacional puede resultar difícil. Bonnie Docherty, investigador senior de armas en Human Rights Watch y director asociado de conflicto armado y protección civil en la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, dice en un correo electrónico que si bien la mayoría de los países en la conferencia de la ONU están preocupados por las armas autónomas, Todavía no existe un apoyo de consenso para una prohibición internacional legalmente vinculante.
¿Funcionaría una prohibición de los robots asesinos? Un tratado internacional de larga data que prohíbe las armas químicas, por ejemplo, aparentemente no ha detenido el uso de tales armas en la guerra civil siria.
Sin embargo, Docherty argumentó que las prohibiciones de las armas químicas, Las minas antipersonal y las municiones de racimo todavía han salvado vidas. "Esas leyes obligan a los países que se unen a ellas, y al estigmatizar las armas problemáticas pueden influir incluso en países que no son parte. Cualquier ley, incluso contra un delito ampliamente aceptado como el asesinato, puede ser violada por un actor deshonesto, pero eso no significa que tales leyes no deban adoptarse. La ley todavía tiene un impacto significativo en la conducta y se debería adoptar un nuevo tratado internacional para adelantarse a las armas totalmente autónomas. " ella escribe.
Eso es interesanteEl video "Slaughterbots", creado con la ayuda de la Universidad de California, Stuart Russell, profesor de ciencias de la computación e ingeniería de Berkeley, representa un escenario horrible en el que pequeños drones rastrean y asesinan a individuos seleccionados, que se identifican a través de las redes sociales. La idea era dramatizar cómo la tecnología podría utilizarse como arma de destrucción masiva, Russell explicó en una entrevista con ABC7 News.