Los algoritmos pronto podrán decidir a quién dirigirse. Crédito:Fuerza Aérea de EE. UU.
El Ejército de los EE. UU. Anunció recientemente que está desarrollando los primeros drones que pueden detectar y apuntar a vehículos y personas utilizando inteligencia artificial (IA). Este es un gran paso adelante. Mientras que los drones militares actuales todavía están controlados por personas, esta nueva tecnología decidirá a quién matar sin casi ninguna participación humana.
Una vez completado, Estos drones representarán la militarización definitiva de la IA y generarán vastas implicaciones legales y éticas para la sociedad en general. Existe la posibilidad de que la guerra pase de la lucha al exterminio, perdiendo cualquier apariencia de humanidad en el proceso. Al mismo tiempo, podría ampliar la esfera de la guerra para que las empresas, los ingenieros y científicos que construyen IA se convierten en objetivos militares válidos.
Los drones militares letales existentes, como el MQ-9 Reaper, se controlan y pilotan cuidadosamente por satélite. Si un piloto lanza una bomba o dispara un misil, un operador de sensor humano lo guía activamente hacia el objetivo elegido usando un láser.
Por último, la tripulación tiene la ética final, responsabilidad legal y operativa por matar objetivos humanos designados. Como afirma un operador de Reaper:"Soy muy de la mentalidad de que permitiría que un insurgente, por importante que sea un objetivo, para escapar en lugar de realizar un disparo arriesgado que podría matar a civiles ".
Incluso con estos asesinatos con drones, emociones humanas, los juicios y la ética siempre han permanecido en el centro de la guerra. La existencia de trauma mental y trastorno de estrés postraumático (PTSD) entre los operadores de drones muestra el impacto psicológico del asesinato a distancia.
Un piloto de Reaper MQ-9. Crédito:Fuerza Aérea de EE. UU.
Y esto en realidad apunta a un posible argumento ético y militar de Ronald Arkin, en apoyo de drones de matanza autónomos. Quizás si estos drones arrojan las bombas, Se pueden evitar los problemas psicológicos entre los miembros de la tripulación. La debilidad de este argumento es que no tienes que ser responsable de matar para quedar traumatizado por ello. Los especialistas en inteligencia y otro personal militar analizan regularmente imágenes gráficas de ataques con drones. Las investigaciones muestran que es posible sufrir daños psicológicos al ver con frecuencia imágenes de violencia extrema.
Cuando entrevisté a más de 100 miembros de la tripulación de Reaper para un próximo libro, Todas las personas con las que hablé que realizaron ataques letales con drones creían que, por último, debería ser un humano quien apriete el gatillo final. Saquen al humano y también sacan a la humanidad de la decisión de matar.
Graves consecuencias
La perspectiva de drones totalmente autónomos alteraría radicalmente los complejos procesos y decisiones detrás de los asesinatos militares. Pero la responsabilidad legal y ética no desaparece de alguna manera si se elimina la supervisión humana. En lugar de, la responsabilidad recaerá cada vez más en otras personas, incluidos los científicos de inteligencia artificial.
Las implicaciones legales de estos desarrollos ya se están haciendo evidentes. Según el derecho internacional humanitario actual, Las instalaciones de "doble uso", las que desarrollan productos para aplicaciones tanto civiles como militares, pueden ser atacadas en las circunstancias adecuadas. Por ejemplo, en la guerra de Kosovo de 1999, la refinería de petróleo de Pancevo fue atacada porque podía abastecer de combustible a tanques yugoslavos así como a automóviles civiles.
Un Reaper MQ-9. Crédito:Fuerza Aérea de EE. UU.
Con un sistema de armas autónomo de drones, Ciertas líneas de código informático se clasificarían casi con certeza como de doble uso. Empresas como Google, sus empleados o sus sistemas, podría ser susceptible de ser atacado por un estado enemigo. Por ejemplo, si el software de inteligencia artificial de reconocimiento de imágenes Project Maven de Google se incorpora a un dron autónomo militar estadounidense, Google podría verse implicado en el negocio de "matar" con drones, al igual que cualquier otro contribuyente civil a sistemas autónomos tan letales.
Éticamente, todavía hay problemas más oscuros. El objetivo de los algoritmos de autoaprendizaje (programas que aprenden independientemente de los datos que pueden recopilar) que utiliza la tecnología es que se vuelven mejores en cualquier tarea que se les asigne. Si un dron autónomo letal va a mejorar en su trabajo a través del autoaprendizaje, alguien tendrá que decidir sobre una etapa aceptable de desarrollo (cuánto tiene que aprender todavía) en la que se puede implementar. En el aprendizaje automático militarizado, eso significa político, Los líderes militares y de la industria tendrán que especificar cuántas muertes de civiles se considerarán aceptables a medida que se perfeccione la tecnología.
Las experiencias recientes de IA autónoma en la sociedad deberían servir de advertencia. El experimento fatal de Uber con un Tesla autónomo prácticamente garantiza que habrá muertes involuntarias de drones autónomos a medida que se solucionen los errores informáticos.
Si las máquinas deciden quién muere, especialmente a gran escala, entonces lo que estamos presenciando es el exterminio. Cualquier gobierno o ejército que desatara tales fuerzas violaría los valores que afirmaba defender. En comparación, un piloto de drones que lucha con una decisión de "matar o no matar" se convierte en el último vestigio de la humanidad en el negocio, a menudo inhumano, de la guerra.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.