Los manifestantes en Berlín participan en una campaña "Stop Killer Robots" organizada por la ONG alemana "Facing Finance" para prohibir lo que ellos llaman robots asesinos. en marzo de 2019
Amazonas, Microsoft e Intel se encuentran entre las empresas tecnológicas líderes que ponen en riesgo al mundo a través del desarrollo de robots asesinos, según un informe que encuestó a los principales actores del sector sobre su postura sobre las armas autónomas letales.
La ONG holandesa Pax clasificó a 50 empresas según tres criterios:si estaban desarrollando tecnología que podría ser relevante para la IA mortal, si estaban trabajando en proyectos militares relacionados, y si se habían comprometido a abstenerse de contribuir en el futuro.
"¿Por qué empresas como Microsoft y Amazon no niegan que actualmente están desarrollando estas armas tan controvertidas? ¿Quién podría decidir matar a personas sin la participación humana directa? ", dijo Frank Slijper, autor principal del informe publicado esta semana.
El uso de IA para permitir que los sistemas de armas seleccionen y ataquen objetivos de forma autónoma ha provocado debates éticos en los últimos años. con críticos advirtiendo que pondrían en peligro la seguridad internacional y anunciarían una tercera revolución en la guerra después de la pólvora y la bomba atómica.
Un panel de expertos gubernamentales debatió las opciones de política con respecto a las armas autónomas letales en una reunión de la Convención de las Naciones Unidas sobre ciertas armas convencionales en Ginebra el miércoles.
Google, que el año pasado publicó principios rectores que evitan la IA para su uso en sistemas de armas, fue una de las siete empresas que participaron en las "mejores prácticas" en el análisis que abarcó 12 países, al igual que el Softbank de Japón, mejor conocido por su robot Pepper humanoide.
Veintidós empresas eran de "mediana preocupación, "mientras que 21 pertenecen a la categoría de" gran preocupación ", en particular, Amazon y Microsoft, que están compitiendo por un contrato con el Pentágono de $ 10 mil millones para proporcionar la infraestructura en la nube para el ejército de EE. UU.
Otros en el grupo de "gran preocupación" incluyen Palantir, una empresa con raíces en una organización de capital de riesgo respaldada por la CIA que recibió un contrato de $ 800 millones para desarrollar un sistema de inteligencia artificial "que puede ayudar a los soldados a analizar una zona de combate en tiempo real".
"Las armas autónomas se convertirán inevitablemente en armas de destrucción masiva escalables, porque si el humano no está al tanto, entonces una sola persona puede lanzar un millón de armas o cien millones de armas, "Stuart Russell, profesor de informática en la Universidad de California, Berkeley dijo a la AFP el miércoles.
"El hecho es que las armas autónomas serán desarrolladas por corporaciones, y en términos de una campaña para evitar que las armas autónomas se generalicen, pueden jugar un papel muy importante, "añadió.
El desarrollo de la inteligencia artificial con fines militares ha desencadenado debates y protestas dentro de la industria:el año pasado, Google se negó a renovar un contrato con el Pentágono llamado Proyecto Maven, que utilizó el aprendizaje automático para distinguir personas y objetos en videos de drones.
También se retiró de la carrera por la Infraestructura de Defensa Empresarial Conjunta (JEDI), el contrato de nube que Amazon y Microsoft esperan conseguir.
El informe señaló que los empleados de Microsoft también habían expresado su oposición a un contrato del Ejército de los EE. UU. Para un casco de realidad aumentada. HoloLens, que apunta a "aumentar la letalidad" en el campo de batalla.
Cómo se verían
Según Russell, "cualquier cosa que sea actualmente un arma, la gente está trabajando en versiones autónomas, si son tanques, avión de combate, o submarinos ".
El Harpy de Israel es un dron autónomo que ya existe, "holgazanear" en un área objetivo y seleccionar sitios para golpear.
Más preocupantes aún son las nuevas categorías de armas autónomas que aún no existen; estas podrían incluir mini-drones armados como los que aparecen en el cortometraje de 2017 "Slaughterbots".
"Con ese tipo de arma, podría enviar un millón de ellos en un contenedor o en un avión de carga, por lo que tienen la capacidad destructiva de una bomba nuclear pero dejan atrás todos los edificios, "dijo Russell.
Usando tecnología de reconocimiento facial, los drones podrían "acabar con un grupo étnico o un género, o utilizando la información de las redes sociales, podría eliminar a todas las personas con una visión política ".
En abril, la Unión Europea publicó directrices sobre cómo las empresas y los gobiernos deberían desarrollar la IA, incluida la necesidad de supervisión humana, trabajar por el bienestar social y medioambiental de forma no discriminatoria, y respetar la privacidad.
Russell argumentó que era esencial dar el siguiente paso en la forma de una prohibición internacional de la IA letal, que podría resumirse como "no se desarrollarán máquinas que puedan decidir matar humanos, desplegada, o usado ".
© 2019 AFP