Se dice que alrededor de una docena de trabajadores de Google dejarán la empresa por su colaboración con el ejército de EE. UU. En drones.
Una petición interna que pedía a Google que se mantuviera fuera del "negocio de la guerra" estaba ganando apoyo el martes, según los informes, algunos trabajadores renunciaron para protestar por una colaboración con el ejército estadounidense.
Aproximadamente 4, Se dijo que 000 empleados de Google firmaron una petición que comenzó a circular hace unos tres meses instando al gigante de Internet a abstenerse de usar inteligencia artificial para hacer que los drones militares estadounidenses reconozcan mejor lo que están monitoreando.
El sitio web de noticias de tecnología Gizmodo informó esta semana que alrededor de una docena de empleados de Google están renunciando en una postura ética.
La empresa con sede en California no respondió de inmediato a las consultas sobre lo que se denominó Proyecto Maven, que, según se informa, utiliza el aprendizaje automático y el talento de ingeniería para distinguir personas y objetos en videos de drones para el Departamento de Defensa.
"Creemos que Google no debería estar en el negocio de la guerra, "la petición dice, según las copias publicadas en línea.
"Por lo tanto, pedimos que se cancele Project Maven, y ese borrador de Google, publicitar y hacer cumplir una política clara que indique que ni Google ni sus contratistas construirán tecnología de guerra ".
'Aléjate' de los drones asesinos
La Fundación Frontera Electrónica, un grupo de derechos de internet, y el Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés) se encuentran entre los que han intervenido con apoyo.
Si bien los informes indicaron que los resultados de la inteligencia artificial serían revisados por analistas humanos, la tecnología podría allanar el camino para sistemas de focalización automatizados en drones armados, ICRAC razonó en una carta abierta de apoyo a los empleados de Google contra el proyecto.
"A medida que los comandantes militares llegan a ver los algoritmos de reconocimiento de objetos como confiables, será tentador atenuar o incluso eliminar la revisión y supervisión humana de estos sistemas, "Dijo ICRAC en la carta.
"Entonces, estamos a un paso de autorizar a los drones autónomos a matar automáticamente, sin supervisión humana o control humano significativo ".
Google ha declarado oficialmente que su trabajo para mejorar la capacidad de las máquinas para reconocer objetos no es para usos ofensivos. pero los documentos publicados muestran una imagen "más oscura", Cindy Cohn y Peter Eckersley de la EFF dijeron en una publicación en línea el mes pasado.
"Si nuestra lectura del registro público es correcta, Los sistemas que Google está apoyando o construyendo marcarían personas u objetos vistos por drones para revisión humana, y en algunos casos esto daría lugar a posteriores ataques con misiles contra esas personas u objetos, "dijeron Cohn y Eckersley.
"Esos son grandes riesgos éticos, incluso con los humanos en el bucle más adelante a lo largo de la 'cadena de muerte' ".
La EFF y otros acogieron con beneplácito el debate interno de Google, haciendo hincapié en la necesidad de marcos éticos y morales con respecto al uso de la inteligencia artificial en el armamento.
"El uso de la IA en los sistemas de armas es un tema de vital importancia y merece una discusión pública internacional y probablemente algunos acuerdos internacionales para garantizar la seguridad global, "Dijeron Cohn y Eckersley.
"Empresas como Google, así como sus homólogos en todo el mundo, deben considerar las consecuencias y exigir una responsabilidad real y estándares de comportamiento de las agencias militares que buscan su experiencia, y de ellos mismos ".
© 2018 AFP