En este 20 de diciembre, 2019, Foto de archivo El secretario de Defensa, Mark Esper, habla durante una conferencia de prensa en el Pentágono en Washington. El Pentágono está adoptando nuevos principios éticos mientras se prepara para acelerar el uso de la tecnología de inteligencia artificial en el campo de batalla. (Foto AP / Susan Walsh, Expediente)
El Pentágono está adoptando nuevos principios éticos mientras se prepara para acelerar el uso de la tecnología de inteligencia artificial en el campo de batalla.
Los nuevos principios exigen que las personas "ejerzan los niveles adecuados de juicio y cuidado" al implementar y utilizar sistemas de IA, como los que escanean imágenes aéreas para buscar objetivos.
También dicen que las decisiones tomadas por sistemas automatizados deben ser "rastreables" y "gobernables, "lo que significa que" tiene que haber una manera de desconectarlos o desactivarlos "si están demostrando un comportamiento no deseado, dijo el teniente general de la Fuerza Aérea Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono.
El impulso del Pentágono para acelerar sus capacidades de inteligencia artificial ha alimentado una pelea entre compañías de tecnología por un contrato de computación en la nube de $ 10 mil millones conocido como Infraestructura de Defensa Empresarial Conjunta. o JEDI. Microsoft ganó el contrato en octubre, pero no ha podido comenzar con el proyecto de 10 años porque Amazon demandó al Pentágono. argumentando que la antipatía del presidente Donald Trump hacia Amazon y su director ejecutivo, Jeff Bezos, perjudicó las posibilidades de la empresa de ganar la licitación.
Una directiva militar existente de 2012 requiere que los humanos tengan el control de las armas automatizadas, pero no aborda los usos más amplios de la IA. Los nuevos principios de EE. UU. Están destinados a orientar las aplicaciones de combate y no combate, desde operaciones de recopilación de inteligencia y vigilancia hasta la predicción de problemas de mantenimiento en aviones o barcos.
El enfoque esbozado el lunes sigue las recomendaciones hechas el año pasado por la Junta de Innovación de Defensa, un grupo dirigido por el ex director ejecutivo de Google, Eric Schmidt.
Si bien el Pentágono reconoció que la IA "plantea nuevos riesgos y ambigüedades éticas, "Los nuevos principios no alcanzan las restricciones más fuertes favorecidas por los defensores del control de armas.
"Me preocupa que los principios sean un proyecto de lavado de la ética, "dijo Lucy Suchman, un antropólogo que estudia el papel de la IA en la guerra. "La palabra 'apropiado' está abierta a muchas interpretaciones".
Shanahan dijo que los principios son intencionalmente amplios para evitar esposar al ejército estadounidense con restricciones específicas que podrían quedar obsoletas.
"La tecnología se adapta. La tecnología evoluciona, " él dijo.
El Pentágono se topó con un obstáculo en sus esfuerzos de inteligencia artificial en 2018 después de que las protestas internas en Google llevaron a la compañía de tecnología a abandonar el Proyecto Maven del ejército. que utiliza algoritmos para interpretar imágenes aéreas de zonas de conflicto. Desde entonces, otras empresas han llenado el vacío. Shanahan dijo que los nuevos principios están ayudando a recuperar el apoyo de la industria tecnológica, donde "había sed de tener esta discusión".
"A veces creo que la angustia es un poco exagerada, pero tenemos personas que tienen serias preocupaciones sobre trabajar con el Departamento de Defensa, " él dijo.
Shanahan dijo que la guía también ayuda a asegurar la ventaja tecnológica estadounidense a medida que China y Rusia persiguen la inteligencia artificial militar con poca atención a las preocupaciones éticas.
Rebecca Crootof, profesora de derecho de la Universidad de Richmond, dijo que la adopción de principios es un buen primer paso, pero los militares deberán demostrar que pueden evaluar críticamente los enormes tesoros de datos utilizados por los sistemas de inteligencia artificial, así como sus riesgos de ciberseguridad.
Crootof dijo que también espera que la acción de Estados Unidos ayude a establecer normas internacionales en torno al uso militar de la IA.
"Si se considera que EE. UU. Se está tomando en serio las normas éticas de la IA, de forma predeterminada, se convierten en un tema más serio, " ella dijo.
© 2020 The Associated Press. Reservados todos los derechos. Este material puede no ser publicado, transmisión, reescrito o redistribuido sin permiso.