• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    Israel acusado de utilizar IA para atacar a miles de personas en Gaza, mientras los algoritmos asesinos superan el derecho internacional

    Crédito:Pixabay/CC0 Dominio público

    El ejército israelí utilizó un nuevo sistema de inteligencia artificial (IA) para generar listas de decenas de miles de objetivos humanos para posibles ataques aéreos en Gaza, según un informe publicado la semana pasada. El informe proviene del medio sin fines de lucro +972 Magazine, dirigido por periodistas israelíes y palestinos.



    El informe cita entrevistas con seis fuentes anónimas de la inteligencia israelí. Las fuentes afirman que el sistema, conocido como Lavender, se utilizó con otros sistemas de inteligencia artificial para atacar y asesinar a presuntos militantes (muchos de ellos en sus propios hogares), causando un gran número de víctimas civiles.

    Según otro informe del Guardian, basado en las mismas fuentes que el informe +972, un oficial de inteligencia dijo que el sistema "facilitó" la realización de un gran número de ataques, porque "la máquina lo hacía en frío".

    Mientras los ejércitos de todo el mundo se apresuran a utilizar la IA, estos informes nos muestran cómo podría ser:guerra a velocidad mecánica con precisión limitada y poca supervisión humana, con un alto costo para los civiles.

    La IA militar en Gaza no es nueva

    Las Fuerzas de Defensa de Israel niegan muchas de las afirmaciones contenidas en estos informes. En una declaración al Guardian, dijo que "no utiliza un sistema de inteligencia artificial que identifique a los agentes terroristas". Dijo que Lavender no es un sistema de inteligencia artificial sino "simplemente una base de datos cuyo propósito es cruzar fuentes de inteligencia".

    Pero en 2021, el Jerusalem Post informó que un funcionario de inteligencia decía que Israel acababa de ganar su primera "guerra de IA", un conflicto anterior con Hamás, utilizando varios sistemas de aprendizaje automático para examinar datos y producir objetivos. Ese mismo año, un autor que recientemente se reveló que era el jefe de una unidad clave de inteligencia clandestina israelí publicó bajo un seudónimo un libro llamado The Human-Machine Team, que esbozaba una visión de la guerra impulsada por IA.

    El año pasado, otro informe de +972 dijo que Israel también utiliza un sistema de inteligencia artificial llamado Habsora para identificar posibles edificios e instalaciones militantes para bombardear. Según el informe, Habsora genera objetivos "casi automáticamente", y un ex oficial de inteligencia lo describió como "una fábrica de asesinatos en masa".

    El reciente informe +972 también afirma que un tercer sistema, llamado ¿Dónde está papá?, monitorea los objetivos identificados por Lavender y alerta a los militares cuando regresan a casa, a menudo con su familia.

    Muerte por algoritmo

    Varios países están recurriendo a algoritmos en busca de una ventaja militar. El Proyecto Maven del ejército estadounidense suministra objetivos de IA que se han utilizado en Medio Oriente y Ucrania. China también se está apresurando a desarrollar sistemas de inteligencia artificial para analizar datos, seleccionar objetivos y ayudar en la toma de decisiones.

    Los defensores de la IA militar argumentan que permitirá una toma de decisiones más rápida, una mayor precisión y una reducción de las bajas en la guerra.

    Sin embargo, el año pasado, Middle East Eye informó que una oficina de inteligencia israelí dijo que tener una revisión humana de cada objetivo generado por IA en Gaza "no era factible en absoluto". Otra fuente le dijo a +972 que ellos personalmente "invertirían 20 segundos en cada objetivo", siendo simplemente un "sello de goma" de aprobación.

    La respuesta de las Fuerzas de Defensa de Israel al informe más reciente dice que "los analistas deben realizar exámenes independientes, en los que verifiquen que los objetivos identificados cumplan con las definiciones pertinentes de acuerdo con el derecho internacional".

    En cuanto a la precisión, el último informe +972 afirma que Lavender automatiza el proceso de identificación y verificación cruzada para garantizar que un objetivo potencial sea una figura militar de alto rango de Hamás. Según el informe, Lavender aflojó los criterios de selección para incluir personal de menor rango y estándares de evidencia más débiles, y cometió errores en "aproximadamente el 10% de los casos".

    El informe también afirma que un oficial de inteligencia israelí dijo eso debido al ¿Dónde está papá? sistema, los objetivos serían bombardeados en sus hogares "sin dudarlo, como primera opción", lo que provocaría víctimas civiles. El ejército israelí dice que "rechaza rotundamente la afirmación relativa a cualquier política para matar a decenas de miles de personas en sus hogares".

    ¿Reglas para la IA militar?

    A medida que el uso militar de la IA se vuelve más común, las preocupaciones éticas, morales y legales han quedado en gran medida en un segundo plano. Hasta el momento no existen normas claras, universalmente aceptadas o jurídicamente vinculantes sobre la IA militar.

    Las Naciones Unidas han estado discutiendo "sistemas de armas autónomas letales" durante más de diez años. Se trata de dispositivos que pueden tomar decisiones sobre objetivos y disparos sin intervención humana, a veces conocidos como "robots asesinos". El año pasado se produjeron algunos avances.

    La Asamblea General de la ONU votó a favor de un nuevo proyecto de resolución para garantizar que los algoritmos "no deban tener el control total de las decisiones que implican matar". En octubre pasado, Estados Unidos también publicó una declaración sobre el uso militar responsable de la IA y la autonomía, que desde entonces ha sido respaldada por otros 50 estados. El año pasado también se celebró la primera cumbre sobre el uso responsable de la IA militar, copatrocinada por los Países Bajos y la República de Corea.

    En general, las normas internacionales sobre el uso de la IA militar luchan por seguir el ritmo del fervor de los estados y las empresas armamentísticas por la guerra de alta tecnología basada en la IA.

    Enfrentando lo 'desconocido'

    Se informa que algunas nuevas empresas israelíes que fabrican productos compatibles con IA están convirtiendo su uso en un argumento de venta en Gaza. Sin embargo, los informes sobre el uso de sistemas de IA en Gaza sugieren cuán lejos está la IA del sueño de una guerra de precisión, creando en cambio graves daños humanitarios.

    La escala industrial a la que los sistemas de inteligencia artificial como Lavender pueden generar objetivos también "desplaza a los humanos por defecto" en la toma de decisiones.

    La voluntad de aceptar sugerencias de la IA sin apenas escrutinio humano también amplía el alcance de los objetivos potenciales, lo que inflige un daño mayor.

    Sentando un precedente

    Los informes sobre Lavender y Habsora nos muestran lo que la IA militar actual ya es capaz de hacer. Los riesgos futuros de la IA militar pueden aumentar aún más.

    El analista militar chino Chen Hanghui ha imaginado una futura "singularidad del campo de batalla", por ejemplo, en la que las máquinas toman decisiones y realizan acciones a un ritmo demasiado rápido para que un humano pueda seguirlas. En este escenario, somos poco más que espectadores o víctimas.

    Un estudio publicado a principios de este año dio otra nota de advertencia. Investigadores estadounidenses llevaron a cabo un experimento en el que grandes modelos lingüísticos como el GPT-4 desempeñaban el papel de naciones en un ejercicio de guerra. Casi inevitablemente, los modelos quedaron atrapados en carreras armamentistas y escalaron los conflictos de maneras impredecibles, incluido el uso de armas nucleares.

    La forma en que el mundo reacciona a los usos actuales de la IA militar, como estamos viendo en Gaza, probablemente sentará un precedente para el futuro desarrollo y uso de la tecnología.

    Proporcionado por The Conversation

    Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com