• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La IA ya ha sido armada, y muestra por qué deberíamos prohibir los robots asesinos

    Crédito:Oleg Yarko / Shutterstock

    Está surgiendo una línea divisoria en el debate sobre los llamados robots asesinos. Muchos países quieren ver una nueva ley internacional sobre sistemas de armas autónomos que puedan atacar y matar a personas sin intervención humana. Pero aquellos países que ya están desarrollando tales armas están tratando de resaltar sus supuestos beneficios.

    Fui testigo de este abismo cada vez mayor en una reunión reciente de la ONU de más de 70 países en Ginebra, donde los partidarios de las armas autónomas, incluidos los EE. UU., Australia y Corea del Sur, eran más vocales que nunca. En la reunión, Estados Unidos afirmó que tales armas podrían en realidad facilitar el cumplimiento del derecho internacional humanitario al hacer que la acción militar sea más precisa.

    Sin embargo, es muy especulativo decir que los "robots asesinos" alguna vez podrán seguir el derecho humanitario. Y mientras los políticos continúan discutiendo sobre esto, la expansión de la autonomía y la inteligencia artificial en la tecnología militar existente ya está estableciendo efectivamente estándares indeseables para su papel en el uso de la fuerza.

    Una serie de cartas abiertas de destacados investigadores que se pronuncian en contra de la inteligencia artificial como armamento ha ayudado a llamar la atención del público sobre el debate sobre los sistemas militares autónomos. El problema es que el debate se enmarca como si esta tecnología fuera algo del futuro. De hecho, las cuestiones que plantea ya están siendo abordadas efectivamente por los sistemas existentes.

    La mayoría de los sistemas de defensa aérea ya tienen una autonomía significativa en el proceso de selección de objetivos, y los aviones militares tienen características altamente automatizadas. Esto significa que los "robots" ya están involucrados en la identificación y participación de objetivos.

    Mientras tanto, Otra cuestión importante planteada por la tecnología actual falta en la discusión en curso. Los ejércitos de varios países utilizan actualmente drones operados a distancia para lanzar bombas sobre objetivos. Pero sabemos por incidentes en Afganistán y en otros lugares que las imágenes de drones no son suficientes para distinguir claramente entre civiles y combatientes. También sabemos que la tecnología de IA actual puede contener un sesgo significativo que afecte su toma de decisiones, a menudo con efectos nocivos.

    Los humanos todavía presionan el gatillo ¿pero por cuánto tiempo? Crédito:Burlingham / Shutterstock

    Dado que es probable que los futuros aviones completamente autónomos se utilicen de manera similar a los drones, probablemente seguirán las prácticas establecidas por los drones. Sin embargo, los estados que utilizan tecnologías autónomas existentes los están excluyendo del debate más amplio al referirse a ellos como "semiautónomos" o los llamados "sistemas heredados". De nuevo, esto hace que el tema de los "robots asesinos" parezca más futurista de lo que realmente es. Esto también impide que la comunidad internacional examine más de cerca si estos sistemas son fundamentalmente apropiados según el derecho humanitario.

    Varios principios clave del derecho internacional humanitario requieren juicios humanos deliberados de los que las máquinas son incapaces. Por ejemplo, la definición legal de quién es un civil y quién es un combatiente no está escrita de una manera que pueda programarse en la IA, y las máquinas carecen de la conciencia de la situación y la capacidad de inferir las cosas necesarias para tomar esta decisión.

    Toma de decisiones invisible

    Más profundamente, cuanto más los objetivos son elegidos y potencialmente atacados por máquinas, cuanto menos sepamos sobre cómo se toman esas decisiones. Los drones ya dependen en gran medida de los datos de inteligencia procesados ​​por algoritmos de "caja negra" que son muy difíciles de entender para elegir sus objetivos propuestos. Esto hace que sea más difícil para los operadores humanos que realmente presionan el gatillo cuestionar las propuestas de destino.

    Mientras la ONU continúa debatiendo este tema, Vale la pena señalar que la mayoría de los países que están a favor de prohibir las armas autónomas son países en desarrollo, que suelen tener menos probabilidades de asistir a las conversaciones internacionales sobre desarme. Por lo tanto, el hecho de que estén dispuestos a hablar enérgicamente contra las armas autónomas hace que lo hagan aún más significativo. Su historial de experimentar intervenciones e invasiones de los más ricos, Los países más poderosos (como algunos de los que están a favor de las armas autónomas) también nos recuerdan que están en mayor riesgo con esta tecnología.

    Dado lo que sabemos sobre los sistemas autónomos existentes, deberíamos estar muy preocupados de que los "robots asesinos" infrinjan más el derecho humanitario, no menos, probable. Esta amenaza solo puede prevenirse mediante la negociación de un nuevo derecho internacional que frene su uso.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com