• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Prohibir los robots asesinos para proteger los principios morales y legales fundamentales

    El ejército de los EE. UU. Ya está probando un sistema robótico armado avanzado modular. Crédito:Lance Cpl. Julien Rodarte, Cuerpo de Marines de EE. UU.

    Al redactar un tratado sobre las leyes de la guerra a finales del siglo XIX, los diplomáticos no podían prever el futuro del desarrollo de armas. Pero sí adoptaron un estándar legal y moral para juzgar la nueva tecnología no cubierta por el lenguaje del tratado existente.

    Este estándar, conocida como la Cláusula de Martens, ha sobrevivido a generaciones de derecho internacional humanitario y ha ganado una relevancia renovada en un mundo donde las armas autónomas están a punto de tomar sus propias decisiones sobre a quién disparar y cuándo. La Cláusula Martens pide a los países que no utilicen armas que se aparten "de los principios de humanidad y de los dictados de la conciencia pública".

    Fui el autor principal de un nuevo informe de Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard que explica por qué las armas totalmente autónomas van en contra de los principios de humanidad y los dictados de la conciencia pública. Descubrimos que para cumplir con la Cláusula de Martens, los países deberían adoptar un tratado que prohíba el desarrollo, producción y uso de estas armas.

    Representantes de más de 70 naciones se reunirán del 27 al 31 de agosto en las Naciones Unidas en Ginebra para debatir cómo abordar los problemas con lo que ellos llaman sistemas de armas autónomas letales. Estos países, que son partes en la Convención sobre Armas Convencionales, Han discutido el tema durante cinco años. Mis coautores y yo creemos que es hora de que actúen y acuerden comenzar a negociar una prohibición el próximo año.

    Haciendo reglas para lo incognoscible

    La Cláusula Martens proporciona una línea de base de protección para civiles y soldados en ausencia de un tratado específico. La cláusula también establece un estándar para evaluar nuevas situaciones y tecnologías que no se habían previsto previamente.

    Armas completamente autónomas, a veces llamados "robots asesinos, "seleccionaría y atacaría objetivos sin un control humano significativo. Serían un paso peligroso más allá de los drones armados actuales porque no habría ningún humano en el circuito para determinar cuándo disparar y contra qué objetivo. Aunque todavía no existen armas totalmente autónomas, Porcelana, Israel, Rusia, Corea del Sur, el Reino Unido y los Estados Unidos están trabajando para desarrollarlos. Argumentan que la tecnología procesaría la información más rápido y mantendría a los soldados fuera del campo de batalla.

    La posibilidad de que las armas completamente autónomas pronto se conviertan en una realidad hace imperativo que esos y otros países apliquen la Cláusula Martens y evalúen si la tecnología ofendería a la humanidad básica y la conciencia pública. Nuestro análisis encuentra que las armas completamente autónomas fallarían la prueba en ambos aspectos.

    Principios de humanidad

    La historia de la Cláusula Martens muestra que es un principio fundamental del derecho internacional humanitario. Con origen en la Convención de La Haya de 1899, sus versiones aparecen en los cuatro Convenios de Ginebra y en el Protocolo adicional I. Se cita en numerosos tratados de desarme. En 1995, Las preocupaciones bajo la Cláusula Martens motivaron a los países a adoptar una prohibición preventiva de los láseres cegadores.

    Los principios de humanidad exigen el trato humano de los demás y el respeto por la vida y la dignidad humanas. Las armas completamente autónomas no podrían cumplir con estos requisitos porque no podrían sentir compasión, una emoción que inspira a las personas a minimizar el sufrimiento y la muerte. Las armas también carecerían del juicio legal y ético necesario para garantizar que protegen a los civiles en situaciones de conflicto complejas e impredecibles.

    Bajo supervisión humana, por ahora. Crédito:PFC. Rhita Daniel, Cuerpo de Marines de EE. UU.

    Además, como máquinas inanimadas, estas armas no podían comprender verdaderamente el valor de una vida individual o el significado de su pérdida. Sus algoritmos traducirían vidas humanas en valores numéricos. Al tomar decisiones letales basadas en tales algoritmos, reducirían sus objetivos humanos, ya sean civiles o soldados, a objetos, socavando su dignidad humana.

    Dictados de conciencia pública

    La creciente oposición a las armas totalmente autónomas muestra que también entran en conflicto con los dictados de la conciencia pública. Gobiernos los expertos y el público en general se han opuesto, a menudo por motivos morales, a la posibilidad de perder el control humano sobre el uso de la fuerza.

    Hasta la fecha, 26 países han apoyado expresamente una prohibición, incluida China. La mayoría de los países que han hablado en las reuniones de la ONU sobre armas convencionales han pedido que se mantenga alguna forma de control humano significativo sobre el uso de la fuerza. Requerir tal control es efectivamente lo mismo que prohibir las armas que operan sin una persona que decida cuándo matar.

    Miles de científicos y expertos en inteligencia artificial han respaldado una prohibición y exigido acciones de las Naciones Unidas. En julio de 2018, se comprometieron a no ayudar con el desarrollo o uso de armas totalmente autónomas. Las grandes corporaciones también han pedido la prohibición.

    Más de 160 líderes religiosos y más de 20 premios Nobel de la Paz han condenado de manera similar la tecnología y respaldado una prohibición. Varias encuestas de opinión pública nacionales e internacionales han encontrado que la mayoría de las personas que respondieron se opusieron al desarrollo y uso de armas totalmente autónomas.

    La campaña para detener a los robots asesinos, una coalición de 75 organizaciones no gubernamentales de 42 países, ha liderado la oposición de grupos no gubernamentales. Observador de derechos humanos, por lo que trabajo, cofundó y coordina la campaña.

    Otros problemas con los robots asesinos

    Las armas completamente autónomas amenazarían más que la humanidad y la conciencia pública. Probablemente violarían otras reglas clave del derecho internacional. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.

    Es más, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.

    Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com