• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los robots asesinos ya existen, y han estado aquí mucho tiempo

    Crédito:Mykola Holyutyak / Shutterstock

    Los humanos siempre tomarán la decisión final sobre si los robots armados pueden disparar, según un comunicado del Departamento de Defensa de Estados Unidos. Su aclaración se produce en medio de los temores sobre un nuevo sistema de focalización avanzado, conocido como ATLAS, que utilizará inteligencia artificial en vehículos de combate para apuntar y ejecutar amenazas. Si bien el público puede sentirse incómodo con los llamados "robots asesinos", El concepto no es nada nuevo:ya en 2007 se desplegaron en Irak robots "ESPADAS" con ametralladoras.

    Nuestra relación con los robots militares se remonta incluso más atrás. Esto se debe a que cuando la gente dice "robot, Pueden referirse a cualquier tecnología con algún tipo de elemento "autónomo" que le permita realizar una tarea sin necesidad de la intervención humana directa.

    Estas tecnologías existen desde hace mucho tiempo. Durante la Segunda Guerra Mundial, la mecha de proximidad fue desarrollada para hacer estallar proyectiles de artillería a una distancia predeterminada de su objetivo. Esto hizo que los proyectiles fueran mucho más efectivos de lo que hubieran sido de otro modo al aumentar la toma de decisiones humanas y, en algunos casos, sacando al humano del circuito por completo.

    Entonces, la pregunta no es tanto si deberíamos usar sistemas de armas autónomos en la batalla, ya los usamos, y toman muchas formas. Bastante, debemos centrarnos en cómo los usamos, por qué los usamos, y qué forma, si es que debe tomar alguna, debe tomar la intervención humana.

    El nacimiento de la cibernética

    Mi investigación explora la filosofía de las relaciones hombre-máquina, con un enfoque particular en la ética militar, y la forma en que distinguimos entre humanos y máquinas. Durante la Segunda Guerra Mundial, El matemático Norbert Wiener sentó las bases de la cibernética:el estudio de la interfaz entre humanos, animales y máquinas, en su trabajo sobre el control del fuego antiaéreo. Al estudiar las desviaciones entre el movimiento previsto de una aeronave, y su movimiento real, Wiener y su colega Julian Bigelow idearon el concepto de "bucle de retroalimentación, "donde las desviaciones podrían retroalimentarse en el sistema para corregir futuras predicciones.

    Los sistemas de focalización autónomos se originaron con innovaciones en armamento antiaéreo durante la Segunda Guerra Mundial. Crédito:Zef Art / Shutterstock

    Por tanto, la teoría de Wiener fue mucho más allá del mero aumento, porque la tecnología cibernética podría usarse para adelantarse a las decisiones humanas, eliminando al humano falible del circuito, para mejorar decisiones más rápidas y hacer que los sistemas de armas sean más efectivos.

    En los años transcurridos desde la Segunda Guerra Mundial, la computadora ha surgido para sentarse junto a la teoría cibernética para formar un pilar central del pensamiento militar, desde las "bombas inteligentes" guiadas por láser de la era de Vietnam hasta los misiles de crucero y los drones Reaper.

    Ya no es suficiente simplemente aumentar al guerrero humano como era en los primeros días. La siguiente fase es eliminar al ser humano por completo, "maximizando" los resultados militares y minimizando el costo político asociado con la pérdida de vidas aliadas. Esto ha llevado al uso generalizado de drones militares por parte de Estados Unidos y sus aliados. Si bien estas misiones son muy controvertidas, en términos políticos, han demostrado ser preferibles con mucho al clamor público provocado por las muertes de militares.

    La maquina humana

    Uno de los temas más polémicos relacionados con la guerra con drones es el papel del piloto u "operador" de drones. Como todo el personal, estos operadores están obligados por sus empleadores a "hacer un buen trabajo". Sin embargo, los términos del éxito están lejos de ser claros. Como observa la filósofa y crítica cultural Laurie Calhoun:"El negocio de los operadores de UCAV [drones] es matar".

    De este modo, su tarea no es tanto tomar una decisión humana, sino más bien para hacer el trabajo para el que están empleados. Si la computadora les dice que maten, ¿Existe realmente alguna razón por la que no deberían hacerlo?

    Un dron militar moderno. Crédito:Alex LMX / Shutterstock

    Se puede hacer un argumento similar con respecto al soldado moderno. Desde navegación GPS hasta enlaces ascendentes de video, los soldados llevan numerosos dispositivos que los unen a una vasta red que los monitorea y controla en todo momento.

    Esto conduce a un enigma ético. Si el propósito del soldado es seguir las órdenes al pie de la letra, con cámaras utilizadas para garantizar el cumplimiento, entonces ¿por qué nos molestamos con soldados humanos? Después de todo, las máquinas son mucho más eficientes que los seres humanos y no sufren de fatiga y estrés de la misma manera que los humanos. Si se espera que los soldados se comporten en una programática, moda robótica de todos modos, entonces, ¿de qué sirve derramar sangre aliada innecesaria?

    La respuesta, aquí, es que lo humano sirve como coartada o forma de "encubrimiento ético" de lo que es en realidad, un casi completamente mecánico, acto robótico. Así como el trabajo del operador del dron es supervisar el dron controlado por computadora, por lo que el papel del ser humano en el nuevo sistema ATLAS del Departamento de Defensa es simplemente actuar como cobertura ética en caso de que las cosas salgan mal.

    Si bien los drones Predator y Reaper pueden estar a la vanguardia de la imaginación pública sobre la autonomía militar y los "robots asesinos, "estas innovaciones no son en sí mismas nada nuevo. Son simplemente las últimas de una larga lista de desarrollos que se remontan a muchas décadas atrás.

    Si bien puede reconfortar a algunos lectores imaginar que la autonomía de la máquina siempre estará subordinada a la toma de decisiones humana, esto realmente pierde el punto. Los sistemas autónomos han estado arraigados en las fuerzas armadas durante mucho tiempo y debemos prepararnos para las consecuencias.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com