La robótica se está transformando rápidamente gracias a los avances en inteligencia artificial. Y los beneficios son generalizados:estamos viendo vehículos más seguros con la capacidad de frenar automáticamente en caso de emergencia, brazos robóticos que transforman líneas de fábrica que alguna vez fueron deslocalizadas y nuevos robots que pueden hacer de todo, desde comprar alimentos hasta entregar medicamentos recetados a personas que tienen problemas para hacerlo ellos mismos.
Pero nuestro creciente apetito por lo inteligente, Las máquinas autónomas plantean una serie de desafíos éticos.
Los rápidos avances han dado lugar a dilemas éticos
Estas ideas y más estaban dando vueltas cuando mis colegas y yo nos reunimos a principios de noviembre en una de las conferencias de investigación centradas en la robótica autónoma más grandes del mundo:la Conferencia Internacional IEEE sobre Robots y Sistemas Inteligentes. Allí, académica, investigadores corporativos, y científicos del gobierno presentaron desarrollos en algoritmos que permiten a los robots tomar sus propias decisiones.
Como ocurre con toda la tecnología, la gama de usos futuros de nuestra investigación es difícil de imaginar. Es aún más desafiante pronosticar dada la rapidez con la que cambia este campo. Llevar, por ejemplo, la capacidad de una computadora para identificar objetos en una imagen:en 2010, el estado de la técnica tuvo éxito solo la mitad de las veces, y estuvo atrapado allí durante años. Hoy dia, aunque, los mejores algoritmos que se muestran en los artículos publicados tienen ahora una precisión del 86%. Ese avance por sí solo permite que los robots autónomos comprendan lo que están viendo a través de las lentes de las cámaras. También muestra el rápido ritmo de progreso durante la última década debido a los desarrollos en IA.
Este tipo de mejora es un verdadero hito desde una perspectiva técnica. Mientras que, en el pasado, la revisión manual de una gran cantidad de imágenes de video requería una cantidad increíble de horas, ahora, estos datos se pueden analizar de forma rápida y precisa mediante un programa informático.
Pero también da lugar a un dilema ético. Al sacar a los humanos del proceso, Los supuestos que sustentan las decisiones relacionadas con la privacidad y la seguridad se han modificado fundamentalmente. Por ejemplo, el uso de cámaras en la vía pública puede haber planteado problemas de privacidad hace 15 o 20 años, pero agregar tecnología de reconocimiento facial precisa altera dramáticamente esas implicaciones de privacidad.
Sistemas fáciles de modificar
Al desarrollar máquinas que pueden tomar sus propias decisiones, típicamente llamadas sistemas autónomos, las cuestiones éticas que surgen son posiblemente más preocupantes que las del reconocimiento de objetos. La autonomía mejorada por IA se está desarrollando tan rápidamente que las capacidades que antes se limitaban a sistemas de alta ingeniería ahora están disponibles para cualquier persona con una caja de herramientas doméstica y algo de experiencia con la computadora.
Las personas sin experiencia en ciencias de la computación pueden aprender algunas de las herramientas de inteligencia artificial más avanzadas, y los robots están más que dispuestos a permitirle ejecutar sus técnicas de aprendizaje automático recién adquiridas en ellos. Hay foros en línea llenos de personas deseosas de ayudar a cualquiera a aprender cómo hacer esto.
Con herramientas anteriores, Ya era bastante fácil programar su dron mínimamente modificado para identificar una bolsa roja y seguirla. La tecnología de detección de objetos más reciente desbloquea la capacidad de rastrear una variedad de cosas que se parecen a más de 9, 000 tipos de objetos diferentes. Combinado con los más nuevos, drones más maniobrables, No es difícil imaginar la facilidad con la que podrían equiparse con armas. ¿Qué puede evitar que alguien sujete un explosivo u otra arma a un dron equipado con esta tecnología?
Usando una variedad de técnicas, Los drones autónomos ya son una amenaza. Los han sorprendido arrojando explosivos sobre las tropas estadounidenses, cerrando aeropuertos y siendo utilizado en un intento de asesinato del líder venezolano Nicolás Maduro. Los sistemas autónomos que se están desarrollando en este momento podrían hacer que la organización de tales ataques sea más fácil y devastadora.
¿Juntas reguladoras o de revisión?
Hace un año, un grupo de investigadores en inteligencia artificial y robótica autónoma se comprometió a abstenerse de desarrollar armas autónomas letales. Definieron las armas autónomas letales como plataformas que son capaces de "seleccionar y atacar objetivos sin intervención humana". Como investigador de robótica que no está interesado en desarrollar técnicas de focalización autónomas, Sentí que la promesa pasaba por alto el meollo del peligro. Pasó por alto importantes cuestiones éticas que deben abordarse, especialmente aquellos en la amplia intersección de aplicaciones de drones que podrían ser benignos o violentos.
Para uno, los investigadores, las empresas y los desarrolladores que escribieron los artículos y crearon el software y los dispositivos generalmente no lo hacen para crear armas. Sin embargo, podrían habilitar inadvertidamente a otros, con experiencia mínima, para crear tales armas.
¿Qué podemos hacer para abordar este riesgo?
La regulación es una opción, y uno ya utilizado al prohibir los drones aéreos cerca de los aeropuertos o alrededor de los parques nacionales. Son útiles pero no impiden la creación de drones armados. Las regulaciones sobre armas tradicionales no son un modelo suficiente, cualquiera. Por lo general, refuerzan los controles sobre el material de origen o el proceso de fabricación. Eso sería casi imposible con sistemas autónomos, donde los materiales de origen son códigos informáticos ampliamente compartidos y el proceso de fabricación puede tener lugar en casa utilizando componentes listos para usar.
Otra opción sería seguir los pasos de los biólogos. En 1975, celebraron una conferencia sobre los peligros potenciales del ADN recombinante en Asilomar en California. Allí, los expertos acordaron directrices voluntarias que orientarían el curso del trabajo futuro. Para sistemas autónomos, tal resultado parece poco probable en este momento. Muchos proyectos de investigación que podrían usarse en el desarrollo de armas también tienen resultados pacíficos e increíblemente útiles.
Una tercera opción sería establecer órganos de autogobierno a nivel de organización, como las juntas de revisión institucional que actualmente supervisan los estudios sobre seres humanos en las empresas, universidades y laboratorios gubernamentales. Estas juntas consideran los beneficios para las poblaciones involucradas en la investigación y elaboran formas de mitigar los daños potenciales. Pero solo pueden regular la investigación realizada dentro de sus instituciones, lo que limita su alcance.
Todavía, un gran número de investigadores caerían bajo el ámbito de estas juntas, dentro de la comunidad autónoma de investigación en robótica, casi todos los presentadores de conferencias técnicas son miembros de una institución. Las juntas de revisión de investigaciones serían un primer paso hacia la autorregulación y podrían señalar proyectos que podrían convertirse en armas.
Viviendo con el peligro y la promesa
Muchos de mis colegas y yo estamos emocionados de desarrollar la próxima generación de sistemas autónomos. Siento que el potencial para el bien es demasiado prometedor para ignorarlo. Pero también me preocupan los riesgos que plantean las nuevas tecnologías, especialmente si son explotados por personas malintencionadas. Sin embargo, con una organización cuidadosa y conversaciones informadas hoy, Creo que podemos trabajar para lograr esos beneficios y al mismo tiempo limitar el potencial de daño.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.