Crédito:Spainter_vfx / Shutterstock.com
Películas como 2001:una odisea espacial , Cazarecompensas y El terminador trajo robots deshonestos y sistemas informáticos a nuestras pantallas de cine. Pero estos dias Estos espectáculos clásicos de ciencia ficción no parecen tan alejados de la realidad.
Cada vez más, vivimos, trabajar y jugar con tecnologías computacionales autónomas e inteligentes. Estos sistemas incluyen software y hardware con capacidad para el razonamiento y la toma de decisiones independientes. Trabajan para nosotros en la fábrica; ellos deciden si podemos obtener una hipoteca; rastrean y miden nuestra actividad y niveles de condición física; limpian los pisos de nuestra sala de estar y cortan el césped.
Los sistemas autónomos e inteligentes tienen el potencial de afectar casi todos los aspectos de nuestra sociedad, económico, vidas políticas y privadas, incluyendo aspectos cotidianos mundanos. Mucho de esto parece inocente pero hay motivos de preocupación. Las tecnologías computacionales impactan en todos los derechos humanos, del derecho a la vida al derecho a la intimidad, la libertad de expresión a los derechos económicos y sociales. Entonces, ¿cómo podemos defender los derechos humanos en un panorama tecnológico cada vez más conformado por la robótica y la inteligencia artificial (IA)?
AI y derechos humanos
Primero, Existe un temor real de que una mayor autonomía de las máquinas socave el estatus de los humanos. Este miedo se ve agravado por la falta de claridad sobre quién rendirá cuentas, ya sea en un sentido legal o moral, cuando las máquinas inteligentes hacen daño. Pero no estoy seguro de que el foco de nuestra preocupación por los derechos humanos deba estar realmente en los robots deshonestos, como parece en la actualidad. Bastante, deberíamos preocuparnos por el uso humano de robots e inteligencia artificial y su despliegue en políticas injustas y desiguales, militar, contextos económicos y sociales.
Esta preocupación es particularmente pertinente con respecto a los sistemas de armas autónomos letales (LAWS), a menudo descritos como robots asesinos. A medida que avanzamos hacia una carrera armamentista de IA, académicos y activistas de derechos humanos como Christof Heyns, el ex relator especial de la ONU sobre asuntos extrajudiciales, ejecuciones sumarias o arbitrarias, temen que el uso de LAWS ponga a los sistemas robóticos autónomos a cargo de las decisiones de vida o muerte, con control humano limitado o nulo.
La IA también revoluciona el vínculo entre la guerra y las prácticas de vigilancia. Grupos como el Comité Internacional para el Control de Armas Robóticas (ICRAC) expresaron recientemente su oposición a la participación de Google en el Proyecto Maven, un programa militar que utiliza el aprendizaje automático para analizar las imágenes de vigilancia de drones, que puede utilizarse para ejecuciones extrajudiciales. El ICRAC solicitó a Google que se asegure de que los datos que recopila sobre sus usuarios nunca se utilicen con fines militares. uniéndose a las protestas de los empleados de Google por la participación de la empresa en el proyecto. Google anunció recientemente que no renovará su contrato.
En 2013, el alcance de las prácticas de vigilancia fue destacado por las revelaciones de Edward Snowden. Estos nos enseñaron mucho sobre la amenaza al derecho a la privacidad y el intercambio de datos entre servicios de inteligencia, agencias gubernamentales y corporaciones privadas. La reciente controversia en torno a la recolección de datos personales por parte de Cambridge Analytica a través del uso de plataformas de redes sociales como Facebook continúa causando serias preocupaciones. esta vez por manipulación e injerencia en elecciones democráticas que lesionan el derecho a la libertad de expresión.
Mientras tanto, Los analistas de datos críticos desafían las prácticas discriminatorias asociadas con lo que ellos llaman el "problema de los blancos" de la IA. Esta es la preocupación de que los sistemas de inteligencia artificial entrenados con datos existentes reproduzcan los estereotipos raciales y de género existentes que perpetúan las prácticas discriminatorias en áreas como la policía, decisiones judiciales o laborales.
Bots ambiguos
La amenaza potencial de las tecnologías computacionales para los derechos humanos y los La seguridad política y digital se destacó en un estudio publicado recientemente sobre El uso malicioso de la inteligencia artificial. Las preocupaciones expresadas en este informe de la Universidad de Cambridge deben tomarse en serio. Pero, ¿cómo debemos lidiar con estas amenazas? ¿Están los derechos humanos preparados para la era de la robótica y la IA?
Se están realizando esfuerzos para actualizar los principios de derechos humanos existentes para esta era. Estos incluyen los Principios Rectores y Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos, intenta escribir una Carta Magna para la era digital y los principios de inteligencia artificial de Asilomar del Future of Life Institute, que identifican pautas para la investigación ética, adhesión a los valores y compromiso con el desarrollo benéfico a largo plazo de la IA.
Estos esfuerzos son encomiables pero no suficientes. Gobiernos y agencias gubernamentales, partidos políticos y corporaciones privadas, especialmente las empresas tecnológicas líderes, debe comprometerse con los usos éticos de la IA. También necesitamos un control legislativo eficaz y exigible.
Independientemente de las nuevas medidas que introduzcamos, Es importante reconocer que nuestras vidas están cada vez más enredadas con máquinas autónomas y sistemas inteligentes. Este enredo mejora el bienestar humano en áreas como la investigación y el tratamiento médicos, en nuestro sistema de transporte, en entornos de atención social y en los esfuerzos por proteger el medio ambiente.
Pero en otras áreas, este enredo genera perspectivas preocupantes. Las tecnologías computacionales se utilizan para observar y rastrear nuestras acciones y comportamientos, sigue nuestros pasos, nuestra ubicación, nuestra salud, nuestros gustos y nuestras amistades. Estos sistemas dan forma al comportamiento humano y nos empujan hacia prácticas de autovigilancia que restringen nuestra libertad y socavan las ideas y los ideales de los derechos humanos.
Y aquí radica el quid:la capacidad de uso dual de tecnologías computacionales desdibuja la línea entre prácticas benéficas y maliciosas. Y lo que es más, Las tecnologías computacionales están profundamente implicadas en las relaciones de poder desiguales entre ciudadanos individuales, el estado y sus agencias, y corporaciones privadas. Si se desquicia de los sistemas nacionales e internacionales efectivos de controles y contrapesos, representan una amenaza real y preocupante para nuestros derechos humanos.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.