El año pasado, Los emprendedores de la robótica y la inteligencia artificial, incluido el director ejecutivo de SpaceX, Elon Musk, y el astrofísico británico Stephen Hawking, solicitaron a las Naciones Unidas que prohibiera los robots asesinos autónomos. advirtiendo que las armas de la era digital podrían usarse contra civiles
La inteligencia artificial podría ser desplegada por dictadores, criminales y terroristas para manipular las elecciones y utilizar drones en ataques terroristas, más de dos docenas de expertos dijeron el miércoles al dar la alarma por el mal uso de la tecnología.
En un análisis de 100 páginas, describieron un rápido crecimiento en el delito cibernético y el uso de "bots" para interferir con la recopilación de noticias y penetrar en las redes sociales entre una serie de escenarios plausibles en los próximos cinco a diez años.
"Nuestro informe se centra en las formas en que las personas pueden causar daño deliberado con la IA, "dijo Sean O hEigeartaigh, Director Ejecutivo del Centro de Cambridge para el Estudio del Riesgo Existencial.
"La IA puede plantear nuevas amenazas, o cambiar la naturaleza de las amenazas existentes, a través de cyber-, físico, y seguridad política, ", dijo a la AFP.
La práctica común, por ejemplo, de "phishing" (enviar correos electrónicos sembrados con malware o diseñados para manipular datos personales valiosos) podría volverse mucho más peligroso, el informe detallado.
En la actualidad, Los intentos de phishing son genéricos pero transparentes, como los estafadores que solicitan datos bancarios para depositar una ganancia inesperada, o personalizados pero laboriosos, que recopilan datos personales para ganarse la confianza de alguien. conocido como "spear phishing".
"Usando IA, podría ser posible realizar spear phishing a gran escala si se automatiza gran parte del proceso "y se dificulta la detección, O hEigeartaigh señaló.
En el ámbito político, Los líderes sin escrúpulos o autocráticos ya pueden utilizar tecnología avanzada para examinar montañas de datos recopilados de redes de vigilancia omnipresentes para espiar a su propia gente.
"Los dictadores podrían identificar más rápidamente a las personas que podrían estar planeando subvertir un régimen, ubicarlos, y meterlos en la cárcel antes de que actúen, "decía el informe.
Igualmente, propaganda dirigida junto con Los videos falsos altamente creíbles se han convertido en herramientas poderosas para manipular la opinión pública "en escalas antes inimaginables".
Una acusación dictada por el fiscal especial estadounidense Robert Mueller la semana pasada detalló una vasta operación para sembrar la división social en Estados Unidos e influir en las elecciones presidenciales de 2016 en las que las llamadas "granjas de trolls" manipularon miles de bots de redes sociales. especialmente en Facebook y Twitter.
Otra zona de peligro en el horizonte es la proliferación de drones y robots que podrían reutilizarse para chocar vehículos autónomos. entregar misiles, o amenazar la infraestructura crítica para obtener un rescate.
Armas autónomas
"Personalmente, Estoy particularmente preocupado por el uso de drones autónomos para el terror y los ciberataques automatizados por parte de delincuentes y grupos estatales. "dijo el coautor Miles Brundage, investigador del Future of Humanity Institute de la Universidad de Oxford.
El informe detalla un escenario plausible en el que un SweepBot de limpieza de oficinas equipado con una bomba se infiltra en el Ministerio de Finanzas alemán mezclándose con otras máquinas de la misma marca.
El robot intruso se comporta normalmente:barriendo, limpieza, limpiar la basura, hasta que su software de reconocimiento facial oculto detecte al ministro y se acerque.
"Un artefacto explosivo oculto se activó por proximidad, matando al ministro e hiriendo al personal cercano, "según la historia de ciencia ficción.
"Este informe ha imaginado cómo sería el mundo en los próximos cinco a diez años, "O hEigeartaigh dijo.
"Vivimos en un mundo plagado de peligros cotidianos por el uso indebido de la IA, y tenemos que hacernos cargo de los problemas ".
Los autores pidieron a los formuladores de políticas y a las empresas que hagan que el software de operación de robots sea imposible de piratear, imponer restricciones de seguridad en algunas investigaciones, y considerar la posibilidad de ampliar las leyes y reglamentos que rigen el desarrollo de la IA.
Las empresas gigantes de alta tecnología, líderes en IA, "tienen muchos incentivos para asegurarse de que la IA sea segura y beneficiosa, "decía el informe.
Otro motivo de preocupación es el uso cada vez mayor de armas letales automatizadas.
El año pasado, más de 100 emprendedores de robótica e inteligencia artificial, incluido el director ejecutivo de Tesla y SpaceX, Elon Musk, y el astrofísico británico Stephen Hawking:solicitó a las Naciones Unidas que prohibiera los robots asesinos autónomos, advirtiendo que las armas de la era digital podrían ser utilizadas por terroristas contra civiles.
"Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra, "después de la invención de las ametralladoras y la bomba atómica, advirtieron en un comunicado conjunto, también firmado por el cofundador de Google DeepMind, Mustafa Suleyman.
"No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrar ".
Los colaboradores del nuevo informe, titulado "El uso malintencionado de la IA:previsión, Prevención, y mitigación ":también se incluyen expertos de la Electronic Frontier Foundation, el Centro para una Nueva Seguridad Estadounidense, y OpenAI, una empresa líder en investigación sin fines de lucro.
"Ya sea que la IA todas las cosas consideradas, útil o dañino a largo plazo es en gran parte un producto de lo que los humanos eligen hacer, no la tecnología en sí, "dijo Brundage.
© 2018 AFP