Izquierda:La persona sin parche se detecta con éxito. Derecha:se ignora a la persona que tiene el parche. Crédito:arXiv:1904.08653 [cs.CV]
Un trío de investigadores de la Universidad de KU Leuven en Bélgica descubrió que es posible confundir un sistema de inteligencia artificial imprimiendo una imagen determinada y sosteniéndola contra su cuerpo mientras el sistema de inteligencia artificial intenta identificarlos como seres humanos. Simen Thys, Wiebe Van Ranst y Toon Goedemé han escrito un artículo describiendo sus esfuerzos y lo han subido a la arXiv servidor de preimpresión. También publicaron un video en YouTube que muestra lo que lograron.
Para que un sistema de IA aprenda algo, como identificar objetos (incluidos seres humanos) en una escena, debe ser entrenado; el entrenamiento implica mostrarle miles de objetos que encajan en categorías dadas hasta que surjan patrones generales. Pero como ha sugerido una investigación previa, estos sistemas a veces pueden confundirse si se les presenta algo para lo que no fueron entrenados para ver. En este caso, una imagen en 2D de personas sosteniendo sombrillas de colores. Estas imágenes engañosas de la IA se conocen como parches adversarios.
A medida que los sistemas de IA se vuelven más precisos y sofisticados, los gobiernos y las corporaciones han comenzado a usarlos para aplicaciones del mundo real. Una aplicación muy conocida utilizada por los gobiernos es la detección de personas que podrían causar problemas. Estos sistemas están entrenados para reconocer la forma humana; una vez que eso sucede, se puede activar un sistema de reconocimiento facial. Investigaciones recientes han demostrado que los usuarios que usan anteojos especialmente diseñados pueden engañar a los sistemas de reconocimiento facial. Y ahora parece que los sistemas de IA de detección de humanos pueden ser engañados por imágenes colocadas frente a sus formas.
En su intento de engañar a un sistema de IA de reconocimiento humano en particular llamado YoLo (v2), los investigadores crearon o editaron varios tipos de imágenes que luego probaron con el sistema de IA hasta que encontraron una que funcionó particularmente bien:una imagen de personas sosteniendo paraguas de colores. que había sido alterado girándolo y agregando ruido. Para engañar al sistema de IA, la fotografía se mantuvo en una posición que ocupaba la caja que construyó el sistema de inteligencia artificial para determinar si un objeto dado era identificable.
Los investigadores demostraron la efectividad de su parche adversario al crear un video que mostraba las cajas dibujadas por el sistema de IA cuando encontraba objetos en su campo de visión y luego les colocaba etiquetas de identificación. Sin el parche, el sistema identificaba muy fácilmente a las personas en el video como seres humanos, pero si uno de ellos sostenía el parche sobre su sección media, el sistema de inteligencia artificial ya no pudo detectar su presencia.
© 2019 Science X Network