A veces, las preguntas se vuelven demasiado para los sistemas de inteligencia artificial. Crédito:sdecoret / Shutterstock.com
Los sistemas de inteligencia artificial son herramientas poderosas para que las empresas y los gobiernos procesen datos y respondan a situaciones cambiantes. ya sea en el mercado de valores o en el campo de batalla. Pero todavía hay algunas cosas para las que la IA no está preparada.
Somos estudiosos de la informática que trabajamos para comprender y mejorar las formas en que los algoritmos interactúan con la sociedad. Los sistemas de IA funcionan mejor cuando el objetivo es claro y hay datos de alta calidad, como cuando se les pide que distingan entre diferentes caras después de aprender de muchas imágenes de personas correctamente identificadas.
A veces, los sistemas de inteligencia artificial funcionan tan bien que los usuarios y observadores se sorprenden de lo perceptiva que es la tecnología. Sin embargo, a veces el éxito es difícil de medir o se define incorrectamente, o los datos de entrenamiento no coinciden con la tarea en cuestión. En estos casos, Los algoritmos de IA tienden a fallar de formas impredecibles y espectaculares, aunque no siempre es inmediatamente obvio que algo haya salido mal. Como resultado, Es importante desconfiar de la exageración y la emoción sobre lo que puede hacer la IA, y no asumir que la solución que encuentra es siempre correcta.
Cuando los algoritmos están en funcionamiento, debe haber una red de seguridad humana para evitar dañar a las personas. Nuestra investigación demostró que, en algunas situaciones, los algoritmos pueden reconocer problemas en su funcionamiento, y pide ayuda humana. Específicamente, mostramos, pedir ayuda humana puede ayudar a aliviar el sesgo algorítmico en algunos entornos.
¿Qué tan seguro es el algoritmo?
Los sistemas de inteligencia artificial se utilizan en las sentencias penales, perfiles de personalidad basados en el rostro, reanudar la proyección, inscripción en la atención médica y otras tareas difíciles en las que están en juego la vida y el bienestar de las personas. Las agencias gubernamentales de EE. UU. Están comenzando a acelerar su exploración y uso de sistemas de inteligencia artificial, en respuesta a una orden ejecutiva reciente del presidente Donald Trump.
Es importante recordar aunque, que la IA puede cimentar conceptos erróneos sobre cómo se aborda una tarea, o magnificar las desigualdades existentes. Esto puede suceder incluso cuando nadie le dijo al algoritmo explícitamente que tratara a nadie de manera diferente.
Por ejemplo, muchas empresas tienen algoritmos que intentan determinar las características de una persona por su rostro, por ejemplo, para adivinar su género. Los sistemas desarrollados por empresas estadounidenses tienden a clasificar mejor a los hombres blancos que a las mujeres y las personas de piel más oscura; lo hacen peor con las mujeres de piel oscura. Sistemas desarrollados en China, sin embargo, tienden a empeorar en las caras blancas.
La diferencia no se debe a que un grupo tenga rostros más fáciles de clasificar que otros. Bastante, Ambos algoritmos generalmente se entrenan en una gran colección de datos que no es tan diversa como la población humana en general. Si el conjunto de datos está dominado por un tipo particular de rostro:los hombres blancos en los EE. UU., y rostros chinos en China, entonces el algoritmo probablemente funcionará mejor para analizar esos rostros que otros.
Los datos de entrenamiento sesgados pueden mejorar los sistemas, o peor, al reconocer ciertos tipos de rostros. Crédito:Andrey_Popov / Shutterstock.com
No importa cómo surja la diferencia, el resultado es que los algoritmos pueden estar sesgados al ser más precisos en un grupo que en otro.
Mantener un ojo humano en la IA
Para situaciones de alto riesgo, la confianza del algoritmo en su propio resultado, su estimación de la probabilidad de que el sistema haya dado la respuesta correcta, es tan importante como el resultado en sí. Las personas que reciben el resultado de los algoritmos deben saber con qué seriedad deben tomarse los resultados, en lugar de asumir que es correcto porque involucró a una computadora.
Solo recientemente los investigadores han comenzado a desarrollar formas de identificar, mucho menos intento de arreglar, desigualdades en algoritmos y datos. Los algoritmos se pueden programar para reconocer sus propias deficiencias y seguir ese reconocimiento con una solicitud para que una persona lo ayude con la tarea.
Muchos tipos de algoritmos de inteligencia artificial ya calculan un nivel de confianza interno, una predicción de qué tan bien lo hizo al analizar una entrada en particular. En el análisis facial, Muchos algoritmos de IA tienen menos confianza en rostros más oscuros y rostros femeninos que en rostros masculinos blancos. No está claro hasta qué punto la policía ha tenido esto en cuenta para los usos más importantes de estos algoritmos.
El objetivo es que la IA localice las áreas donde no está alcanzando la misma precisión para diferentes grupos. En estas entradas, la IA puede remitir su decisión a un moderador humano. Esta técnica es especialmente adecuada para tareas con mucho contexto, como la moderación de contenido.
Los moderadores de contenido humano no pueden mantenerse al día con la avalancha de imágenes que se publican en los sitios de redes sociales. Pero la moderación de contenido de IA es famosa por no tener en cuenta el contexto detrás de una publicación:identificar erróneamente las discusiones sobre la orientación sexual como contenido explícito, o identificando la Declaración de Independencia como discurso de odio. Esto puede terminar censurando incorrectamente a un grupo demográfico o político sobre otro.
Para obtener lo mejor de ambos mundos, nuestra investigación sugiere puntuar todo el contenido de forma automatizada, utilizando los mismos métodos de IA que ya son comunes en la actualidad. Luego, nuestro enfoque utiliza técnicas recientemente propuestas para ubicar automáticamente las posibles desigualdades en la precisión del algoritmo en diferentes grupos de personas protegidas, y entregar las decisiones sobre ciertos individuos a un ser humano. Como resultado, el algoritmo puede ser completamente imparcial sobre las personas sobre las que realmente decide. Y los humanos deciden sobre aquellos individuos en los que la decisión algorítmica inevitablemente habría creado un sesgo.
Este enfoque no elimina el sesgo:simplemente "concentra" el potencial de sesgo en un conjunto más pequeño de decisiones, que luego son manejados por personas, usando el sentido común humano. La IA aún puede realizar la mayor parte del trabajo de toma de decisiones.
Esta es una demostración de una situación en la que un algoritmo de IA que trabaja junto con un humano puede cosechar los beneficios y la eficiencia de las buenas decisiones de la IA. sin estar encerrado en sus malos. Entonces, los humanos tendrán más tiempo para trabajar en el borroso, decisiones difíciles que son fundamentales para garantizar la justicia y la equidad.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.