Crédito:CC0 Public Domain
El aprendizaje automático, una forma de inteligencia artificial basada en la idea de que las computadoras pueden aprender de los datos y tomar decisiones con poca ayuda de los humanos, tiene el potencial de mejorar nuestras vidas de innumerables formas. Desde vehículos autónomos hasta mamografías que pueden leerse por sí mismas, el aprendizaje automático está transformando la vida moderna.
Es fácil asumir que el uso de algoritmos para la toma de decisiones elimina el sesgo humano de la ecuación. Pero los investigadores han descubierto que el aprendizaje automático puede producir determinaciones injustas en ciertos contextos, como contratar a alguien para un trabajo. Por ejemplo, si los datos conectados al algoritmo sugieren que los hombres son más productivos que las mujeres, Es probable que la máquina "aprenda" esa diferencia y favorezca a los candidatos masculinos sobre las femeninas, falta el sesgo de la entrada. Y los gerentes pueden no detectar la discriminación de la máquina, pensando que una decisión automatizada es inherentemente neutral, resultando en prácticas de contratación injustas.
En un nuevo artículo publicado en Proceedings of the 35th Conference on Machine Learning, Becario postdoctoral de SFI Hajime Shimao y Junpei Komiyama, investigador asociado en la Universidad de Tokio, ofrecen una forma de garantizar la equidad en el aprendizaje automático. Han ideado un algoritmo que impone una restricción de equidad que evita el sesgo.
"Por lo tanto, digamos que la tasa de aprobación de tarjetas de crédito de [clientes] blancos y negros no puede diferir más del 20 por ciento. Con este tipo de restricción, nuestro algoritmo puede tomar eso y dar la mejor predicción para satisfacer la restricción, "Dice Shimao." Si quieres la diferencia del 20 por ciento, dile eso a nuestra máquina, y nuestra máquina puede satisfacer esa restricción ".
Esa capacidad de calibrar con precisión la restricción permite a las empresas asegurarse de que cumplen con las leyes federales de no discriminación. agrega Komiyama. El algoritmo del equipo "nos permite controlar estrictamente el nivel de equidad requerido en estos contextos legales, "Dice Komiyama.
Corregir el sesgo implica una compensación, aunque, Shimao y Komiyama notan en el estudio. Debido a que la restricción puede afectar la forma en que la máquina lee otros aspectos de los datos, puede sacrificar parte del poder predictivo de la máquina.
Shimao dice que le gustaría que las empresas utilicen el algoritmo para ayudar a erradicar la discriminación oculta que puede estar al acecho en sus programas de aprendizaje automático. "Nuestra esperanza es que sea algo que se pueda utilizar para evitar que las máquinas discriminen cuando sea necesario".