Los algoritmos ayudan a las personas a ver y corregir sus prejuicios, según muestra un estudio
Los algoritmos podrían servirle como espejos para comprobar sus sesgos. Crédito:Unsplash/CC0 Dominio público
Los algoritmos son un elemento básico de la vida moderna. La gente confía en recomendaciones algorítmicas para explorar catálogos profundos y encontrar las mejores películas, rutas, información, productos, personas e inversiones. Debido a que las personas entrenan algoritmos para sus decisiones (por ejemplo, algoritmos que hacen recomendaciones en sitios de comercio electrónico y redes sociales), los algoritmos aprenden y codifican los prejuicios humanos.
Las recomendaciones algorítmicas muestran un sesgo hacia las elecciones populares y la información que provoca indignación, como las noticias partidistas. A nivel social, los sesgos algorítmicos perpetúan y amplifican el sesgo racial estructural en el sistema judicial, el sesgo de género en las personas que contratan las empresas y la desigualdad de riqueza en el desarrollo urbano.
El sesgo algorítmico también se puede utilizar para reducir el sesgo humano. Los algoritmos pueden revelar sesgos estructurales ocultos en las organizaciones. En un artículo publicado en las Proceedings of the National Academy of Science , mis colegas y yo descubrimos que el sesgo algorítmico puede ayudar a las personas a reconocer y corregir mejor sus sesgos en sí mismas.
El prejuicio en el espejo
En nueve experimentos, Begum Celikitutan, Romain Cadario y yo hicimos que los participantes de la investigación calificaran a los conductores de Uber o a los anuncios de Airbnb según su habilidad para conducir, su confiabilidad o la probabilidad de que alquilaran el anuncio. Les dimos a los participantes detalles relevantes, como la cantidad de viajes que habían realizado, una descripción de la propiedad o una calificación de estrellas. También incluimos información sesgada e irrelevante:una fotografía revelaba la edad, el sexo y el atractivo de los conductores, o un nombre que implicaba que los anfitriones de la lista eran blancos o negros.
Después de que los participantes hicieron sus calificaciones, les mostramos uno de dos resúmenes de calificaciones:uno que muestra sus propias calificaciones o otro que muestra las calificaciones de un algoritmo que fue entrenado en base a sus calificaciones. Les informamos a los participantes sobre la característica de sesgo que podría haber influido en estas calificaciones; por ejemplo, que es menos probable que los huéspedes de Airbnb alquilen a anfitriones con nombres claramente afroamericanos. Luego les pedimos que juzgaran cuánta influencia tenía el sesgo en las calificaciones de los resúmenes.
Ya sea que los participantes evaluaran la influencia sesgada de la raza, la edad, el género o el atractivo, vieron más sesgos en las calificaciones realizadas por algoritmos que ellos mismos. Este efecto espejo algorítmico se mantuvo tanto si los participantes juzgaban las calificaciones de algoritmos reales como si les mostrábamos a los participantes sus propias calificaciones y les decíamos engañosamente que un algoritmo hizo esas calificaciones.
Información de la revista: Actas de la Academia Nacional de Ciencias
Proporcionado por The Conversation
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.