Crédito:Hannah Moore / Northeastern University
Al resolver cinco demandas diferentes a la vez, Facebook a principios de este año prometió cambiar la forma en que administra los anuncios de viviendas. empleo, y crédito que se ejecuta en su plataforma. Los anunciantes ya no podrían dirigirse a una audiencia por género, raza, o edad, con el fin de prevenir la discriminación de grupos legalmente protegidos.
Pero, nueva investigación realizada por un equipo de científicos informáticos, incluido el profesor del noreste Alan Mislove, muestra que el algoritmo que Facebook usa para entregar anuncios aún puede inclinarse hacia grupos demográficos específicos, a pesar de los cambios que realizó la empresa.
"Para ser claro, no acusamos a Facebook de violar el acuerdo, "dice Mislove, quien es profesor de ciencias de la computación en Northeastern. "Bastante, lo que muestra nuestra investigación es un algoritmo complejo en funcionamiento ".
Eso es porque los algoritmos, Mislove dice, actúan de manera muy diferente en la práctica que en la teoría.
En teoria, eliminar la capacidad de los anunciantes de dirigirse específicamente a personas por raza, género, y la edad debe resultar en audiencias publicitarias que incluyan una mezcla diversa de personas. En la práctica, El algoritmo de Facebook se basa en una miríada de otras características de sus usuarios que, en última instancia, sirven como representantes de la raza. género, y edad, Dice Mislove.
Este verano, Facebook presentó su función de audiencia de anuncios especiales, una herramienta de marketing para personas que promocionan anuncios que ofrecen crédito, empleo, o oportunidades de vivienda. Mientras que una empresa de ropa puede querer anunciarse directamente a hombres o mujeres, los dominios del crédito, empleo, y la vivienda tienen protección legal especial en los Estados Unidos para prevenir la discriminación.
Mislove trabajó con un equipo de investigadores que también incluía a los candidatos a doctorado del noreste, Piotr Sapiezynski y Avijit Ghosh, estudiante de pregrado Levi Kaplan, y un investigador de la organización de tecnología sin fines de lucro Upturn para probar la nueva función frente a su predecesora, llamada audiencia similar> .
Los investigadores utilizaron datos de votantes disponibles públicamente para crear audiencias que estaban intencionalmente sesgadas por la raza, género, la edad, y opiniones políticas, y los alimentó a las herramientas publicitarias nuevas y existentes para probar si el algoritmo correspondiente reproduciría cada sesgo.
Los resultados fueron sorprendentes:tanto las audiencias de anuncios similares como las de anuncios especiales replicaron los sesgos demográficos.
En una declaración a ProPublica, El portavoz de Facebook Joe Osborne dijo:"Hemos ido más allá de los demás para ayudar a prevenir la discriminación en los anuncios al restringir la orientación y agregar transparencia. Un anunciante decidido a discriminar a las personas puede hacerlo en cualquier medio en línea o fuera de línea en la actualidad, por eso existen las leyes ... Somos la única plataforma de medios digitales que realiza cambios tan significativos en los anuncios y estamos orgullosos de nuestro progreso ".
Mislove dice que los resultados ilustran la difícil tarea de garantizar la equidad en los algoritmos.
"En la práctica, un algoritmo recibe millones de entradas, cada uno de los cuales está correlacionado de otras formas con estas características protegidas, "Dice Mislove.
Información como a dónde fue a la universidad, Donde vives, qué páginas le han dado me gusta en Facebook, y más pueden servir inadvertidamente como indicadores sobre su raza, género, y la edad, y los algoritmos que se crean para optimizar los resultados pueden depender de dicha información para determinar quién es más probable que haga clic en un anuncio.
"A los algoritmos no les importa, "Mislove dice." Tienen un objetivo específico, y van a usar la combinación de características que resultarán en completar ese objetivo; no les importa si eso significa que están publicando anuncios de trabajos tecnológicos solo para hombres blancos de entre 18 y 24 años ".
Este es un complejo pero problema apremiante, Mislove dice, ya que los algoritmos sustentan cada vez más nuestras actividades diarias. Los algoritmos se utilizan para ayudar a tomar decisiones sobre la atención médica, solvencia crediticia, empleo, sentencia penal, direcciones de viaje, que musica escuchas, y una variedad vertiginosa de otras interacciones diarias.
Todos los actores de estos dominios "quieren la eficacia de los algoritmos, pero no todo el mundo está considerando las formas en las que podrían salir mal "Dice Mislove.
Cuando las cosas van mal la solución suele ser muy compleja.
"Es muy difícil en este momento, en el sentido de que las identidades protegidas [contra las cuales puede ocurrir la discriminación] realmente permean nuestra sociedad, "Mislove dice." Va a ser mucho más difícil y mucho más sutil que simplemente eliminar ciertas características desde el principio ".