• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Las barreras de entrada para las mujeres se amplifican con la IA en los algoritmos de reclutamiento, hallazgos del estudio

    Crédito:Pixabay / CC0 Public Domain

    Los prejuicios de género humano que limitan las oportunidades de contratación de mujeres son imitados y exacerbados por la inteligencia artificial (IA) utilizada para clasificar los currículums. según una nueva investigación.

    El estudio, encargado por UniBank, analizaron cómo reaccionó un panel de 40 reclutadores humanos cuando se presentaron exactamente los mismos currículums con los géneros masculino y femenino intercambiados. Luego, el proceso se aplicó a diferentes algoritmos de contratación para ver si la IA replicaba los sesgos humanos.

    La investigación encontró que el panel de reclutamiento humano demostró los ejemplos más fuertes de sesgo no intencional, prefiriendo constantemente los currículums de los candidatos masculinos sobre los equivalentes femeninos.

    Coautora del informe e investigadora de políticas de género del Laboratorio de Políticas de la Universidad, La profesora asociada Leah Ruppanner dijo que sabemos que más mujeres que hombres han perdido su trabajo durante la pandemia.

    "Desafortunadamente, para roles de datos y finanzas, Nuestros panelistas humanos clasificaron los currículums de mujeres por debajo de los de los hombres, aunque tenían las mismas calificaciones y experiencia, "Dijo el profesor Ruppanner.

    Coautor del informe e investigador de ética digital del Centro de Inteligencia Artificial y Ética Digital (CAIDE), El Dr. Marc Cheong dijo que los investigadores desarrollaron algoritmos para replicar las preferencias del panel humano.

    Crédito:Universidad de Melbourne

    La investigación mostró que incluso los algoritmos básicos podrían imitar el sesgo de género humano subconsciente sin tener en cuenta los méritos de un candidato.

    "Incluso cuando se eliminaron los nombres de los candidatos, AI evaluó los currículums basados ​​en patrones históricos de contratación en los que las preferencias se inclinaban hacia los candidatos masculinos. Por ejemplo, dar ventaja a los candidatos con años de servicio continuo automáticamente perjudicaría a las mujeres que se han ausentado del trabajo por responsabilidades de cuidado, "Dijo el Dr. Cheong.

    "También, en el caso de IA más avanzadas que operan dentro de una "caja negra" sin transparencia ni supervisión humana, existe el peligro de que se amplifique cualquier cantidad de sesgo inicial ".

    Gerente General de UniBank, Mike Lanzing, dicho a medida que el uso de la inteligencia artificial se vuelve más común, Es importante comprender cómo los prejuicios existentes se alimentan de modelos supuestamente imparciales.

    Crédito:Universidad de Melbourne

    "Debemos tener cuidado de no revertir décadas de progreso hacia la independencia financiera y la seguridad de las mujeres reforzando actitudes obsoletas sobre el tipo de trabajo para el que están adaptadas las mujeres, ", Dijo el Sr. Lanzing.

    El informe sugirió una serie de medidas que podrían reducir el sesgo en estos procesos, incluidos programas de capacitación para profesionales de recursos humanos y la creación de algoritmos de contratación transparentes diseñados para reducir el sesgo de género.


    © Ciencia https://es.scienceaq.com