• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Son justos los algoritmos de contratación? Son demasiado opacos para decirlo hallazgos del estudio

    Crédito:CC0 Public Domain

    El tiempo es dinero y desafortunadamente para las empresas, La contratación de nuevos empleados lleva mucho tiempo:más de un mes en promedio. estudios muestran.

    Las decisiones de contratación también están plagadas de prejuicios humanos, lo que lleva a algunas organizaciones a entregar al menos parte de las búsquedas de sus empleados a empresas de tecnología externas que seleccionan a los solicitantes con algoritmos de aprendizaje automático. Si los humanos tienen tantas dificultades para encontrar la mejor opción para sus empresas, el pensamiento va tal vez una máquina pueda hacerlo mejor y de manera más eficiente.

    Pero una nueva investigación de un equipo de académicos de informática y ciencias de la información en la Universidad de Cornell plantea preguntas sobre esos algoritmos y las empresas de tecnología que los desarrollan y utilizan:¿Qué tan imparcial es el proceso de selección automatizado? ¿Cómo se construyen los algoritmos? Y por quien hacia que fin, y con que datos

    Descubrieron que las empresas tienden a favorecer la oscuridad sobre la transparencia en este campo emergente, donde la falta de consenso sobre los puntos fundamentales —definiciones formales de "sesgo" y "equidad, "para empezar, han permitido a las empresas de tecnología definir y abordar el sesgo algorítmico en sus propios términos.

    "Creo que estamos comenzando a ver un reconocimiento cada vez mayor entre los creadores de herramientas de toma de decisiones algorítmicas de que necesitan ser particularmente conscientes de cómo sus herramientas impactan a las personas, "dijo Manish Raghavan, estudiante de doctorado en informática y primer autor de "Mitigating Bias in Algorithmic Employment Screening:Evaluating Claims and Practices", "que se presentará en enero en la Conferencia de Equidad de la Asociación de Maquinaria de Computación, Rendición de cuentas y transparencia.

    "Muchos de los proveedores que encontramos en nuestro trabajo reconocen este (impacto) y están tomando medidas para abordar el sesgo y la discriminación, "Raghavan dijo." Sin embargo, hay una notable falta de consenso o dirección sobre cómo se debe hacer esto exactamente ".

    Los investigadores analizaron la información pública disponible para comenzar a comprender estas herramientas y qué medidas, Si alguna, las empresas han implementado para evaluar y mitigar el sesgo algorítmico. Protegido por las leyes de propiedad intelectual, las empresas de tecnología no tienen que revelar ninguna información sobre sus modelos algorítmicos para las evaluaciones previas al empleo, aunque algunas empresas optaron por ofrecer información.

    Los investigadores se centraron en 19 proveedores que se especializan en evaluaciones algorítmicas previas al empleo, cuales, ellos encontraron, incluir preguntas, video entrevistas análisis y juegos. Peinaron los sitios web de la empresa, seminarios web y cualquier documento disponible para obtener información sobre las afirmaciones y prácticas de los proveedores.

    Muy pocos proveedores ofrecen información concreta sobre cómo validan sus evaluaciones o divulgan detalles sobre cómo mitigan el sesgo algorítmico. los investigadores encontraron.

    "Muchos proveedores no mencionan los esfuerzos para combatir los prejuicios, lo cual es particularmente preocupante ya que o no están pensando en eso en absoluto, o no están siendo transparentes sobre sus prácticas, "Dijo Raghavan.

    Incluso si utilizan términos como "sesgo" y "equidad, "Estos pueden ser vagos. Un proveedor puede afirmar que su algoritmo de evaluación es" justo "sin revelar cómo la empresa define la equidad.

    Es como huevos "de gallinas camperas", Raghavan dijo:Hay un conjunto de condiciones bajo las cuales los huevos pueden etiquetarse como gallinas camperas, pero nuestra noción intuitiva de rango libre puede no coincidir con esas condiciones.

    "Del mismo modo, Llamar a un algoritmo 'justo' apela a nuestra comprensión intuitiva del término mientras solo logra un resultado mucho más limitado de lo que podríamos esperar, " él dijo.

    El equipo espera que el documento fomente la transparencia y la conversación sobre lo que significa actuar de forma ética en este dominio de las evaluaciones previas al empleo a través del aprendizaje automático.

    Dados los desafíos, ¿Podría ser que los algoritmos no estén a la altura de la tarea de seleccionar a los solicitantes? No tan rapido, Dijo Raghavan.

    "Sabemos por años de evidencia empírica que los seres humanos sufren de una variedad de sesgos cuando se trata de evaluar candidatos a empleo, ", dijo." La verdadera cuestión no es si los algoritmos pueden perfeccionarse; en lugar de, la comparación relevante es si pueden mejorar con respecto a métodos alternativos, o en este caso, el status quo humano.

    "A pesar de sus muchos defectos, " él dijo, "los algoritmos tienen el potencial de contribuir a una sociedad más equitativa, y se necesita más trabajo para garantizar que podamos comprender y mitigar los sesgos que traen ".

    Los coautores del artículo son Solon Barocas, profesor asistente de ciencias de la información, actualmente en Microsoft Research; Jon Kleinberg, Catedrático de Ciencias de la Computación de la Universidad Tisch y decano interino del CIS; y Karen Levy, profesor asistente de ciencias de la información.


    © Ciencia https://es.scienceaq.com