Crédito:Pixabay/CC0 Dominio público
Los investigadores han encontrado una mejor manera de reducir el sesgo de género en los modelos de procesamiento del lenguaje natural al tiempo que preservan información vital sobre el significado de las palabras, según un estudio reciente que podría ser un paso clave para abordar el problema de los sesgos humanos que se infiltran en la inteligencia artificial.
Si bien una computadora en sí misma es una máquina imparcial, gran parte de los datos y la programación que fluye a través de las computadoras son generados por humanos. Esto puede ser un problema cuando los sesgos humanos conscientes o inconscientes terminan reflejándose en las muestras de texto que los modelos de IA usan para analizar y "comprender" el lenguaje.
Las computadoras no pueden entender el texto de inmediato, explica Lei Ding, primer autor del estudio y estudiante graduado en el Departamento de Ciencias Matemáticas y Estadísticas. Necesitan que las palabras se conviertan en un conjunto de números para entenderlas, un proceso llamado incrustación de palabras.
"El procesamiento del lenguaje natural consiste básicamente en enseñar a las computadoras a comprender textos e idiomas", dice Bei Jiang, profesor asociado del Departamento de Ciencias Matemáticas y Estadísticas.
Una vez que los investigadores dan este paso, pueden trazar palabras como números en un gráfico 2D y visualizar las relaciones de las palabras entre sí. Esto les permite comprender mejor el alcance del sesgo de género y, más tarde, determinar si el sesgo se eliminó efectivamente.
Todo el significado, nada de prejuicios
Aunque otros intentos de reducir o eliminar el sesgo de género en los textos han tenido éxito hasta cierto punto, el problema con esos enfoques es que el sesgo de género no es lo único que se elimina de los textos.
"En muchos métodos de reducción de sesgo de género, cuando reducen el sesgo en un vector de palabra, también reducen o eliminan información importante sobre la palabra", explica Jiang. Este tipo de información se conoce como información semántica y ofrece datos contextuales importantes que podrían ser necesarios en tareas futuras que involucren esas incrustaciones de palabras.
Por ejemplo, cuando se considera una palabra como "enfermera", los investigadores quieren que el sistema elimine cualquier información de género asociada con ese término y, al mismo tiempo, conserve la información que lo vincula con palabras relacionadas, como médico, hospital y medicina.
"Necesitamos preservar esa información semántica", dice Ding. "Sin él, las incrustaciones tendrían un rendimiento muy bajo [en tareas y sistemas de procesamiento de lenguaje natural]".
Rápido, preciso y justo
La nueva metodología también superó a los principales métodos de eliminación de sesgo en varias tareas que se evaluaron en función de la incrustación de palabras.
A medida que se refina, la metodología podría ofrecer un marco flexible que otros investigadores podrían aplicar a sus propias incrustaciones de palabras. Siempre que un investigador tenga orientación sobre el grupo correcto de palabras a usar, la metodología podría usarse para reducir el sesgo relacionado con cualquier grupo en particular.
Si bien en esta etapa la metodología aún requiere el aporte del investigador, Ding explica que en el futuro puede ser posible tener algún tipo de sistema o filtro incorporado que pueda eliminar automáticamente el sesgo de género en una variedad de contextos.
Publicado en las Actas de la Conferencia AAAI sobre Inteligencia Artificial , la nueva metodología es parte de un proyecto más amplio, titulado BIAS:IA responsable para la igualdad de género y en el mercado laboral étnico, que busca resolver problemas del mundo real.
Por ejemplo, las personas que leen el mismo anuncio de trabajo pueden responder de manera diferente a determinadas palabras de la descripción que a menudo tienen una asociación de género. Un sistema que utilice la metodología creada por Ding y sus colaboradores sería capaz de marcar las palabras que pueden cambiar la percepción del puesto de un candidato potencial o la decisión de postularse debido al sesgo de género percibido, y sugerir palabras alternativas para reducir este sesgo.
Aunque muchos modelos y sistemas de IA se centran en encontrar formas de realizar tareas con mayor velocidad y precisión, Ding señala que el trabajo del equipo es parte de un campo en crecimiento que busca avanzar en otro aspecto importante de estos modelos y sistemas.
"La gente se está enfocando más en la responsabilidad y la equidad dentro de los sistemas de inteligencia artificial". Google se mueve para frenar el sesgo de género en la traducción