• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Investigación:la IA está en peligro de volverse demasiado masculina

    Crédito:Shutterstock

    Los sistemas de inteligencia artificial (IA) son cada día más inteligentes, vencer a campeones del mundo en juegos como Go, identificar tumores en exploraciones médicas mejor que los radiólogos humanos, y el aumento de la eficiencia de los centros de datos que consumen mucha electricidad. Algunos economistas están comparando el potencial transformador de la IA con otras "tecnologías de propósito general" como la máquina de vapor, electricidad o el transistor.

    Pero los sistemas de IA actuales están lejos de ser perfectos. Tienden a reflejar los sesgos de los datos utilizados para capacitarlos y a colapsar cuando se enfrentan a situaciones inesperadas. Se pueden jugar como hemos visto con las controversias en torno a la desinformación en las redes sociales, contenido violento publicado en YouTube, o el famoso caso de Tay, el chatbot de Microsoft, que fue manipulado para hacer declaraciones racistas y sexistas en cuestión de horas.

    Entonces, ¿realmente queremos que estos sean propensos a sesgos? tecnologías frágiles en los cimientos de la economía del mañana?

    Minimizar el riesgo

    Una forma de minimizar los riesgos de la IA es aumentar la diversidad de los equipos involucrados en su desarrollo. Como sugiere la investigación sobre la toma de decisiones colectiva y la creatividad, los grupos que son cognitivamente más diversos tienden a tomar mejores decisiones. Desafortunadamente, esto está muy lejos de la situación en la comunidad que actualmente desarrolla sistemas de IA. Y la falta de diversidad de género es una dimensión importante (aunque no la única) de esto.

    Una revisión publicada por el AI Now Institute a principios de este año, mostró que menos del 20% de los investigadores que postulan a prestigiosas conferencias de IA son mujeres, y que solo una cuarta parte de los estudiantes universitarios que estudian IA en Stanford y la Universidad de California en Berkeley son mujeres.

    Los autores argumentaron que esta falta de diversidad de género da como resultado fallas de IA que afectan únicamente a las mujeres, como un sistema de contratación de Amazon que se demostró que discrimina a los solicitantes de empleo con nombres femeninos.

    Nuestro informe reciente, Diversidad de género en la investigación de IA, implicó un análisis de "macrodatos" de 1,5 millones de artículos en arXiv, un sitio web de preimpresiones ampliamente utilizado por la comunidad de IA para difundir su trabajo.

    Analizamos el texto de los resúmenes para determinar cuáles aplican técnicas de IA, dedujo el género de los autores a partir de sus nombres y estudió los niveles de diversidad de género en la IA y su evolución a lo largo del tiempo. También comparamos la situación en diferentes campos de investigación y países, y diferencias en el lenguaje entre artículos con coautores femeninos y artículos exclusivamente masculinos.

    Nuestro análisis confirma la idea de que existe una crisis de diversidad de género en la investigación de la IA. Solo el 13,8% de los autores de IA en arXiv son mujeres y, en términos relativos, la proporción de artículos de IA en coautoría por al menos una mujer no ha mejorado desde la década de 1990.

    Existen diferencias significativas entre países y campos de investigación. Encontramos una representación más fuerte de mujeres en la investigación de IA en los Países Bajos, Noruega y Dinamarca, y una menor representación en Japón y Singapur. También encontramos que las mujeres que trabajan en física, educación, Los aspectos biológicos y sociales de la informática tienen más probabilidades de publicar trabajos sobre IA en comparación con los que trabajan en ciencias de la computación o matemáticas.

    Además de medir la diversidad de género en la fuerza laboral de investigación de IA, también exploramos las diferencias semánticas entre trabajos de investigación con y sin participación femenina. Probamos la hipótesis de que los equipos de investigación con más diversidad de género tienden a aumentar la variedad de cuestiones y temas que se consideran en la investigación de IA. potencialmente haciendo que sus resultados sean más inclusivos.

    Para hacer esto, medimos la "firma semántica" de cada artículo mediante una técnica de aprendizaje automático llamada inserción de palabras, y comparó estas firmas entre artículos con al menos una autora y artículos sin autores mujeres.

    Este análisis, que se centra en el campo del aprendizaje automático y los aspectos sociales de la informática en el Reino Unido, mostró diferencias significativas entre los grupos. En particular, Descubrimos que los artículos con al menos una coautora femenina tienden a ser más aplicados y socialmente conscientes, con términos como "imparcialidad", "movilidad humana", "mental", "salud", el "género" y la "personalidad" juegan un papel clave. La diferencia entre los dos grupos es consistente con la idea de que la diversidad cognitiva tiene un impacto en la investigación producida, y sugiere que conduce a un mayor compromiso con los problemas sociales.

    Como arreglarlo

    Entonces, ¿qué explica esta persistente brecha de género en la investigación de la IA? ¿Y qué podemos hacer al respecto?

    La investigación muestra que la falta de diversidad de género en la ciencia, tecnología, La fuerza laboral de ingeniería y matemáticas (STEM) no es causada por un solo factor:los estereotipos de género y la discriminación, falta de modelos a seguir y mentores, atención insuficiente al equilibrio entre el trabajo y la vida personal, y los entornos de trabajo "tóxicos" en la industria de la tecnología se unen para crear una tormenta perfecta contra la inclusión de género.

    No existe una solución fácil para cerrar la brecha de género en la investigación de la IA. Cambios en todo el sistema destinados a crear espacios seguros e inclusivos que apoyen y promuevan a los investigadores de grupos subrepresentados, un cambio de actitudes y culturas en la investigación y la industria, y una mejor comunicación del potencial transformador de la IA en muchas áreas podría influir.

    Intervenciones de política, como la inversión de 13,5 millones de libras esterlinas del gobierno para impulsar la diversidad en los roles de IA a través de nuevos cursos de grado de conversión, contribuirá de alguna manera a mejorar la situación, pero se necesitan intervenciones a mayor escala para crear mejores vínculos entre las artes, humanidades e inteligencia artificial, cambiando la imagen de quién puede trabajar en IA.

    Si bien no hay una sola razón por la cual las niñas dejen de tomar asignaturas STEM de manera desproporcionada a medida que avanzan en la educación, Existe evidencia de que factores que incluyen los estereotipos generalizados en torno al género y un entorno de enseñanza que impacta la confianza de las niñas más que de los niños influyen en el problema. También debemos mostrar aquellos modelos a seguir que utilizan la IA para marcar una diferencia positiva.

    Una intervención tangible que busca abordar estos problemas es el Premio Longitude Explorer, que anima a los estudiantes de secundaria a utilizar la IA para resolver desafíos sociales y trabajar con modelos a seguir en IA. Queremos gente joven particularmente chicas, para darse cuenta del potencial de la IA para el bien y su papel en impulsar el cambio.

    Al desarrollar habilidades y confianza en las mujeres jóvenes, podemos cambiar la proporción de personas que estudian y trabajan en IA, y ayudar a abordar los posibles sesgos de la IA.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com