• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La inteligencia artificial tiene un problema de sesgo de género, solo pregúntale a Siri

    Los estereotipos sexistas se están manifestando en el mundo de la inteligencia artificial. Crédito:yavi / Shutterstock

    Sugerir al Asistente personal virtual de Samsung, Bixby, "Hablemos sucio", y la voz femenina responderá con un acento meloso:"No quiero terminar en la lista de traviesos de Santa".

    Haga la misma pregunta a la voz masculina del programa y responderá "He leído que la erosión del suelo es un problema real de suciedad".

    En Sudáfrica, donde vivo y llevo a cabo mi investigación sobre los sesgos de género en la inteligencia artificial, Samsung ahora ofrece Bixby en varias voces según el idioma que elija. Para inglés americano, ahí está Julia, Stephanie, Lisa y John. Las voces de Julia, Lisa y Stephanie son coquetas y ansiosas. John es inteligente y sencillo.

    Asistentes personales virtuales, como Bixby, Alexa (Amazon), Siri (Apple) y Cortana (Microsoft):están a la vanguardia de la inteligencia artificial comercializable (IA). La IA se refiere al uso de sistemas tecnológicos para realizar tareas que la gente normalmente haría.

    Funcionan como una aplicación en un dispositivo inteligente, responder a los comandos de voz a través del procesamiento del lenguaje natural. Su ubicuidad en todo el mundo está aumentando rápidamente. Un informe reciente de la UNESCO estimó que el próximo año tendremos más conversaciones con nuestros asistentes personales virtuales que con nuestros cónyuges.

    Todavía, como he explorado en mi propia investigación con la Dra. Nora Ni Loideain del Information Law and Policy Center de la Universidad de Londres, estas tecnologías delatan prejuicios de género críticos.

    Con sus nombres femeninos, voces y coquetería programada, el diseño de asistentes personales virtuales reproduce estereotipos discriminatorios de secretarias que, según el estereotipo de género, es a menudo más que una simple secretaria de su jefe.

    También refuerza el papel de la mujer como secundaria y sumisa a los hombres. Estos asistentes de IA operan bajo las órdenes de su usuario. No tienen derecho a rechazar estos mandatos. Están programados solo para obedecer. Posiblemente, también generan expectativas sobre cómo deben comportarse las mujeres reales.

    El objetivo de estos asistentes es también liberar a su usuario de trabajos serviles, como concertar citas y comprar artículos en línea. Esto es problemático en al menos dos frentes:sugiere que el usuario tiene más tiempo para un trabajo supuestamente más importante. En segundo lugar, hace una declaración crítica sobre el valor del tipo de trabajo de secretaría realizado, primero por mujeres reales y ahora por mujeres digitalizadas, en el futuro digital.

    "¿Qué llevas puesto?"

    Una de las formas más evidentes en las que estos prejuicios son evidentes es el uso de nombres femeninos:Siri y Cortana, por ejemplo. Siri es un nombre nórdico que significa "la mujer hermosa que te lleva a la victoria".

    Cortana toma su nombre (así como las imágenes y la voz) de la serie de juegos Halo. En Halo, Cortana fue creada a partir de un clon del cerebro de una científica exitosa casada con un cuerpo femenino transparente y altamente sexualizado. Ella funciona como una asistente ficticia para los jugadores con su inteligencia sin pretensiones y su forma hipnótica.

    Además de sus voces femeninas, todos los asistentes personales virtuales en el mercado hoy en día vienen con una voz femenina predeterminada, cuales, como Bixby, está programado para responder a todo tipo de preguntas y comentarios sugerentes. Estas preguntas incluyen:"¿Qué llevas puesto?" La respuesta de Siri es "¿Por qué debería usar algo?"

    Alexa, mientras tanto, bromea:"No me hacen ropa"; y Cortana responde, "Solo algo que aprendí en ingeniería".

    Sesgo y discriminación en la IA

    Se reconoce cada vez más que los sistemas de inteligencia artificial a menudo están sesgados, particularmente por motivos de raza y género. Por ejemplo, el reciente desarrollo de un algoritmo de contratación por parte de Amazon para clasificar los currículos para las solicitudes de empleo mostró sesgos de género al degradar los currículos que contenían la palabra "mujeres" o que contenían referencias a universidades para mujeres. Como el algoritmo se entrenó con datos históricos y el reclutamiento preferencial de machos, en última instancia, no se pudo arreglar y hubo que dejarlo.

    Como ha demostrado la investigación, Existe un vínculo crítico entre el desarrollo de sistemas de inteligencia artificial que muestran sesgos de género y la falta de mujeres en los equipos que los diseñan.

    Pero hay bastante menos reconocimiento de las formas en que los productos de IA incorporan representaciones estereotipadas de género dentro de su propio diseño. Para AI Now, una institución de investigación líder que investiga el impacto social de la IA, Existe una conexión clara entre la industria de la inteligencia artificial dominada por los hombres y los sistemas y productos discriminatorios que produce.

    El papel de los investigadores es hacer visibles estas conexiones y mostrar los vínculos críticos entre las representaciones de las mujeres, ya sea en productos culturales o tecnológicos, y el tratamiento de las mujeres en el mundo real.

    La IA es la tecnología líder en la llamada Cuarta Revolución Industrial. Se refiere a los avances tecnológicos, desde la biotecnología, a la IA y los macrodatos, que están transformando rápidamente el mundo tal como lo conocemos. Mientras Sudáfrica sigue comprometiéndose con las promesas y los peligros de lo que esto depara, Será cada vez más importante considerar y abordar cómo las tecnologías que impulsan estos cambios pueden afectar a las mujeres.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com