• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El género es personal, no computacional

    ¿Debería un algoritmo intentar adivinar de qué género son las personas por su apariencia? Crédito:all_is_magic / Shutterstock.com

    Imagínese caminando por la calle y viendo que las pantallas publicitarias cambian su contenido en función de cómo camina, como hablas o incluso la forma de tu pecho. Estas pantallas se basan en cámaras ocultas, micrófonos y computadoras para adivinar si eres hombre o mujer. Esto puede sonar futurista pero los clientes de una pizzería noruega descubrieron que era exactamente lo que estaba sucediendo:las mujeres veían anuncios de ensaladas y los hombres veían anuncios de opciones de carne. El software que ejecuta un tablero de publicidad digital derramó los granos cuando se bloqueó y mostró su código subyacente. La motivación detrás del uso de esta tecnología podría haber sido mejorar la calidad de la publicidad o la experiencia del usuario. Sin embargo, muchos clientes quedaron desagradablemente sorprendidos por ella.

    Este tipo de situación no solo es espeluznante e invasiva. Es peor:los esfuerzos por el reconocimiento automático del género:el uso de algoritmos para adivinar el género de una persona en función de las imágenes, vídeo o audio:plantean importantes preocupaciones sociales y éticas que aún no se han explorado por completo. La mayor parte de la investigación actual sobre tecnologías de reconocimiento automático de género se centra en cambio en los detalles tecnológicos.

    Nuestra investigación reciente encontró que las personas con diversas identidades de género, incluidos aquellos que se identifican como transgénero o de género no binario, están particularmente preocupados de que estos sistemas puedan categorizarlos incorrectamente. Las personas que expresan su género de manera diferente a las normas estereotipadas masculinas y femeninas ya experimentan discriminación y daño como resultado de ser mal categorizadas o incomprendidas. Idealmente, Los diseñadores de tecnología deben desarrollar sistemas para hacer que estos problemas sean menos comunes, no más.

    Usar algoritmos para clasificar personas

    A medida que las tecnologías digitales se vuelven más poderosas y sofisticadas, sus diseñadores están tratando de utilizarlos para identificar y categorizar características humanas complejas, como la orientación sexual, género y etnia. La idea es que con suficiente formación sobre abundantes datos de usuario, Los algoritmos pueden aprender a analizar la apariencia y el comportamiento de las personas, y tal vez algún día caracterizar a las personas y, o incluso mejor que, otros humanos lo hacen.

    El género es un tema difícil de manejar para la gente. Es un concepto complejo con roles importantes tanto como una construcción cultural como un aspecto central de la identidad de un individuo. Investigadores académicos y activistas están revelando cada vez más la diversidad, aspectos fluidos y multifacéticos del género. En el proceso, descubren que ignorar esta diversidad puede conducir tanto a experiencias dañinas como a injusticia social. Por ejemplo, según la Encuesta Nacional Transgénero de 2016, El 47 por ciento de los participantes transgénero declararon que habían experimentado alguna forma de discriminación en su lugar de trabajo debido a su identidad de género. Más de la mitad de las personas transgénero que fueron acosadas, agredidos o expulsados ​​por su identidad de género habían intentado suicidarse.

    Mucha gente tiene en un momento u otro, sorprendido o confundidos o incluso enojados al verse confundidos con una persona de otro género. Cuando eso le sucede a alguien que es transgénero, se estima que el 0,6 por ciento de los estadounidenses, o 1,4 millones de personas, son:puede causar un estrés y ansiedad considerables.

    Efectos del reconocimiento automático de género

    En nuestra investigación reciente, entrevistamos a 13 personas transgénero y no conformes con el género, sobre sus impresiones generales de la tecnología de reconocimiento automático de género. También les pedimos que describieran sus respuestas a escenarios futuros imaginarios en los que podrían encontrarlo. Los 13 participantes estaban preocupados por esta tecnología y dudaban de que pudiera ofrecer algún beneficio a su comunidad.

    De particular preocupación era la posibilidad de ser confundidos con él; en su experiencia, el género es en gran medida un característica subjetiva, no es algo que se exprese necesaria o totalmente exteriormente. Por lo tanto, ni los humanos ni los algoritmos pueden leer con precisión el género a través de características físicas, como la cara, cuerpo o voz.

    Cómo funciona el aprendizaje automático.

    Describieron cómo el hecho de que los algoritmos los miseren potencialmente podría sentirse peor que si los humanos lo hicieran. A menudo se percibe o se cree que la tecnología es objetiva e imparcial, por lo que ser categorizado incorrectamente por un algoritmo enfatizaría la idea errónea de que una identidad transgénero no es auténtica. Un participante describió cómo se sentirían heridos si un "software de un millón de dólares desarrollado por muchas personas" decidiera que no son quienes ellos mismos creen que son.

    Privacidad y transparencia

    Las personas que entrevistamos compartieron la preocupación pública común de que las cámaras automáticas podrían usarse para vigilancia sin su consentimiento o conocimiento; durante años, Los investigadores y activistas han levantado banderas rojas sobre las crecientes amenazas a la privacidad en un mundo poblado por sensores y cámaras.

    Pero nuestros participantes describieron cómo los efectos de estas tecnologías podrían ser mayores para las personas transgénero. Por ejemplo, pueden ser señalados como inusuales porque se ven o se comportan de manera diferente a lo que esperan los algoritmos subyacentes. A algunos participantes incluso les preocupaba que los sistemas pudieran determinar falsamente que estaban tratando de ser otra persona y engañar al sistema.

    Sus preocupaciones también se extendieron a las personas cisgénero que podrían verse o actuar de manera diferente a la mayoría. como personas de diferentes razas, personas que los algoritmos perciben como andróginos, y personas con estructuras faciales únicas. Esto ya les sucede a personas de orígenes raciales y étnicos minoritarios, que suelen ser identificados erróneamente por la tecnología de reconocimiento facial. Por ejemplo, La tecnología de reconocimiento facial existente en algunas cámaras no detecta correctamente los rostros de los usuarios asiáticos y envía mensajes para que dejen de parpadear o abran los ojos.

    Nuestros entrevistados querían saber más sobre cómo funcionan los sistemas automáticos de reconocimiento de género y para qué se utilizan. No querían conocer detalles técnicos profundos, pero quería asegurarse de que la tecnología no comprometiera su privacidad o identidad. También querían que más personas transgénero participaran en las primeras etapas de diseño y desarrollo de estos sistemas. mucho antes de que se implementen.

    Creando sistemas automáticos inclusivos

    Nuestros resultados demuestran cómo los diseñadores de tecnologías de categorización automática pueden causar daño inadvertidamente al hacer suposiciones sobre la simplicidad y la previsibilidad de las características humanas. Nuestra investigación se suma a un creciente cuerpo de trabajo que intenta incorporar más cuidadosamente el género en la tecnología.

    Históricamente, las minorías se han mantenido al margen de las conversaciones sobre el despliegue de tecnología a gran escala, incluidas las minorías étnicas y las personas con discapacidad. Todavía, Tanto los científicos como los diseñadores saben que incluir aportaciones de grupos minoritarios durante el proceso de diseño puede conducir a innovaciones técnicas que beneficien a todas las personas. Abogamos por un enfoque de automatización más inclusivo en términos de género y centrado en el ser humano que incorpore diversas perspectivas.

    A medida que las tecnologías digitales se desarrollan y maduran, pueden conducir a innovaciones impresionantes. Pero como los humanos dirigen ese trabajo, deben evitar amplificar los prejuicios y prejuicios humanos que son negativos y limitantes. En el caso del reconocimiento automático de género, no necesariamente concluimos que estos algoritmos deban abandonarse. Bastante, Los diseñadores de estos sistemas deben incluir, y sensible a, la diversidad y complejidad de la identidad humana.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com