• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los investigadores dicen que la tecnología de detección de rostros de Amazon muestra sesgo

    Crédito:CC0 Public Domain

    La tecnología de detección facial que Amazon comercializa para las fuerzas del orden a menudo identifica erróneamente a las mujeres. particularmente aquellos con piel más oscura, según investigadores del MIT y la Universidad de Toronto.

    Los defensores de la privacidad y los derechos civiles han pedido a Amazon que deje de comercializar su servicio Rekognition debido a preocupaciones sobre la discriminación contra las minorías. Algunos inversionistas de Amazon también le han pedido a la compañía que se detenga por temor a que Amazon sea vulnerable a las demandas.

    Los investigadores dijeron que en sus pruebas, La tecnología de Amazon etiquetaba a las mujeres de piel más oscura como hombres el 31 por ciento de las veces. Las mujeres de piel más clara fueron identificadas erróneamente el 7 por ciento de las veces. Los hombres de piel más oscura tenían una tasa de error del 1 por ciento, mientras que los hombres de piel más clara no tenían ninguno.

    La inteligencia artificial puede imitar los prejuicios de sus creadores humanos a medida que se abren camino en la vida cotidiana. El nuevo estudio, lanzado el jueves por la noche, advierte sobre el potencial de abuso y amenazas a la privacidad y las libertades civiles de la tecnología de detección facial.

    Matt Wood, gerente general de inteligencia artificial de la unidad de computación en la nube de Amazon, dijo que el estudio utiliza un "análisis facial" y no una tecnología de "reconocimiento facial". Wood dijo que el análisis facial "puede detectar rostros en videos o imágenes y asignar atributos genéricos como usar anteojos; el reconocimiento es una técnica diferente mediante la cual un rostro individual se compara con rostros en videos e imágenes".

    En una publicación del viernes en el sitio web de Medium, Joy Buolamwini, investigadora del MIT Media Lab, respondió que las empresas deberían verificar todos los sistemas que analizan rostros humanos en busca de sesgos.

    "Si vende un sistema que ha demostrado tener sesgos en los rostros humanos, es dudoso que sus otros productos basados ​​en la cara también estén completamente libres de sesgos, " ella escribió.

    La reacción de Amazon muestra que no se está tomando en serio las "preocupaciones realmente graves reveladas por este estudio, "dijo Jacob Snow, abogado de la Unión Estadounidense de Libertades Civiles.

    Buolamwini e Inioluwa Deborah Raji, de la Universidad de Toronto, dijeron que estudiaron la tecnología de Amazon porque la compañía la comercializó para las fuerzas del orden. La cuenta de LinkedIn de Raji dice que actualmente es una aprendiz de investigación de inteligencia artificial en Google, que compite con Amazon en la oferta de servicios de computación en la nube.

    Buolamwini y Raji dicen que Microsoft e IBM han mejorado su tecnología de reconocimiento facial desde que los investigadores descubrieron problemas similares en un estudio de mayo de 2017. Su segundo estudio, que incluía Amazon, se realizó en agosto de 2018. Su artículo se presentará el lunes en una conferencia de inteligencia artificial en Honolulu.

    Wood dijo que Amazon ha actualizado su tecnología desde el estudio y ha realizado su propio análisis con "cero coincidencias falsas positivas".

    El sitio web de Amazon le da crédito a Rekognition por ayudar a la Oficina del Sheriff del Condado de Washington en Oregon a acelerar el tiempo que tomó identificar a los sospechosos de cientos de miles de registros de fotografías.

    © 2019 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com