• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Errores masivos encontrados en tecnología de reconocimiento facial:estudio de EE. UU.

    El software de reconocimiento facial puede producir resultados tremendamente inexactos, según un estudio del gobierno de EE. UU. sobre la tecnología, que se utiliza para hacer cumplir la ley, seguridad aeroportuaria y en otros lugares

    Los sistemas de reconocimiento facial pueden producir resultados tremendamente inexactos, especialmente para los no blancos, según un estudio del gobierno de EE. UU. publicado el jueves, es probable que genere nuevas dudas sobre el despliegue de la tecnología de inteligencia artificial.

    El estudio de docenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroamericanos hasta 100 veces más altas que para los blancos.

    Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, También encontró dos algoritmos asignados al género incorrecto a las mujeres negras casi el 35 por ciento de las veces.

    El estudio se produce en medio del despliegue generalizado del reconocimiento facial para las fuerzas del orden, aeropuertos, seguridad de frontera, bancario, venta al por menor escuelas y para tecnología personal, como desbloquear teléfonos inteligentes.

    Algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande y que los errores podrían resultar en el encarcelamiento de personas inocentes. y que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.

    El estudio del NIST encontró "falsos positivos, "en el que se identifica erróneamente a un individuo, y "falsos negativos, "donde el algoritmo no logra hacer coincidir con precisión un rostro con una persona específica en una base de datos.

    "Un falso negativo puede ser simplemente un inconveniente:no puede acceder a su teléfono, pero, por lo general, el problema se puede solucionar con un segundo intento, "dijo el investigador principal Patrick Grother.

    "Pero un falso positivo en una búsqueda de uno a muchos coloca una coincidencia incorrecta en una lista de candidatos que ameritan un mayor escrutinio".

    El estudio encontró que los sistemas de reconocimiento facial desarrollados en EE. UU. Tenían tasas de error más altas para los asiáticos, Grupos de afroamericanos y nativos americanos, con el grupo demográfico indio americano que muestra las tasas más altas de falsos positivos.

    Sin embargo, algunos algoritmos desarrollados en países asiáticos produjeron tasas de precisión similares para emparejar rostros asiáticos y caucásicos, lo que, según los investigadores, sugiere que estas disparidades pueden corregirse.

    "Estos resultados son una señal alentadora de que los datos de capacitación más diversos pueden producir resultados más equitativos, "Grother dijo.

    Sin embargo, Jay Stanley de la Unión Estadounidense por las Libertades Civiles, que ha criticado el despliegue del reconocimiento facial, dijo que el nuevo estudio muestra que la tecnología no está lista para un despliegue amplio.

    "Incluso los científicos del gobierno ahora están confirmando que esta tecnología de vigilancia es defectuosa y sesgada, ", Dijo Stanley en un comunicado.

    "Una coincidencia falsa puede provocar vuelos perdidos, largos interrogatorios, ubicaciones de listas de seguimiento, tensos encuentros policiales, detenciones falsas o algo peor. Pero las fallas de la tecnología son solo una preocupación. La tecnología de reconocimiento facial, precisa o no, puede habilitar indetectables, persistente, y vigilancia sin sospechas a una escala sin precedentes ".

    © 2019 AFP




    © Ciencia https://es.scienceaq.com