• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El reconocimiento facial del Gran Hermano necesita regulaciones éticas

    ¿El software de reconocimiento facial hará del mundo un lugar más seguro? como afirman las empresas de tecnología, ¿O hará a los marginados más vulnerables y monitoreados? Crédito:Shutterstock

    Mi madre siempre decía que tenía cara para la radio. Gracias a Dios, ya que la radio puede ser el último lugar en este mundo de tecnología mejorada donde su rostro no determinará su estatus social o su potencial para cometer un crimen.

    RealNetworks, el líder mundial de una tecnología que permite la entrega digital fluida de archivos de audio y video a través de Internet, acaba de lanzar su última visión por computadora:un paquete de software de aprendizaje automático. La esperanza es que este nuevo software detecte, y potencialmente predecir, comportamiento sospechoso a través del reconocimiento facial.

    Llamado SAFR (seguro, Reconocimiento facial preciso), el conjunto de herramientas se ha comercializado como una forma rentable de integrarse sin problemas en los sistemas de monitoreo de video CCTV existentes. Podrá "detectar y hacer coincidir millones de rostros en tiempo real, "específicamente dentro de los entornos escolares.

    Aparentemente, RealNetworks ve su tecnología como algo que puede hacer que el mundo sea más seguro. La marca pegadiza, sin embargo, enmascara los problemas éticos reales que rodean el despliegue de sistemas de detección facial. Algunos de esos problemas incluyen preguntas sobre los sesgos inherentes incrustados en el código y, por último, cómo se utilizan los datos capturados.

    El modelo chino

    El Gran Hermano está mirando. Ningún otro país del mundo tiene más videovigilancia que China. Con 170 millones de cámaras CCTV y unos 400 millones de nuevas instaladas, es un país que ha adoptado y desplegado el reconocimiento facial de forma orwelliana.

    En el futuro cercano, sus ciudadanos, y los que viajamos allí, estará expuesto a una vasta e integrada red de sistemas de reconocimiento facial que monitorean todo, desde el uso del transporte público, a la velocidad a la cantidad de papel higiénico que se usa en el baño público.

    El elemento más perturbador hasta ahora es la reciente introducción del reconocimiento facial para monitorear el comportamiento de los niños en edad escolar dentro de las escuelas públicas chinas.

    Como parte de la plena integración de China de su sistema de crédito social igualmente orwelliano —un programa de incentivos que recompensa el compromiso de cada ciudadano con la moral dictada por el estado— este sistema digital completamente integrado identificará automáticamente a una persona. Luego, puede determinar la capacidad de uno para progresar en la sociedad y, por extensión, el estado económico y social de la familia inmediata de esa persona, al monitorear el comportamiento no sancionado del estado.

    En esencia, El reconocimiento facial está haciendo imposible que las personas expuestas puedan darse el lujo de tener un mal día.

    Los sistemas de reconocimiento facial que se están implementando ahora en las escuelas chinas monitorean todo, desde la asistencia al aula hasta si un niño está soñando despierto o prestando atención. Es un sistema de monitoreo completo que determina, en gran medida, el futuro de un niño sin tener en cuenta que algunas cualidades, como el pensamiento abstracto, no se puede detectar fácilmente o, en el mejor de los casos, mirado favorablemente, con reconocimiento facial.

    También plantea algunas nociones de ética muy incómodas o la falta de ella, especialmente hacia los miembros más vulnerables de la sociedad.

    Necesidad de regulación pública

    El lanzamiento de SAFR por parte de RealNetworks se produce inmediatamente después del apasionado manifiesto del presidente de Microsoft, Brad Smith, sobre la necesidad de regulación pública y responsabilidad corporativa en el desarrollo y despliegue de la tecnología de reconocimiento facial.

    Smith señaló correctamente que las herramientas de reconocimiento facial todavía están algo sesgadas y tienen "mayores tasas de error para las mujeres y las personas de color". Este problema es doble, con el reconocimiento de que las personas que codifican pueden incrustar inconscientemente prejuicios culturales.

    Los conjuntos de datos actualmente disponibles pueden carecer de la solidez objetiva necesaria para garantizar que los rostros de las personas no se identifiquen erróneamente. o peor aún, predeterminado a través de sesgos codificados como ahora está comenzando a suceder en el sistema escolar chino.

    En un esfuerzo por abordar este y otros innumerables problemas relacionados, Microsoft estableció un Comité de IA y Ética en Ingeniería e Investigación (AETHER). Este comité también está creado para ayudarlos a cumplir con el Reglamento General de Protección de Datos (GDPR) de la Unión Europea y su eventual adopción futura. de alguna forma, en Norte América.

    El ardiente llamamiento de Smith cuestiona acertadamente el uso y despliegue previstos actuales y futuros de los sistemas de reconocimiento facial, pero no aborda cómo Microsoft o, por extensión, otros líderes en tecnología de IA, puede eliminar sesgos dentro de su código base o conjuntos de datos desde el inicio.

    Informe de minorías

    Los rasgos de nuestro rostro no son más que gestos que la fuerza de la costumbre ha hecho permanente. . — Marcel Proust, 1919

    Como muchas tecnologías, Pandora ya ha salido de la caja. Si posee un teléfono inteligente y usa Internet, ya ha optado por no aceptar ninguna noción básica de anonimato personal dentro de la sociedad occidental.

    Con GDPR ahora plenamente comprometido en Europa, visitar un sitio web ahora requiere que usted "suscriba" la posibilidad de que ese sitio web esté recopilando datos personales. Los sistemas de reconocimiento facial no tienen forma de seguir las reglas del RGPD, así que como tal, nosotros, como sociedad, somos automáticamente "optados" y, por lo tanto, estamos completamente a merced de cómo se registran nuestros rostros, procesado y almacenado por el gobierno, sistemas de CCTV corporativos o incluso privados.

    Los juicios de reconocimiento facial llevados a cabo en Inglaterra por la Policía Metropolitana de Londres han arrojado consistentemente una tasa de fracaso del 98 por ciento. Similar, en el suroeste de Gales, las pruebas han obtenido resultados sólo ligeramente mejores, con menos del 10 por ciento de éxito.

    En cambio, Universidad de California, Berkeley, Los científicos han concluido que la variación facial sustancial es un rasgo evolutivo exclusivo de los humanos. Entonces, ¿dónde está la desconexión?

    Si, como ha sugerido Marcel Proust, Nuestras vidas y, por lo tanto, nuestras personalidades son identificables de manera única por nuestros rostros, ¿Por qué los sistemas de reconocimiento facial no pueden arrojar resultados positivos fácilmente?

    La respuesta se remonta a cómo se escribe la programación de computadoras y los conjuntos de datos utilizados por ese código para devolver una coincidencia positiva. Inevitablemente, El código está escrito para respaldar una noción idealizada de tipo facial.

    Como tal, outlying variations like naturally occurring facial deformities or facial features affected by physical or mental trauma represent only a small fraction of the infinite possible facial variations in the world. The data sets assume we are homogeneous doppelgängers of each other, without addressing the micro-variations of peoples faces.

    If that's the case, we are all subject to the possibility that our faces as interpreted by the ever-increasing deployment of immature facial recognition systems will betray the reality of who we are.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com