San Francisco ha prohibido el uso del reconocimiento facial por parte de la policía y las agencias gubernamentales. la primera ciudad de EE. UU. en dar un paso a medida que aumentan los temores a la privacidad en la capital tecnológica del país.
Los partidarios de la legislación argumentaron que usar software y cámaras para identificar positivamente a las personas es, como dijo el concejal Aaron Peskin, "no está listo para el horario de máxima audiencia".
Todos menos uno de los nueve miembros de la junta de supervisores de San Francisco respaldaron la legislación, que se votará de nuevo la próxima semana en un paso de procedimiento que no se espera que cambie el resultado.
"La propensión de la tecnología de reconocimiento facial a poner en peligro los derechos civiles y las libertades civiles supera sustancialmente sus supuestos beneficios, "lea la legislación aprobada el martes.
El reconocimiento facial podría "exacerbar la injusticia racial y amenazar nuestra capacidad de vivir libres de la supervisión continua del gobierno, "añadió.
La prohibición era parte de una legislación más amplia que establece la política de uso y auditoría de los sistemas de vigilancia, creando grandes obstáculos y requiriendo la aprobación de la junta para cualquier agencia de la ciudad.
"Será ilegal que cualquier departamento obtenga, conservar, acceso, o utilizar cualquier tecnología de reconocimiento facial o cualquier información obtenida de la tecnología de reconocimiento facial, "lee un párrafo escondido en el extenso documento.
La prohibición no incluyó aeropuertos u otras instalaciones reguladas por el gobierno federal.
San Francisco es conocido como "el epicentro tecnológico del mundo, "y su Área de la Bahía es el hogar de gigantes como Facebook, Gorjeo, Alfabeto principal de Uber y Google.
Se está considerando una prohibición similar en toda la bahía de la ciudad de Oakland.
Las preocupaciones sobre la tecnología incluyen el peligro de que personas inocentes sean identificadas erróneamente como malhechoras y que los sistemas puedan infringir la privacidad en la vida cotidiana.
'Mantén la puerta abierta'
Pero los partidarios de la tecnología argumentan que los sistemas de reconocimiento facial pueden ayudar a la policía a combatir el crimen y mantener las calles más seguras.
Detener el crimen SF, un grupo local, dijo que el reconocimiento facial "puede ayudar a localizar a los niños desaparecidos, personas con demencia y lucha contra la trata sexual ".
"La tecnología mejorará y podría ser una herramienta útil para la seguridad pública cuando se use de manera responsable y con mayor precisión. Debemos mantener la puerta abierta a esa posibilidad, ", dijo en un comunicado.
A la tecnología se le atribuye haber ayudado a la policía a capturar a criminales peligrosos, pero también criticado por identificaciones erróneas.
El reconocimiento facial "se puede utilizar de forma pasiva que no requiere el conocimiento, consentimiento, o participación del sujeto, ", advirtió la Unión Estadounidense por las Libertades Civiles.
"El mayor peligro es que esta tecnología se utilizará para general, sistemas de vigilancia sin sospechas ".
Las autoridades chinas están utilizando un vasto sistema de tecnología de reconocimiento facial para rastrear a su minoría musulmana uigur en todo el país. según una historia reciente del New York Times.
Beijing ya ha atraído críticas generalizadas por su trato a los uigures en la región noroeste de Xinjiang, donde hasta un millón de miembros de grupos minoritarios de habla turca, en su mayoría musulmanes, se encuentran recluidos en campos de internamiento, según estimaciones citadas por un panel de la ONU.
Pero según el artículo del Times, La tecnología de reconocimiento facial, integrada en las enormes redes de cámaras de vigilancia de China, ha sido programada para buscar exclusivamente a los uigures en función de su apariencia y mantener registros de sus movimientos en China.
Se cree que es el primer ejemplo conocido de un gobierno que utiliza intencionalmente la inteligencia artificial para la elaboración de perfiles raciales.
© 2019 AFP