Crédito:Matthew Modoono/Universidad del Noreste
Desde que Frances Haugen, una exempleada de Facebook, presentó información preocupante sobre los daños de gran alcance causados por los algoritmos de la empresa, las conversaciones sobre posibles reformas regulatorias solo se han intensificado.
Ahora existe un amplio acuerdo entre expertos y políticos en que se necesitan cambios regulatorios para proteger a los usuarios, en particular a los niños pequeños y las niñas, que son vulnerables a los problemas de salud mental y de imagen corporal que están vinculados a los algoritmos de la plataforma de redes sociales. Se han anunciado varios cambios, desde enmiendas a la Sección 230 de la Ley Federal de Decencia en las Comunicaciones, la ley que rige la responsabilidad entre los proveedores de servicios, incluido Internet, hasta mandatos de transparencia que darían acceso a expertos externos al funcionamiento interno de empresas tecnológicas como Facebook. .
Pero, dada la expectativa de libertad de expresión en línea, los legisladores tendrán que ser creativos. Una posible solución es crear una nueva agencia federal encargada de regular las empresas de redes sociales, como se hizo con la Oficina de Protección Financiera del Consumidor a raíz de la crisis financiera de 2008, pero plantea interrogantes sobre cómo funciona el proceso político y las decisiones de los partidos. diferentes ideas sobre la privacidad y la libertad de expresión influirían en tal esfuerzo, dicen varios expertos del noreste.
"Me pregunto si las partes alguna vez acordarían crear una agencia especial o aumentar la [Comisión Federal de Comunicaciones] de manera que proporcione más poder regulatorio al gobierno federal", dice David Lazer, profesor universitario distinguido de ciencias políticas y ciencias de la computación. en el Noreste.
Una nueva agencia podría ayudar a aliviar algunas de las cargas regulatorias que enfrenta la Comisión Federal de Comercio, pero también podría resultar ser un arma política peligrosa que ninguna de las partes querría que la otra tuviera, dice Lazer.
De cualquier manera, debe haber "más mecanismos para hacer que Facebook sea más transparente", dice.
"El problema es que, una vez que tienes transparencia, todos ven algo diferente", dice Lazer.
Al testificar ante el Congreso la semana pasada, Haugen ayudó a arrojar luz sobre cómo Facebook, que también posee Instagram y WhatsApp, ideó algoritmos que promovieron contenido odioso, dañino y problemático a expensas de sus usuarios. Los documentos que Haugen compartió con el Wall Street Journal el mes pasado mostraron que el gigante tecnológico sabía que sus algoritmos eran dañinos por investigaciones internas, pero optó por mantener la información en secreto.
Durante el fin de semana, un alto ejecutivo de Facebook dijo que la compañía apoya permitir que los reguladores accedan a sus algoritmos y una mayor transparencia en general.
Es importante "desmitificar" cómo funcionan realmente estas tecnologías, que se han ocultado detrás de un velo de secreto durante años, dice Woodrow Hartzog, profesor de derecho e informática que se especializa en protección de datos y privacidad.
Se sabe desde hace años, por ejemplo, que los algoritmos de Facebook amplifican u optimizan el contenido que genera indignación. Revelaciones en el Wall Street Journal mostraron que la propia investigación de Facebook ha demostrado que sus algoritmos de Instagram alimentan la inseguridad y contribuyen a los problemas de salud mental, promoviendo contenido que glorifica los trastornos alimentarios, por ejemplo, entre usuarias jóvenes.
En lugar de prohibir la amplificación algorítmica, Hartzog dice que debería haber salvaguardas obligatorias que monitoreen los efectos nocivos de los algoritmos jugosos, y agregó que "existen cosas como algoritmos seguros". La verdadera pregunta, dice, es ¿podemos tener una amplificación algorítmica segura?
"Deberían estar obligados a actuar de manera que no entren en conflicto con nuestra seguridad y bienestar", dice Hartzog. "Esa es una forma en que podríamos abordar este problema que no prohibirá por completo la amplificación algorítmica".
Hartzog también sugirió que los reguladores podrían basarse en el concepto de responsabilidad fiduciaria e imponer "deberes de cuidado, confidencialidad y lealtad" a las empresas de tecnología, similares a los deberes que tienen los médicos, abogados y contadores con respecto a sus clientes y pacientes, solo que aquí sería en relación con los usuarios finales.
El problema radica en los incentivos financieros, argumenta Hartzog, razón por la cual la idea de convertir a las empresas de tecnología en "fiduciarios de la información" ha cobrado fuerza. Los legisladores estatales y federales están examinando el modelo fiduciario de información en la legislación bajo revisión.
"Lo que me gustaría ver surgir de esto... es una conversación más profunda y amplia sobre cómo cambiar fundamentalmente los incentivos que impulsan todo tipo de comportamiento dañino relacionado con la recopilación y el uso de información privada", dice Hartzog.