Crédito:Unsplash/CC0 Dominio público
La reciente advertencia del gobierno australiano a Facebook sobre la desinformación es solo la última salva en la batalla aparentemente constante para hacer que el gigante de las redes sociales rinda cuentas por el contenido publicado en su plataforma.
Llegó la misma semana en que el Senado de los EE. UU. escuchó un testimonio de denuncia en el que la ex ejecutiva de Facebook, Frances Haugen, alegó que la empresa sabía de las consecuencias perjudiciales para sus usuarios, pero optó por no actuar.
Los gobiernos de todo el mundo han estado presionando durante años para que los gigantes de las redes sociales sean más responsables, tanto en términos de la calidad de la información que alojan como del uso de los datos de los usuarios como parte de sus modelos comerciales.
La Ley de Seguridad en Línea del gobierno australiano entrará en vigor en enero de 2022, otorgando al Comisionado de Seguridad Electrónica poderes sin precedentes para tomar medidas enérgicas contra el contenido abusivo o violento, o las imágenes sexuales publicadas sin consentimiento.
Pero incluso si tiene éxito, esta legislación solo abordará una pequeña proporción de los temas que requieren regulación. En muchos de estos temas, las plataformas de redes sociales han intentado regularse a sí mismas en lugar de someterse a la legislación. Pero ya sea que estemos hablando de legislación o autorregulación, las experiencias pasadas no generan mucha confianza en que las plataformas tecnológicas puedan regularse con éxito y que la regulación se pueda poner en práctica fácilmente.
Nuestra investigación ha examinado intentos anteriores de regular a los gigantes tecnológicos en Australia. Analizamos 269 artículos de medios y 282 documentos de políticas e informes de la industria publicados entre 2015 y 2021. Analicemos un par de estudios de casos relevantes.
1. Anuncios y noticias
En 2019, la investigación de la Comisión Australiana de Competencia y Consumidores (ACCC) sobre las plataformas digitales describió los algoritmos de Facebook, en particular los que determinan el posicionamiento de la publicidad en las páginas de Facebook, como "opacos". Llegó a la conclusión de que las empresas de medios necesitaban más garantías sobre el uso de su contenido.
Facebook inicialmente dio la bienvenida a la investigación, pero luego se opuso públicamente (junto con Google) cuando el gobierno argumentó que los problemas relacionados con el poder de mercado sustancial de Facebook en la publicidad gráfica, y el dominio de Facebook y Google del contenido de noticias generado por las empresas de medios, eran demasiado importantes para ser considerados. queda en manos de las propias empresas.
Facebook argumentó que no había evidencia de un desequilibrio en el poder de negociación entre él y las empresas de medios de comunicación, y agregó que no tendría más remedio que retirar los servicios de noticias en Australia si se ve obligado a pagar a los editores por alojar su contenido. El enfrentamiento resultó en el infame embargo de una semana de Facebook sobre las noticias australianas.
El Código de Negociación de los Medios de Comunicación revisado y enmendado fue aprobado por el parlamento en febrero. Tanto el gobierno como Facebook declararon la victoria, el primero logró aprobar su legislación y el segundo terminó haciendo sus propios tratos con los editores de noticias sin tener que estar sujeto legalmente al código.
2. Discurso de odio y terrorismo
En 2015, para hacer frente al extremismo violento en las redes sociales, el gobierno australiano trabajó inicialmente con el gigante tecnológico para desarrollar soluciones conjuntas de inteligencia artificial para mejorar los procesos técnicos de identificación de contenido para hacer frente a la lucha contra el extremismo violento.
Esta solución voluntaria funcionó de manera brillante, hasta que no funcionó. En marzo de 2019, tiroteos masivos en mezquitas en Christchurch fueron transmitidos en vivo en Facebook por un terrorista supremacista blanco nacido en Australia, y las grabaciones posteriormente circularon en Internet.
Esto sacó a la luz la incapacidad de los algoritmos de inteligencia artificial de Facebook para detectar y eliminar las imágenes en vivo del tiroteo y la rapidez con que se compartió en la plataforma.
El gobierno australiano respondió en 2019 modificando el Código Penal para exigir que las plataformas de redes sociales eliminen material abominable o violento "en un tiempo razonable" y, cuando corresponda, remitirlo a la Policía Federal Australiana.
¿Qué hemos aprendido?
Estos dos ejemplos, aunque sorprendentemente diferentes, se desarrollaron de manera similar:un diálogo inicial en el que Facebook propone una solución interna que involucra sus propios algoritmos, antes de un cambio posterior hacia la regulación gubernamental obligatoria, que se encuentra con resistencia o negociación (o ambos) de Facebook, y el resultado final, que es una legislación fragmentaria que se diluye o solo cubre un subconjunto de tipos específicos de daños.
Hay varios problemas obvios con esto. La primera es que solo los gigantes tecnológicos saben cómo funcionan sus algoritmos, por lo que es difícil que los reguladores los supervisen adecuadamente.
Luego está el hecho de que la legislación generalmente se aplica a nivel nacional, sin embargo, Facebook es una empresa global con miles de millones de usuarios en todo el mundo y una plataforma que se incorpora a nuestra vida diaria de muchas maneras.
¿Cómo resolvemos el impasse? Una opción es que las regulaciones sean elaboradas por organismos independientes designados por gobiernos y gigantes tecnológicos para impulsar la agenda de corregulación a nivel mundial. Pero confiar solo en la regulación para guiar el comportamiento de los gigantes tecnológicos contra posibles abusos podría no ser suficiente. También existe la necesidad de autodisciplina y un gobierno corporativo adecuado, que estos organismos independientes pueden hacer cumplir.