Crédito:Shutterstock
Facebook anunció recientemente restricciones dramáticas de acceso a datos en su aplicación y sitio web. La empresa enmarcó el bloqueo como un intento de proteger la información del usuario, en respuesta a la protesta pública tras el escándalo de Cambridge Analytica.
Pero la decisión está en línea con las crecientes restricciones impuestas a los investigadores que estudian Facebook y su aplicación para compartir fotos Instagram. que también comenzó a restringir inmediatamente el acceso a sus datos el 4 de abril.
De hecho, se establecieron varias limitaciones en febrero de este año, antes de que el fiasco de Cambridge Analytica, en el que supuestamente se recopilaron datos de 50 millones de perfiles de Facebook, estallara públicamente. API de Facebook, versión 2.5, estaba programado para retirarse este mes, entre otras cosas, impidiendo el acceso a la identificación de los usuarios que participan en foros públicos.
Las redes sociales ofrecen dos puntos de entrada principales para la recopilación de datos:funcionan como interfaces para usuarios e interfaces de software diseñadas para el consumo de programas informáticos. conocidas como interfaces de programación de aplicaciones (API).
Si bien las API están destinadas a programadores que crean aplicaciones que se suman al creciente ecosistema de servicios que ofrecen las redes sociales, Los investigadores también han aprovechado estas interfaces para estudiar el comportamiento social en línea.
Dado el enorme tamaño de la base de usuarios de Facebook (2,13 mil millones en el último recuento), El escrutinio externo del contenido de la red social es extremadamente importante. En años recientes, sin embargo, Los investigadores han estado librando una batalla cuesta arriba con la empresa para proporcionar acceso a los datos. Ahora, su última decisión ha hecho que sea prácticamente imposible realizar una investigación a gran escala en Facebook.
Los cambios hacen desaparecer el software y las bibliotecas dedicadas a la investigación académica en Facebook, incluyendo netvizz, NodeXL, SocialMediaLab, fb_scrape_public y Rfacebook, todo lo cual se basó en las API de Facebook para recopilar datos.
La investigación sistemática sobre el contenido de Facebook ahora es insostenible, convirtiendo lo que ya era preocupantemente opaco, aisló la red social en una caja negra que posiblemente sea aún menos responsable ante los legisladores y el público, quienes se beneficiaron de los académicos que monitorearon los desarrollos en el sitio.
Deen Freelon, el desarrollador de fb_scrape_public que analiza grandes, conjuntos de datos disponibles públicamente en Facebook, nos dijo por correo electrónico que "la decisión de restringir el acceso a la API de Pages podría afectar gravemente a la investigación de Facebook basada en contenido en el futuro, dependiendo de qué tan dispuesto esté Facebook a aprobar el acceso. Si no aprueba el acceso para la mayoría de los fines de investigación, que podrían crear incentivos para que los investigadores raspen Facebook directamente, que viola sus términos de servicio. "El raspado o recolección de datos es un método por el cual un programa de computadora extrae información de las páginas web.
Bernhard Rieder, un profesor asociado de la Universidad de Ámsterdam que desarrolló netvizz, una herramienta que extrae datos de Facebook con fines de investigación, cree que la medida fue una consecuencia del nivel de acceso ilimitado otorgado a cualquier persona hasta 2015 y que "existe una posibilidad real de que estos los servicios serán cada vez más inescrutables e inobservables ".
Hasta hace tres años, Facebook permitió que las aplicaciones de terceros tuvieran acceso a los datos de los amigos de los usuarios de la aplicación. Fue esta función la que utilizó Aleksandr Kogan, investigador de la Universidad de Cambridge.
Kogan, a través de su startup Global Science Research, que estaba separado de su trabajo académico - supuestamente recopiló información de perfil de 270, 000 usuarios de Facebook y decenas de millones de sus amigos utilizando una aplicación de prueba de personalidad llamada "thisisyourdigitallife". Se alega que Cambridge Analytica usó esos datos en un intento de apuntar a campañas políticas, incluidas las elecciones presidenciales de EE. UU. De 2016.
Marc Smith, que dirigió el equipo de Microsoft que creó NodeXL, que analiza los datos de las redes sociales, nos dijo que había una oportunidad para repensar las redes sociales que la gente elige usar a la luz del escándalo de datos.
Por qué son importantes las API
Las API permiten a los investigadores recuperar datos a gran escala y seleccionar bases de datos asociadas con eventos significativos. Sin ellos, las interfaces web deben rasparse para acceder a los datos, que requiere mucha mano de obra y limita drásticamente la cantidad de información que se puede recopilar y procesar.
Bloquear a los investigadores de las API los limita a medios de recopilación de datos intensivos en humanos que no pueden producir muestras representativas de eventos del mundo real. como los movimientos sociales, elecciones y campañas de desinformación.
Twitter opera tres bien documentados, API públicas además de sus ofertas premium y empresariales. La relativa accesibilidad de Twitter lo lleva a estar muy sobrerrepresentado en la investigación de redes sociales. Pero las API públicas y abiertas son una excepción en el ecosistema de las redes sociales. API de alimentación pública de Facebook, por ejemplo, está restringido a un conjunto limitado de editores de medios.
Bloqueo de datos
El bloqueo de la API de Facebook ampliará la brecha entre los investigadores de la industria contratados por las redes sociales y los investigadores que trabajan fuera de las corporaciones. Es una división caracterizada como la brecha entre "investigadores ricos en macrodatos", who have access to proprietary data and might be working only in the interests of the company they are affiliated with, and the "big data poor" or the broad universe of academic researchers.
Facebook's decision dramatically expands this pool of "big data poor". It limits research to projects sponsored by the network and potentially jeopardises research that is critical of Facebook.
Shortly after the decision to drastically limit API access, Facebook vowed to help researchers gain access to social media data of public interest, starting with elections. The announcement was met with a mix of celebration and subdued support from researchers.
Luca Rossi, who is associate professor at the IT University of Copenhagen, cautioned that the "data sharing model proposed by Facebook is deeply problematic and it will probably reinforce existing differences in terms of data access". The restriction is likely to continue the trend of researchers doing research they are able to as opposed to research they deem important.
Good news for research on the relationship between social media and society ( especially politics) - Facebook and funding foundations to set up a new model for industry- academic partnerships including third party scrutiny and peer review https://t.co/87gZm5PyIO
— Helen Margetts (@HelenMargetts) April 9, 2018
Fascinating how #Facebook has such a high barrier of access to its data for legitimate research purposes (a good thing) https://t.co/9ZcI4tyrS2 &yet allowed its system to be mined for data, weaponised &monetised by 3rd parties with just good coding skills &API access.
— Sanjana Hattotuwa (@sanjanah) April 9, 2018
I'm concerned that the right people are not at the table in terms decision making power and centering the most vulnerable people for research agendas. I'd love to be wrong about this. https://t.co/QiKsSf3ZRB
— Jill Dimond (@jpdimond) April 9, 2018
The impact on data science education is also considerable. If researchers are unable to access data from social networks, they will be unable to train students in data science, social science, computer sciences and digital humanities on methods of data collection and analysis that are rigorous, critical and ethical.
Facebook's decision to render the API useless for meaningful research is a regrettable departure for collaboration between the social network giant and academics and it's already having an impact.
The Events API, which researchers relied on to retrieve information about public events such as demonstrations, no longer permits access to users or posts on the event wall.
Facebook's Groups API and Pages API were the endpoints researchers queried to study public discussions on Facebook, but the recent policy shift seals off those online conversations by restricting access to posts, comments or members participating in a public page or group.
The changes made to Instagram's API are even more radical, with Facebook deciding to deprecate the API – a technical term for killing data access altogether.
Nasty side effect
Facebook's decision to restrict researchers is ironic because academics have long discussed the problems that led to the Cambridge Analytica scandal. Rieder wrote about the risks of Facebook API's wide open data door back in 2013.
He cautioned against how much data a third-party app could get from Facebook. Facebook, sin embargo, ignored those concerns until 2015, when management and policies regulating the sharing of Facebook data took a sharp turn and became increasingly more restrictive for researchers.
Desde entonces, Facebook has become increasingly more cautious about external scrutiny. In the wake of the Cambridge Analytica scandal, Facebook CEO Mark Zuckerberg told Wired that the feedback it received was that "having the data locked down is more important to people than having different kinds of experiences".
The public uproar clearly underscores how users' data was poorly handled, but a lockdown is hardly the solution to a problem rooted in the weaponisation of social networks, where people use Facebook, Twitter and so on to spread disinformation.
The Cambridge Analytica scandal has created a worrying side effect:restricting access to data is likely to facilitate further weaponisation, by turning Facebook into a de facto black box that is largely unaccountable to external oversight.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.