Facebook puede eliminar contenido, agregar advertencias si el contenido puede ser perturbador para algunos usuarios sin violar los estándares, o notificar a la policía en caso de un "específico, amenaza inminente y creíble para la vida humana "
Facebook eliminó 583 millones de cuentas falsas en los primeros tres meses de 2018, el gigante de las redes sociales dijo el martes, detallando cómo hace cumplir los "estándares comunitarios" contra las imágenes sexuales o violentas, propaganda terrorista o discurso de odio.
Respondiendo a los pedidos de transparencia después del escándalo de privacidad de datos de Cambridge Analytica, Facebook dijo que esos cierres se sumaron al bloqueo de millones de intentos de crear cuentas falsas todos los días.
A pesar de esto, el grupo dijo que los perfiles falsos todavía constituyen entre el 3 y el 4 por ciento de todas las cuentas activas.
Afirmó detectar casi el 100 por ciento del spam y haber eliminado 837 millones de publicaciones asimiladas a spam durante el mismo período.
Facebook retiró o lanzó advertencias en casi 30 millones de publicaciones que contenían imágenes sexuales o violentas, propaganda terrorista o discurso de odio durante el primer trimestre.
La tecnología mejorada que utiliza inteligencia artificial le ha ayudado a actuar en 3,4 millones de publicaciones que contienen violencia gráfica, casi tres veces más que en el último trimestre de 2017.
En el 85,6 por ciento de los casos, Facebook detectó las imágenes antes de ser alertado por los usuarios. dijo el informe, emitido el día después de que la compañía dijera que se habían suspendido unas 200 aplicaciones en su plataforma como parte de una investigación sobre el uso indebido de datos privados de usuarios.
La cifra representa entre el 0,22 y el 0,27 por ciento del contenido total visto por los más de dos mil millones de usuarios de Facebook desde enero hasta marzo.
"En otras palabras, de cada 10, 000 visualizaciones de contenido, una estimación de 22 a 27 contenía violencia gráfica, "decía el informe.
Las respuestas a las infracciones de las reglas incluyen la eliminación de contenido, agregar advertencias al contenido que puede ser perturbador para algunos usuarios sin violar los estándares de Facebook; y notificar a las fuerzas del orden en caso de un "específico, amenaza inminente y creíble para la vida humana ".
La TI mejorada también ayudó a Facebook a tomar medidas contra 1,9 millones de publicaciones que contenían propaganda terrorista. un aumento del 73 por ciento. Casi todos fueron tratados antes de que se produjera una alerta, dijo la empresa.
Facebook se disculpó en marzo por eliminar temporalmente un anuncio que presentaba la famosa obra del artista francés Eugene Delacroix "Liberty Leading the People" porque representa a una mujer con el pecho desnudo.
Atribuyó el aumento al uso mejorado de la tecnología de detección de fotografías.
El discurso de odio es más difícil de controlar con métodos automatizados, sin embargo, ya que el discurso de odio racista u homofóbico a menudo es citado en publicaciones por sus objetivos o activistas.
El sarcasmo necesita un toque humano
"Puede ser necesario que un ser humano comprenda e interprete con precisión matices como ... comentarios autorreferenciales o sarcasmo, "el informe decía, señalando que Facebook tiene como objetivo "proteger y respetar tanto la expresión como la seguridad personal".
Facebook tomó medidas contra 2,5 millones de contenido de incitación al odio durante el período. un aumento de 56 con respecto a octubre-diciembre. Pero solo el 38 por ciento se había detectado a través de los esfuerzos de Facebook; el resto lo señalaron los usuarios.
Las publicaciones que mantienen más ocupados a los revisores de Facebook son aquellas que muestran desnudez adulta o actividad sexual, aparte de la pornografía infantil, que no está cubierto por el informe.
En el período se gestionaron unos 21 millones de esos puestos, un número similar al de octubre-diciembre de 2017.
Eso fue menos del 0.1 por ciento del contenido visto, que incluye texto, imagenes videos, Enlaces, videos en vivo o comentarios en publicaciones — Facebook dijo, y agregó que se había ocupado de casi el 96 por ciento de los casos antes de ser alertado.
Facebook ha sido criticado por mostrar demasiado celo en este frente, como eliminar imágenes de obras de arte toleradas según sus propias reglas.
En marzo, Facebook se disculpó por eliminar temporalmente un anuncio que presentaba la famosa obra del artista francés Eugene Delacroix "Liberty Leading the People" porque representa a una mujer con el pecho desnudo.
La jefa de gestión de políticas globales de Facebook, Monika Bicket, dijo que el grupo había mantenido el compromiso de reclutar a 3, 000 empleados más para elevar el número de personas dedicadas a hacer cumplir las normas a 7, 500 a principios de este año.
© 2018 AFP