En este 1 de mayo 2018, foto de archivo, El CEO de Facebook, Mark Zuckerberg, pronuncia el discurso de apertura en F8, Conferencia de desarrolladores de Facebook en San José, Calif. Los comentarios de Zuckerberg han provocado críticas de grupos como la Liga Anti-Difamación. Zuckerberg, quien es judío, le dijo a Kara Swisher de Recode en una entrevista que, aunque encuentra la negación del Holocausto "profundamente ofensiva, "dicho contenido no debe ser prohibido en Facebook. Crédito:AP Photo / Marcio Jose Sanchez
Negar que ocurrió el Holocausto probablemente esté bien en Facebook. Llamar a una turba para matar judíos no lo es.
El incómodo y sorprendente intento de Mark Zuckerberg esta semana de explicar dónde traza la línea Facebook ilustra las complejidades que enfrentan las plataformas de redes sociales al asumir el papel no deseado de árbitro en esta era de desinformación en línea. manipulación y discurso de odio.
Facebook, con 2.200 millones de usuarios, no permite cosas como la desnudez, la venta de armas, amenazas creíbles de violencia, y ataques directos a personas por su raza, sexo u orientación sexual.
Horas después de que los comentarios del fundador de Facebook sobre los negadores del Holocausto salieran al aire el miércoles, la compañía anunció que también comenzará a eliminar la información errónea que podría provocar un derramamiento de sangre. La política comenzará en Sri Lanka y se expandirá a Myanmar, donde los usuarios de Facebook han sido acusados de incitar a la violencia contra los musulmanes.
Pero más allá de esas pautas, hay grandes áreas grises. Qué, exactamente, califica como apoyo a grupos terroristas en lugar de simplemente publicar sobre ellos? ¿O burlarse de la muerte prematura de alguien, algo que también está prohibido?
Si Facebook prohibiera la negación del Holocausto, también podría ser llamado a prohibir la negación de otros eventos históricos, como el genocidio armenio o la masacre de nativos americanos por parte de los colonizadores europeos. Esta, Facebook podría argumentar, podría conducir a una pendiente resbaladiza donde la empresa se encuentra tratando de verificar la precisión histórica de las publicaciones de los usuarios.
Entonces, donde pueda, Facebook se mantiene al margen de la vigilancia del contenido.
Si bien miles de moderadores de Facebook en todo el mundo están asignados para revisar contenido potencialmente objetable, ayudado por la inteligencia artificial, A los ejecutivos les gusta decir que la empresa no quiere convertirse en un "árbitro de la verdad" y, en cambio, intenta que los usuarios decidan por sí mismos.
Es por eso que las noticias falsas no están prohibidas en Facebook, aunque es posible que vea menos en estos días gracias a los algoritmos de la compañía y los esfuerzos de verificación de datos de terceros. En lugar de, Facebook podría etiquetar las noticias en disputa como tales y mostrarte contenido relacionado que podría hacerte cambiar de opinión.
YouTube también comenzó a hacer esto recientemente. Twitter ha sido aún más libre en el tipo de contenido que permite, Recientemente, se ha intensificado la represión del odio y el abuso.
"Facebook no quiere dedicar tiempo y recursos a controlar el contenido. Es costoso y difícil, ", dijo Steve Jones, profesor de comunicaciones en la Universidad de Illinois en Chicago." Es un trabajo difícil, Estoy seguro de que es un trabajo emocionalmente agotador y dada la escala de Facebook, se necesitaría mucha gente para monitorear lo que pasa a través de esa plataforma ".
Al mismo tiempo, Jones dijo que tiene sus dudas de que lanzar más moderadores (el objetivo de Facebook es aumentar el número de 10, 000 a 20, 000 este año) y más tecnología en el problema marcaría la diferencia. Dijo que no tiene idea de cómo Facebook puede arreglar las cosas.
"Si supiera, " él dijo, "Probablemente estaría sentado al lado del Sr. Zuckerberg pidiendo un cheque grande".
El motivo por el que estas empresas intentan mantenerse al margen de la regulación del discurso se remonta a sus raíces. Todos fueron fundados por ingenieros como empresas de tecnología que evitan etiquetas como "medios" y "editor". Director de operaciones de Facebook, Sheryl Sandberg, incluso dijo en una entrevista el año pasado que, como empresa de tecnología, Facebook contrata ingenieros, no reporteros ni periodistas.
Luego está el escudo legal. Si bien un periódico puede ser considerado responsable de algo impreso en sus páginas, Por ley, las empresas de Internet no son responsables del contenido que otros publican en sus sitios. Si comienzan a vigilar demasiado el contenido, editar, si se quiere, las empresas de tecnología corren el riesgo de convertirse en empresas de medios.
Zeynep Tufekci, un destacado tecnosociólogo, dijo en Twitter que la noción de que se puede "combatir el mal discurso con un buen discurso" realmente no funciona en un mundo de Facebook, si alguna vez lo hizo.
"Facebook está por encima de su cabeza, ", tuiteó el jueves, pero también confesó que "nadie tiene una respuesta completa".
En una entrevista con Recode, Zuckerberg, quien es judío, dijo que las publicaciones que niegan la aniquilación nazi de 6 millones de judíos no necesariamente serán eliminadas. Zuckerberg dijo que mientras las publicaciones no pidan daño o violencia, incluso el contenido ofensivo debe protegerse.
Si bien este ha sido un puesto de larga data en la empresa, La declaración de Zuckerberg y su razonamiento —que él no cree que los negadores del Holocausto se estén equivocando "intencionalmente "— causaron un alboroto.
La Liga Anti-Difamación dijo que Facebook tiene una "obligación moral y ética" de no permitir que las personas difundan la negación del Holocausto.
Zuckerberg más tarde intentó explicar sus palabras, diciendo en un correo electrónico a Kara Swisher de Recode que él personalmente encuentra "la negación del Holocausto profundamente ofensiva, y absolutamente no tenía la intención de defender la intención de las personas que lo niegan ".
Todavía, por ahora, la política no cambiará.
© 2018 The Associated Press. Reservados todos los derechos.