• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Facebook:Fueron mejores vigilando la desnudez que el discurso de odio

    En este 16 de mayo 2012, foto de archivo, el logotipo de Facebook se muestra en un iPad en Filadelfia. Facebook cree que su sistema policial es mejor para eliminar la violencia gráfica, desnudez gratuita y propaganda terrorista de su red social que en la eliminación de racistas, comentarios sexistas y de odio. La autoevaluación del martes, 15 de Mayo, 2018, se produjo tres semanas después de que Facebook intentara dar una explicación más clara de los tipos de publicaciones que no tolerará. (Foto AP / Matt Rourke, Expediente)

    Deshacerse del racista Los comentarios sexistas y de odio en Facebook son más desafiantes que eliminar otros tipos de publicaciones inaceptables porque los programas de computadora aún tropiezan con los matices del lenguaje humano, la compañía reveló el martes.

    Facebook también publicó estadísticas que cuantificaron cuán generalizadas se han vuelto las cuentas falsas en su influyente servicio. a pesar de una política de larga data que requiere que las personas creen cuentas con sus identidades de la vida real.

    De octubre a diciembre solo, Facebook desactivó casi 1.300 millones de cuentas, y eso ni siquiera cuenta todas las veces que la empresa bloqueó perfiles falsos antes de que pudieran configurarse.

    Si la empresa no hubiera cerrado todas esas cuentas falsas, su audiencia de usuarios mensuales habría aumentado más allá de los 2.200 millones actuales y probablemente habría creado más material potencialmente ofensivo para que Facebook lo elimine.

    La autoevaluación de Facebook mostró que su sistema de detección es mucho mejor para eliminar la violencia gráfica, desnudez gratuita y propaganda terrorista. Las herramientas automatizadas detectaron entre el 86 y el 99,5 por ciento de las violaciones que Facebook identificó en esas categorías.

    Por discurso de odio, Los revisores humanos y los algoritmos informáticos de Facebook identificaron solo el 38 por ciento de las violaciones. El resto se produjo después de que los usuarios de Facebook marcaron el contenido ofensivo para su revisión.

    Todo dicho, Facebook tomó medidas sobre casi 1.600 millones de piezas de contenido durante los seis meses que terminaron en marzo. una pequeña fracción de toda la actividad en su red social, según la empresa.

    El informe marcó el primer desglose de Facebook sobre la cantidad de material que elimina por violar sus políticas. No reveló cuánto tiempo le toma a Facebook eliminar el material que viola sus estándares. El informe tampoco cubre la cantidad de contenido inapropiado que se perdió Facebook.

    "Incluso si eliminan 100 millones de publicaciones ofensivas, habrá uno o dos que tengan cosas realmente malas y esos serán los que todos terminen hablando en las noticias de la televisión por cable, "dijo Timothy Carone, quien enseña sobre tecnología en la Universidad de Notre Dame.

    En lugar de intentar determinar la cantidad de material ofensivo que no capturó, Facebook proporcionó una estimación de la frecuencia con la que cree que los usuarios vieron publicaciones que violaban sus estándares. incluido el contenido que su sistema de detección no detectó. Por ejemplo, la empresa estimó que de cada 10, 000 veces que la gente miró contenido en su red social, 22 a 27 de las vistas pueden haber incluido publicaciones que incluían violencia gráfica inadmisible.

    El informe tampoco aborda cómo Facebook está abordando otro tema irritante:la proliferación de noticias falsas plantadas por agentes rusos y otros fabricantes que intentan influir en las elecciones y la opinión pública.

    Las cuentas falsas en Facebook han atraído más atención porque los agentes rusos las usaron para comprar anuncios para tratar de influir en las elecciones de 2016 en los EE. UU.

    Aunque se ha centrado en cerrar cuentas falsas, Facebook ha dicho que del 3 al 4 por ciento de sus usuarios mensuales activos son falsos. Eso significa que hasta 88 millones de cuentas falsas de Facebook todavía se estaban escapando por las grietas del sistema policial de la compañía hasta marzo.

    No es sorprendente que los programas automatizados de Facebook tengan la mayor dificultad para tratar de averiguar las diferencias entre las opiniones permitidas y el lenguaje despreciable que cruza la línea. Dijo Carone.

    "Es como tratar de encontrar el equivalente entre gritar '¡Fuego!' en un teatro abarrotado cuando no hay ninguno y el equivalente a decir algo que es incómodo pero que califica como libertad de expresión, " él dijo.

    Facebook dijo que eliminó 2.5 millones de piezas de contenido consideradas como un discurso de odio inaceptable durante los primeros tres meses de este año. por encima de 1,6 millones durante el trimestre anterior. La empresa atribuyó una mejor detección, incluso cuando dijo que los programas de computadora tienen problemas para comprender el contexto y el tono del lenguaje.

    Facebook eliminó 3.4 millones de piezas de violencia gráfica durante los primeros tres meses de este año, casi el triple de los 1,2 millones de los tres meses anteriores. En este caso, una mejor detección era solo una parte del motivo. Facebook dijo que los usuarios publicaban imágenes de violencia de manera más agresiva en lugares como Siria, devastada por la guerra.

    El aumento de la transparencia viene como Menlo Park, California, La empresa intenta enmendar un escándalo de privacidad provocado por políticas flexibles que permitieron a una empresa de extracción de datos vinculada a la campaña del presidente Donald Trump en 2016 recopilar información personal de hasta 87 millones de usuarios. La selección de contenido no tiene nada que ver con la protección de la privacidad, aunque, y tiene como objetivo mantener un ambiente familiar para usuarios y anunciantes.

    © 2018 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com