• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Por qué Facebook no bloqueó el video de grabación en vivo de Nueva Zelanda (Actualización)

    Esta combinación de imágenes muestra logotipos de empresas desde la izquierda, Gorjeo, YouTube y Facebook. Estas compañías de Internet y otras dicen que están trabajando para eliminar las imágenes de video filmadas por un hombre armado en el tiroteo en la mezquita de Nueva Zelanda que estuvo ampliamente disponible en las redes sociales horas después del horrible ataque. (Fotos / Archivo AP)

    ¿Por qué Facebook transmitió un video en vivo del tiroteo en la mezquita de Nueva Zelanda durante 17 minutos? ¿Nadie alertó a la empresa mientras estaba sucediendo?

    Facebook dice que no. Según su abogado general adjunto, Chris Sonderby, ninguna de las aproximadamente 200 personas que vieron el video en vivo lo señaló a los moderadores. En una publicación de blog del martes, Sonderby dijo que el primer informe de usuario no llegó hasta 12 minutos después de que finalizara la transmisión.

    Todo lo cual plantea preguntas adicionales, entre ellas, por qué tanta gente miraba sin decir nada, si Facebook depende demasiado de personas externas y máquinas para informar problemas, y si los usuarios y los funcionarios encargados de hacer cumplir la ley saben cómo comunicarse con Facebook con inquietudes sobre lo que ven en el servicio.

    "Cuando vemos cosas a través de nuestros teléfonos, imaginamos que son como un programa de televisión, "dijo Siva Vaidhyanathan, profesor de estudios de medios en la Universidad de Virginia. "Están a distancia, y no tenemos poder ".

    Facebook dijo que eliminó el video "a los pocos minutos" de haber sido notificado por la policía de Nueva Zelanda. Pero desde entonces Facebook y otras empresas de redes sociales han tenido que lidiar con las copias publicadas por otros.

    El sospechoso del tiroteo modeló cuidadosamente su ataque para la era de Internet, mientras transmitía en vivo el asesinato de 50 personas en dos mezquitas en Christchurch, Nueva Zelanda.

    Tim Cigelske, que enseña sobre redes sociales en la Universidad de Marquette en Milwaukee, dijo que si bien los espectadores tienen las mismas obligaciones morales de ayudar que un espectador en el mundo físico, la gente no necesariamente sabe qué hacer.

    "Es como llamar al 911 en caso de emergencia, ", dijo." Teníamos que capacitar a la gente y ponérselo fácil. Tienes que capacitar a las personas de una manera nueva si ves que ocurre una emergencia no en persona sino en línea ".

    Para reportar video en vivo, un usuario debe saber hacer clic en un pequeño conjunto de tres puntos grises en el lado derecho de la publicación. Un usuario que hace clic en "denunciar video en vivo" puede elegir entre varios tipos de contenido objetable, incluida la violencia, acoso y agresion. También se les dice a los usuarios que se pongan en contacto con la policía si alguien está en peligro inmediato.

    Facebook tampoco parece publicar ninguna información pública que indique a las fuerzas del orden cómo denunciar videos peligrosos o criminales. La empresa tiene una página titulada "información para las autoridades policiales, "pero simplemente describe los procedimientos para realizar solicitudes legales de registros de cuentas de usuario. Facebook no respondió de inmediato a una solicitud de comentarios y preguntas sobre sus comunicaciones con la policía.

    Facebook usa inteligencia artificial para detectar material objetable, mientras confía en que el público marque el contenido que viola sus estándares. Luego, esos informes se envían a revisores humanos, dijo la compañía en un video de noviembre.

    El video también describe cómo utiliza la "visión por computadora" para detectar el 97 por ciento de la violencia gráfica antes de que alguien lo informe. Sin embargo, no está tan claro cómo se aplican estos sistemas a la transmisión en vivo de Facebook.

    Los expertos dicen que el video en vivo plantea desafíos únicos, y quejas sobre suicidios por transmisión en vivo, regularmente surgen asesinatos y palizas. Sin embargo, dicen que Facebook no puede desviar la responsabilidad.

    "Si no pueden asumir la responsabilidad, entonces es su culpa por continuar brindando ese servicio, "dijo Mary Anne Franks, profesor de derecho en la Universidad de Miami.

    Un oficial de policía hace guardia frente a la mezquita Masjid Al Noor en Christchurch, Nueva Zelanda, Domingo, Marzo 17, 2019, donde ocurrió uno de los dos tiroteos masivos. Los residentes afectados de Nueva Zelanda se acercaron a los musulmanes en sus vecindarios y en todo el país el sábado, mostrar bondad a una comunidad que sufre mientras un supremacista blanco de 28 años permanecía en silencio ante un juez, acusado en tiroteos masivos en dos mezquitas que dejaron decenas de muertos. (Foto AP / Vincent Yu)

    Ella lo llama "increíblemente ofensivo e inapropiado" atribuir la responsabilidad a los usuarios sometidos a videos traumáticos.

    En algunos casos, no está claro desde el principio si un video u otra publicación viola los estándares de Facebook, especialmente en un servicio con una variedad de idiomas y normas culturales. La indecisión no parece ser el caso aquí, aunque. Facebook simplemente no lo supo a tiempo.

    Sonderby de Facebook dijo en la publicación del blog del martes que la compañía "designó ambos tiroteos como ataques terroristas, lo que significa que cualquier elogio, El apoyo y la representación de los hechos "son violaciones.

    Vaidhyanathan dijo que la función de video en vivo de Facebook se ha convertido en una bestia por la que Facebook puede hacer poco al respecto "aparte de activar el interruptor". Aunque Facebook ha contratado a más moderadores para complementar la detección de máquinas y los informes de usuarios, "no se puede contratar a suficientes personas" para vigilar un servicio con 2.300 millones de usuarios.

    "La gente siempre encontrará nuevas formas de expresar su odio e instigar la violencia, " él dijo.

    La primera ministra de Nueva Zelanda, Jacinda Ardern, expresó su frustración porque las imágenes permanecieron en línea cuatro días después de la masacre.

    Las máquinas pueden detectar cuándo los usuarios intentan volver a publicar videos prohibidos mediante patrones coincidentes, o huellas digitales, en los archivos. Pero los usuarios decididos a sortear estos controles pueden hacer pequeñas modificaciones, como ajustar el color o la velocidad del video.

    El Foro Mundial de Internet para la Lucha contra el Terrorismo, un grupo de empresas globales de Internet lideradas por Facebook, YouTube, Microsoft y Twitter, dijo que ha identificado 800 versiones diferentes y las ha agregado a una base de datos compartida utilizada para bloquear imágenes y videos de terroristas violentos.

    Sonderby dijo que algunas variantes son difíciles de detectar y que Facebook se ha "expandido a sistemas de detección adicionales, incluido el uso de tecnología de audio".

    En una serie de tweets un día después de los tiroteos, Ex director de seguridad de Facebook, Alex Stamos, presentó el desafío para las empresas de tecnología mientras corrían para mantenerse al día con las nuevas versiones del video.

    "Lo que está viendo en las plataformas principales es el agua que gotea alrededor de miles de dedos metidos en una presa, " él dijo.

    Stamos estimó que las grandes empresas de tecnología están bloqueando la carga de más del 99 por ciento de los videos, "que no es suficiente para que sea imposible de encontrar".

    © 2019 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com