• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los ejecutivos tecnológicos dicen que están actuando más rápido en contenido extremista

    De izquierda a Monika Bickert, jefe de gestión de políticas globales en Facebook, Nick Pickles, director de políticas públicas de Twitter, Derek Slater, director global de política de información de Google, y el vicepresidente senior de programas de la Liga Anti-Difamación, George Selim, testifican ante el Senado de Comercio, Comité de Ciencia y Transporte sobre cómo las empresas de Internet y las redes sociales están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    Ejecutivos de Facebook, Google y Twitter le dijeron al Congreso el miércoles que se han vuelto mejores y más rápidos en la detección y eliminación de contenido extremista violento en sus plataformas de redes sociales frente a tiroteos masivos alimentados por el odio.

    Interrogado en una audiencia por el Comité de Comercio del Senado, los ejecutivos dijeron que están gastando dinero en tecnología para mejorar su capacidad de señalar contenido extremista y tomar la iniciativa de comunicarse con las autoridades policiales para tratar de evitar posibles incidentes violentos.

    "Continuaremos invirtiendo en las personas y la tecnología para enfrentar el desafío, "dijo Derek Slater, Director de política de información de Google.

    Los legisladores quieren saber qué están haciendo las empresas para eliminar el discurso de odio de sus plataformas y cómo se están coordinando con las fuerzas del orden.

    "Estamos experimentando una oleada de odio ... Las redes sociales se utilizan para amplificar ese odio, "dijo la senadora Maria Cantwell del estado de Washington, demócrata principal del panel.

    Los ejecutivos de la compañía testificaron que su tecnología está mejorando para identificar y eliminar contenido sospechoso más rápido.

    De los 9 millones de videos eliminados de YouTube de Google en el segundo trimestre del año, 87% fueron señalados por una máquina que usa inteligencia artificial, y muchos de ellos fueron eliminados antes de tener una sola vista, Slater dijo.

    De izquierda a Monika Bickert, jefe de gestión de políticas globales en Facebook, Nick Pickles, director de políticas públicas de Twitter, y Derek Slater, el director global de política de información de Google testifica ante el Senado de Comercio, Comité de Ciencia y Transporte sobre cómo las empresas de Internet y las redes sociales están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    Después del tiroteo en una escuela secundaria de febrero de 2018 en Florida que mató a 17 personas, Google comenzó a comunicarse de manera proactiva con las autoridades encargadas de hacer cumplir la ley para ver cómo pueden coordinar mejor Slater dijo. Nikolas Cruz, el sospechoso del tiroteo, había publicado en una página de YouTube de antemano, "Voy a ser un tirador escolar profesional, "dijeron las autoridades.

    Esta semana llegó la noticia de Facebook de que trabajará con las organizaciones encargadas de hacer cumplir la ley para capacitar a sus sistemas de inteligencia artificial para que reconozcan videos de eventos violentos como parte de un esfuerzo más amplio para acabar con el extremismo. Los sistemas de inteligencia artificial de Facebook no pudieron detectar el video transmitido en vivo de los tiroteos en la mezquita en Nueva Zelanda en marzo que mataron a 50 personas. El autoproclamado supremacista blanco acusado de los disparos había transmitido en vivo el ataque.

    El esfuerzo utilizará imágenes de cámaras corporales de entrenamiento con armas de fuego proporcionado por el gobierno de EE. UU. Y el Reino Unido y las agencias de aplicación de la ley.

    Monika Bickert, jefe de gestión de políticas globales en Facebook, testifica ante el Senado de Comercio, Comité de Ciencia y Transporte durante una audiencia sobre cómo las empresas de redes sociales e Internet están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    Facebook también está ampliando su definición de terrorismo para incluir no solo los actos de violencia destinados a lograr un objetivo político o ideológico, pero también intentos de violencia, especialmente cuando se dirige a civiles con la intención de coaccionar e intimidar. La compañía ha tenido un éxito desigual en sus esfuerzos por limitar la difusión de material extremista en su servicio.

    Facebook parece haber avanzado poco, por ejemplo, en sus sistemas automatizados para eliminar contenido prohibido que glorifica a grupos como el Estado Islámico en los cuatro meses desde que The Associated Press detalló cómo las páginas de Facebook generadas automáticamente para las empresas están ayudando a los extremistas de Oriente Medio y a los supremacistas blancos en los EE. UU. Los nuevos detalles provienen de una actualización de una queja a la Comisión de Bolsa y Valores que el Centro Nacional de Denunciantes planea presentar esta semana.

    Facebook dijo en respuesta que elimina las páginas generadas automáticamente "que violen nuestras políticas. Si bien no podemos detectar todas, nos mantenemos alerta en este esfuerzo ".

    Monika Bickert, jefe de gestión de políticas globales en Facebook, unido a la derecha por Nick Pickles, director de políticas públicas de Twitter, testifica ante el Senado de Comercio, Comité de Ciencia y Transporte durante una audiencia sobre cómo las empresas de redes sociales e Internet están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    Monika Bickert, Jefe de gestión de políticas globales de Facebook, dijo en la audiencia del Senado que la empresa ha aumentado su capacidad para detectar el terror, violencia y discurso de odio mucho antes. "Sabemos que las personas deben estar seguras, ", dijo. Bickert señaló que Facebook elimina cualquier contenido que promueva la violencia, supremacía blanca o nacionalismo, además de indicar suicidio, y deshabilita las cuentas cuando se detectan amenazas.

    Director de estrategia de políticas públicas de Twitter, Nick Pickles, dijo que el servicio suspendió más de 1,5 millones de cuentas por promover el terrorismo entre el 1 de agosto, 2015, y 31 de diciembre, 2018. Más del 90% de las cuentas están suspendidas a través de las medidas proactivas de Twitter, él dijo, sin esperar los informes del gobierno y las fuerzas del orden.

    Senador Rick Scott, R-Fla., preguntó a Pickles por qué Twitter no había suspendido la cuenta del líder socialista venezolano Nicolás Maduro, quien ha presidido una crisis económica y política cada vez más profunda y ha amenazado a los políticos de la oposición con un proceso penal.

    • Monika Bickert, jefe de gestión de políticas globales en Facebook, unido a la derecha por Nick Pickles, director de políticas públicas de Twitter, testifica ante el Senado de Comercio, Comité de Ciencia y Transporte durante una audiencia sobre cómo las empresas de redes sociales e Internet están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    • Derek Slater, director global de política de información de Google, escucha antes de testificar en un Senado de Comercio, Audiencia del Comité de Ciencia y Transporte sobre cómo las empresas de Internet y las redes sociales están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    • De izquierda a Monika Bickert, jefe de gestión de políticas globales en Facebook, Nick Pickles, director de políticas públicas de Twitter, y Derek Slater, el director global de política de información de Google testifica ante el Senado de Comercio, Comité de Ciencia y Transporte sobre cómo las empresas de Internet y las redes sociales están preparadas para frustrar el terrorismo y el extremismo, Miércoles, 18 de septiembre 2019, en Capitol Hill en Washington. (Foto AP / J. Scott Applewhite)

    Si Twitter eliminó la cuenta de Maduro, "no cambiaría los hechos sobre el terreno, "Dijo Pickles.

    Scott dijo que no estaba de acuerdo porque la cuenta de Maduro con unos 3,7 millones de seguidores le otorga legitimidad como líder mundial.

    © 2019 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com