• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Facebook dice que la IA está mejorando en el espionaje de contenido no deseado

    Facebook ha estado invirtiendo mucho en inteligencia artificial para detectar automáticamente el contenido prohibido

    Facebook dijo el miércoles que su software se está volviendo más hábil para espiar contenido prohibido en la red social. luego trabajar con humanos para eliminar rápidamente videos terroristas y más.

    "Si bien nos inclinamos hacia la libertad de expresión, generalmente trazamos la línea en cualquier cosa que pueda resultar en un daño real, ", Dijo el director ejecutivo de Facebook, Mark Zuckerberg, durante una sesión informativa sobre el último informe de la compañía sobre la búsqueda de publicaciones que violan sus políticas.

    "Esta es una pequeña fracción del contenido de Facebook e Instagram, y eliminamos gran parte de ella antes de que nadie la vea ".

    Facebook ha estado invirtiendo fuertemente en inteligencia artificial (IA) para detectar automáticamente el contenido prohibido, a menudo antes de que los usuarios lo vean, y equipos humanos de revisores que comprueban si el software estaba en el objetivo.

    Facebook tiene más de 35, 000 personas que trabajan en seguridad y protección, y gasta miles de millones de dólares anualmente en esa misión, según Zuckerberg.

    "Nuestros esfuerzos están dando sus frutos, ", Dijo Zuckerberg." Los sistemas que construimos para abordar estos problemas son más avanzados ".

    Cuando se trata de detectar el discurso de odio, El software de Facebook ahora encuentra automáticamente el 80 por ciento del contenido eliminado en una mejora masiva con respecto a hace dos años, cuando casi todo ese material no se trató hasta que los usuarios lo informaron, según la firma con sede en California.

    Matiz irritante

    Zuckerberg señaló que el discurso del odio es más difícil de detectar para la IA que la desnudez en imágenes o videos debido a los "matices lingüísticos" que requieren un contexto que podría hacer que incluso las palabras comunes sean amenazadoras.

    Agregue a eso videos de ataques impulsados ​​por prejuicios contra una raza, El género o la religión podrían compartirse para condenar esa violencia en lugar de glorificarla.

    El presidente y director ejecutivo de Facebook, Mark Zuckerberg, testifica ante el Comité de Servicios Financieros de la Cámara el 23 de octubre. 2019

    La gente de Facebook sigue intentando compartir vídeos de los horribles ataques a una mezquita en Christchurch. Nueva Zelanda, con sistemas de redes sociales que bloquean el 95 por ciento de esos intentos, según los ejecutivos.

    Un pistolero solitario abrió fuego contra dos mezquitas en la ciudad de Christchurch matando e hiriendo a decenas de musulmanes en marzo. retransmitiendo los asaltos en directo en Facebook.

    Facebook cuenta con expertos en terrorismo como parte de un equipo de más de 350 personas dedicadas a evitar que grupos terroristas utilicen la red social, según la jefa de gestión de políticas globales, Monika Bickert.

    Los sistemas perfeccionados para buscar y eliminar contenido prohibido en Facebook también se utilizan en Instagram, que ha intensificado los esfuerzos para filtrar el contenido que pueda alentar el suicidio o las autolesiones al tiempo que permite a las personas compartir experiencias tan traumáticas con un espíritu de recuperación o curación,

    Las reglas implementadas recientemente en Instagram agregaron dibujos y otro contenido ficticio a la lista a la prohibición de imágenes que podrían alentar el suicidio o la autolesión.

    El servicio de intercambio de imágenes y videos propiedad de Facebook a principios de este año tomó medidas drásticas contra las imágenes de autolesiones después de que una adolescente británica que se conectó a Internet para leer sobre el suicidio se quitó la vida en 2017.

    El historial de la joven de 14 años en las redes sociales reveló que siguió relatos sobre depresión y suicidio.

    El caso provocó un vigoroso debate en Gran Bretaña sobre el control parental y la regulación estatal del uso de las redes sociales por parte de los niños.

    Instagram nunca ha permitido publicaciones que promuevan o fomenten el suicidio o la autolesión.

    Con un cambio de reglas a principios de este año, Instagram comenzó a eliminar referencias a contenido no gráfico relacionado con personas que se lastiman a sí mismas por sus búsquedas y funciones de recomendación.

    Las medidas estaban destinadas a hacer que esas imágenes fueran más difíciles de encontrar para los adolescentes deprimidos que pudieran tener tendencias suicidas.

    © 2019 AFP




    © Ciencia https://es.scienceaq.com