Crédito:CC0 Public Domain
Un equipo de investigadores, incluido el cuerpo docente de la Universidad de Binghamton, han desarrollado algoritmos de aprendizaje automático que pueden identificar con éxito a los acosadores y agresores en Twitter con un 90 por ciento de precisión.
Las herramientas efectivas para detectar acciones dañinas en las redes sociales son escasas, ya que este tipo de comportamiento es a menudo de naturaleza ambigua y / o se manifiesta a través de comentarios y críticas aparentemente superficiales. Con el objetivo de abordar esta brecha, un equipo de investigación con el científico informático de la Universidad de Binghamton Jeremy Blackburn analizó los patrones de comportamiento exhibidos por los usuarios abusivos de Twitter y sus diferencias con otros usuarios de Twitter.
"Creamos rastreadores:programas que recopilan datos de Twitter a través de una variedad de mecanismos, ", dijo Blackburn." Recopilamos tweets de usuarios de Twitter, sus perfiles, así como las cosas relacionadas con las redes (sociales), como a quién siguen y quién los sigue ".
Luego, los investigadores realizaron el procesamiento del lenguaje natural y el análisis de sentimientos en los propios tweets, así como una variedad de análisis de redes sociales sobre las conexiones entre usuarios. Los investigadores desarrollaron algoritmos para clasificar automáticamente dos tipos específicos de comportamiento ofensivo en línea, es decir., ciberacoso y ciberagresión. Los algoritmos pudieron identificar a los usuarios abusivos en Twitter con un 90 por ciento de precisión. Estos son usuarios que se involucran en comportamientos de acoso, p.ej. los que envían amenazas de muerte o hacen comentarios racistas a los usuarios.
"En una palabra, los algoritmos 'aprenden' cómo diferenciar entre los acosadores y los usuarios típicos sopesando ciertas características a medida que se muestran más ejemplos, "dijo Blackburn.
Si bien esta investigación puede ayudar a mitigar el ciberacoso, es solo un primer paso, —dijo Blackburn.
"Uno de los mayores problemas con los problemas de seguridad cibernética es el daño que se está haciendo a los humanos, y es muy difícil de 'deshacer, ", Dijo Blackburn". Por ejemplo, nuestra investigación indica que el aprendizaje automático se puede utilizar para detectar automáticamente a los usuarios que son ciberacosadores, y así podría ayudar a Twitter y otras plataformas de redes sociales a eliminar usuarios problemáticos. Sin embargo, tal sistema es, en última instancia, reactivo:no previene intrínsecamente las acciones de intimidación, simplemente los identifica teniendo lugar a escala. Y la desafortunada verdad es que incluso si se eliminan las cuentas de intimidación, incluso si se eliminan todos sus ataques anteriores, las víctimas aún los vieron y fueron potencialmente afectados por ellos ".
Blackburn y su equipo están explorando actualmente técnicas de mitigación proactivas para hacer frente a las campañas de acoso.
El estudio, "Detectar el ciberacoso y la ciberagresión en las redes sociales, "fue publicado en Transacciones en la Web .