• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La tecnología y la regulación deben trabajar en conjunto para combatir el discurso de odio en línea

    Crédito:shutterstock

    Bullying en línea, el odio y la incitación van en aumento, y se necesitan nuevos enfoques para abordarlos. Mientras el Senado australiano lleva a cabo audiencias para su Investigación sobre el acoso cibernético, debería considerar un enfoque de dos vertientes para combatir el problema.

    Primero, el gobierno debería seguir el ejemplo de Alemania al imponer sanciones económicas a las principales empresas de redes sociales si no logran reducir el volumen de contenido abusivo en sus plataformas.

    Segundo, debemos desarrollar formas de identificar y medir correctamente la cantidad de contenido abusivo que se publica y se elimina para garantizar que las empresas cumplan.

    Dado el volumen de datos en las redes sociales, La inteligencia artificial (IA) debe ser parte de la combinación en la regulación de apoyo, pero necesitamos una apreciación de sus limitaciones.

    El impacto en las víctimas

    En 2015, El abogado australiano Josh Bornstein fue víctima de graves abusos en línea a manos de un hombre en los Estados Unidos. quien se hizo pasar por Bornstein y publicó un artículo racista en línea a su nombre. Posteriormente, Bornstein se encontró en el extremo receptor de un aluvión de odio de todo el mundo.

    El incidente fue muy angustioso para Bornstein, pero el odio cibernético también puede tener consecuencias para la sociedad en general. Actuando bajo un manto de anonimato, el mismo hombre usó otra identidad falsa para hacerse pasar por un partidario del EI que pedía ataques terroristas en Australia y otros países occidentales. En diciembre, fue condenado en los Estados Unidos por cargos de terrorismo.

    Bornstein ahora está pidiendo tanto la regulación de las empresas de redes sociales por parte de los gobiernos como los recursos legales para permitir la acción de las víctimas.

    Alemania como modelo regulatorio

    La nueva legislación introducida recientemente en Alemania requiere que las empresas eliminen los casos claros de incitación al odio en un plazo de 24 horas.

    En respuesta, Facebook ha empleado 1, 200 empleados y contratistas para procesar de forma más eficaz las denuncias de abusos cometidos por usuarios alemanes. Si la empresa no elimina la mayoría de dicho contenido dentro del límite de 24 horas, los reguladores pueden imponer multas de hasta 50 millones de euros (79 millones de dólares australianos).

    Estas leyes no son perfectas:pocos meses después de su entrada en vigor, Alemania ya está considerando cambios para evitar que las empresas de redes sociales tengan un efecto paralizante en la libertad de expresión. Pero el enfoque alemán nos da una ventana a cómo se ve una fuerte respuesta estatal al ciberacoso.

    Esta es solo la cúspide de un nuevo y valiente mundo de regulación tecnológica. Las leyes de ciberacoso no se pueden hacer cumplir si no sabemos cuánto abuso se publica en línea, y cuánto están eliminando las plataformas de abuso. Necesitamos herramientas para respaldar esto.

    Empleando inteligencia artificial

    En el Instituto de Prevención del Odio en Línea (OHPI), hemos pasado los últimos seis años abordando casos específicos, incluido el de Bornstein, y trabajando en el problema de la medición utilizando enfoques de inteligencia artificial y crowdsourcing de clase mundial.

    Otros también están considerando la identificación y la medición como el próximo paso. El Sistema de Monitoreo Cibernético del Antisemitismo (ACMS), una nueva herramienta para monitorear el antisemitismo en las redes sociales, ha sido desarrollado por el Ministerio de Asuntos de la Diáspora de Israel desde octubre de 2016. Se lanzará en el Foro Global 2018 para Combatir el Antisemitismo en Jerusalén a finales de este mes.

    La herramienta utiliza análisis de texto, una forma de inteligencia artificial, y funciona buscando palabras en sitios de redes sociales, frases y símbolos que se han identificado como indicadores de posible contenido antisemita. Luego, la herramienta revisa el contenido y genera gráficos interactivos.

    El Congreso Judío Mundial y el proyecto Conversation AI de Google han utilizado enfoques similares. pero el enfoque tiene una eficacia limitada, especialmente cuando se aplica a grandes sitios de redes sociales.

    Los datos de una prueba de un mes de ACMS se publicaron antes del lanzamiento del sistema. Si bien el software se promueve como un gran paso adelante en la lucha contra el odio cibernético, los datos en sí mismos resaltan serias limitaciones metodológicas y tecnológicas, lo que los convierte en una distracción.

    Limitaciones de la tecnología

    Una limitación que tiene ACMS es detectar el abuso que usa el lenguaje codificado, símbolos y eufemismos cada vez más favorecidos por la extrema derecha.

    Otra es que ACMS solo monitorea el contenido de Facebook y Twitter. YouTube, que representó el 41% del antisemitismo en línea identificado en un informe anterior, no esta incluido. El sistema automatizado también solo monitorea el contenido en inglés, Arábica, Frances y aleman.

    Lo que es más preocupante es la afirmación del Ministerio de que las ciudades que producen el mayor volumen de contenido racista fueron Santiago (Chile), Dnipro (Ucrania), y Bucarest (Rumania). Estas ciudades tienen idiomas principales que el software no está programado para procesar, sin embargo, de alguna manera han superado a las ciudades cuyos idiomas principales procesa el software.

    De particular interés para Australia es un gráfico titulado Lugares de interés:nivel de antisemitismo por ubicación que muestra a Brisbane como la ciudad de habla inglesa mejor clasificada. Este resultado se ha explicado mediante una aclaración posterior que sugiere que el número es una amalgama de Me gusta globales, comparte y retuitea que interactuaron con contenido publicado originalmente desde Brisbane. Por lo tanto, los datos están sujetos a un alto grado de aleatoriedad en función del contenido que se vuelve viral.

    Los abogados y los científicos de datos deben trabajar juntos

    Hay un lugar para las herramientas de detección basadas en inteligencia artificial, pero es necesario comprender sus limitaciones. El análisis de texto puede identificar subconjuntos específicos de odio en línea, como esvásticas; lenguaje relacionado con Hitler, Nazis cámaras y hornos de gas; y temas antisemitas que son prominentes entre algunos grupos de extrema derecha. Pero no son una solución milagrosa.

    Yendo más allá de la identificación, necesitamos tanto abogados como científicos de datos para informar nuestro enfoque para regular los espacios en línea. Las nuevas herramientas de inteligencia artificial deben verificarse con otros enfoques, como los datos de crowdsourcing del público. Y los expertos deben revisar la precisión de los datos. Necesitamos aprovechar las nuevas tecnologías para respaldar los regímenes de regulación, evitando al mismo tiempo una forma de robocensura fallida similar a los problemas de robo deudas que plagaron Centrelink.

    La investigación sobre el ciberacoso es un paso importante, siempre que facilite las soluciones del mañana, no solo los problemas de hoy.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com