• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    Detectando campañas de influencia en X con IA y ciencia de redes
    Crédito:Pixabay/CC0 Dominio público

    En la era de la IA generativa y los grandes modelos de lenguaje (LLM), se pueden transmitir rápidamente cantidades masivas de contenido no auténtico en las plataformas de redes sociales. Como resultado, los actores maliciosos se están volviendo más sofisticados, secuestrando hashtags, amplificando artificialmente contenido engañoso y compartiendo propaganda masiva.



    Estas acciones a menudo están orquestadas por operaciones de información (IO) patrocinadas por el estado, que intentan influir en la opinión pública durante eventos geopolíticos importantes, como las elecciones estadounidenses, la pandemia de COVID-19 y más.

    Combatir estas OI nunca ha sido más crucial. Identificar campañas de influencia con tecnología de alta precisión reducirá significativamente la clasificación errónea de usuarios legítimos como impulsores de IO, garantizando que los proveedores o reguladores de redes sociales no suspendan cuentas por error mientras intentan frenar actividades ilícitas.

    A la luz de esto, el investigador del Instituto de Ciencias de la Información (ISI) de la USC, Luca Luceri, está codirigiendo un esfuerzo para identificar y caracterizar campañas de influencia en las redes sociales. Su artículo más reciente, "Desenmascarando la red del engaño:descubriendo actividades coordinadas para exponer operaciones de información en Twitter", se presentó en la conferencia web el 13 de mayo de 2024.

    "Mi equipo y yo hemos trabajado en modelar e identificar impulsores de IO, como bots y trolls, durante los últimos cinco a diez años", dijo Luceri. "En este artículo, hemos avanzado nuestras metodologías para proponer un conjunto de modelos de aprendizaje automático supervisados ​​y no supervisados ​​que pueden detectar campañas de influencia orquestadas de diferentes países dentro de la plataforma X (anteriormente Twitter)".

    Una red fusionada de comportamientos similares

    A partir de un conjunto de datos completo de 49 millones de tweets de campañas verificadas que se originan en seis países (China, Cuba, Egipto, Irán, Rusia y Venezuela), Luceri y su equipo han perfeccionado cinco comportamientos compartidos en X en los que participan los conductores de IO. /P>

    Estos incluyen co-retwittear (compartir tweets idénticos), co-URL (compartir los mismos enlaces o URL), secuencia de hashtag (usar una secuencia idéntica de hashtags dentro de los tweets), retweet rápido (volver a compartir rápidamente contenido de los mismos usuarios), y similitud de texto (tweets con contenido textual similar).

    Investigaciones anteriores se centraron en construir redes que trazaran cada tipo de comportamiento, examinando las similitudes entre usuarios individuales en X. Sin embargo, Luceri y su equipo notaron que estas cuentas a menudo emplean muchas estrategias al mismo tiempo, lo que significaba que monitorear un rastro de comportamiento era difícil. no es suficiente.

    "Descubrimos que el co-retwitteo fue utilizado masivamente en campañas en Cuba y Venezuela", explicó Luceri. "Sin embargo, si sólo examinamos el co-retwitteo sin considerar otros comportamientos, tendríamos un buen desempeño en la identificación de algunas campañas, como las que se originan en Cuba y Venezuela, pero mal cuando el co-retwitteo se usó menos, como en las campañas rusas".

    Para capturar una gama más amplia de comportamientos de intercambio coordinados, los investigadores construyeron una red de similitud unificada llamada Red Fusionada. Luego, aplicaron algoritmos de aprendizaje automático alimentados por las propiedades topológicas de la red fusionada para clasificar las similitudes de estas cuentas y predecir su participación futura en IO.

    Luceri y su equipo descubrieron que este método podría aplicarse a campañas en todo el mundo. Varios usuarios X dentro de la misma campaña, sin importar de dónde sean, mostraron una notable similitud colectiva en sus acciones.

    "Considero que nuestro trabajo es un cambio de paradigma en los métodos de investigación, dando una nueva perspectiva en la identificación de campañas de influencia y sus impulsores", afirmó Luceri.

    Desbloqueando nuevas oportunidades

    El modelo de aprendizaje automático no supervisado aprovecha características de red bien conocidas, pero infrautilizadas, logrando una precisión un 42% mayor que otros enfoques tradicionales para detectar campañas de influencia. Luceri considera este artículo como un punto de partida que podría abrir el camino a nuevas vías de investigación.

    "Podemos entrenar modelos sobre las características topológicas de esta red de similitud y hacerlos funcionar en escenarios complejos:por ejemplo, si diferentes usuarios de diferentes países interactúan entre sí, o situaciones más desafiantes en las que tenemos información limitada sobre las campañas". comentó Luceri.

    Luceri también presentó otro artículo "Aprovechamiento de grandes modelos lingüísticos para detectar campañas de influencia en las redes sociales" en la Conferencia Web, que recibió el premio al mejor artículo del Taller Internacional sobre Métodos Computacionales para el Análisis del Discurso en Línea (BeyondFacts'24). El artículo examina el potencial del uso de LLM para reconocer los signos de campañas de influencia impulsadas por IA. Esto es particularmente crucial en el clima actual, donde los medios creados por IA son omnipresentes.

    "Estas actividades coordinadas tienen consecuencias en la vida real", afirmó Luceri. "Tienen el poder de difundir información errónea y teorías de conspiración que podrían conducir a protestas o ataques a nuestra democracia, como la interferencia de los trolls rusos en las elecciones estadounidenses de 2016".

    Luceri y su equipo se comprometen a continuar la búsqueda de estrategias alternativas para identificar campañas de influencia y proteger a los usuarios susceptibles de influencia.

    Más información: Luca Luceri et al, Desenmascarando la red de engaños:Descubriendo una actividad coordinada para exponer operaciones de información en Twitter, arXiv (2023). DOI:10.48550/arxiv.2310.09884

    Luca Luceri et al, Aprovechamiento de grandes modelos lingüísticos para detectar campañas de influencia en las redes sociales, arXiv (2023). DOI:10.48550/arxiv.2311.07816

    Información de la revista: arXiv

    Proporcionado por la Universidad del Sur de California




    © Ciencia https://es.scienceaq.com