Las plataformas de redes sociales se han convertido en más que meras herramientas de comunicación. Han evolucionado hasta convertirse en escenarios bulliciosos donde la verdad y la falsedad chocan. Entre estas plataformas, X se destaca como un campo de batalla destacado. Es un lugar donde prosperan las campañas de desinformación, perpetuadas por ejércitos de robots impulsados por inteligencia artificial programados para influir en la opinión pública y manipular narrativas.
Los bots impulsados por IA son cuentas automatizadas diseñadas para imitar el comportamiento humano. Los bots en las redes sociales, las plataformas de chat y la IA conversacional son parte integral de la vida moderna. Son necesarios, por ejemplo, para que las aplicaciones de IA se ejecuten de forma eficaz.
Pero algunos bots están diseñados con intenciones maliciosas. Sorprendentemente, los bots constituyen una parte importante de la base de usuarios de X. En 2017 se estimó que había aproximadamente 23 millones de bots sociales que representaban el 8,5% del total de usuarios. Más de dos tercios de los tweets se originaron en estas cuentas automatizadas, lo que amplifica el alcance de la desinformación y enturbia las aguas del discurso público.
La influencia social es ahora un bien que se puede adquirir comprando bots. Las empresas venden seguidores falsos para aumentar artificialmente la popularidad de las cuentas. Estos seguidores están disponibles a precios notablemente bajos, y hay muchas celebridades entre los compradores.
Durante nuestra investigación, por ejemplo, mis colegas y yo detectamos un robot que había publicado 100 tweets ofreciendo seguidores en venta.
Utilizando metodologías de inteligencia artificial y un enfoque teórico llamado teoría del actor-red, mis colegas y yo analizamos cómo los robots sociales maliciosos manipulan las redes sociales, influyendo en lo que las personas piensan y cómo actúan con una eficacia alarmante. Podemos saber si las noticias falsas fueron generadas por un humano o un robot con una tasa de precisión del 79,7%. Es crucial comprender cómo tanto los humanos como la IA difunden desinformación para comprender las formas en que los humanos aprovechan la IA para difundir información errónea.
Por poner un ejemplo, examinamos la actividad de una cuenta llamada "True Trumpers" en Twitter.
La cuenta se creó en agosto de 2017, no tiene seguidores ni foto de perfil, pero, en el momento de la investigación, había publicado 4.423 tweets. Estos incluían una serie de historias totalmente inventadas. Vale la pena señalar que este robot se originó en un país de Europa del Este.
Investigaciones como esta influyeron en X para restringir las actividades de los robots sociales. En respuesta a la amenaza de manipulación de las redes sociales, X ha implementado límites de lectura temporales para frenar la extracción y manipulación de datos. Las cuentas verificadas se han limitado a leer 6.000 publicaciones por día, mientras que las cuentas no verificadas pueden leer 600 por día. Esta es una nueva actualización, por lo que aún no sabemos si ha sido efectiva.
Sin embargo, en última instancia, recae en los usuarios la responsabilidad de actuar con cautela y discernir la verdad de la falsedad, especialmente durante los períodos electorales. Al evaluar críticamente la información y verificar las fuentes, los usuarios pueden desempeñar un papel en la protección de la integridad de los procesos democráticos del ataque de los robots y las campañas de desinformación en X. Cada usuario es, de hecho, un defensor de primera línea de la verdad y la democracia. La vigilancia, el pensamiento crítico y una buena dosis de escepticismo son una armadura esencial.
En el caso de las redes sociales, es importante que los usuarios comprendan las estrategias empleadas por las cuentas maliciosas.
Los actores malintencionados suelen utilizar redes de robots para amplificar narrativas falsas, manipular tendencias y difundir rápidamente información errónea. Los usuarios deben tener cuidado al encontrar cuentas que muestren un comportamiento sospechoso, como publicaciones excesivas o mensajes repetitivos.
La desinformación también se propaga con frecuencia a través de sitios web dedicados a noticias falsas. Están diseñados para imitar fuentes de noticias creíbles. Se recomienda a los usuarios verificar la autenticidad de las fuentes de noticias cruzando la información con fuentes acreditadas y consultando a organizaciones de verificación de datos.
La autoconciencia es otra forma de protección, especialmente frente a las tácticas de ingeniería social. La manipulación psicológica a menudo se utiliza para engañar a los usuarios haciéndoles creer falsedades o realizar determinadas acciones. Los usuarios deben mantener la vigilancia y evaluar críticamente el contenido que encuentran, especialmente durante períodos de mayor sensibilidad, como las elecciones.
Al mantenernos informados, participar en el discurso civil y abogar por la transparencia y la rendición de cuentas, podemos dar forma colectivamente a un ecosistema digital que fomente la confianza, la transparencia y la toma de decisiones informada.
Proporcionado por The Conversation
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.