• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo la inteligencia artificial puede detectar y crear noticias falsas

    ¿Es cierto eso de clickbait? Crédito:Crystal Eye Studio / Shutterstock.com

    Cuando Mark Zuckerberg le dijo al Congreso que Facebook usaría inteligencia artificial para detectar noticias falsas publicadas en el sitio de redes sociales, no fue particularmente específico sobre lo que eso significaba. Dado mi propio trabajo utilizando análisis de imágenes y videos, Sugiero que la empresa tenga cuidado. A pesar de algunos defectos potenciales básicos, La IA puede ser una herramienta útil para detectar propaganda en línea, pero también puede ser sorprendentemente buena para crear material engañoso.

    Los investigadores ya saben que las noticias falsas en línea se difunden mucho más rápido y más ampliamente que las noticias reales. Mi investigación ha encontrado de manera similar que las publicaciones en línea con información médica falsa obtienen más visitas, comentarios y me gusta que aquellos con contenido médico preciso. En un mundo en línea donde los espectadores tienen una atención limitada y están saturados de opciones de contenido, a menudo parece que la información falsa es más atractiva o atractiva para los espectadores.

    El problema está empeorando:para 2022, las personas en las economías desarrolladas podrían encontrarse con más noticias falsas que información real. Esto podría provocar un fenómeno que los investigadores han denominado "vértigo de la realidad", en el que las computadoras pueden generar contenido tan convincente que la gente común puede tener dificultades para descubrir qué es verdad.

    Detectando falsedades

    Algoritmos de aprendizaje automático, un tipo de IA, han tenido éxito durante décadas en la lucha contra el correo no deseado, analizando el texto de los mensajes y determinando qué tan probable es que un mensaje en particular sea una comunicación real de una persona real, o una solicitud distribuida masivamente de productos farmacéuticos o un reclamo de una fortuna perdida hace mucho tiempo.

    Sobre la base de este tipo de análisis de texto en la lucha contra el spam, Los sistemas de inteligencia artificial pueden evaluar qué tan bien está el texto de una publicación, o un titular se compara con el contenido real de un artículo que alguien comparte en línea. Otro método podría examinar artículos similares para ver si otros medios de comunicación tienen hechos diferentes. Sistemas similares pueden identificar cuentas específicas y sitios web de origen que difunden noticias falsas.

    Un ciclo sin fin

    Sin embargo, esos métodos asumen que las personas que difunden noticias falsas no cambian sus enfoques. A menudo cambian de táctica, manipular el contenido de las publicaciones falsas en un esfuerzo por hacer que parezcan más auténticas.

    El uso de la inteligencia artificial para evaluar la información también puede exponer (y amplificar) ciertos sesgos en la sociedad. Esto puede relacionarse con el género, antecedentes raciales o estereotipos del vecindario. Incluso puede tener consecuencias políticas, potencialmente restringiendo la expresión de puntos de vista particulares. Por ejemplo, YouTube ha eliminado la publicidad de ciertos tipos de canales de video, costando dinero a sus creadores.

    Esto seguro que parece que Barack Obama está diciendo algunas cosas que probablemente nunca diría.

    El contexto también es clave. Los significados de las palabras pueden cambiar con el tiempo. Y la misma palabra puede significar cosas diferentes en sitios liberales y conservadores. Por ejemplo, es más probable que una publicación con los términos "WikiLeaks" y "DNC" en un sitio más liberal sea noticia, mientras que en un sitio conservador podría referirse a un conjunto particular de teorías de conspiración.

    Usando IA para hacer noticias falsas

    El mayor desafío sin embargo, de usar IA para detectar noticias falsas es que pone a la tecnología en una carrera armamentista consigo misma. Los sistemas de aprendizaje automático ya están demostrando una capacidad espeluznante para crear lo que se llama "deepfakes":fotos y videos que reemplazan de manera realista la cara de una persona por otra. para que parezca que, por ejemplo, una celebridad fue fotografiada en una pose reveladora o una figura pública está diciendo cosas que él nunca diría. Incluso las aplicaciones de teléfonos inteligentes son capaces de este tipo de sustitución, lo que hace que esta tecnología esté disponible para casi cualquier persona. incluso sin las habilidades de edición de video del nivel de Hollywood.

    Los investigadores ya se están preparando para usar IA para identificar estas falsificaciones creadas por IA. Por ejemplo, Las técnicas de ampliación de video pueden detectar cambios en el pulso humano que establecerían si una persona en un video es real o generada por computadora. Pero tanto los falsificadores como los falsos detectores mejorarán. Algunas falsificaciones pueden volverse tan sofisticadas que resultan muy difíciles de refutar o descartar, a diferencia de las generaciones anteriores de falsificaciones, que usaba un lenguaje sencillo y hacía afirmaciones fácilmente refutadas.

    La inteligencia humana es la verdadera clave

    La mejor forma de combatir la difusión de noticias falsas puede ser depender de las personas. Las consecuencias sociales de las noticias falsas:mayor polarización política, mayor partidismo, y la confianza erosionada en los principales medios de comunicación y el gobierno - son importantes. Si más gente supiera que hay tanto en juego, pueden ser más cautelosos con la información, particularmente si tiene una base más emocional, porque es una forma eficaz de llamar la atención de las personas.

    Cuando alguien ve una publicación enfurecida, esa persona haría mejor en investigar la información, en lugar de compartirlo de inmediato. El acto de compartir también le da credibilidad a una publicación:cuando otras personas la ven, registran que fue compartido por alguien que conocen y presumiblemente confían al menos un poco, y es menos probable que se den cuenta de si la fuente original es cuestionable.

    Los sitios de redes sociales como YouTube y Facebook podrían decidir voluntariamente etiquetar su contenido, mostrando claramente si un artículo que pretende ser una noticia está verificado por una fuente confiable. Zuckerberg dijo al Congreso que quiere movilizar a la "comunidad" de usuarios de Facebook para dirigir los algoritmos de su empresa. Facebook podría realizar esfuerzos de verificación de fuentes colectivas. Wikipedia también ofrece un modelo, de voluntarios dedicados que rastrean y verifican la información.

    Facebook podría utilizar sus asociaciones con organizaciones de noticias y voluntarios para capacitar a la IA, continuamente ajustando el sistema para responder a los cambios de los propagandistas en temas y tácticas. Esto no captará todas las noticias publicadas en línea, pero facilitaría a un gran número de personas distinguir entre los hechos y los falsos. Eso podría reducir las posibilidades de que las historias ficticias y engañosas se vuelvan populares en línea.

    Tranquilizadoramente, las personas que están expuestas a noticias precisas son mejores para distinguir entre información real y falsa. La clave es asegurarse de que al menos parte de lo que la gente ve en línea sea, De hecho, verdadero.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com