• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    Los deepfakes aún son nuevos, pero 2024 podría ser el año en que tengan impacto en las elecciones

    Crédito:imagen generada por IA

    La desinformación tomó por sorpresa a muchas personas durante el referéndum sobre el Brexit de 2016 y las elecciones presidenciales de Estados Unidos. Desde entonces, se ha desarrollado una miniindustria para analizarlo y contrarrestarlo.



    Sin embargo, a pesar de eso, hemos entrado en 2024, un año de más de 40 elecciones en todo el mundo, más temerosos que nunca por la desinformación. En muchos sentidos, el problema es más desafiante que en 2016.

    Una de las razones son los avances tecnológicos desde entonces, en particular el desarrollo de los medios sintéticos, también conocidos como deepfakes. Cada vez es más difícil saber si los medios han sido fabricados por una computadora o se basan en algo que realmente sucedió.

    Todavía tenemos que comprender realmente el impacto que podrían tener los deepfakes en las elecciones. Pero una serie de ejemplos señalan el modo en que se pueden utilizar. Este puede ser el año en el que se cometan muchos errores y se aprendan muchas lecciones.

    Desde que se propagó la desinformación en torno a las votaciones en 2016, los investigadores han producido innumerables libros y artículos, los periodistas se han vuelto a capacitar como expertos en verificación y verificación de hechos, los gobiernos han participado en "grandes comités" y centros de excelencia.

    Además, las bibliotecas se han convertido en el centro de las estrategias de creación de resiliencia y ha surgido una variedad de nuevos organismos para brindar análisis, capacitación y recursos.

    Esta actividad no ha sido infructuosa. Ahora tenemos una comprensión más matizada de la desinformación como fenómeno social, psicológico, político y tecnológico. También son prometedores los esfuerzos para apoyar el periodismo de interés público y el cultivo del pensamiento crítico a través de la educación. En particular, las grandes empresas tecnológicas ya no pretenden ser plataformas neutrales.

    Mientras tanto, los responsables de la formulación de políticas han redescubierto su deber de regular la tecnología en aras del interés público.

    IA y medios sintéticos

    Las discusiones regulatorias han aumentado la urgencia ahora que las herramientas de inteligencia artificial para crear medios sintéticos (medios generados parcial o totalmente por computadoras) se han generalizado. Estos deepfakes se pueden utilizar para imitar la voz y la apariencia de personas reales. Los medios deepfake son impresionantemente realistas y no requieren mucha habilidad ni recursos.

    Esta es la culminación de una revolución digital más amplia mediante la cual las sucesivas tecnologías han hecho que la producción de contenidos de alta calidad sea accesible para casi cualquier persona. Por el contrario, las estructuras regulatorias y los estándares institucionales para los medios se diseñaron en su mayoría en una época en la que sólo una minoría de profesionales tenía acceso a la producción.

    Los deepfakes políticos pueden adoptar diferentes formas. En las recientes elecciones de Indonesia se vio un vídeo falso que "resucitaba" al difunto presidente Suharto. Aparentemente, esto fue para animar a la gente a votar, pero fue acusado de ser propaganda porque fue producido por el partido político que él dirigía.

    Quizás un uso más obvio de los deepfakes sea difundir mentiras sobre candidatos políticos. Por ejemplo, un audio falso generado por IA publicado días antes de las elecciones parlamentarias de Eslovaquia en septiembre de 2023 intentó retratar al líder de Eslovaquia Progresista, Michal Šimečka, como si hubiera discutido con un periodista cómo manipular la votación.

    Aparte del obvio esfuerzo por socavar a un partido político, vale la pena señalar cómo este deepfake, cuyo origen no estaba claro, ejemplifica esfuerzos más amplios para convertir a las minorías en chivos expiatorios y demonizar al periodismo convencional.

    Afortunadamente, en este caso, el audio no era de alta calidad, lo que hizo que a los verificadores de datos les resultara más rápido y fácil confirmar su falta de autenticidad. Sin embargo, la integridad de las elecciones democráticas no puede depender de la ineptitud de los farsantes.

    La tecnología de audio deepfake se encuentra en un nivel de sofisticación que dificulta la detección. Los vídeos deepfake todavía tienen problemas con ciertas características humanas, como la representación de las manos, pero la tecnología aún es joven.

    También es importante señalar que el vídeo eslovaco se publicó durante los últimos días de la campaña electoral. Este es el mejor momento para lanzar ataques de desinformación y manipulación porque los objetivos y los periodistas independientes están muy ocupados y, por lo tanto, tienen poco tiempo para responder.

    Si investigar las falsificaciones profundas también es costoso, requiere mucho tiempo y es difícil, entonces no está claro cómo deberían responder las comisiones electorales, los candidatos políticos, los medios de comunicación o, incluso, el electorado cuando surjan casos potenciales. Después de todo, una acusación falsa de un deepfake puede ser tan preocupante como el deepfake real.

    Otra forma en que se podrían utilizar los deepfakes para afectar las elecciones es la forma en que ya se utilizan ampliamente para acosar y abusar de mujeres y niñas. Este tipo de acoso sexual se ajusta a un patrón de abuso existente que limita la participación política de las mujeres.

    Cuestionando la integridad electoral

    La dificultad es que aún no está claro exactamente qué impacto podrían tener los deepfakes en las elecciones. Es muy posible que podamos ver otros usos similares de los deepfakes en las próximas elecciones de este año. E incluso podríamos ver deepfakes utilizados de formas aún no concebidas.

    Pero también vale la pena recordar que no toda la desinformación es de alta tecnología. Hay otras formas de atacar la democracia. Los rumores y teorías de conspiración sobre la integridad del proceso electoral son una tendencia insidiosa. El fraude electoral es una preocupación global dado que muchos países son sólo democracias de nombre.

    Claramente, las plataformas de redes sociales permiten e impulsan la desinformación de muchas maneras, pero es un error asumir que el problema comienza y termina en línea. Una forma de pensar en el desafío de la desinformación durante las próximas elecciones es pensar en la fortaleza de los sistemas que se supone deben defender la democracia.

    ¿Existe un sistema de medios independiente capaz de proporcionar investigaciones de alta calidad en beneficio del interés público? ¿Existen administradores y órganos electorales independientes? ¿Existen tribunales independientes para fallar si es necesario?

    ¿Y existe suficiente compromiso con los valores democráticos por encima del interés propio entre los políticos y los partidos políticos? Este año de elecciones, es posible que encontremos la respuesta a estas preguntas.

    Proporcionado por The Conversation

    Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com