La semana pasada, el jefe del regulador electoral de Australia advirtió que la organización "no posee las herramientas legislativas ni la capacidad técnica interna para disuadir, detectar o tratar adecuadamente el contenido falso generado por IA en relación con el proceso electoral".
Esta observación, hecha ante un comité del Senado sobre la adopción de inteligencia artificial (IA), no es un comentario aislado. La relación entre la IA y la democracia es el tema de muchas conversaciones cada vez más urgentes que tienen lugar en todo el mundo.
Más de 60 países acudirán a las urnas en 2024, en lo que se ha denominado "el año electoral más importante de la historia". Australia espera celebrar elecciones en el Territorio del Norte y Queensland este año, y las elecciones federales se celebrarán en mayo de 2025.
Al mismo tiempo, la explosión de herramientas de inteligencia artificial generativa para texto, imágenes, audio y video está cambiando drásticamente la forma en que los australianos crean e interactúan con la información. ¿Cómo podemos mantener la integridad y la confianza de las elecciones en la era de la IA generativa?
El riesgo más obvio que la IA representa para la democracia es el contenido sintético (o "deepfakes"), que podría usarse para desinformar a los votantes. Una encuesta del Foro Económico Mundial realizada el año pasado encontró que los expertos clasificaron la "desinformación" y la "polarización social" como el primer y tercer riesgo global más grave durante los próximos dos años.
Estos riesgos ya se están manifestando. En Estados Unidos, un consultor político que utilizó la voz sintética del presidente estadounidense Joe Biden en llamadas automáticas se enfrenta a multas de varios millones de dólares. En India, los vídeos generados por IA se han vuelto cada vez más comunes en la campaña electoral de este año.
Pero los deepfakes y la desinformación están lejos de ser los únicos riesgos. La IA también presenta nuevas oportunidades. En la evidencia que presenté al comité del Senado, y en una presentación mía y de mis colegas del Tech Policy Design Center, sostenemos que es esencial una conversación nacional más completa sobre este tema.
Una política integral no se centrará únicamente en los votos falsos que influyen, sino en la salud de la democracia en general. Las elecciones libres y justas son una característica de la democracia (aunque increíblemente importante), pero hay muchas otras.
El compromiso cívico informado, la tolerancia y el pluralismo político son otros ingredientes importantes de un sistema democrático próspero. El sistema también necesita identificar y responder a las necesidades del electorado, y el gobierno debe ser transparente y responsable.
Entonces, cuando pensamos en la relación entre la IA y la democracia, debemos pensar en preocupaciones perennes como la representación política, el periodismo de interés público, la alfabetización mediática y la cohesión social.
Una política equilibrada debería reconocer que las tecnologías de IA presentan oportunidades para la democracia, así como riesgos.
Por ejemplo, es absolutamente razonable preocuparse de que la participación cívica informada pueda verse afectada debido a la tendencia de los modelos generativos de IA a "alucinar" y producir información errónea.
Sin embargo, la misma tecnología también puede involucrar a más votantes en el discurso cívico:puede convertir conceptos políticos complejos en contenido identificable o crear traducciones automáticas a muchos idiomas.
Algunos elementos de los desafíos que enfrentamos no son tan nuevos ni tan seguros como parecen.
La IA, y el auge de la IA generativa en particular, ciertamente inyecta algunos elementos sin precedentes en el ecosistema democrático. Pero todavía hay lecciones que podemos aprender del pasado.
Las inquietudes acerca de las tecnologías que hacen que las nuevas formas de comunicación sean ampliamente accesibles no son nuevas. Tampoco lo son los esfuerzos por regular y controlar quién puede influir en los flujos públicos de información.
En el siglo XV, la invención de la imprenta de Gutenberg avivó los temores sobre lo que ahora podríamos llamar "noticias falsas". Hay muchos ejemplos más recientes, incluido lo que hemos aprendido del auge de las redes sociales (que a su vez está dando forma a la historia de la IA y la democracia).
Necesitamos discernir sobre los elementos de la IA generativa que son fundamentalmente nuevos. Al mismo tiempo, podemos buscar herramientas políticas aplicables y lecciones de revoluciones anteriores de la tecnología de la información.
Australia se encuentra en una encrucijada interesante. A un año de nuestras próximas elecciones federales, se están desarrollando varias ramas políticas entrelazadas.
El departamento de industria está trabajando en una respuesta a la consulta sobre IA segura y responsable del año pasado. Esto incluirá la consideración de reglas para marcas de agua obligatorias en contenido generado por IA.
El departamento de comunicaciones también está reelaborando propuestas de nuevos poderes para la Autoridad Australiana de Comunicaciones y Medios. Estas ayudarán a combatir la desinformación y la desinformación, y pueden incluir medidas específicas de IA.
Al mismo tiempo, se está revisando la Ley de seguridad en línea de 2021. Esto puede dar lugar a poderes para abordar el abuso en línea de figuras públicas, que nuevamente puede involucrar a la IA.
Propongo cuatro acciones clave que el gobierno australiano debería tomar.
En primer lugar, debería desarrollar un enfoque nacional coordinado para la relación entre la IA y la democracia. Mis colegas del Centro de Diseño de Políticas Tecnológicas han ofrecido recomendaciones más detalladas sobre cómo coordinar el desarrollo de políticas tecnológicas nacionales.
En segundo lugar, el gobierno debería prestar mucha atención a las decenas de elecciones nacionales que se celebrarán este año en todo el mundo. Podemos monitorear el éxito o el fracaso de diferentes políticas en diferentes contextos para aprender de las experiencias de otros.
En tercer lugar, podemos aprender de Corea del Sur exigiendo a los políticos que divulguen y coloquen marcas de agua en cualquier contenido deepfake u otro contenido producido por IA utilizado en materiales electorales. Corea del Sur ha prohibido por completo a los políticos utilizar materiales generados por IA en sus campañas. Sin embargo, el requisito más bajo de exigir que los políticos australianos sean transparentes puede ser menos controvertido y más fácil de implementar.
Y cuarto, el gobierno debe asegurarse de que la Comisión Electoral Australiana y la Autoridad Australiana de Comunicaciones y Medios tengan el personal y los recursos que necesitan. Su tarea de abordar los desafíos emergentes, incluidos los que plantea la IA, y equipar a los australianos para que se enfrenten a un panorama de información complejo en el próximo año no será fácil.
Estos pasos deberían ser solo el comienzo de una conversación nacional integral, equilibrada e informada sobre cómo podemos ayudar a que la democracia de Australia florezca en la era de la IA.
Proporcionado por The Conversation
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.