Una nueva investigación sobre imágenes generativas de IA muestra que solo más de un tercio de las organizaciones de medios encuestadas en el momento de la investigación cuentan con una política de IA específica para imágenes.
El estudio, dirigido por la Universidad RMIT en colaboración con la Universidad Estatal de Washington y el Centro de Investigación de Medios Digitales QUT, entrevistó a 20 editores de fotografías o roles relacionados de 16 organizaciones de medios públicos y comerciales líderes en Europa, Australia y los EE. UU. sobre sus percepciones sobre las tecnologías de IA generativa. en periodismo visual.
"IA visual generativa en organizaciones de noticias:desafíos, oportunidades, percepciones y políticas" se publicó en Periodismo digital .
El investigador principal y profesor titular de RMIT, el Dr. TJ Thomson, dijo que si bien la mayoría del personal entrevistado estaba preocupado por el impacto de la IA generativa en la información errónea y la desinformación, hay factores que agravan el problema, como la escala y la velocidad a la que se comparte el contenido en las redes sociales. y el sesgo algorítmico estaban fuera de su control.
"Los editores de fotografías quieren ser transparentes con sus audiencias cuando se utilizan tecnologías de IA generativa, pero las organizaciones de medios no pueden controlar el comportamiento humano o cómo otras plataformas muestran la información", dijo Thomson, de la Escuela de Medios y Comunicación de RMIT.
"El público no siempre hace clic para obtener más información sobre el contexto y la atribución de una imagen. Vimos que esto sucedió cuando las imágenes de IA del Papa vistiendo Balenciaga se volvieron virales, y muchos creyeron que era real porque era una imagen casi fotorrealista compartida. sin contexto.
"Los editores de fotografías que entrevistamos también dijeron que las imágenes que reciben no siempre especifican qué tipo de edición de imágenes se ha realizado, lo que puede llevar a que los sitios de noticias compartan imágenes de IA sin saberlo, lo que afecta su credibilidad".
Thomson dijo que contar con políticas y procesos que detallen cómo se puede utilizar la IA generativa en diferentes formas de comunicación podría evitar que ocurran incidentes de información errónea y desinformación, como las imágenes alteradas de la parlamentaria victoriana Georgie Purcell.
"Más organizaciones de medios deben ser transparentes con sus políticas para que sus audiencias también puedan confiar en que el contenido fue creado o editado de la manera que la organización dice", dijo.
El estudio encontró que cinco de los medios encuestados prohibieron al personal usar IA para generar imágenes, y tres de esos medios solo prohibieron imágenes fotorrealistas. Otros permitieron imágenes generadas por IA si la historia trataba sobre IA.
"Muchas de las políticas que he visto de las organizaciones de medios sobre la IA generativa son generales y abstractas. Si un medio de comunicación crea una política de IA, debe considerar todas las formas de comunicación, incluidas imágenes y vídeos, y proporcionar una orientación más concreta". dijo Thomson.
"Prohibir completamente la IA generativa probablemente sería una desventaja competitiva y casi imposible de aplicar.
"También privaría a los trabajadores de los medios de los beneficios de la tecnología, como el uso de IA para reconocer rostros u objetos en imágenes para enriquecer los metadatos y ayudar con los subtítulos".
Thomson dijo que Australia todavía estaba "al final del grupo" en lo que respecta a la regulación de la IA, con Estados Unidos y la UE a la cabeza.
"La población de Australia es mucho menor, por lo que nuestros recursos limitan nuestra capacidad de ser flexibles y adaptables", afirmó.
"Sin embargo, también existe una actitud de esperar y ver qué hacen otros países para poder mejorar o emular sus enfoques.
"Creo que es bueno ser proactivo, ya sea por parte del gobierno o de una organización de medios. Si podemos demostrar que somos proactivos para hacer de Internet un lugar más seguro, eso demuestra liderazgo y puede dar forma a las conversaciones sobre la IA".
El estudio encontró que los periodistas estaban preocupados por cómo el sesgo algorítmico podría perpetuar los estereotipos en torno al género, la raza, la sexualidad y la capacidad, lo que genera riesgo para la reputación y desconfianza en los medios.
"Teníamos un editor de fotografías en nuestro estudio que tecleaba un mensaje detallado en un generador de texto a imagen para mostrar a una mujer del sur de Asia con una blusa y pantalones", dijo Thomson.
"A pesar de detallar la ropa de la mujer, el generador persistió en crear una imagen de una mujer del sur de Asia vestida con un sari".
"Problemas como este surgen de la falta de diversidad en los datos de formación, y nos lleva a preguntarnos hasta qué punto son representativos nuestros datos de formación y qué podemos hacer para pensar en quién está representado en nuestras noticias, fotografías de archivo, pero también en cine y videojuegos, que pueden usarse para entrenar estos algoritmos."
Los derechos de autor también eran una preocupación para los editores de fotografías, ya que muchos generadores de texto a imagen no eran transparentes sobre la procedencia de sus materiales originales.
Si bien ha habido casos de derechos de autor de IA generativa que llegan a los tribunales, como la demanda del New York Times contra OpenAI, Thomson dijo que todavía es un área en evolución.
"Ser más conservador y utilizar únicamente generadores de IA de terceros que estén entrenados con datos de propiedad exclusiva o utilizarlos únicamente para generar ideas o investigaciones en lugar de publicarlos puede reducir el riesgo legal mientras los tribunales resuelven la cuestión de los derechos de autor", afirmó.
"Otra opción es entrenar modelos con el contenido propio de una organización y de esa manera tener la confianza de que poseen los derechos de autor para las generaciones resultantes."
A pesar de las preocupaciones sobre la información errónea y la desinformación, el estudio encontró que la mayoría de los editores de fotografías vieron muchas oportunidades para utilizar la IA generativa, como la lluvia de ideas y la generación de ideas.
Muchos estaban felices de usar la IA para generar ilustraciones que no eran fotorrealistas, mientras que otros estaban felices de usar la IA para generar imágenes cuando no tenían buenas imágenes de archivo existentes.
"Por ejemplo, todas las imágenes de archivo existentes de bitcoin se ven bastante similares, por lo que la IA generativa puede ayudar a llenar un vacío en lo que falta en un catálogo de imágenes de archivo", dijo Thomson.
Si bien existía preocupación por la pérdida de trabajos de fotoperiodismo debido a la IA generativa, un editor entrevistado dijo que podía imaginarse el uso de la IA para tareas fotográficas simples.
"Los fotógrafos contratados podrán realizar más proyectos creativos y menos tareas como fotografiar algo sobre un fondo blanco", afirmó el editor entrevistado.
"Se podría argumentar que estas cosas también son muy fáciles y sencillas y requieren menos tiempo para un fotógrafo, pero a veces también son un dolor de cabeza".
Más información: T. J. Thomson et al, IA visual generativa en organizaciones de noticias:desafíos, oportunidades, percepciones y políticas, Periodismo digital (2024). DOI:10.1080/21670811.2024.2331769
Proporcionado por la Universidad RMIT