Crédito:Prensa de la Universidad de Yale
Mike Ananny paseó a su perro esta mañana. Lo hizo sin esperar privacidad.
"Sé que estuve sujeto a una amplia variedad de cámaras, ya fueran timbres Ring, autos que circulaban o incluso cámaras de tráfico de la ciudad", dijo. "No elegí participar en toda esta variedad de sistemas de videovigilancia. Solo saqué a pasear a mi perro".
Ananny entiende que, dondequiera que vaya, la inteligencia artificial (IA) recopila, analiza y monetiza datos sobre él.
Kate Crawford se adentró en una camioneta en el árido paisaje de Nevada para ver bien los estanques de salmuera que se evaporan de la mina de litio Silver Peak.
Esas desoladas franjas de líquido no solo son la mayor fuente de litio de EE. UU., el metal que es esencial para las baterías que alimentan todo, desde computadoras portátiles hasta dispositivos móviles y automóviles eléctricos, sino que también son un vívido recordatorio del impacto que la IA tiene en el mundo material. .
"Las metáforas que la gente usa para hablar de la IA como 'la nube' implican algo flotante y abstracto", dijo Crawford. "Pero la computación a gran escala tiene una enorme huella de carbono y un impacto ambiental".
Crawford sabe que los sistemas mundiales de energía, minería, mano de obra y poder político están siendo reescritos por las necesidades de la IA.
Cuando comenzó la pandemia de COVID-19, Ashley Alvarado sabía que los oyentes de su estación estaban asustados y confundidos.
En KPCC-FM y LAist, Alvarado ha utilizado una variedad de herramientas de comunicación para conectarse con las audiencias, pero la escala de los comentarios, preguntas y sugerencias que recibía la estación requería una solución que pudiera procesar grandes cantidades de datos rápidamente.
"Con COVID había tanta necesidad de información al comienzo de la pandemia que la forma en que podíamos ser más humanos para los angelinos era aprovechando la IA", dijo Alvarado.
Conocidas por muchos nombres (algoritmos, bots, big data, procesamiento de lenguaje natural, aprendizaje automático, agentes inteligentes), las tecnologías que se incluyen en la definición amplia de IA están remodelando no solo el mundo de la comunicación, sino el mundo en su conjunto. En USC Annenberg, profesores, estudiantes y ex alumnos están explorando tanto el inmenso potencial como las trampas, a menudo menos obvias, que presentan estas tecnologías.
"Annenberg está en una posición única para liderar esta conversación, porque se trata de problemas sociotécnicos y de comunicación", dijo Ananny. "No quiero que nuestras respuestas a estas preguntas sean solo técnicas. Quiero una respuesta que sea profundamente histórica y arraigada en la comprensión cultural".
Términos de búsqueda
En la imaginación popular, la IA puede significar cualquier cosa, desde la conveniencia cotidiana de que su teléfono elija canciones que sabe que le pueden gustar o le indique la mejor ruta para llegar a la casa de su amigo, o la promesa de panaceas de big data para problemas como el cambio climático o el medio ambiente. Pandemia de COVID-19. También es casi imposible hablar de la IA sin hacer referencia a la frecuencia con la que la IA se presenta como el villano de la ciencia ficción:la prohibición de las "máquinas pensantes" en Dune de Frank Herbert, HAL 9000 en 2001:Una odisea del espacio de Arthur C. Clarke, los Borg en Star Trek, Agente Smith en Matrix.
"Creo que la mayoría de la gente tiende a pensar que es una especie de tecnología de ciencia ficción de Terminator o Ready Player One", dijo Fred Cook, director del Centro de Relaciones Públicas. "En realidad, es el motor detrás de muchas de las cosas que las personas, especialmente en la industria de las relaciones públicas, ya usan en su trabajo diario".
Para simplificar demasiado, la mayor parte de lo que comúnmente se considera IA se reduce a la interacción de algoritmos (funciones matemáticas) que realizan cálculos basados en enormes cantidades de datos.
"Los algoritmos son las instrucciones y reglas que rigen la informática", dijo Marlon Twyman II, quien investiga cómo la tecnología da forma a las interacciones de los individuos y los equipos en el lugar de trabajo. "La inteligencia artificial debe tener algoritmos que respalden las decisiones y los compromisos que toma".
Twyman cita el ejemplo del reconocimiento de imágenes:IA que intenta detectar si la imagen de un gato es un gato o un perro. Cuantos más ejemplos estén expuestos los algoritmos, cuantos más datos, mejor podrán tomar estas determinaciones.
"La inteligencia artificial es cuando las computadoras comienzan a ser capaces de responder a entradas en las que no fueron necesariamente entrenadas o expuestas cuando fueron programadas", dijo Twyman, profesor asistente de comunicación.
"Estamos interactuando con solo matemáticas", dijo Ignacio Cruz, quien obtuvo su Ph.D. en comunicación en 2021 y ahora enseña en la Universidad Northwestern. Él enfatiza que, a pesar de las capacidades de AI para reconocer tendencias y patrones, no es tan misterioso. La tecnología que tiene, si no sensibilidad, al menos alguna agencia independiente, o lo que Cruz llama "cualidades de agente", es, por ahora, en gran medida, material de ciencia ficción.
"Los algoritmos no funcionan de la forma en que funciona el cerebro humano", señaló Lynn Miller, profesora de comunicación. "La IA es realmente solo una máquina de predicción".
Tales máquinas permiten logros tecnológicos notables en atención médica, logística, juegos, entretenimiento, justicia penal, contratación y muchos otros campos, incluido el periodismo local, de formas inesperadas.
IA y comunidad
KPCC-FM no esperaba usar IA para fomentar la participación de la comunidad, pero cuando llegó la pandemia en 2020 y comenzaron a verse inundados con mensajes de pánico sobre el cierre, el liderazgo de la estación de radio pública con sede en Pasadena sabía que tenía que hacer algo para ayudar a sus oyentes.
"Comenzó con solo preocupación", dijo Alvarado. "Y luego entró en pánico total:preguntas sobre la escasez en Target, si cancelar una boda, si era ilegal reunirse con seres queridos para llorar a alguien".
La mayoría de estas preguntas procedían de una herramienta que la estación de radio había integrado en su página de inicio y que usa Hearken, una plataforma de compromiso y apoyo organizacional. "A veces recibíamos 10 mensajes por minuto a través de esta herramienta", dijo Alvarado, vicepresidente de participación comunitaria e iniciativas estratégicas de KPCC-FM y LAist. "Tuvimos que pensar creativamente sobre cómo podíamos satisfacer las necesidades de información de miles y miles de personas".
Habló con Paul Cheung, entonces director de periodismo e innovación tecnológica de la Fundación John S. y James L. Knight, quien le preguntó si había pensado en el aprendizaje automático. "Y no lo había hecho", dijo con una risita. Cheung los conectó con algunos periodistas que estaban trabajando con IA en la publicación en línea Quartz, y ayudaron a Alvarado y su equipo a desarrollar una herramienta de procesamiento de lenguaje natural que pudiera analizar las solicitudes que recibían de los oyentes.
"Con la herramienta, pudimos identificar temas en los que necesitábamos enfocarnos, no solo para responder preguntas, sino también sobre qué historias deberíamos cubrir y dónde", dijo Alvarado, quien obtuvo su licenciatura en 2005 con una doble especialización en periodismo impreso y español. .
Alvarado ve un gran potencial en esta tecnología para permitir que la entrada de la audiencia muestre patrones de otros eventos noticiosos de rápido movimiento, desde incendios forestales hasta debates políticos. "Normalmente, tendrías que leer cada pregunta a medida que llega y esperar que hayas observado una tendencia, en lugar de tener la IA lista para decir:'Aquí hay algo que aparece una y otra vez'".
Algunas publicaciones ya están utilizando directamente la IA para escribir historias, generalmente piezas básicas y de fácil formato, como informes bursátiles, boletines meteorológicos e historias deportivas. Aunque estas piezas terminan salvando a algunos reporteros principiantes del trabajo rutinario, Twyman ve un posible inconveniente.
"El problema es que esto elimina la posibilidad de innovar, incluso en estas tareas simples", dijo. "Si seguimos eliminando a los humanos de tareas de escritura cada vez más complejas, podríamos terminar en un mundo que se ve muy diferente".
Agentes con agencia
A veces, eliminar a los humanos de la ecuación es necesario para su seguridad. En su investigación sobre la actividad sexual de riesgo hace más de 25 años, Miller se topó con un problema muy fundamental y muy humano. "Estaba interesada en el comportamiento sexual entre hombres jóvenes que tienen sexo con hombres", dijo. "Hice mucho trabajo cualitativo sobre lo que condujo a estos momentos de riesgo, pero obviamente no podía esconderme debajo de las camas para averiguar qué estaba pasando. Fue entonces cuando comencé a interesarme en la creación de entornos virtuales".
Miller quería crear un juego interactivo en el que los sujetos humanos pudieran tomar decisiones sobre si participar o no en conductas sexuales de riesgo, pero estaba limitada por la tecnología que tenía disponible para crear situaciones con guión.
La respuesta fue un entorno virtual poblado por "agentes inteligentes", personajes cuyo comportamiento estaba gobernado por algoritmos que establecían sus preferencias y objetivos, en otras palabras, IA, en lugar de guiones fijos. Trabajando con un equipo de científicos informáticos y psicólogos de la USC, Miller desarrolló personajes cuyo comportamiento era representativo de las personas en la vida real. Estos personajes poblaron un mundo virtual y podían interactuar con sujetos de investigación humanos de formas más naturales que en realidad generarían datos de investigación procesables sobre comportamientos sexuales de riesgo sin el riesgo.
"Puede tener un ser humano al tanto que responda a lo que está haciendo el agente inteligente, que luego da forma a su comportamiento, o puede tener a todos los agentes interactuando y ejecutando simulaciones", dijo Miller. Su trabajo ayudó a identificar no solo patrones de comportamiento de riesgo, sino también formas de intervenir y mitigar ese riesgo de manera efectiva.
En su investigación galardonada durante la última década y media que se ha basado en esos entornos virtuales originales, Miller y su equipo también han aprendido qué tipos de intervenciones funcionan mejor para limitar el riesgo en situaciones sexuales, ninguna de las cuales habría sido posible sin AI.
Su trabajo más reciente se ha trasladado al ámbito de la neurociencia, utilizando esos agentes inteligentes para modelar procesos humanos más complejos, como la competencia comunicativa y cómo los humanos crean significado a través de la interacción social.
"Uno de los problemas con la IA actual en general es que solo puede llegar hasta cierto punto en cuanto a poder inferir emociones", dijo Miller. "Habiendo dicho eso, hay ciertas probabilidades y parámetros que podemos programar en nuestros agentes inteligentes cuando se trata de interacción social que en realidad hacen un buen trabajo al modelar cómo los humanos reales, en un entorno altamente interactivo y flexible, tomarán decisiones".
Si bien el futuro de la IA es difícil de predecir, Miller dijo que los investigadores de IA de vanguardia ya están tratando de aprovechar la forma en que los cerebros humanos entienden el mundo. "Al igual que con cualquier innovación, existen riesgos que deben mitigarse", señaló Miller. "Pero también hay enormes oportunidades para mejorar las intervenciones y terapias para mejorar drásticamente la comunicación y el bienestar individual y social".
Análisis de polarización
Como señala Miller, uno de los puntos fuertes de la IA es encontrar patrones entre enormes conjuntos de datos. Fred Cook quería tomar un conjunto de datos particularmente polémico (publicaciones en redes sociales sobre temas políticos controvertidos) y averiguar si la IA podría ayudar a medir el grado de polarización en el debate sobre esos temas.
El proceso comenzó con una encuesta que realizó el Centro de Relaciones Públicas para su Informe de comunicación global 2021, que identificó varios problemas importantes que los profesionales de relaciones públicas pensaron que tendrían que abordar el próximo año. Cook compartió esos problemas con los ejecutivos de la firma de relaciones públicas Golin, donde había sido director ejecutivo (y todavía tiene un interés financiero), y luego los compartió con la firma de software Zignal Labs.
"Dado el enorme problema que causa el nivel actual de polarización para las personas, el gobierno y las empresas, decidimos desarrollar una nueva herramienta que lo mediría y, con suerte, ayudaría a reducirlo", dijo Cook.
Su enfoque se basa en el gráfico de sesgo de los medios de Ad Fontes, que clasifica los medios de comunicación según un espectro político de izquierda a derecha en un eje y la confiabilidad en el otro eje. La herramienta Zignal AI ingresa los 10 principales temas políticos candentes y los compara con publicaciones en redes sociales que incluyen enlaces a artículos de publicaciones que se encuentran en el gráfico de Ad Fontes. En función de la posición de la publicación en el gráfico, la herramienta asigna una puntuación que determina qué tan a la izquierda o a la derecha se encuentran la mayoría de las acciones en las redes sociales sobre un tema en particular. La brecha entre cuántos artículos de derecha/conservadores se comparten sobre un tema y cuántas publicaciones de izquierda/liberales se comparten da una puntuación del índice de polarización.
La gran cantidad de publicaciones involucradas en la creación de esta puntuación (más de 60 millones) requiere que la IA haga el trabajo rápidamente.
"El índice de polarización proporciona un mapa de calor de qué temas son los más controvertidos y los factores que contribuyen a su división", dijo Cook. "Podemos extraer implicaciones para las personas, las empresas y los comunicadores que deseen participar en estos temas".
Cook también dice que los profesionales de las relaciones públicas tendrán que continuar abordando las críticas a la IA basadas en preocupaciones de privacidad, trabajo, prejuicios y justicia social, pero agrega que su propia experiencia ha demostrado que la IA también puede tener un impacto positivo en estas áreas.
Habiendo dicho eso, Cook agregó:"Cada nueva tecnología tiene aspectos que son aterradores, y la IA no es diferente a cualquier otra cosa. Si bien usamos la IA para hacer un trabajo realmente importante en nuestro índice de polarización, la IA puede y se ha usado para propagar desinformación e influir en las campañas políticas a través de bots. Siempre que haya una nueva tecnología, alguien la usará de manera perjudicial".
IA de caza con IA
Cuando se trata de interrogar los aspectos tanto positivos como negativos de la IA, los estudiantes de doctorado en comunicación de la USC Annenberg están a la vanguardia de esa investigación, uniendo las ciencias informáticas y las ciencias sociales para desarrollar una visión profunda de las implicaciones técnicas y culturales de la IA.
El estudiante de doctorado Ho-Chun Herbert Chang dice que sus años de pregrado en Dartmouth College fueron formativos. "Dartmouth fue el lugar donde se acuñó el término IA en 1952", señaló. "Estudié matemáticas y ciencias sociales cuantitativas, y para mi programa de becas de último año, hice un proyecto de ficción sobre inteligencia artificial. Ese fue el comienzo de mi visión de la IA tanto desde un punto de vista técnico como humanístico".
A medida que avanzaba su carrera académica, Chang vio un "abismo" entre la forma en que los profesionales y el público ven la inteligencia artificial. "Desde el lado de la informática, hay más énfasis en los aspectos técnicos del diseño de algoritmos", dijo. "Desde el lado humanista, hay un enfoque en los valores sociales como el principio principal en términos de organización de la investigación".
Uno de los proyectos en los que trabajó Chang el año pasado mostró el potencial de la IA para investigar el comportamiento humano y el comportamiento de otros sistemas de IA. Trabajando con Emilio Ferrara, profesor asociado de comunicación e informática cuya innovadora investigación identificó cómo los bots de Twitter afectaron la campaña presidencial de EE. UU. de 2016, Chang ayudó a desarrollar ese trabajo en el período previo a las elecciones de 2020. Usando una herramienta de inteligencia artificial llamada Botometer, el equipo pudo cuantificar cuánto tráfico de Twitter en torno a teorías de conspiración fue generado y amplificado por bots. "El Botometer analiza los datos y metadatos de la línea de tiempo de cada cuenta de Twitter, utilizando el aprendizaje automático para determinar si una cuenta es humana o un bot", dijo Chang.
Chang también trabajó con Allissa Richardson, profesora asistente de periodismo, para analizar el movimiento por la justicia racial que siguió al asesinato de George Floyd por parte de la policía de Minneapolis. "A big part of communication research is about how users participate on social platforms—mediated by algorithms—and how they use these platforms to self-organize for democratic movements," he said. "That's the kind of work I want to do. I'm engaging holistically with AI, and Annenberg is the perfect place for that research."
Ignacio Cruz focused his dissertation on the use of AI tools in workplace recruitment. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."
While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.
Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."
The desert of AI
For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.
"We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"
In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.
"Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."
Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."
Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."
Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.
"AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."
Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.
"Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.
Toward an ethical AI
As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.
While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.
"We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."
Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.
"We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."
Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.
"This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"