• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Uso de herramientas de inteligencia artificial para identificar niveles de violencia en películas

    Crédito:CC0 Public Domain

    Para muchos en la industria del cine, Ver su película con una calificación NC-17 de la Motion Picture Association of America (MPAA) es el beso de la muerte. Dado que su película ya no está disponible para los espectadores menores de 17 años, se le presenta la posibilidad de elegir entre una recaudación limitada de taquilla o una costosa reedición, o incluso volver a disparar, para cumplir con los requisitos de una clasificación R más agradable.

    Pero, ¿y si hubiera una forma más precisa de determinar la clasificación probable de una película en la etapa del guión? antes de pasar por el costoso proceso de producción y postproducción? Un equipo de investigación del Laboratorio de Análisis e Interpretación de Señales (SAIL) de la Escuela de Ingeniería de Viterbi de la USC está utilizando el aprendizaje automático para analizar la descripción de la violencia en el lenguaje de los guiones. El resultado es una nueva herramienta para ayudar a los productores, guionistas y estudios en la determinación de la clasificación potencial de sus proyectos.

    Presentado en la Conferencia de la Asociación para el Avance de la Inteligencia Artificial (AAAI) de 2019, la nueva herramienta de IA fue desarrollada por Ph.D. estudiantes Victor Martinez, Krishna Somandepalli, Karan Singla, Anil Ramakrishna, y su consejero Shrikanth Narayanan, la Cátedra de Ingeniería Niki y Max Nikias. Esto se hizo en colaboración con Yalda Uhls de Common Sense Media. El estudio es la primera vez que se utiliza el procesamiento del lenguaje natural para identificar lenguaje y contenido violento en guiones de películas.

    La herramienta de inteligencia artificial se desarrolló utilizando un conjunto de datos de 732 guiones de películas populares que Common Sense Media había anotado por contenido violento. A partir de esta información, el equipo construyó un modelo de aprendizaje automático de redes neuronales donde los algoritmos se cruzan, trabajar juntos y aprender de los datos de entrada (es decir, el texto de los guiones), para crear una salida (es decir, calificaciones de violencia para la película). La herramienta de inteligencia artificial analizó el lenguaje en el diálogo de los guiones y descubrió que la semántica y el sentimiento del lenguaje utilizado era un fuerte indicador del contenido violento clasificado en las películas terminadas.

    Narayanan y su equipo han estado utilizando IA para analizar datos centrados en el ser humano durante más de 15 años como parte de su investigación de inteligencia de medios computacionales. que se centra en el análisis de datos relacionados con el cine y los medios de comunicación. Trabajan regularmente con socios como el Instituto Geena Davis para el género en los medios para analizar datos de películas y medios para determinar qué pueden revelar sobre la representación.

    Narayanan dijo que el análisis de texto tiene una larga historia en los campos creativos de evaluación de contenido para incitación al odio. lenguaje sexista y abusivo, pero analizar la violencia en el cine a través del lenguaje del guión es una tarea más compleja.

    "Normalmente, cuando la gente estudiaba escenas violentas en los medios, buscan disparos, coches chirriantes o choques, alguien peleando y así sucesivamente. Pero el lenguaje es más sutil. Este tipo de algoritmos pueden observar y realizar un seguimiento del contexto, no solo lo que significan palabras específicas y opciones de palabras. Lo miramos desde un punto de vista global, "Dijo Narayanan.

    Martínez dijo que un ejemplo de la capacidad de la herramienta de inteligencia artificial para detectar la violencia implícita que la tecnología actual no puede detectar fue una parte del diálogo de The Bourne Ultimatum (2007):"Sabía que iba a terminar de esta manera. Siempre iba a terminar con esto camino…"

    Martínez dijo que la herramienta de inteligencia artificial marcó esta línea como violenta, a pesar de que no tiene marcas explícitas de lenguaje para la violencia.

    "En contraste con la forma en que califica la MPAA, nuestros modelos miran el contenido real de la película, y el contexto en el que se dice el diálogo, para hacer una predicción de cuán violenta es esa película, "Dijo Martínez.

    Somandepalli dijo que el equipo de investigación ahora está utilizando la herramienta para analizar cómo los guiones usan la violencia en las representaciones de víctimas y perpetradores. y la demografía de esos personajes.

    Tales hallazgos podrían jugar un papel importante en una publicación #MeToo Hollywood, con preocupaciones sobre la representación de las mujeres y la perpetuación de los estereotipos negativos, y un enfoque renovado en personajes femeninos fuertes con agencia.

    El equipo anticipa que eventualmente esta será una herramienta que podría integrarse en el software de escritura de guiones. La mayoría de los programas de escritura de guiones como Final Draft o WriterDuet ya pueden crear informes que muestran la proporción de diálogo de personajes por género. Esta herramienta permitiría el análisis de contenido en términos de la naturaleza del lenguaje violento utilizado por un personaje, mostrando qué personajes son los perpetradores y cuáles son las víctimas.

    "A menudo puede haber patrones inconscientes y prejuicios presentes en el guión que el escritor puede no querer, y una herramienta como esta ayudará a crear conciencia sobre eso ", dijo Narayanan.

    El estudio "Predicción del índice de violencia a partir de guiones de películas" se publica en las actas de la trigésima tercera conferencia AAAI sobre inteligencia artificial.


    © Ciencia https://es.scienceaq.com