• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La IA aún no es lo suficientemente inteligente como para salvarnos de las noticias falsas:los usuarios de Facebook (y su sesgo) son clave

    Por sí mismo, El juicio humano puede ser subjetivo y sesgado hacia prejuicios personales.

    La información que encontramos en línea todos los días puede ser engañosa, incompleto o fabricado.

    Estar expuesto a "noticias falsas" en plataformas de redes sociales como Facebook y Twitter puede influir en nuestros pensamientos y decisiones. Ya hemos visto que la desinformación interfiere con las elecciones en los Estados Unidos.

    El fundador de Facebook, Mark Zuckerberg, ha propuesto repetidamente la inteligencia artificial (IA) como la solución al dilema de las noticias falsas.

    Sin embargo, el problema probablemente requiera altos niveles de participación humana, ya que muchos expertos coinciden en que las tecnologías de IA necesitan más avances.

    Dos colegas y yo hemos recibido financiación de Facebook para llevar a cabo de forma independiente una investigación sobre un enfoque de IA "humano en el circuito" que podría ayudar a cerrar la brecha.

    Human-in-the-loop se refiere a la participación de humanos (usuarios o moderadores) para ayudar a la IA a hacer su trabajo. Por ejemplo, creando datos de entrenamiento o validando manualmente las decisiones tomadas por la IA.

    Nuestro enfoque combina la capacidad de la IA para procesar grandes cantidades de datos con la capacidad de los humanos para comprender el contenido digital. Esta es una solución específica para noticias falsas en Facebook, dada su escala masiva e interpretación subjetiva.

    El conjunto de datos que estamos recopilando se puede utilizar para entrenar a la IA. Pero también queremos que todos los usuarios de las redes sociales sean más conscientes de sus propios prejuicios, cuando se trata de lo que llaman noticias falsas.

    Los humanos tenemos prejuicios pero también conocimiento único

    Para erradicar las noticias falsas, pedir a los empleados de Facebook que tomen decisiones editoriales controvertidas es problemático, como encontró nuestra investigación. Esto se debe a que la forma en que las personas perciben el contenido depende de sus antecedentes culturales, ideas políticas, sesgos, y estereotipos.

    Facebook ha empleado a miles de personas para la moderación de contenido. Estos moderadores pasan de ocho a diez horas al día mirando material explícito y violento como pornografía, terrorismo, y decapitaciones, para decidir qué contenido es aceptable para los usuarios.

    Considérelos ciber conserjes que limpian nuestras redes sociales eliminando contenido inapropiado. Desempeñan un papel integral en la configuración de aquello con lo que interactuamos.

    Un enfoque similar podría adaptarse a las noticias falsas, preguntando a los moderadores de Facebook qué artículos deben eliminarse y cuáles deben permitirse.

    Los sistemas de inteligencia artificial podrían hacer esto automáticamente a gran escala aprendiendo qué son las noticias falsas a partir de ejemplos anotados manualmente. Pero incluso cuando la IA puede detectar contenido "prohibido", Se necesitan moderadores humanos para marcar el contenido controvertido o subjetivo.

    Un ejemplo famoso es la imagen de Napalm Girl.

    La fotografía ganadora del premio Pulitzer muestra a niños y soldados escapando de la explosión de una bomba de napalm durante la Guerra de Vietnam. La imagen se publicó en Facebook en 2016 y se eliminó porque mostraba a una niña de nueve años desnuda. contraviniendo los estándares oficiales de la comunidad de Facebook.

    Siguió una protesta comunitaria significativa, como la imagen icónica tenía un valor histórico obvio, y Facebook permitió que la foto volviera a su plataforma.

    Usando lo mejor de cerebros y bots

    En el contexto de la verificación de información, El juicio humano puede ser subjetivo y sesgado en función de los antecedentes y prejuicios implícitos de una persona.

    En nuestra investigación, nuestro objetivo es recopilar múltiples "etiquetas de verdad" para la misma noticia de unos pocos miles de moderadores. Estas etiquetas indican el nivel de "falsedad" de un artículo de noticias.

    En lugar de simplemente recopilar las etiquetas más populares, también queremos registrar los antecedentes de los moderadores y sus juicios específicos para rastrear y explicar la ambigüedad y la controversia en las respuestas.

    Recopilaremos resultados para generar un conjunto de datos de alta calidad, lo que puede ayudarnos a explicar casos con altos niveles de desacuerdo entre los moderadores.

    En la actualidad, El contenido de Facebook se trata como binario:cumple con los estándares o no.

    El conjunto de datos que recopilamos se puede utilizar para entrenar a la IA para identificar mejor las noticias falsas enseñándole qué noticias son controvertidas y cuáles son simplemente falsas. Los datos también pueden ayudar a evaluar qué tan efectiva es la IA actual en la detección de noticias falsas.

    Poder para la gente

    Si bien los puntos de referencia para evaluar los sistemas de inteligencia artificial que pueden detectar noticias falsas son importantes, queremos dar un paso más.

    En lugar de solo pedirle a la IA oa los expertos que tomen decisiones sobre qué noticias son falsas, deberíamos enseñar a los usuarios de las redes sociales cómo identificar estos elementos por sí mismos. Creemos que es posible un enfoque dirigido a fomentar la alfabetización en credibilidad de la información.

    En nuestra investigación en curso, estamos recopilando una amplia gama de respuestas de los usuarios para identificar contenido de noticias creíble.

    Si bien esto puede ayudarnos a crear programas de capacitación en inteligencia artificial, También nos permite estudiar el desarrollo de las habilidades del moderador humano para reconocer contenido creíble, mientras realizan tareas de identificación de noticias falsas.

    Por lo tanto, Nuestra investigación puede ayudar a diseñar tareas o juegos en línea destinados a capacitar a los usuarios de las redes sociales para que reconozcan la información confiable.

    Otras avenidas

    El tema de las noticias falsas se está abordando de diferentes maneras en las plataformas en línea.

    A menudo se elimina mediante un enfoque de abajo hacia arriba, donde los usuarios informan de contenido inapropiado, que luego es revisado y eliminado por los empleados de la plataforma.

    El enfoque que está adoptando Facebook es degradar el contenido poco confiable en lugar de eliminarlo.

    En cada caso, persiste la necesidad de que las personas tomen decisiones sobre la idoneidad del contenido. El trabajo tanto de los usuarios como de los moderadores es fundamental, dado que se necesitan seres humanos para interpretar las directrices y decidir sobre el valor del contenido digital, especialmente si es controvertido.

    Al hacerlo, deben intentar mirar más allá de las diferencias culturales, sesgos y fronteras.

    Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com