• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Estudio:Amplio apoyo bipartidista para el etiquetado de redes sociales para contrarrestar la desinformación, habla problemática

    Ilustración fotográfica de aplicaciones de redes sociales. Crédito:Alyssa Stone / Northeastern University

    Existe un amplio apoyo bipartidista entre los liberales y conservadores que se identifican a sí mismos en el sentido de que las empresas de redes sociales deben agregar etiquetas de advertencia a las publicaciones que contienen información engañosa. o que podría dar lugar a la difusión de información errónea, datos de un nuevo estudio realizado por investigadores de Northeastern en la Facultad de Artes, Espectáculos de medios y diseño.

    Gran parte de las encuestas sobre etiquetado de contenido se han realizado en torno a las elecciones presidenciales de Estados Unidos. Pero los resultados de la encuesta nacional, publicado el miércoles, puede hablar de nuevas preocupaciones sobre la desinformación durante la pandemia de COVID-19, particularmente en torno al uso de vacunas y otros protocolos de salud, dice John Wihbey, profesor asociado de periodismo e innovación de medios en Northeastern y coautor del estudio.

    "Estamos en un nuevo momento, en una nueva fase de la pandemia, un momento en el que podemos tener una idea un poco más pura de lo que piensa el público sobre estos temas, "Dice Wihbey.

    Durante los últimos años, empresas de redes sociales como Twitter y Facebook comenzaron a etiquetar millones de publicaciones como información errónea, incluidos algunos del ex presidente Donald Trump, quien fue suspendido permanentemente de las plataformas a raíz del ataque del 6 de enero al edificio del Capitolio de los Estados Unidos que fue perpetrado por sus partidarios.

    Las afirmaciones de Trump de fraude electoral generalizado durante las elecciones presidenciales del año pasado, que han sido desacreditados, y la insurrección que siguió provocó un feroz debate sobre la responsabilidad de las empresas de tecnología en el seguimiento del tipo de información que los usuarios pueden compartir. incluida la limitación o eliminación de las llamadas noticias falsas, El discurso del odio, y contenido que de otro modo se considera problemático.

    Durante el verano, el equipo de investigadores de Northeastern encuestó a más de 1, 400 personas en los EE. UU. A través de una plataforma de encuestas académicas, llamado prolífico. La mitad de los participantes dijeron que usan Twitter ocasionalmente o con más frecuencia, y el 68% dijo que usa Facebook ocasionalmente o con más frecuencia.

    La encuesta se publicó junto con el Instituto de Ética de Northeastern como parte de un esfuerzo más amplio que examina enfoques potencialmente nuevos para el etiquetado de contenido en las plataformas de redes sociales. Los coautores del estudio incluyen a Garrett Morrow, un estudiante de doctorado que estudia ciencias políticas; Myojung Chung, profesor asistente de periodismo y defensa de los medios; y Mike Peacey, profesor asociado de economía.

    El estudio encontró que el 92,1% de los liberales, 60,1% de conservadores, y el 78,4% de los moderados "está muy o algo de acuerdo" en que las plataformas de redes sociales deberían usar etiquetas para informar a los usuarios sobre publicaciones que contienen información engañosa. Estas etiquetas se han utilizado para identificar información errónea, como las etiquetas de "verificación de hechos" de Twitter, y advertir a los usuarios sobre publicaciones potencialmente gráficas o dañinas, como las advertencias sensibles de los medios de comunicación de la plataforma.

    Los participantes también expresaron que encuentran "contenido problemático" —información engañosa o incorrecta y discurso de odio— a menudo mientras usan las plataformas sociales. Los investigadores no intentan definir información errónea o contenido problemático en el estudio, Wihbey dice:optando, en cambio, por confiar en las percepciones de los participantes de tales problemas al responder las preguntas de la encuesta.

    Los investigadores también señalan que los participantes mostraron un alto grado de "sesgo de exceso de confianza, "lo que significa que dijeron que confiaban en sus propias habilidades para discernir declaraciones engañosas y desinformación en línea, pero expresó desconfianza en las habilidades de otros para hacer lo mismo.

    El importante acuerdo bipartidista sobre el etiquetado fue un poco sorprendente, Wihbey dice:dado lo polarizante que fue el tema de la moderación de contenidos en los días posteriores a las elecciones. Muchos conservadores se opusieron a la prohibición de Trump, y a la prohibición en general, diciendo que equivale a censura.

    Pero el estudio también confirmó algunas de estas diferencias de opinión partidistas sobre cómo abordar mejor la moderación de contenido, con el 63,2% de los conservadores diciendo que etiquetar las publicaciones de Trump, en lugar de prohibirlo, fue suficiente para lidiar con sus "mensajes violadores". Eso se compara con más del 80% de los liberales que pensaban que era necesaria una acción más severa.

    El estudio se produce cuando los gobiernos intentan ejercer control sobre las políticas de moderación de los gigantes tecnológicos. Solo esta semana El gobernador de Texas, Greg Abbott, un republicano, firmó un proyecto de ley que exige que las empresas de redes sociales divulguen sus políticas de moderación de contenido y creen un proceso de apelación para los usuarios prohibidos. Bajo la nueva ley, los usuarios podrían demandar a las empresas para restablecer sus cuentas. Florida aprobó una ley similar a principios de este año.

    Los demócratas también han intentado influir en las políticas de las empresas. Durante el verano, El presidente Joe Biden instó a Facebook a tomar medidas más rápidas contra las publicaciones que difunden información errónea sobre COVID-19, diciendo que la mala información que circula en la plataforma sobre la seguridad y eficacia de las vacunas estaba "matando gente".

    "Existe una gran necesidad de tratar de averiguar qué herramientas y métodos debemos utilizar para combatir la desinformación y la desinformación, "Wihbey dice, resumiendo el sentimiento de la encuesta. "Al mismo tiempo, Creo que la gente no cree que cerrar cuentas y deshabilitar los botones de compartir sea la [única] forma de hacerlo ".

    Wihbey dice que el estudio puede indicar que el público está llegando a una especie de término medio.

    "Descubrimos que la gente quiere que las etiquetas los vinculen con fuentes confiables para verificar, prepararlos para pensar críticamente sobre la desinformación, y retrasar la difusión de información errónea al advertir a las personas sobre el contenido que pueden estar tratando de compartir, "afirman sus autores.


    © Ciencia https://es.scienceaq.com