• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Del clickbait a la transparencia:reinventar el mundo en línea

    Crédito:CC0 Public Domain

    Polarización, teorias de conspiracion, noticias falsas:lo que la gente ve en Internet está determinado en gran medida por los algoritmos opacos de unas pocas empresas. Ese es un desarrollo preocupante para las sociedades democráticas. Pero los entornos en línea podrían diseñarse de manera que promuevan la autonomía y la transparencia, fomentando así el potencial positivo de Internet. Un equipo de investigadores del Instituto Max Planck para el Desarrollo Humano de Berlín, la Universidad de Bristol, y Harvard Law School ha abordado este debate desde la perspectiva de las ciencias del comportamiento y ha propuesto intervenciones capaces de promover una Internet más democrática. Sus hallazgos han sido publicados en Comportamiento humano de la naturaleza .

    Estás desplazándote por tu YouTube, Facebook, o Twitter cuando aparece un video:un informe sobre acuerdos políticos secretos, conspiraciones mediáticas, o estudios científicos falsos. Todo parece estar respaldado por hechos. El video tiene cientos de miles de clics y parece estar ganando terreno en todo el mundo. Y muchos espectadores parecen estar de acuerdo con eso, habiéndolo dado un 'pulgar hacia arriba'. Pero, ¿qué significa exactamente todo esto? ¿Hace que el video sea creíble? Cuántos espectadores vieron el video hasta el final; ¿cuántos quedan a mitad de camino? ¿Y por qué apareció el video en tu feed en primer lugar? La plataforma en línea conoce muchas de las respuestas, pero no comparte esa información. Y no se proporcionan otras pistas que puedan ayudarlo a evaluar el contenido, calidad, o credibilidad del video.

    Según el Informe de noticias digitales del Instituto Reuters 2019, más de la mitad (55%) de los usuarios de Internet del mundo ahora utilizan las redes sociales o los motores de búsqueda para mantenerse al día con las noticias. En otras palabras, la opinión pública está determinada en gran medida por el contenido en línea, que a su vez está curada por algoritmos. "El objetivo es mantener contentos a los usuarios el mayor tiempo posible para que permanezcan en la plataforma. Eso se logra proporcionando entretenimiento y estableciendo una sensación de bienestar, lo que probablemente explica por qué muchas plataformas no tienen botones de 'no me gusta' que Permitir que los usuarios voten negativamente por el contenido. La sensación que se transmite es:Tienes razón. Eso puede ser inofensivo cuando compartimos contenido privado, como fotos de vacaciones, pero distorsiona la imagen cuando lo que se difunde son opiniones radicales y falsedades, "dice el coautor Stephan Lewandowsky, Catedrático de Psicología Cognitiva en la Universidad de Bristol.

    Otro problema es que los algoritmos de suministro de noticias solo muestran a los usuarios contenido que se basa en su comportamiento anterior en línea, con el que probablemente estén de acuerdo. Otros puntos de vista tienden a no mostrarse en absoluto. Esto crea redes de usuarios de ideas afines, que refuerzan las opiniones compartidas y crean la ilusión de un amplio apoyo, incluso si una opinión en realidad no es muy difundida. Pero, ¿cómo pueden los usuarios distinguir las noticias falsas de los hechos? ¿Y cómo deben diseñarse los entornos en línea para respaldar estos esfuerzos? "Las intervenciones que proponemos están destinadas a capacitar a los usuarios individuales para que tomen decisiones informadas y autónomas en entornos en línea; idealmente, sin tener que depender de verificadores de hechos independientes. La arquitectura de los entornos en línea influye en el comportamiento de los usuarios. Para cambiar ese entorno para mejor, Necesitamos comprender el comportamiento humano y tenerlo en cuenta en las elecciones de diseño. "dice Philipp Lorenz-Spreen, autor principal del estudio e investigador del Instituto Max Planck para el Desarrollo Humano.

    El equipo de investigación ha identificado varias formas de ayudar a los usuarios a evaluar la calidad del contenido de Internet y comprender los mecanismos detrás de los algoritmos, sin restringir las libertades fundamentales de la filosofía original de Internet. Estas posibilidades son tecnológicamente viables pero hasta ahora están en gran parte sin explotar. El equipo de investigación ha desarrollado recomendaciones específicas para empoderar a las personas en línea, basándose en dos enfoques de las ciencias del comportamiento:empujar y estimular.

    Nudging tiene como objetivo guiar el comportamiento de las personas resaltando información importante sin imponer reglas o prohibiciones. El impulso tiene como objetivo mejorar la capacidad de toma de decisiones de las personas, permitiéndoles navegar las situaciones de forma autónoma y tomar mejores decisiones. Según los investigadores, Es importante adoptar un enfoque múltiple para llegar a la mayor cantidad de personas posible. Se podría usar empujar, por ejemplo, para indicar si el contenido cumple con ciertos criterios de calidad, como si proviene de fuentes confiables. Esto incitaría a los usuarios a verificar el contenido a fondo y crearía una estructura de incentivos para que los productores de contenido cumplan con los criterios requeridos. Incluir hipervínculos a fuentes verificadas sería otro paso. Wikipedia podría servir como modelo aquí:las referencias y referencias cruzadas que proporciona ayudan a contextualizar la información presentada. Twitter recientemente dio un paso en esta dirección y comenzó a marcar algunos tweets con una advertencia de verificación de datos, incluido un tweet de Donald Trump sobre el tema del voto por correo.

    Los empujones también pueden comunicar información adicional sobre el comportamiento en línea de otros usuarios, dando más contexto sobre cómo otros evalúan el contenido. Por ejemplo, el número de Me gusta se puede establecer en relación con el número total de lectores:"4, A 287 de 1,5 millones de lectores les gustó este artículo. "La información de que había 44, 000 clics en un artículo, pero eso solo 3, 000 usuarios que lo lean hasta el final podría ser un mejor indicador de calidad que el número de clics y me gusta por sí solo. Se ha demostrado que los formatos numéricos transparentes pueden mejorar las decisiones médicas. ¿Por qué no debería aplicarse lo mismo a Internet? Este enfoque podría evitar la formación de cámaras de eco en las que grupos de personas creen erróneamente que su opinión es generalizada y aceptada.

    Otra posibilidad podría ser hacer que a los usuarios les resulte un poco más difícil compartir información cuando un artículo no cita referencias externas. Por ejemplo, Es posible que se solicite a los usuarios que hagan clic en una ventana emergente que contenga una advertencia de que faltan referencias. Otro tipo de empujón podría apuntar a cómo se organiza el contenido en los navegadores, es decir, la forma en que un suministro de noticias clasifica el contenido. Diferenciar claramente entre tipos de contenido, como opiniones, Noticias, o publicaciones de amigos, puede hacer que las fuentes de noticias sean más transparentes.

    Impulso, a diferencia de, tiene como objetivo mejorar la competencia del usuario a largo plazo. Esto podría, por ejemplo, significa permitir que las personas ajusten cómo se clasifican sus fuentes de noticias, permitiéndoles cambiar su configuración para reflejar qué factores son más importantes para ellos y qué contenido quieren ver primero. Las redes sociales podrían verse obligadas a indicar por qué algunos contenidos se ponderan más y se muestran primero, mientras que a otros contenidos se les da menor prioridad. Otro ejemplo de impulso sería presentar la fuente original de una información y la ruta por la que llegó a un usuario. Los árboles de decisiones simples podrían guiar a los usuarios a través de un proceso paso a paso para verificar el origen, contexto, y calidad del contenido en línea. En otras palabras, los usuarios tendrían las herramientas para convertirse ellos mismos en verificadores de hechos. A largo plazo, aprenderían a reconocer patrones, para evaluar críticamente el contenido, e identificar la manipulación más rápidamente.

    "La naturaleza interactiva de las redes sociales podría aprovecharse para promover un diálogo democrático diverso y fomentar la inteligencia colectiva. Nuestro objetivo es encontrar formas de fortalecer el potencial de Internet para informar los procesos de toma de decisiones en las sociedades democráticas, reforzándolos en lugar de socavarlos. Problemas globales como el cambio climático y la pandemia de coronavirus requieren coordinación, soluciones colectivas. Y eso hace que un mundo en línea interconectado democráticamente sea crucial, "dice Ralph Hertwig, Director del Centro de Racionalidad Adaptativa del Instituto Max Planck para el Desarrollo Humano.


    © Ciencia https://es.scienceaq.com