• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cuando nuestra visión del mundo está distorsionada por algoritmos

    Crédito:Ecole Polytechnique Federale de Lausanne

    Los algoritmos se utilizan para personalizar nuestro suministro de noticias en las redes sociales. Pero el riesgo es que los puntos de vista que se nos presentan sean cada vez más limitados y extremos. Los investigadores de EPFL han desarrollado una solución que haría que el contenido personalizado de los usuarios sea más equilibrado, y su proyecto ya ha generado interés entre los activistas de derechos humanos.

    Cuando haces clic en un enlace en lugar de otro, su elección influirá en el contenido que le mostrarán varios sitios web más adelante. Los algoritmos utilizados por las plataformas de redes sociales como Facebook aprenden cuáles son nuestras preferencias y proporcionan cada vez más contenido que coincide con nuestros intereses. El riesgo es que nunca se nos muestre nada que vaya en contra de nuestras opiniones, y esto puede distorsionar nuestra visión del mundo. "Al seleccionar cada vez más cuidadosamente lo que vemos, estos algoritmos están distorsionando la realidad. Las plataformas de redes sociales se convierten efectivamente en cámaras de eco en las que las opiniones pueden volverse cada vez más extremas. "explica Elisa Celis, investigador senior de la Facultad de Ciencias de la Computación y la Comunicación (IC) de la EPFL.

    Y esto puede tener un impacto en el lector. "Numerosos estudios han demostrado que si estás indeciso sobre algo, En última instancia, su decisión se verá influida por la frecuencia y el orden en que se le presente la información. Por lo tanto, estos algoritmos pueden dar forma a su opinión en función de datos sesgados, "dice Celis. En respuesta a este problema, Celis trabajó con Nisheeth Vishnoi, profesor de la Facultad de Ciencias de la Computación y la Comunicación (IC) de la EPFL, desarrollar un sistema para evitar que los usuarios reciban contenido totalmente unilateral.

    Un algoritmo que es igual de efectivo

    Diseñaron un algoritmo que se puede modificar para garantizar que a los usuarios se les muestre una cantidad mínima de contenido diverso. "Una plataforma de redes sociales podría, por ejemplo, optar por tener puntos de vista que se opongan a los del usuario constituyan al menos el 10 por ciento del suministro de noticias para garantizar que la visión del mundo del usuario permanezca más equilibrada, "explican los investigadores. El algoritmo podría integrarse fácilmente en los sistemas actuales. El principal desafío es lograr que las grandes corporaciones se unan". Para plataformas como Facebook, estos algoritmos deben ser efectivos para generar ingresos publicitarios. Queríamos mostrar que es posible crear un algoritmo que sea igual de efectivo pero que permita personalizar el contenido de una manera más justa y equilibrada. "explica Vishnoi.

    Sensibilizar a los gobiernos sobre este tema será un factor clave a la hora de llenar el vacío legislativo en este ámbito. Varias organizaciones de derechos humanos ya han mostrado interés en el proyecto de los investigadores, que presentaron recientemente a los delegados de las agencias de derechos humanos en Ginebra, incluso a miembros de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. "Estos algoritmos están actualmente totalmente desregulados porque el impacto del sesgo que generan aún no se comprende adecuadamente. Como ciudadano, Me siento impotente porque no tengo control sobre el contenido que veo. La situación actual podría resultar bastante peligrosa para la democracia. Realmente necesitamos buscar soluciones alternativas, "agrega Vishnoi.


    © Ciencia https://es.scienceaq.com