Crédito:Sr. Tempter / Shutterstock
¿YouTube crea extremistas? Un estudio reciente provocó discusiones entre los científicos al argumentar que los algoritmos que impulsan el sitio no ayudan a radicalizar a las personas al recomendar videos cada vez más extremos. como se ha sugerido en los últimos años.
El papel, enviado a la revista de acceso abierto el primer lunes, pero aún no ha sido revisado formalmente por pares, analizó las recomendaciones de video recibidas por diferentes tipos de canales. Afirmó que el algoritmo de YouTube favorece los canales de medios convencionales sobre el contenido independiente, concluyendo que la radicalización tiene más que ver con las personas que crean contenido dañino que con el algoritmo del sitio.
Los especialistas en el campo respondieron rápidamente al estudio, Algunos critican los métodos del artículo y otros argumentan que el algoritmo es uno de varios factores importantes y que la ciencia de datos por sí sola no nos dará la respuesta.
El problema con esta discusión es que realmente no podemos responder a la pregunta de qué papel juega el algoritmo de YouTube en la radicalización de las personas porque no entendemos cómo funciona. Y esto es solo un síntoma de un problema mucho más amplio. Estos algoritmos juegan un papel cada vez más importante en nuestra vida diaria, pero carecen de cualquier tipo de transparencia.
Es difícil argumentar que YouTube no juega un papel en la radicalización. Esto fue señalado por primera vez por el sociólogo tecnológico Zeynep Tufekci, quien ilustró cómo los videos recomendados conducen gradualmente a los usuarios hacia contenido más extremo. En palabras de Tufekci, videos sobre jogging conducen a videos sobre correr ultramaratones, videos sobre vacunas conducen a teorías de conspiración, y los videos sobre política conducen a "negaciones del Holocausto y otro contenido perturbador".
Esto también ha sido escrito en detalle por el ex empleado de YouTube Guillaume Chaslot que trabajó en el algoritmo de recomendación del sitio. Desde que dejó la empresa, Chaslot ha seguido intentando que esas recomendaciones sean más transparentes. Él dice que las recomendaciones de YouTube están sesgadas hacia las teorías de la conspiración y los videos inexactos en términos de hechos. que, sin embargo, hacen que la gente pase más tiempo en el sitio.
De hecho, maximizar el tiempo de reproducción es el objetivo de los algoritmos de YouTube, y esto anima a los creadores de videos a luchar por llamar la atención de cualquier forma posible. La absoluta falta de transparencia de la empresa sobre cómo funciona exactamente hace que sea casi imposible luchar contra la radicalización en el sitio. Después de todo, sin transparencia, Es difícil saber qué se puede cambiar para mejorar la situación.
Pero YouTube no es inusual a este respecto. La falta de transparencia sobre cómo funcionan los algoritmos suele ser el caso siempre que se utilizan en sistemas grandes, ya sea por empresas privadas u organismos públicos. Además de decidir qué video mostrarte a continuación, Los algoritmos de aprendizaje automático ahora se utilizan para colocar a los niños en las escuelas, decidir las penas de prisión, determinar puntajes de crédito y tasas de seguro, así como el destino de los inmigrantes, candidatos a puestos de trabajo y aspirantes a universidades. Y normalmente no entendemos cómo estos sistemas toman sus decisiones.
Los investigadores han encontrado formas creativas de mostrar el impacto de estos algoritmos en la sociedad, ya sea examinando el auge de la derecha reaccionaria o la difusión de teorías de conspiración en YouTube, o mostrando cómo los motores de búsqueda reflejan los prejuicios racistas de las personas que los crean.
Los sistemas de aprendizaje automático suelen ser grandes, complejo, y opaco. Oportunamente, a menudo se describen como cajas negras, donde entra la información, y sale información o acciones, pero nadie puede ver lo que sucede en el medio. Esto significa que, ya que no sabemos exactamente cómo funcionan los algoritmos como el sistema de recomendación de YouTube, tratar de averiguar cómo funciona el sitio sería como tratar de entender un automóvil sin abrir el capó.
Sucesivamente, esto significa que tratar de escribir leyes para regular lo que los algoritmos deben o no deben hacer se convierte en un proceso ciego o de prueba y error. Esto es lo que está sucediendo con YouTube y con muchos otros algoritmos de aprendizaje automático. Estamos tratando de opinar sobre sus resultados, sin una comprensión real de cómo funcionan realmente. Necesitamos abrir estas tecnologías patentadas, o al menos hacerlos lo suficientemente transparentes para que podamos regularlos.
Explicaciones y pruebas
Una forma de hacer esto sería que los algoritmos proporcionen explicaciones contrafácticas junto con sus decisiones. Esto significa determinar las condiciones mínimas necesarias para que el algoritmo tome una decisión diferente, sin describir toda su lógica. Por ejemplo, un algoritmo que toma decisiones sobre préstamos bancarios puede producir un resultado que diga que "si usted tiene más de 18 años y no tiene una deuda previa, que acepten su préstamo bancario ". Pero esto puede ser difícil de hacer con YouTube y otros sitios que utilizan algoritmos de recomendación, ya que en teoría se podría recomendar cualquier video en la plataforma en cualquier momento.
Otra poderosa herramienta son las pruebas y auditorías de algoritmos, que ha sido particularmente útil en el diagnóstico de algoritmos sesgados. En un caso reciente, una empresa profesional de selección de currículums descubrió que su algoritmo priorizaba dos factores como mejores predictores del desempeño laboral:si el nombre del candidato era Jared, y si jugaron lacrosse en la escuela secundaria. Esto es lo que sucede cuando la máquina no está supervisada.
En este caso, el algoritmo de selección de currículums había notado que los hombres blancos tenían una mayor probabilidad de ser contratados, y había encontrado características de proxy correlativas (como ser llamado Jared o jugar lacrosse) presentes en los candidatos contratados. Con YouTube, La auditoría de algoritmos podría ayudar a comprender qué tipos de videos se priorizan para la recomendación y quizás ayudar a resolver el debate sobre si las recomendaciones de YouTube contribuyen a la radicalización o no.
Introducir explicaciones contrafácticas o usar auditorías de algoritmos es una tarea difícil, proceso costoso. Pero es importante porque la alternativa es peor. Si los algoritmos no se controlan ni regulan, pudimos ver un avance gradual de teóricos de la conspiración y extremistas en nuestros medios, y nuestra atención controlada por quien pueda producir el contenido más rentable.
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.