Crédito:Unsplash/CC0 Dominio público
La moderación de contenido es un acto de equilibrio delicado para las plataformas de redes sociales que intentan aumentar su base de usuarios. Las plataformas más grandes como Facebook y Twitter, que obtienen la mayor parte de sus ganancias de la publicidad, no pueden darse el lujo de perder atención o participación en sus sitios. Sin embargo, están bajo una tremenda presión pública y política para detener la desinformación y eliminar el contenido dañino. Mientras tanto, las plataformas más pequeñas que se adaptan a ideologías particulares prefieren dejar que reine la libertad de expresión.
En su próximo artículo, titulado "Implicaciones de los modelos de ingresos y la tecnología para las estrategias de moderación de contenido", los profesores de marketing de Wharton Pinar Yildirim y Z. John Zhang, y el candidato a doctorado de Wharton Yi Liu muestran cómo la estrategia de moderación de contenido de una empresa de redes sociales está influenciada principalmente por su modelo de ingresos. Es más probable que una plataforma con publicidad modere su contenido que una con suscripción, pero lo modera de forma menos agresiva que la última cuando lo hace. En el siguiente ensayo, los autores analizan su investigación y sus implicaciones para los legisladores que desean regular las plataformas de redes sociales.
Todos los días, millones de usuarios de todo el mundo comparten sus diversos puntos de vista en las plataformas de redes sociales. No todos estos puntos de vista están en armonía. Algunos se consideran ofensivos, dañinos e incluso extremos. Con opiniones diversas, los consumidores están en conflicto:por un lado, quieren expresar libremente sus puntos de vista sobre temas políticos, sociales y económicos en curso en las plataformas de redes sociales sin intervención y sin que se les diga que sus puntos de vista son inapropiados. Por otro lado, cuando otros expresan sus puntos de vista libremente, pueden considerar que parte de ese contenido es inapropiado, insensible, dañino o extremo y desean que se elimine. Además, los consumidores no siempre están de acuerdo sobre qué publicaciones son objetables o qué acciones deben tomar las plataformas de redes sociales. Según una encuesta realizada por Morningconsult, por ejemplo, el 80 % de los encuestados quiere que se eliminen los discursos de odio, como las publicaciones que usan insultos contra un grupo racial, religioso o de género, el 73 % desea que se eliminen los videos que muestran crímenes violentos y El 66 % desea que se eliminen las representaciones de actos sexuales.
Las plataformas de redes sociales se enfrentan al desafío de actuar como guardianes de Internet y, al mismo tiempo, ser el centro de la autoexpresión y el contenido generado por los usuarios. De hecho, los esfuerzos de moderación de contenido consumen recursos significativos de las empresas. Solo Facebook se ha comprometido a asignar el 5 % de los ingresos de la empresa, 3700 millones de dólares, a la moderación de contenido, una cantidad superior a los ingresos anuales totales de Twitter. Sin embargo, ni los consumidores ni los reguladores parecen estar satisfechos con sus esfuerzos. De una forma u otra, las empresas deben decidir cómo moderar el contenido para proteger a los usuarios individuales y sus intereses. ¿Debería eliminarse el contenido confidencial de Internet? ¿O la libertad de expresión debería gobernar libremente, indicando que todos son libres de publicar lo que quieran, y es decisión del consumidor optar por entrar o salir de este mundo de libertad de expresión? Eliminar el contenido de alguien reduce el disfrute del sitio por parte de ese usuario (y de algunos otros usuarios), mientras que no eliminarlo también puede ofender a otros. Por lo tanto, en términos de incentivos económicos de una plataforma de redes sociales, la moderación del contenido puede afectar la participación del usuario, lo que en última instancia puede afectar la rentabilidad de la plataforma.
Moderación de contenido, maximización de beneficios
En nuestro próximo documento, "Implicaciones de los modelos de ingresos y la tecnología para las estrategias de moderación de contenido", estudiamos cómo las plataformas de redes sociales impulsadas por las ganancias pueden o no moderar el contenido en línea. Tomamos en cuenta la considerable heterogeneidad de usuarios y los diferentes modelos de ingresos que pueden tener las plataformas, y derivamos la estrategia de moderación de contenido óptima de la plataforma que maximiza los ingresos.
Cuando diferentes plataformas de redes sociales moderan el contenido, el determinante más importante es su resultado final. Este resultado final puede depender en gran medida de la publicidad, o de brindar atención a los anunciantes, o de las tarifas de suscripción que pagan los consumidores individuales. Pero hay un marcado contraste entre los dos modelos de ingresos. Si bien la publicidad se basa en brindar muchas, muchas miradas a los anunciantes, los ingresos por suscripción dependen de poder atraer clientes que pagan. Como resultado del contraste, la política de moderación de contenido en un esfuerzo por retener a los consumidores también se ve diferente en la publicidad frente a la suscripción. Es más probable que las plataformas de redes sociales que se ejecutan con ingresos publicitarios moderen el contenido, pero con estándares comunitarios laxos para retener a un grupo más grande de consumidores, en comparación con las plataformas con ingresos por suscripción. De hecho, las plataformas basadas en suscripción como Gab y MeWe son menos propensas a moderar el contenido, reclamando libertad de expresión para sus usuarios.
Un segundo factor importante en la moderación de contenido es la calidad de la tecnología de moderación de contenido. Un volumen significativo de moderación de contenido se lleva a cabo con la ayuda de computadoras e inteligencia artificial. ¿Por qué, entonces, los ejecutivos de las redes sociales afirman que la tecnología no es suficiente? Cuando se les pregunta sobre la moderación de contenido, la mayoría de los ejecutivos de Facebook enfatizan que les importa mucho la moderación de contenido y asignan grandes cantidades de ingresos de la empresa a la tarea.
Encontramos que una plataforma de redes sociales egoísta no siempre se beneficia de la mejora tecnológica. En particular, una plataforma cuya principal fuente de ingresos es la publicidad puede no beneficiarse de una mejor tecnología, porque la tecnología menos precisa crea una comunidad porosa con más ojos. Este hallazgo sugiere que la moderación de contenido en las plataformas en línea no es simplemente el resultado de sus capacidades tecnológicas, sino también de sus incentivos económicos.
Los hallazgos del documento en general arrojan dudas sobre si las plataformas de redes sociales siempre remediarán las deficiencias tecnológicas por sí mismas. Llevamos nuestro análisis un paso más allá y comparamos la estrategia de moderación de contenido para una plataforma de interés propio con la de un planificador social, que es una institución gubernamental o un organismo de actuación similar que establece reglas para mejorar el bienestar social. Un planificador social usará la moderación de contenido para eliminar a cualquier usuario que contribuya negativamente a la utilidad total de la sociedad, mientras que una plataforma interesada puede mantener a algunos de estos usuarios, si sirve a sus intereses. Tal vez en contra de las creencias comunes, encontramos que es más probable que una plataforma interesada modere el contenido que un planificador social, lo que indica que las plataformas individuales tienen más incentivos para moderar su contenido en comparación con el gobierno.
Sin embargo, más incentivos no significan incentivos correctos. Al realizar la moderación de contenido, una plataforma bajo publicidad será menos estricta que un planificador social, mientras que una plataforma bajo suscripción será más estricta que un planificador social. Además, un planificador social siempre impulsará la tecnología perfecta cuando el costo de desarrollar tecnología no sea un problema. Solo una plataforma bajo suscripción tendrá su interés alineado con un planificador social en perfeccionar la tecnología para la moderación de contenido. En general, estas conclusiones demuestran que hay espacio para las regulaciones gubernamentales y, cuando están justificadas, deben diferenciarse con respecto al modelo de ingresos que adopta una plataforma.