Crédito:CC0 Public Domain
Los humanos a menudo cooperan pero una amplia investigación ha demostrado que son condicionalmente cooperativos; es decir, es mucho más probable que cooperen con quienes consideran "buenos".
En sociedades grandes, sin embargo, las personas no siempre conocen la reputación de las personas con las que interactúan. Ahí es donde entran en juego los sistemas de monitoreo de reputación, como las calificaciones con estrellas para los vendedores de eBay o las calificaciones asignadas por las agencias de informes crediticios, ayudar a guiar las decisiones de las personas sobre si quieren o no ayudar o interactuar con otra persona.
En un nuevo artículo de la revista Comunicaciones de la naturaleza , un equipo de Penn utiliza modelos matemáticos para estudiar cómo las instituciones públicas de monitoreo de la reputación pueden fomentar la cooperación y también alentar a los participantes a adherirse a sus evaluaciones en lugar de confiar en sus propios juicios subjetivos sobre la reputación de los demás.
"Mostramos cómo construir instituciones de vigilancia pública que fomenten la cooperación, independientemente de la norma social de juicio moral, "dice Joshua Plotkin, profesor del Departamento de Biología de la Facultad de Artes y Ciencias de Penn y coautor del artículo con los becarios postdoctorales Arunas Radvilavicius y Taylor Kessinger. "Y entonces la adhesión a la institución pública se extenderá naturalmente".
El trabajo explora el concepto conocido como reciprocidad indirecta. A diferencia de la reciprocidad directa, en el que dos personas pueden turnarse para ayudarse entre sí, La reciprocidad indirecta depende de un sistema moral compartido.
"Según la teoría de la reciprocidad indirecta, si me encuentro con alguien que se sabe que es bueno, entonces probablemente coopere con ellos, incluso sin ningún beneficio tangible para mí, ", Dice Plotkin." Al hacer esto, gano algo intangible:capital social, o reputación, que es potencialmente valiosa en el futuro. Seré visto como una buena persona, y un tercero más tarde puede devolver mi amabilidad. Pero si deserto contra esa buena persona, entonces probablemente termine con una mala reputación, y no me beneficiaré de la ayuda de nadie más en el futuro ".
Las diferentes normas sociales varían en la forma en que asignan la reputación moral a los individuos en función de sus acciones. Derivado de la teoría de juegos, una norma social clásica se llama "juicio severo, "en el que cooperar con alguien bueno te hace ganar una buena reputación, pero cooperar con alguien malo te gana una mala reputación. Otro es "de pie simple, "" una norma más indulgente, "Plotkin dice, en el que cooperar con alguien malo también te hace ganar una buena reputación.
Al estudiar cómo las normas sociales pueden fomentar la cooperación, sin embargo, estudios anteriores asumieron que todos conocen la reputación de los demás y que esos puntos de vista son todos coherentes. En el mundo real, por supuesto, las personas pueden tomar decisiones individuales sobre la reputación de los demás. Y cuando estos puntos de vista son inconsistentes y las opiniones difieren, "puede conducir al colapso de la cooperación, "dice Plotkin.
Una forma de solucionar esto es hacer que una institución ofrezca una evaluación pública de la reputación de cada miembro. En el trabajo actual, los investigadores se propusieron probar qué características de dicha institución conducirán a los niveles más altos de cooperación y cuándo los individuos se adherirán a la transmisión pública.
Consideraron un escenario en el que las personas podrían elegir si tomar decisiones basadas en sus propias percepciones de la reputación de los demás, o optar por confiar en las evaluaciones de la institución pública designada.
"Puede imaginarse una institución simple que consta de solo dos observadores, que comparan sus observaciones y llegan a una visión consensuada de la reputación para difundirla públicamente, "Dice Plotkin.
Variando el número de observadores y el rigor con que forman sus puntos de vista consensuados, los investigadores descubrieron que siempre podían lograr que la cooperación floreciera en sus modelos, no importa qué norma social estaba presente:simple posición, juicio severo, u otras personas.
Y lo que es más, los individuos evolucionaron para adherirse a las evaluaciones de la institución.
"Incluso si solo unas pocas personas de la población se adhieren a los juicios de la institución para empezar, "Plotkin dice, "esos individuos estarán mejor. Por lo tanto, la adhesión institucional tenderá a extenderse por contagio social. Por lo tanto, hay un buen sentido en el que podemos especificar instituciones que fomenten la cooperación y luego obtener la adhesión de forma gratuita".
En el trabajo de seguimiento, Plotkin y sus colegas esperan investigar qué sucede con la cooperación y la adherencia en diferentes escenarios. ¿Qué sucede cuando las personas deben pagar un "impuesto" para mantener un sistema de vigilancia público? ¿Puede una institución así resistir la corrupción? o evitar el sesgo? ¿Y qué sucede cuando existe una variedad de normas sociales en una población? Tales variables podrían acercar el trabajo del equipo a las aplicaciones en la sociedad humana.
"A diferencia de otras teorías de la cooperación, que tienen sentido para organismos simples como las bacterias, "Plotkin dice, "este estudio explora una explicación de la cooperación que es convincente en las sociedades humanas, donde la reputación se supervisa y se valora cuidadosamente ".