Crédito:Pixabay/CC0 Dominio público
Cuando nos encontramos con una cara desconocida, tendemos a hacer juicios rápidos. ¿La persona se ve inteligente, atractiva o joven? ¿Son confiables o corruptos? Los neurocientíficos y los psicólogos estudian cómo nuestros cerebros forman estos sesgos faciales y cómo los juicios finalmente influyen en la forma en que las personas se comportan.
"Tendemos a tener bastante confianza en los juicios que hacemos en función de los rostros de las personas, pero a menudo nos equivocamos", dice Ralph Adolphs (Ph.D. '93), profesor Bren de Psicología, Neurociencia y Biología y profesor afiliado. miembro del Instituto de Neurociencia Tianqiao y Chrissy Chen.
Estudios anteriores han relacionado estos estereotipos y juicios con las decisiones que toman las personas en varios aspectos de la sociedad, incluidas las elecciones, las prácticas de contratación y las sentencias judiciales por jurados. Por ejemplo, un estudio de Caltech de Adolphs y Mike Alvarez, un profesor de ciencias políticas, mostró que las personas juzgaban a los políticos como más corruptos si tenían caras más anchas y que, en este caso, estos juicios coincidían con si los políticos habían sido condenados por corrupción en la vida real.
"Las decisiones sociales muy importantes están influenciadas por los juicios instantáneos que hacemos sobre las personas a partir de sus rostros", dice Adolphs. "Al señalar estos sesgos, esperamos poder reducir su impacto".
En un estudio reciente en la revista Nature Communications , Adolphs y su equipo, dirigido por el exestudiante graduado de Caltech Chujun Lin, ahora becario postdoctoral en Dartmouth College, observaron cómo los sesgos faciales se pueden dividir en juicios primarios. De la misma manera que los colores multifacéticos de una pintura pueden derivarse de los colores primarios rojo, amarillo y azul, nuestros cerebros combinan juicios primarios para crear una serie de percepciones sobre todo, desde cuán amable es una persona hasta sus niveles de agresión.
Los resultados mostraron que los participantes del estudio, que incluyeron a personas de siete regiones diferentes del mundo, hicieron automáticamente cuatro juicios principales cuando se encontraron con una cara nueva (independientemente de si los juicios eran precisos o no):evaluaron si una persona tiene calor o frío. , competente o incompetente, femenino o masculino, y joven o viejo. Todos los demás juicios que las personas pueden hacer pueden derivarse de una combinación de estos cuatro juicios principales.
"Estos cuatro juicios principales son la base de los sesgos que tenemos cuando formamos una amplia gama de impresiones de los demás en función de los rostros, que podrían orientarse de manera eficiente para las intervenciones anti-sesgo", explica Lin.
Desafíos para estudiar el sesgo
Adolphs señala que hay límites para este estudio en particular y muchos otros similares. En este caso, los investigadores utilizaron bases de datos existentes, que en su mayoría se componen de rostros blancos con expresiones neutras.
"La mayoría de las bases de datos para este tipo de estudios se construyeron hace años, e incluso hace décadas", dice Adolphs. "Por lo general, hay fotos de personas fácilmente disponibles para los investigadores, pero las fotos ciertamente no representan a la población mundial".
Para su análisis inicial, Adolphs y su equipo optaron por limitar los estímulos a rostros blancos con expresiones neutras porque esto les permitía excluir otros factores como el contexto y la raza. El equipo está trabajando en un proyecto de seguimiento que incorpora rostros más diversos, incluidos rostros de diferentes razas que exhiben una gama más amplia de expresiones.
"Representar la diversidad de una población mundial en general es un gran desafío en nuestro campo", dice Adolphs.
Un estudio seminal de la Universidad de Columbia Británica sobre el tema, dice Adolphs, introdujo un término conocido como WEIRD, para sociedades occidentales, educadas, industrializadas, ricas y democráticas. WEIRD se refiere a poblaciones de personas típicamente estudiadas en psicología y ciencias sociales. Como señala el artículo, "esta porción de humanidad particularmente delgada y bastante inusual" es una de las "poblaciones menos representativas que se pueden encontrar para generalizar sobre los humanos".
"Durante muchos de nuestros estudios, no reclutamos estudiantes por este motivo", dice Adolphs. "Son convenientes, pero, por supuesto, no son una subsección demográfica representativa de la población mundial. A menudo, tratamos de reclutar personas de la comunidad que son más diversas".
El futuro:sesgo en la IA
En otro estudio reciente del grupo de Adolphs, dirigido por el posdoctorado de Caltech Umit Keles y publicado en la revista Affective Science , the researchers looked at the question of whether artificial intelligence (AI) methods can be trained to predict how individuals will react to people's faces. They found machine-based methods could make surprisingly accurate predictions, but sometimes came up with wrong answers.
"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."
This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.
"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."
Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.
"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.
Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).
"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."