• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Un método con raíces en la inteligencia artificial descubre cómo los humanos toman decisiones en grupos y redes sociales

    Crédito:CC0 Public Domain

    Las elecciones que hacemos en entornos de grupos grandes, como los foros en línea y las redes sociales, pueden parecernos bastante automáticas. Pero nuestro proceso de toma de decisiones es más complicado de lo que creemos. Entonces, Los investigadores han estado trabajando para comprender qué hay detrás de ese proceso aparentemente intuitivo.

    Ahora, Una nueva investigación de la Universidad de Washington ha descubierto que en grandes grupos de miembros esencialmente anónimos, las personas toman decisiones basadas en un modelo de la "mente del grupo" y una simulación en evolución de cómo una elección afectará a esa mente teorizada.

    Utilizando un marco matemático con raíces en la inteligencia artificial y la robótica, Los investigadores de la UW pudieron descubrir el proceso de cómo una persona toma decisiones en grupos. Y, también descubrieron que podían predecir la elección de una persona con más frecuencia que los métodos descriptivos más tradicionales. Los resultados se publicaron el miércoles, 27 de noviembre en Avances de la ciencia .

    "Nuestros resultados son particularmente interesantes a la luz del papel cada vez más importante de las redes sociales a la hora de dictar cómo se comportan los humanos como miembros de grupos particulares, "dijo el autor principal Rajesh Rao, el profesor CJ y Elizabeth Hwang en la Escuela de Ingeniería y Ciencias de la Computación Paul G. Allen de la Universidad de Washington y codirector del Centro de Neurotecnología.

    "En foros en línea y grupos de redes sociales, las acciones combinadas de miembros anónimos del grupo pueden influir en su próxima acción, y por el contrario, su propia acción puede cambiar el comportamiento futuro de todo el grupo, "Dijo Rao.

    Los investigadores querían descubrir qué mecanismos están en juego en entornos como estos.

    En el papel, explican que el comportamiento humano se basa en predicciones de estados futuros del medio ambiente —una mejor suposición de lo que podría suceder— y el grado de incertidumbre acerca de ese ambiente aumenta "drásticamente" en los entornos sociales. Para predecir lo que podría suceder cuando otro humano está involucrado, una persona hace un modelo de la mente del otro, llamada teoría de la mente, y luego usa ese modelo para simular cómo las propias acciones afectarán a esa otra "mente".

    Si bien este acto funciona bien para las interacciones uno a uno, la capacidad de modelar mentes individuales en un grupo grande es mucho más difícil. La nueva investigación sugiere que los humanos crean un modelo promedio de una "mente" representativa del grupo, incluso cuando se desconocen las identidades de los demás.

    Para investigar las complejidades que surgen en la toma de decisiones grupales, los investigadores se centraron en la "tarea del dilema del voluntario, "en el que unos pocos individuos soportan algunos costos para beneficiar a todo el grupo. Ejemplos de la tarea incluyen el deber de vigilancia, donación de sangre y dar un paso al frente para detener un acto de violencia en un lugar público, explican en el periódico.

    Para imitar esta situación y estudiar las respuestas tanto conductuales como cerebrales, los investigadores pusieron a los sujetos en una resonancia magnética, uno a uno, y les hizo jugar un juego. En el juego, llamado juego de bienes públicos, la contribución del sujeto a un fondo común de dinero influye en los demás y determina lo que todos en el grupo reciben. Un sujeto puede decidir contribuir con un dólar o decidir "viajar gratis", es decir, no contribuir a obtener la recompensa con la esperanza de que otros contribuyan al bote.

    Si las contribuciones totales exceden una cantidad predeterminada, todo el mundo recupera dos dólares. Los sujetos jugaron decenas de rondas con otros que nunca conocieron. Sin que el sujeto lo sepa, los otros fueron en realidad simulados por una computadora que imita a los jugadores humanos anteriores.

    "Casi podemos vislumbrar una mente humana y analizar su mecanismo computacional subyacente para tomar decisiones colectivas, "dijo el autor principal Koosha Khalvati, estudiante de doctorado en la Escuela Allen. "Al interactuar con un gran número de personas, Descubrimos que los humanos intentan predecir las interacciones grupales futuras basándose en un modelo de la intención de un miembro promedio del grupo. En tono rimbombante, también saben que sus propias acciones pueden influir en el grupo. Por ejemplo, son conscientes de que, aunque son anónimos para los demás, su comportamiento egoísta disminuiría la colaboración en el grupo en interacciones futuras y posiblemente traería resultados no deseados ".

    En su estudio, los investigadores pudieron asignar variables matemáticas a estas acciones y crear sus propios modelos informáticos para predecir qué decisiones podría tomar la persona durante el juego. Descubrieron que su modelo predice el comportamiento humano significativamente mejor que los modelos de aprendizaje por refuerzo, es decir, cuando un jugador aprende a contribuir en función de cómo se pagó o no la ronda anterior, independientemente de los demás jugadores, y los enfoques descriptivos más tradicionales.

    Dado que el modelo proporciona una explicación cuantitativa del comportamiento humano, Rao se preguntó si podría ser útil al construir máquinas que interactúan con humanos.

    "En escenarios en los que una máquina o software interactúa con grandes grupos de personas, nuestros resultados pueden contener algunas lecciones para la IA, ", dijo." Una máquina que simula la 'mente de un grupo' y simula cómo sus acciones afectan al grupo puede conducir a una IA más amigable con los humanos cuyo comportamiento esté mejor alineado con los valores de los humanos ".


    © Ciencia https://es.scienceaq.com