Los niños de entre siete y nueve años tenían más probabilidades de dar las mismas respuestas que los robots, incluso si eran obviamente incorrectos. Crédito:Universidad de Plymouth
Los niños pequeños son significativamente más propensos que los adultos a tener sus opiniones y decisiones influenciadas por robots, según una nueva investigación.
El estudio, realizado en la Universidad de Plymouth, comparó cómo los adultos y los niños responden a una tarea idéntica cuando están en presencia de sus compañeros y robots humanoides.
Demostró que, si bien los adultos suelen tener sus opiniones influenciadas por sus compañeros, algo también demostrado en estudios previos, son capaces de resistir en gran medida a ser persuadidos por robots.
Sin embargo, los niños de entre siete y nueve años tenían más probabilidades de dar las mismas respuestas que los robots, incluso si eran obviamente incorrectos.
El estudio utilizó el paradigma de Asch, desarrollado por primera vez en la década de 1950, que pide a las personas que miren una pantalla que muestra cuatro líneas y digan cuáles dos coinciden en longitud. Cuando solo, la gente casi nunca comete un error, pero al hacer el experimento con otros, tienden a seguir lo que dicen los demás.
Cuando los niños estaban solos en la habitación en esta investigación, obtuvieron un 87% en la prueba, pero cuando los robots se unen, su puntuación cae al 75%. Y de las respuestas equivocadas 74% coincidió con los del robot.
Escribiendo en Ciencia Robótica , Los científicos dicen que el estudio proporciona una visión interesante de cómo los robots podrían usarse positivamente dentro de la sociedad. Sin embargo, También dicen que plantea algunas preocupaciones sobre la posibilidad de que los robots tengan una influencia negativa en los niños pequeños vulnerables.
La configuración experimental de los participantes que completan la tarea visual (identificando si una determinada línea tiene una altura diferente a la de una línea de referencia). Crédito:Vollmer et al., Sci. Robot . 3, eaat7111 (2018)
La investigación fue dirigida por la ex investigadora de Plymouth Anna Vollmer, ahora investigador postdoctoral en la Universidad de Bielefeld, y el profesor de robótica Tony Belpaeme, de la Universidad de Plymouth y la Universidad de Ghent.
El profesor Belpaeme dijo:"La gente a menudo sigue las opiniones de los demás y sabemos desde hace mucho tiempo que es difícil resistirse a asumir los puntos de vista y las opiniones de las personas que nos rodean. Sabemos esto como conformidad. Pero pronto se encontrarán robots en el hogar y en el lugar de trabajo, nos preguntábamos si la gente se conformaría con los robots.
"Lo que muestran nuestros resultados es que los adultos no se ajustan a lo que dicen los robots. Pero cuando hicimos el experimento con niños, lo hicieron. Muestra que los niños quizás puedan tener más afinidad con los robots que los adultos, lo que plantea la pregunta:¿qué pasaría si los robots sugirieran, por ejemplo, qué productos comprar o qué pensar? "
Los investigadores de Plymouth han trabajado mucho para explorar el impacto positivo que los robots pueden tener en entornos de salud y educación.
La configuración experimental de los participantes que completan la tarea visual (identificando si una determinada línea tiene una altura diferente a la de una línea de referencia). Crédito:Tony Belpaeme / Universidad de Gante
Dirigieron el programa ALIZ-E de cuatro años, que demostró que los robots sociales pueden ayudar a los niños diabéticos a aceptar la naturaleza de su condición, y lideran L2TOR, cuyo objetivo es diseñar un robot que se pueda utilizar para ayudar a los niños en edad preescolar a aprender un segundo idioma.
En su conclusión del estudio actual, los investigadores añaden:"Un futuro en el que los robots sociales autónomos se utilicen como ayudas para los profesionales de la educación o los terapeutas infantiles no está lejano. En estas aplicaciones, el robot se encuentra en una posición en la que la información proporcionada puede afectar significativamente a las personas con las que interactúa. Se requiere una discusión sobre si las medidas de protección, como un marco regulatorio, debe existir un lugar que minimice el riesgo para los niños durante la interacción social niño-robot y la forma que podrían tomar para no afectar adversamente el prometedor desarrollo del campo ".