Crédito:CC0 Public Domain
Lo creas o no, cada vez más empresas de préstamos recurren a la interacción humano-robot para ayudar con el asesoramiento de inversión. Pero, ¿cómo reacciona la gente y cuál es el resultado de una decisión de inversión cuando los robots usan algoritmos para hacer sugerencias? Nueva investigación en la revista INFORMS Investigación de sistemas de información descubre que los inversores que podrían beneficiarse más de los robo-advisors (RA) no los están utilizando. Y aquellos que lo están cambian de opinión demasiado rápido para ver un regreso.
El artículo, "Interacción humano-robot:cuando los inversores ajustan el uso de Robo-advisors en los préstamos entre pares, "fue dirigido por Zhiqiang (Eric) Zheng de la Universidad de Texas en Dallas, Ruyi Ge de la Escuela de Negocios de Shanghai, y Xuan Tian y Li Liao de la Universidad de Tsinghua, Beijing.
"Nuestros análisis muestran que, sorprendentemente, inversores que necesitan más ayuda de los RA, es decir, aquellos que encontraron más incumplimientos en su inversión manual, tienen menos probabilidades de adoptar tales servicios, "dice Zheng, un profesor Ashbel Smith y profesor de sistemas de información en la Escuela de Administración Jindal en UT Dallas. "Los inversores tienden a ajustar su uso del servicio como reacción al desempeño reciente de RA. Sin embargo, curiosamente, estas interferencias de humanos en el circuito a menudo conducen a un rendimiento inferior ".
Los investigadores analizaron la interacción humano-robot de los servicios de asesoramiento financiero en los préstamos entre pares (P2P). Muchas plataformas de financiación colectiva han comenzado a utilizar asesores robotizados para ayudar a los prestamistas a ampliar su inteligencia en las inversiones de préstamos P2P. Este trabajo analizó datos de una de las principales empresas P2P y examinó cómo los inversores utilizan robo-advisors, y cómo el ajuste humano del uso de robo-advisor afecta el rendimiento de la inversión.
"Nuestros resultados muestran que los usuarios experimentan más pérdidas debido a que son demasiado reactivos al desempeño reciente de RA. Esto presenta un caso de uso nuevo pero negativo para la sinergia entre humanos e inteligencia artificial (IA), donde dejar demasiado control a los humanos sobre cuándo usar un RA puede ser contraproducente, "continúa Zheng." Este resultado refleja el posible malentendido y el uso indebido de los RA por parte de los inversores. Es posible que no siempre tengan el conocimiento adecuado de los sistemas de AR y pueden intervenir de manera contraproducente ".
Zheng señala que los sistemas de RA deben ofrecer más transparencia en sus servicios y que un sistema inteligente bien diseñado debe anticipar los posibles comportamientos del usuario y tener en cuenta dichos factores humanos en el diseño de su sistema.
"Es especialmente importante saber cuándo es beneficioso incluir humanos en el ciclo de la implementación de un sistema. Todas estas implicaciones requieren una comprensión clara de cómo los usuarios pueden adoptar y reaccionar a los sistemas, " él añade.