Crédito:CC0 Public Domain
La profesora de psicología Michelle Drouin quería saber cómo reaccionaría la gente si un chatbot pudiera emular a un humano.
Así que ella y sus compañeros investigadores dividieron a 350 estudiantes de pregrado en tres grupos. A un grupo se le dijo que interactuarían con un bot. A otro le dijeron que era una persona real. Y el último solo fue informado después de la interacción que se habían estado comunicando con un algoritmo.
Los dos primeros grupos estuvieron casi igualmente felices con la experiencia. Pero el último grupo no lo fue.
"Se sintieron inquietos al respecto, ", dijo Drouin de la Universidad Purdue de Fort Wayne." Pensaron que los estaban engañando ".
Es una reacción a la que las empresas de Silicon Valley pueden querer prestar mucha atención a medida que continúan ampliando los límites de la inteligencia artificial para crear asistentes virtuales cada vez más realistas.
El martes, Google presentó un asistente que puede hacer llamadas para programar citas mientras habla con una voz humana casi impecable repleta de "ums" y "ahs". En ningún momento durante la presentación, el software de Google reveló que no era humano, lo que generó un debate sobre la ética y el consentimiento.
El jueves, Google invirtió el rumbo al decir explícitamente que el servicio, conocido como Google Duplex, incluiría una revelación de que no es una persona.
"Entendemos y valoramos la discusión sobre Google Duplex, como dijimos desde el principio, la transparencia en la tecnología es importante, ", dijo un portavoz de la empresa." Estamos diseñando esta función con divulgación incorporada, y nos aseguraremos de que el sistema esté correctamente identificado ".
La preocupación de que la gente sea engañada por la nueva función de Google subraya la urgencia de que la sociedad determine qué tipo de relación quiere con sus ayudas artificiales a medida que las empresas de tecnología se acercan a atravesar el llamado valle inquietante. Ese es un término que se usa para describir el abismo entre un robot o software que tiene las imperfecciones suficientes para generar escepticismo y otro que es indistinguible de un humano.
¿Exigiremos saber cuándo estamos hablando con un bot? ¿O aceptaremos que terminaremos conversando involuntariamente con algoritmos? ¿Les brindaremos la misma amabilidad y empatía que nos exigimos? ¿O los vemos simplemente como herramientas, indigno de los valores que unen a la sociedad civil? Estas son preguntas de los especialistas en ética, los desarrolladores y diseñadores están desconcertados. La forma en que respondamos podría tener implicaciones de gran alcance en la forma en que los humanos se tratan entre sí.
"Nos cambiará, "dijo Pamela Pavliscak, profesor del Pratt Institute y fundador de Change Sciences, una consultora especializada en la conexión emocional que las personas tienen con la tecnología. "Diseñamos tecnología y tecnología, Sucesivamente, nos diseña. Sería bastante ingenuo pensar que seguiremos igual ".
Usando un par de llamadas telefónicas grabadas, El director ejecutivo de Google, Sundar Pichai, demostró esta semana a los asistentes a la conferencia de desarrolladores de la compañía cómo su asistente virtual podía llamar y reservar una cita para el cabello e intentar reservar una mesa en un restaurante.
"Mm-hmm, ", dice el asistente sustituto con una voz femenina natural cuando el empleado del salón le pide que espere un momento.
El asistente luego negocia horarios alternativos para la cita, lanzando un "um" por si acaso. No hay indicios de que el trabajador del salón tenga idea de que la voz en el otro extremo está generada por computadora.
Lo mismo ocurre con un trabajador de un restaurante que habla con un asistente virtual masculino, que usa coloquialismos como "Oh, Te tengo "para expresar comprensión.
La voluntad de Google de revelar que Duplex no es una persona real podría presionar a otras empresas para que hagan lo mismo. Pero los estadounidenses, que ya están acostumbrados a las llamadas automáticas y los menús de llamadas automatizados, algún día, no obstante, podrían preguntarse si la voz al otro lado de la línea es real.
Pichai dijo que el servicio podría ser de gran ayuda para las empresas al eliminar una barrera más para los clientes. que puede que no tenga tiempo para hacer tales llamadas. Todo encaja perfectamente en el nuevo lema de la empresa, "Haz que Google lo haga, "que insta a los consumidores a aprovechar el asistente desde sus teléfonos, altavoces inteligentes, carros, Televisores y portátiles.
Para que nadie olvide las tareas más serviles que la gente subcontrata a Google, cuanto más sepa la empresa sobre sus hábitos. Eso tiene dos propósitos:permite que Google brinde a los consumidores mejores resultados de búsqueda, y permite a los anunciantes dirigirse a las audiencias con mayor precisión. Y al hacer que un asistente virtual suene real, los usuarios bajan la guardia, dando a Google datos aún más valiosos.
Eso en sí mismo preocupa a los defensores de la privacidad. ¿Un asistente que suene auténtico adormecerá a los usuarios para que revelen sus detalles más privados a una empresa que acumuló $ 95 mil millones en ingresos publicitarios el año pasado? ¿Qué pasa si el asistente llama a un médico? ¿Conoce Google ahora el historial de salud de alguien?
Es algo que Google tendrá que abordar dadas las mayores preocupaciones de hoy sobre la privacidad después del escándalo de Cambridge Analytica de Facebook. Pero los especialistas en ética dicen que las mayores preocupaciones son las consecuencias no deseadas de un mundo cada vez más inundado de bots y servicios automatizados en lugar de una interacción humana genuina.
"La razón por la que esto puede ir hacia los lados es porque la comunicación y las relaciones humanas se basan en la reciprocidad, "dijo David Ryan Polgar, un especialista en ética de la tecnología. "¿Qué pasa si paso tiempo pensando en alguien y escribiéndole, pero la otra persona no lo hace? No están poniendo el mismo esfuerzo, pero aún quieren el beneficio de una relación más profunda".
Como resultado, él dijo, la comunicación se abarata.
"Se vuelve transaccional, únicamente sobre las palabras y no el significado, "dijo Polgar, que piensa que Google y otros desarrolladores de inteligencia artificial tienen la responsabilidad ética de revelar que sus asistentes no son humanos.
Dennis Mortensen, director ejecutivo y fundador de la empresa de asistentes virtuales de IA x.ai, dijo que teme que la gente eventualmente determine que es una pérdida de tiempo ser amables unos con otros si se automatiza una cantidad cada vez mayor de interacción. Pero tiene la esperanza de que eso no suceda.
"Puedes diseñar un buen comportamiento, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
© 2018 Los Angeles Times
Distribuido por Tribune Content Agency, LLC.