Crédito:CC0 Public Domain
¿Alguna vez ha sentido que sus asistentes de voz, ya sean Siri, Alexa, o Google, ¿no te entiendes? Puede repetir su pregunta un poco más lento, un poco más fuerte pero eventualmente obtendrá la información que estaba pidiendo en los tonos agradables pero sin vida de su asistente activado por voz.
Pero, ¿y si hablar con el técnico de su hogar no fuera una opción? Esa es la pregunta que enfrentan muchos de los 3 millones de personas en los Estados Unidos que tartamudean, además de los miles de personas que tienen problemas del habla que no se limitan a tartamudear, y muchos se sienten excluidos.
"Cuando empezaron a salir estas cosas, Estaba por todas partes "dijo Jacquelyn Joyce Revere, un guionista de Los Ángeles que tartamudea. "En los angeles, Necesito GPS todo el tiempo así que esta me pareció una forma más conveniente de vivir la vida que quiero vivir ".
Revere dijo que desde 2011, ha intentado usar Siri en iPhone y Apple Watch, y Alexa a través de un Amazon Fire Stick. Aunque sigue intentando utilizar estos asistentes de voz, sus intentos a menudo la dejan decepcionada.
"Cada vez que intento usarlo hay otro clavo en el ataúd, otro recordatorio de que esta tecnología no fue creada para mí, "Dijo Revere.
Pero no son solo Alexa y sus amigos
Las frustraciones de Revere no se limitan a los asistentes de voz. Las interfaces telefónicas automatizadas también plantean problemas. Por ejemplo, dijo que no es raro que pase hasta 40 minutos en espera, solo para ser desconectado de una llamada por un operador de máquina cuando no puede pronunciar ninguna palabra.
Según Jane Fraser, presidente de The Stuttering Foundation, Las interfaces telefónicas han sido un problema común dentro de la comunidad tartamudeante durante años. Ella dijo que The Stuttering Foundation recibe cientos de correos electrónicos en busca de ayuda sobre cómo lidiar con ellos, mientras que la tecnología más nueva ha ayudado a que los viejos problemas surjan de nuevas formas.
"En general, la tecnología ha ayudado a las personas que tartamudean, pero cuando intentas decirle lo que quieres obtienes la misma experiencia en el teléfono con una máquina u otra persona:ambos cuelgan, "Dijo Fraser.
Los asistentes de voz escuchan diferentes tipos de tartamudeo de diferentes maneras. Algunas de estas formas de tartamudeo incluyen prolongaciones, donde los sonidos se alargan; repeticiones, cuando los hablantes repiten sonidos o palabras; y bloques, que son las pausas que ocurren cuando un hablante no puede pronunciar una palabra. Fraser dijo que las personas que tartamudean con bloques a menudo tienen más problemas con los asistentes de voz y las interfaces telefónicas activadas por voz.
"Si no hay voz, el asistente de voz no puede escuchar nada, por lo que se apaga o interrumpe, "Dijo Fraser.
Revere tartamudea a menudo con bloques, y dijo que confunden a los asistentes de voz más que cualquier otro tipo de tartamudeo.
"Si tengo un bloque, se apagan completamente, "Revere dijo, aunque también notó que Alexa es un poco más paciente que Siri.
Tayler Enyart, un asistente legal de Elk Grove, California, es otro usuario de Alexa y Siri que tartamudea en bloques. De manera similar a Revere, tiene problemas para usar esta tecnología y se siente excluida debido a ella.
"Usar estas tecnologías no es fácil para mí, "Dijo Enyart." Los he probado todos, pero todos me cortaron. Es realmente frustrante así que trato de evitarlos. Una parte de mí se siente realmente excluida pero otra parte es como, "Estoy acostumbrado a esto".
Cómo está respondiendo la gran tecnología
Manzana, Amazonas, y Google tienen sus propias formas de brindar accesibilidad a las personas que tartamudean o que tienen otras discapacidades del habla. Amazon y Apple han lanzado funciones que permiten a los usuarios escribir comandos a Alexa o Siri, como Tap to Alexa con Echo Show, o Escriba a Siri con iOS 11 en 2018.
Google actualiza constantemente su Asistente de Google con nuevas muestras de voz para comprender mejor a las personas con acentos o disfluencias del habla. Y en 2019, la empresa anunció un proyecto de investigación llamado Proyecto Euphonia, cuyo objetivo es eventualmente crear un modelo de reconocimiento que pueda comprender a las personas con discapacidades del habla en todas las plataformas informáticas.
El proyecto, que se inspiró en pacientes con ELA, tiene como objetivo recopilar suficientes muestras de audio para crear un modelo de sonido que pueda predecir y comprender los patrones de habla alterados.
"Se está produciendo una revolución en la forma en que las personas utilizan la voz para interactuar con las computadoras, pero algunas personas se están quedando atrás, "dijo Michael Brenner, profesor de matemáticas aplicadas de Harvard y uno de los investigadores detrás del Proyecto Euphonia.
Según Brenner, El mayor desafío del Proyecto Euphonia es la falta de datos. Debido a que la tecnología de reconocimiento de voz está capacitada para escuchar el habla estándar, Project Euphonia necesita muestras de audio de problemas del habla para entrenar a las computadoras para que también puedan entenderlo. Idealmente, Project Euphonia tendría acceso a decenas de millones de muestras de audio, crear un modelo estadístico que pueda predecir y comprender los sonidos del habla alterada, pero ese es un estándar imposible.
"No queremos hacer promesas excesivas porque no sabemos qué es posible, pero queremos ayudar a la gente, ", Dijo Brenner." Sería ideal tener suficientes muestras para tener un modelo general, pero no lo hacemos. Queremos saber cómo hacer cosas que sean útiles con el discurso que tenemos ".
Erich Reiter es un ingeniero de reconocimiento de voz y patólogo del habla que ayudó a desarrollar Siri cuando trabajaba para Nuance Communications. Ha sido muy consciente de las fallas de la tecnología de reconocimiento de voz para personas con problemas del habla desde 2012.
Ese año, un accidente de buceo en aguas poco profundas dejó a uno de los amigos de Reiter tetrapléjico, y solo podía comunicarse a través de un dispositivo de comunicación aumentativa y alternativa (AAC), similar a lo que utilizó el físico teórico inglés Stephen Hawking. Según Reiter, su amigo tardaría tres minutos en decir algo tan simple como "Necesito agua".
This experience inspired Reiter to return to school to become a speech pathologist and eventually create voice recognition technology that helps people who stutter.
Reiter is now one of the founders of Say-IT Labs, a Brussels-based start-up that is making video games intended to help people who stutter practice effective speech techniques. Their goal, according to Reiter, is to make speech therapy more accessible.
"If you see a school SLP, chances are they have a caseload of about 60-80 students, " Reiter said. "That doesn't give them enough time to work on real progress."
Say-IT Labs is currently working on a game called Fluency Friends, where players control colorful cartoon characters through treacherous obstacles. Only instead of a joystick or a keyboard, the game will prompt players with words or sentences they must say to move through the level.
Similar to Project Euphonia, Say-IT Labs needs data to create an acoustic model for the game that understands stuttered speech. Hasta aquí, according to Reiter, his team has collected samples from 50 participants.
Unlike Project Euphonia, sin embargo, Say-IT Labs requires much less data to work with because the sound of stuttered speech is less variable than the impaired speech found in patients with neurological disorders, according to Reiter.
"I hope that the kind of technology we're creating will allow us to help educate SLPs and people who stutter, instead of just helping 50 people (through conventional therapy), " Reiter said. "For the 1% of the population who stutters, it would be a gift to reach 1, 000 ".
Despite efforts to help, voice assistants still remain inaccessible for many people who stutter. Hannah Arnold is a dental receptionist from Kent, Washington, who first tried using Siri and Alexa in 2013. Her first attempts came a little anxiously, as she wasn't sure how the machines would respond to her stutter.
"I have trouble with Ws. It takes me a while to say them, " Arnold said. "So Siri would always interrupt me when I'd try to say, "Oye, Siri, what is the weather going to be like today?'"
Hoy dia, Arnold rarely uses voice assistants, but she sees how they could easily make her life better. Por ejemplo, instead of having to type from the screen on her Apple Watch, or ask for directions in her car, she could just ask Siri instead.
"It's pretty hard because I feel like voice recognition—and talking to other technology—is expanding, " Arnold said. "But with advancements in new technology, I'm hopeful we'll have more accommodations."
(c) 2020 EE.UU. Hoy
Distribuido por Tribune Content Agency, LLC.