Desde mediados de febrero, los miembros del Congreso han recibido más de 119.000 llamadas exigiendo que aprueben leyes de control de armas más estrictas. Pero estos no son los típicos llamados que hacen los electores expresando sus preocupaciones.
Mediante el uso de inteligencia artificial, estas llamadas aparentemente se hacen desde la tumba:por niños que fueron asesinados como resultado directo de la violencia armada.
"En 2018, cuando tenía 15 años, me mataron con un arma no segura en la casa de mi amigo", se lee en un mensaje con la voz de Ethan Song, nativo de Connecticut. "Mis padres recrearon mi voz usando inteligencia artificial para que finalmente pueda pedirles que hagan algo para proteger a los niños".
Estos mensajes se envían mediante un nuevo sitio web llamado The Shotline. La plataforma nació de una asociación entre Change the Ref y March For Our Lives, dos organizaciones que se formaron en respuesta al tiroteo en la escuela secundaria Marjory Stoneman Douglas en Parkland, Florida, en 2018.
Para el proyecto, los grupos se han asociado con ElevenLabs, una empresa de inteligencia artificial que crea voces sintéticas utilizando discursos grabados. Su objetivo es inundar el Congreso con estos mensajes para lograr que los miembros tomen más en serio las cuestiones relacionadas con el control de armas. Con unos pocos clics, los usuarios del sitio pueden enviar estos mensajes de voz a sus representantes y senadores.
Rupal Patel, una profesora del noreste que ha dedicado su carrera a investigar cómo se puede utilizar la tecnología para ayudar a que las personas recuperen su voz, cree que es un buen uso de la tecnología.
"Lo hace real", dice Patel. "No se trata necesariamente de la persona. Se trata de la historia, y al agregarle una voz podemos ver cómo sonaba, cuáles eran sus sueños. Lo asociamos con una voz, esa cercanía".
Pero ha surgido otra pregunta:¿Está bien recrear las voces de los muertos, aunque sea por una buena causa?
Patel dice que dado que las voces de los niños son creadas por sus padres, no hay mucho motivo de preocupación.
"Se trata de consentimiento", dice. "Lo que lo hace ético y admisible es que esto fue consentido por los padres del niño. Se trata de que ellos utilicen una voz artificial como forma de transmitir un mensaje. Tienen derecho a hacerlo porque el niño es menor de edad adulta. . Los padres siguen siendo los tutores legales. Cualquier otra persona que lo utilice para un mal mensaje no tiene el consentimiento del individuo o del tutor."
Dicho esto, actualmente no existen leyes que protejan a las personas de que sus voces sean recreadas usando IA, señala.
"No creo que sea una línea blanca y negra", dice Patel. "Tenemos que pensar realmente en estas cosas en un mundo con muchos más matices. Si lo estuvieran usando para cometer fraude, eso es una cosa. Si lo estuvieran usando de manera creativa para transmitir un mensaje, es una cosa diferente".
Comparó la tecnología con Photoshop, que la gente usa todo el tiempo para modificar imágenes.
"Esto es un continuo de tecnología y tenemos que tratarlo así", afirma. "¿Cómo lo utilizamos y lo evaluamos caso por caso? Puede que no parezca una respuesta satisfactoria para algunas personas, pero no podemos simplemente eliminarlo por considerarlo poco ético".
James Alan Fox, profesor de criminología, derecho y políticas públicas del noreste, dice que comprende el sentimiento detrás del proyecto y reconoce el dolor y la ira que sienten los padres por la pérdida de su hijo, pero no cree que el proyecto sea particularmente efectivo.
"Ya sean los padres de Sandy Hook Promise, Parkland u otros casos, entiendo sus intentos de convencer al Congreso y a la gente de Washington para que aprueben medidas preventivas que eviten que otros padres caminen en sus zapatos, y los padres deben hablar en nombre de sus hijos e hijas. Y lo han hecho", afirma.
"Pero que un niño asesinado hable por sí mismo con una voz sintética no creo que ayude", añade. "De hecho, y tal vez sea solo yo, pero cuando estaba escuchando el audio, me hizo concentrarme más en la calidad de la voz, más que en la calidad del mensaje. Es artificial y resta valor al mensaje".
Con el aumento de las falsificaciones profundas, afirma Fox, es importante que tengamos cuidado en cómo utilizamos esta tecnología.
"Estoy bien con la IA, por ejemplo, creando una nueva canción de los Beatles, pero eso es con fines de entretenimiento", dice. "Creo que ahí es donde trazo el límite."
Dice que sería más impactante si los padres de estas víctimas continuaran abogando usando sus propias voces. Señala algunos avances que han logrado los padres, incluida la presión para que el Congreso apruebe el primer proyecto de ley sobre control de armas en décadas en 2022.
"Lo que los padres pueden decir es muy poderoso y tendría un impacto mayor que una voz desde la tumba diseñada por IA", afirma.
Proporcionado por la Universidad Northeastern
Esta historia se republica por cortesía de Northeastern Global News news.northeastern.edu.