• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La inteligencia artificial ahora puede emular el comportamiento humano; pronto será peligrosamente buena

    ¿Es esta cara solo un conjunto de bits de computadora? Crédito:Michal Bednarek / Shutterstock.com

    Cuando los sistemas de inteligencia artificial comienzan a ser creativos, pueden crear cosas grandiosas y aterradoras. Llevar, por ejemplo, un programa de inteligencia artificial que permite a los usuarios de la web componer música junto con un Johann Sebastian Bach virtual ingresando notas en un programa que genera armonías similares a Bach para combinarlas.

    Dirigido por Google, la aplicación recibió grandes elogios por ser innovadora y divertida de jugar. También atrajo críticas, y expresó su preocupación por los peligros de la IA.

    Mi estudio de cómo las tecnologías emergentes afectan la vida de las personas me ha enseñado que los problemas van más allá de la gran preocupación sobre si los algoritmos pueden realmente crear música o arte en general. Algunas quejas parecían pequeñas pero realmente no lo eran como las observaciones de que la IA de Google estaba rompiendo las reglas básicas de la composición musical.

    De hecho, Los esfuerzos para que las computadoras imiten el comportamiento de personas reales pueden resultar confusos y potencialmente dañinos.

    Tecnologías de suplantación de identidad

    El programa de Google analizó las notas en 306 de las obras musicales de Bach, encontrando relaciones entre la melodía y las notas que proporcionaban la armonía. Debido a que Bach siguió estrictas reglas de composición, el programa estaba aprendiendo efectivamente esas reglas, para que pudiera aplicarlos cuando los usuarios proporcionaran sus propias notas.

    La aplicación de Bach en sí es nueva, pero la tecnología subyacente no lo es. Los algoritmos entrenados para reconocer patrones y tomar decisiones probabilísticas existen desde hace mucho tiempo. Algunos de estos algoritmos son tan complejos que las personas no siempre comprenden cómo toman decisiones o producen un resultado en particular.

    El equipo de Google Doodle explica el programa Bach.

    Los sistemas de inteligencia artificial no son perfectos:muchos de ellos se basan en datos que no son representativos de toda la población. o que están influenciados por prejuicios humanos. No está del todo claro quién podría ser legalmente responsable cuando un sistema de inteligencia artificial comete un error o causa un problema.

    Ahora, aunque, Las tecnologías de inteligencia artificial se están volviendo lo suficientemente avanzadas como para poder aproximarse al estilo de escritura o habla de las personas. e incluso expresiones faciales. Esto no siempre es malo:una IA bastante simple le dio a Stephen Hawking la capacidad de comunicarse de manera más eficiente con los demás al predecir las palabras que usaría más.

    Los programas más complejos que imitan las voces humanas ayudan a las personas con discapacidades, pero también pueden usarse para engañar a los oyentes. Por ejemplo, los creadores de Lyrebird, un programa que imita la voz, han publicado una conversación simulada entre Barack Obama, Donald Trump y Hillary Clinton. Puede sonar real pero ese intercambio nunca sucedió.

    De bueno a malo

    En febrero de 2019, La empresa sin fines de lucro OpenAI creó un programa que genera texto que es prácticamente indistinguible del texto escrito por personas. Puede "escribir" un discurso al estilo de John F. Kennedy, J.R.R. Tolkien en "El Señor de los Anillos" o un estudiante que escribe una tarea escolar sobre la Guerra Civil de Estados Unidos.

    El texto generado por el software de OpenAI es tan creíble que la empresa ha optado por no lanzar el programa en sí.

    Tecnologías similares pueden simular fotos y videos. A principios de 2018, por ejemplo, El actor y cineasta Jordan Peele creó un video que parecía mostrar al ex presidente de los Estados Unidos, Barack Obama, diciendo cosas que Obama en realidad nunca dijo para advertir al público sobre los peligros que representan estas tecnologías.

    Tenga cuidado con los videos que cree.

    A principios de 2019, una foto falsa desnuda de la representante federal Alexandria Ocasio-Cortez circuló en línea. Vídeos de fabricado, a menudo llamado "deepfakes, "Se espera que se utilicen cada vez más en campañas electorales.

    Los miembros del Congreso han comenzado a analizar este tema antes de las elecciones de 2020. El Departamento de Defensa de EE. UU. Está enseñando al público cómo detectar videos y audio manipulados. Las organizaciones de noticias como Reuters están comenzando a capacitar a los periodistas para detectar deepfakes.

    Pero, en mi vista, Sigue existiendo una preocupación aún mayor:es posible que los usuarios no puedan aprender lo suficientemente rápido como para distinguir el contenido falso a medida que la tecnología de inteligencia artificial se vuelve más sofisticada. Por ejemplo, a medida que el público comienza a darse cuenta de las falsificaciones profundas, La IA ya se está utilizando para engaños aún más avanzados. Ahora existen programas que pueden generar caras falsas y huellas digitales falsas, creando de manera efectiva la información necesaria para fabricar una persona completa, al menos en registros corporativos o gubernamentales.

    Las máquinas siguen aprendiendo

    En este momento, Hay suficientes errores potenciales en estas tecnologías para que las personas tengan la oportunidad de detectar fabricaciones digitales. El compositor de Bach de Google cometió algunos errores que un experto podría detectar. Por ejemplo, cuando lo probé, el programa me permitió ingresar quintas paralelas, un intervalo musical que Bach evitó cuidadosamente. La aplicación también rompió las reglas musicales del contrapunto al armonizar melodías en la clave incorrecta. Similar, El programa de generación de texto de OpenAI escribía ocasionalmente frases como "incendios bajo el agua" que no tenían sentido en sus contextos.

    A medida que los desarrolladores trabajan en sus creaciones, estos errores se volverán más raros. Efectivamente, Las tecnologías de IA evolucionarán y aprenderán. El desempeño mejorado tiene el potencial de traer muchos beneficios sociales, incluida una mejor atención médica, ya que los programas de IA ayudan a democratizar la práctica de la medicina.

    Dar a los investigadores y las empresas la libertad de explorar, con el fin de buscar estos logros positivos de los sistemas de IA, significa abrir el riesgo de desarrollar formas más avanzadas de crear engaños y otros problemas sociales. Limitar severamente la investigación de la IA podría frenar ese progreso. Pero dar a las tecnologías beneficiosas espacio para crecer tiene un costo no pequeño, y el potencial de uso indebido, ya sea para hacer música inexacta "similar a Bach" o para engañar a millones, es probable que crezca de maneras que la gente aún no puede anticipar.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com