Crédito:CC0 Public Domain
Cuando tu jefe te llame y te diga que transfieras $ 100, 000 a un proveedor, estar alerta. Podría ser una llamada falsa.
Como si los correos electrónicos falsos de "phishing" no fueran suficientes, en aumento ahora hay audios "profundamente falsos" que se pueden clonar casi a la perfección para que suenen casi perfectos, y son fáciles de crear para los piratas informáticos.
"Está en aumento, y algo a tener en cuenta "dice Vijay Balasubramaniyan, el CEO de Pindrop, una empresa que ofrece autenticación biométrica para empresas.
Balasubramaniyan demostró durante una conferencia de seguridad lo fácil que es tomar audio de Internet y usar el aprendizaje automático para crear frases grabadas en oraciones que el humano probablemente nunca dijo.
"Todo lo que necesitas son cinco minutos de audio, y puedes crear audio falso, "dijo Balasubramaniyan.
Por ejemplo, mostró una base de datos de voces, escribió "Esta mañana, las fuerzas estadounidenses le dieron a Corea del Norte la nariz ensangrentada que se merecen, "y lo conectó con el nombre del presidente Donald Trump en la lista. Unos segundos más tarde, hizo clic en reproducir, y sonaba inquietantemente real.
También presentó un ejemplo del CEO de Facebook, Mark Zuckerberg, supuestamente respondiendo a la multa de $ 5 mil millones de 2019 de la red social por violar la privacidad por él supuestamente diciendo:"¿La FTC cree que una multa de $ 5 mil millones nos impedirá violar la privacidad de las personas? Tontos".
Recientemente, La voz de la presidenta de la Cámara de Representantes, Nancy Pelosi, fue alterada en un clip de redes sociales, pero ese no fue un ejemplo de audio falso, Balasubramaniyan dijo:simplemente ralentizando el audio para que pareciera que su voz se arrastraba.
Más costosos son los ejemplos de llamadas telefónicas falsas, donde los estafadores pudieron falsificar el número de teléfono de contactos reales y hacer llamadas que resultaron en que los empleados enviaran mucho dinero.
Citó el ejemplo de una empresa de energía del Reino Unido en 2019 que fue pirateada por un audio falso profundo, en una llamada que exigió la transferencia de lo que llegó a $ 243, 000 a un proveedor. Según el Wall Street Journal, se ordenó al ejecutivo que lo pagara en una hora.
¿Entonces lo que hay que hacer?
Balasubramaniyan dice que si recibieras ese tipo de llamada supuestamente de un "jefe, "Sea escéptico y pida volver a llamar de inmediato para confirmar la autenticidad.
Haz la llamada, y si el verdadero jefe responde, "sabes que es real".
Más allá de estar alerta, las empresas deben emplear múltiples medidas de seguridad para mantenerse al día con las llamadas telefónicas generadas por inteligencia artificial falsa profunda, él añade, software para detectar llamadas auténticas frente a llamadas falsas.
"Esta es una amenaza que está esperando suceder, ", dice." Ahora es un número muy pequeño, pero es muy real ".
(c) 2020 EE.UU. Hoy
Visite U.S. Today en www.usatoday.com