Treinta segundos de material de voz o video son suficientes para crear clones deepfake con una calidad que ni tu pareja o hijos podrían distinguir de ti. Ya nadie está a salvo
Jason Deign, redactor de Cisco
En enero de 2024, un empleado de finanzas de una multinacional con sede en Hong Kong recibió un correo electrónico del director financiero de la empresa en el Reino Unido. El mensaje hablaba de realizar transacciones confidenciales, lo que resultaba sospechoso, pero una videollamada con el director financiero disiparía cualquier duda.
En la videollamada participaron varias personas con altos cargos en la organización, por lo que el trabajador de Hong Kong procedió a realizar 15 pagos, por un total de 200 millones de dólares de Hong Kong (25.6 millones de dólares estadounidenses), a cinco cuentas bancarias locales.
Sin embargo, cuando se comunicaron las transacciones a la oficina central, se descubrió que el director financiero nunca había solicitado esas transferencias. Los interlocutores en la videollamada no eran reales; todo había sido orquestado por un ciberdelincuente.
“El estafador probablemente descargó los vídeos con antelación y utilizó inteligencia artificial para añadir voces falsas en la videoconferencia”, declaró el superintendente jefe de policía, Baron Chan Shun-ching, a la Radio Televisión de Hong Kong.
Este no es un caso aislado de hackers utilizando inteligencia artificial. La policía de Hong Kong ha detectado al menos 20 casos en los que se ha empleado aprendizaje automático para crear deepfakes y engañar a las personas para obtener dinero, según informó CNN. Los expertos advierten que esta tendencia apenas comienza.
“Está en aumento. Las bandas criminales están estableciendo centros de llamadas en todo el mundo, operándolos como empresas y expandiéndose”, afirma Todd Wade, experto en seguridad de la información.
Luke Secrist, CEO de la empresa de hacking ético BuddoBot, señala: “La sofisticación de los tipos de ataques y de la tecnología que los facilita está volviéndose bastante inquietante”.
Varios factores están impulsando la evolución de estas amenazas. Uno de ellos es que la IA permite desarrollar estafas que eluden las defensas tradicionales y atacan directamente el eslabón más débil de cualquier estrategia de ciberseguridad: las personas.
“La ingeniería social está ganando protagonismo en este panorama”, dice Nick Biasini, jefe de divulgación de Cisco Talos. “Vemos cada vez más actores de amenazas que no son necesariamente técnicamente sofisticados, pero que son expertos en manipular a las personas”.
“Por eso son tan exitosos. Tienen muchos recursos económicos. Y cuando tienes dinero, puedes sofisticar tus estafas”.
Esta sofisticación es otro impulsor de las amenazas basadas en IA. En el último año, los avances tecnológicos han alcanzado un nivel donde cada vez es más difícil distinguir un deepfake de un video real.
Antes, era fácil detectar un deepfake por patrones de habla extraños o manos mal renderizadas, pero estas inconsistencias están desapareciendo rápidamente. Más preocupante aún, la IA puede ahora crear deepfakes realistas con conjuntos de datos de entrenamiento cada vez más pequeños.
“Muchos centros de llamadas graban tu voz”, dice Secrist. “Las llamadas sin respuesta que recibes están intentando grabarte diciendo ‘Hola, ¿quién es?’. Solo necesitan un fragmento”.
Mark T. Hofmann, experto en ciberseguridad, advierte que “treinta segundos de material de voz o video son suficientes para crear clones deepfake con una calidad que ni tu pareja o hijos podrían distinguir de ti. Ya nadie está a salvo”.
En muchos casos, un ciberdelincuente ni siquiera necesita llamarte. Las redes sociales están llenas de material de audio y video. Además, “se están produciendo enormes filtraciones de datos”, dice Wade.
“La gente no sabe que estas filtraciones pueden incluir información personal como direcciones, números de teléfono, correos electrónicos y números de seguridad social. En los ataques de ingeniería social, pueden usar esta información para hacerse pasar por alguien con autoridad para realizar una transacción”.
Una vez iniciado un ataque de ingeniería social, los ciberdelincuentes manipulan las debilidades mentales para lograr sus objetivos. Por ejemplo, pueden hacerte creer que han secuestrado a tu hijo o que tu trabajo está en peligro si no cumples con una solicitud urgente de tu jefe.
Las defensas cibernéticas estándar tienen poco que hacer ante esto. Por eso, “cuando hablamos de ingeniería social y deepfakes, el firewall humano es más importante que nunca”, dice Hofmann. “Debemos educar a las personas sobre los nuevos riesgos, sin causar pánico”.
Una buena regla en el mundo de los deepfakes es desconfiar de cualquier petición fuera de lo común, sin importar de quién provenga. Hofmann sugiere que las familias acuerden una palabra clave para usar en llamadas telefónicas en caso de duda.
En el entorno corporativo, “hacer preguntas de seguridad o devolver la llamada al número real es una buena práctica”, dice Hofmann. “Pueden robar tu voz, pero no tus conocimientos”.
Biasini, de Cisco Talos, coincide en que la educación es la mejor manera de enfrentar la amenaza de los deepfakes, al menos hasta que la tecnología de autenticación pueda distinguir de manera efectiva entre identidades reales y falsas. “Cuando detectemos este tipo de actividad, nos aseguraremos de que se haga pública”, afirma.
“Una de las cosas más importantes que se pueden hacer es difundir este conocimiento entre el público, porque no todos son conscientes de este tipo de amenazas”.