Tecnología

Crecen los ataques con deepfakes de audio

Sharing is caring!

La suplantación de CEOs hizo perder millones a tres grandes compañías

Utilizan una inteligencia artificial para clonar de forma realista la voz de una persona

Las muestras de la voz del personaje a imitar son extraídas de grabaciones previas obtenidas en las redes sociales o You Tube

Redacción 23.7.2019.-

Publica Marcos Merino en Xataca.com que imaginemos una situación ficticia: el gestor financiero de una gran compañía recibe una llamada de su CEO, para ordenar una transferencia urgente para alguna clase de adquisición.

No se oye del todo bien, porque dice estar conduciendo, pero la transferencia finalmente se lleva a cabo.

Sólo que… quien estaba al otro lado de la línea no era el CEO de la compañía, y el dinero ha terminado en la cuenta de un delincuente. ¿Qué ha pasado?

La compañía de ciberseguridad Symantec afirma que le consta que esta situación no sólo no es ficticia, sino que se habría dado ya en 3 ocasiones en los últimes meses, afectando a tres grandes compañías.

La clave del engaño reside en el uso de deepfakes de audio: el resultado de utilizar una inteligencia artificial para clonar de forma realista la voz de una persona, tras haberla entrenado a partir de muestras de la voz del personaje a imitar, extraídas de grabaciones previas (en entrevistas, anuncios o conferencias… pero Youtube está llena de ellas).

Las pocas deficiencias que presente el audio resultante siempre podrá ser disimuladas mediante excusas realistas, como la usada en este caso: estar conduciendo.

Pocos (y caros) medios de defensa ante ataques cada vez más realistas y frecuentes

Según revela Axios, durante el último año ha habido un repunte en los ataques basados en deepfakes de audio sofisticados.

Tales ataques no serían un problema si existiera una buena defensa pero, según los expertos, no es ése el caso.

“no creo que la infraestructura corporativa esté preparada para un mundo donde ya no se puede confiar en la voz o vídeo de un compañero de trabajo”.

Y lo peor es que las defensas necesarias no están al alcance de la mayoría de las empresas que podrían sufrir estos ataques.

Deepfakes de audio que afecten a la imagen corporativa

Pensemos, por ejemplo, en el efecto que tendría sobre las acciones de una compañía la ‘filtración’ de un audio supuestamente protagonizado por Tim Cook, en el que se revelase un defecto en un lanzamiento estrella de Apple día antes de su lanzamiento.

O de una conversación de un falso Mark Zuckerberg hablando sobre usos ilegales de los datos de los usuarios de Facebook.

Pero, aunque la tecnología para realizar estos ataques es cada vez más accesible, lo cierto es que tampoco salen gratis. 

Por fortuna, el oído humano es sensible a una amplia gama de frecuencias, por lo que obtener audios realistas requiere una gran potencia de computación y varias horas de audio de buena calidad como materia prima.


TAMBIÉN TE PUEDE INTERESAR:

Related posts

Apple trabajaría en un proyecto secreto que podría revolucionar el mercado de dispositivos móviles

JULIAN MALAESPINA

Este es el botón del coche que te hará consumir menos carburante así como evitar los malos olores

REDACCION

Trump contra las redes sociales: firma un decreto para regularlas y ‘defenderá la libertad de expresión de uno de los peligros más graves’

Jose Manuel Garcia Bautista

1 comment

La primera querella por "fake news" - marzo 5, 2020 at 8:37 pm

[…] Crecen los ataques con deepfakes de audio […]

Reply

Leave a Comment

shares