Investigadores imitan a Morgan Freeman para burlar los sistemas de autentificación de voz

Investigadores de seguridad han alertado sobre los riesgos que corren los sistemas de autentificación basados en la voz. Los expertos desarrollaron una sencilla herramienta que permite recopilar la voz de sus víctimas en grabaciones y videos de Internet para generar los discursos orales necesarios para explotar estas formas de verificación de identidad.

Los investigadores de la Universidad de Alabama en Birmingham (UAB) presentaron sus estudios en el Simposio Europeo de Investigación en Seguridad Informática (ESORICS) que se está llevando a cabo en Viena, Austria. La intención del estudio es despertar el debate sobre la seguridad de las tecnologías de autentificación basadas en la voz, que están cada vez más cerca de adoptarse en sistemas que requieren protección extrema, como cuentas bancarias.

El proceso de intrusión a los sistemas de autentificación por voz está compuesto por tres pasos. El primero consiste en recopilar una muestra de la voz del individuo a quien pertenece la cuenta que se va a atacar. “La gente con frecuencia deja rastros de su voz en diferentes lugares. Pueden hablar en voz alta cuando están socializando en restaurantes, haciendo presentaciones públicas o llamadas telefónicas, o sin ir más lejos pueden dejar rastros de voz en Internet”, indicó Nitesh Saxena, director del laboratorio de Seguridad y Privacidad en Sistemas Emergentes Informáticos y de Redes y profesor adjunto de computación y ciencias de la información en la UAB.

En el segundo paso, el atacante utiliza un simple programa de alteración de voz para grabar el discurso necesario con su propia voz y modificarla hasta que su entonación se parezca a la de su víctima. En la presentación, los investigadores presentaron muestras de voz falsificadas de dos personalidades reconocidas: Oprah Winfrey y Morgan Freeman.

Por último, los atacantes sólo deben reproducir el discurso realizado con la voz falsa en los sistemas de autentificación de voz para recibir acceso a la cuenta de su víctima. Según el estudio, los humanos pueden reconocer que la voz es falsa alrededor de la mitad de las veces, pero los sistemas de autentificación automáticos sólo detectaron la trampa entre un 10 y 20% de las veces.

Los investigadores recalcaron que las posibilidades de este tipo de ataques son infinitas y no se limitan a los crímenes cibernéticos. Por ejemplo, un atacante podría clonar la voz de una persona inocente para falsificar evidencia en su contra en una investigación criminal, poniendo en riesgo su libertad y hasta su vida.

“Unos pocos minutos de audio de la voz de la víctima son suficientes para permitir la clonación de su voz. Las consecuencias de esta clonación pueden ser graves. Como la voz es una característica distintiva de cada individuo, es una de las bases de autentificación de una persona, lo que da al atacante la llave a la privacidad de esa persona”, explicó Saxena.

Fuentes

Yahoo News UK

Planet Biometrics

Silicon Republic

Publicaciones relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *