Así están usando inteligencia artificial para hacer estafas telefónicas

Copiando la voz de un familiar usan un método antiguo de robo

Guardar
Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)
Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)

Usando inteligencia artificial, los delincuentes están potenciando una modalidad de robo a través de una llamada telefónica simulando la voz de alguien más.

El método es la tradicional estafa en la que una persona escucha a un familiar que está en problemas y necesita dinero urgente para resolver la situación, que suele ser un accidente de tránsito o un arresto.

Le puede interesar: Así funcionaría el sistema de inteligencia artificial que contratará la Policía para protegerse de ataques digitales

Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)
Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)

Plataformas como ElevenLabs permiten crear un diálogo simulando cualquier voz, solo se necesitan 30 segundos de grabación, por lo que los delincuentes pueden hacer una llamada previa al familiar para capturar esa información y luego ir por la víctima.

Lo que dice esta inteligencia artificial es el resultado de un texto que crean los atacantes, aprovechando que el software analiza cada aspecto de la voz como el género, la edad y el acento para encontrar patrones y hacer la copia.

“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona. Ahora, si tienes una página de Facebook o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”, afirmó Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley, a Washington Post.

Le puede interesar: Top 5 de perfiles tecnológicos más buscados por los empresarios

El diario también asegura que las estafas telefónicas en las que se imita la voz de otras personas significaron pérdidas de 11 millones de dólares durante 2022 en Estados Unidos, por lo que es una modalidad que sigue generando resultados.

ElevenLabs ya ha sido señalado por los problemas que puede generar su herramienta, ya que hace un tiempo se conoció un audio que copiaba la voz de la actriz, Emma Watson ,recitando pasajes de “Mein Kampf” de Adolf Hitler, lo que abre la puerta a que la voz de otros famosos pueda ser usada para temas más delicados.

Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)
Los delincuentes replican la voz de un familiar para robar a las víctimas por teléfono. (Unsplash)

Le puede interesar: A través de un videojuego, ciberdelincuentes están controlando las computadoras de los usuarios

Cómo evitar caer en esta estafa

Aunque la inteligencia artificial lleva la modalidad de robo a un punto de engaño muy alto, siempre hay que dudar ante este tipo de situación.

Lo primero es que en caso de una llamada, en la que alguien pida ayuda inmediatamente, nunca se debe dar el nombre de algún familiar, porque eso le servirá al delincuente para crear un lazo y empezar a actuar como esa persona, lo mejor será esperar hasta que sea él o ella el que revele su identidad.

En caso dar el nombre por error o que del otro lado lo adivinen, la mejor alternativa es llamar directamente a esa persona y asegurarse de que la situación es real. Los delincuentes siempre van a llamar de números desconocidos y crean la excusa que es por el problema que están pasando, por eso su celular no sirve o lo tienen detenido.

Otro punto clave es nunca dar información personal como dirección, teléfono, nombres, números de cuenta y correos electrónicos porque quizás no se efectúe un robo de dinero en ese momento, pero esa data le servirá al delincuente en el futuro.

Guardar