
Las estafas telefónicas han evolucionado con la llegada de la inteligencia artificial. Ya no se trata solo de llamadas fraudulentas de falsos agentes bancarios o familiares en apuros. Ahora, la clonación de voz permite a los estafadores imitar con precisión la voz de cualquier persona, engañando a sus víctimas con mensajes aparentemente genuinos.
Según el Instituto Nacional de Ciberseguridad de España (Incibe), el voice hacking es una técnica que emplea IA para replicar voces reales y hacer que los mensajes fraudulentos parezcan verídicos.
Esta tecnología se utiliza en diferentes tipos de fraudes, desde el vishing (estafas telefónicas que buscan robar datos sensibles) hasta la suplantación de identidad por voz, en la que los delincuentes imitan a familiares, amigos o superiores para manipular a sus víctimas.
Cómo reconocer una llamada clonada con inteligencia artificial

Uno de los principales problemas del hacking de voz es que las llamadas falsas pueden sonar muy creíbles. Sin embargo, hay algunas señales que pueden indicar que una voz ha sido recientemente generada o manipulada por inteligencia artificial:
- Tonos y pausas inusuales: las voces clonadas pueden tener una entonación mecánica, con pausas extrañas o falta de fluidez.
- Falta de contexto: si la persona parece evitar ciertos detalles personales o responde de manera genérica, podría ser una señal.
- Repetición de frases: algunas herramientas de clonación pueden generar respuestas limitadas, repitiendo palabras o estructuras similares en poco tiempo.
- Solicitudes urgentes de dinero o datos personales: los estafadores buscan generar pánico para evitar que la víctima reflexione.
- Verificación fallida: si se duda de la identidad de la persona, hay que hacer preguntas con respuestas que solo ella debería conocer. Si responde con evasivas, podría tratarse de un fraude.
Cuáles son los fraudes más comunes hechos con clonación de voz

Las estafas telefónicas con inteligencia artificial pueden tomar diversas formas, que pueden ser muy efectivas, pero algunas de las más habituales incluyen:
- Llamadas bancarias falsas: un supuesto representante del banco solicita información personal o confirma transacciones sospechosas.
- Familiares en peligro: la voz clonada de un ser querido informa sobre un secuestro o una emergencia médica y exige dinero.
- Directivos falsos: un fraude corporativo en el que la voz da una orden para transferencias urgentes.
- Atención al cliente fraudulento: empresas falsas llaman a las víctimas para pedirles datos de acceso a cuentas o servicios digitales.
Asimismo, casos como el de Jennifer DeStefano, quien recibió una llamada con la voz clonada de su hija afirmando que había sido secuestrada, o el fraude a una empresa británica que perdió 220.000 euros tras recibir instrucciones falsas de un supuesto CEO, demuestran que esta tecnología ya se está utilizando con éxito en delitos exigentes.
Qué riesgos implica ser víctima de una llamada clonada por inteligencia artificial

El uso de la inteligencia artificial para clonar voces no solo supone un engaño puntual, sino que puede derivar en graves consecuencias para la víctima y su entorno.
- Robo de identidad: los estafadores pueden acceder a cuentas bancarias y servicios online suplantando a la víctima.
- Pérdida de dinero: desde transferencias fraudulentas hasta compras no autorizadas, el impacto financiero puede ser devastador.
- Daño reputacional: la clonación de voz se ha utilizado para difundir mensajes falsos que perjudican la imagen de una persona.
- Manipulación emocional: la suplantación de familiares o amigos puede generar pánico y llevar a tomar decisiones precipitadas.
En el caso de Ruth Card, una mujer canadiense de 73 años, la voz clonada de su nieto la convenció de retirar dinero del banco para pagar una supuesta fianza. Por suerte, descubrió el engaño antes de entregar el dinero, pero muchas otras víctimas no tienen la misma suerte.
Cómo protegerse de este tipo de estafas telefónicas que usan IA

Ante la creciente amenaza del hacking de voz, las autoridades de seguridad cibernética aseguran que es clave adoptar medidas de seguridad para evitar ser víctima de este tipo de fraudes:
- Desconfiar de llamadas inesperadas de números desconocidos.
- Verificar la identidad de la persona antes de compartir información sensible.
- No proporcionar datos personales ni bancarios por teléfono.
- Implementar preguntas de seguridad que solo la persona real pueda responder.
- Informar a familiares y empleados sobre este tipo de estafas para que estén alerta.
Las estafas con voz clonada son una nueva forma de ciberdelincuencia que aprovecha los avances en inteligencia artificial para engañar a las personas. La mejor defensa es la prevención y la educación.
Últimas Noticias
Glosario de tecnología: qué significa Código CSS
Con el paso de los años es cada vez más difícil imaginar la vida sin tecnología, por lo que es necesario saber más de ella

La mente brillante detrás del Studio Ghibli cuestionó duramente las animaciones creadas con IA usando ChatGPT: ¿adiós artistas?
Para el director japonés, Hayao Miyazaki, las animaciones creadas por inteligencia artificial están lejos de captar el alma humana que da vida a una obra de arte

Elimina todos los recuerdos y fotos con tu ex en un solo instante gracias a Google Fotos
Ya sea que prefieras ocultar sus rostros de los recuerdos automáticos o desees eliminar por completo su presencia en las fotos mediante, estas herramientas te permiten tomar el control de tu galería y proteger tu bienestar emocional al quitar recuerdos incómodos

Top de los juegos en PlayStation Plus que no puedes perderte el fin de semana
Los títulos prometen horas de entretenimiento para los usuarios de la plataforma de Sony

Elon Musk predice quiénes serían los primeros profesionales que se enfrentarían laboralmente a la IA
El líder tecnológico lanzó una advertencia sobre el avance de la inteligencia artificial, que según él, está destinada a transformar la enseñanza y dejar atrás a los educadores
