Estafan a padres de familia con inteligencia artificial: No era su hija, era un robot

Esta técnica delictiva tiene como blanco predilecto a los adultos mayores

Guardar
Por más urgente que parezca la situación, es importante mantener la calma. (Imagen Ilustrativa Infobae)
Por más urgente que parezca la situación, es importante mantener la calma. (Imagen Ilustrativa Infobae)

En la era digital actual, la proliferación de ciberamenazas se ha convertido en una preocupación creciente para individuos y organizaciones por igual.

La inteligencia artificial, con su capacidad para aprender y adaptarse, está jugando un papel dual en este escenario. Por un lado, ofrece herramientas avanzadas para proteger los datos y sistemas y por otro, está siendo utilizada para elaborar estafas cada vez más sofisticadas y creíbles, desafiando las medidas de seguridad tradicionales.

Paddric Fitzgerald se encontraba en su lugar de trabajo cuando su teléfono sonó, era un número desconocido.

El trabajador contó con la fortuna de que su hija lo contactó coincidencialmente en ese momento. (Imagen Ilustrativa Infobae)
El trabajador contó con la fortuna de que su hija lo contactó coincidencialmente en ese momento. (Imagen Ilustrativa Infobae)

Al contestar, se encontró con una situación aterradora, según reveló Financial Times. Escuchó a su hija gritar al fondo durante la llamada, diciendo que estaba en peligro. “Ella gritaba de fondo diciendo que la iban a cortar mientras yo estaba en la conversación. Les iba a dar todo lo que tengo económicamente”.

En realidad, no se trataba de su hija, sino de una voz generada por inteligencia artificial. Por coincidencia, en ese mismo instante recibió un mensaje común y corriente de ella desde su móvil.

Esto le ayudó a darse cuenta de que la voz que escuchaba no pertenecía a su hija. Era una voz creada mediante inteligencia artificial. Este método representa la nueva y alarmante estrategia que los delincuentes están empleando para engañar a las personas.

Un peligro que ya es real

Las voces generadas con IA representan un peligro que ya es real. (Imagen ilustrativa Infobae)
Las voces generadas con IA representan un peligro que ya es real. (Imagen ilustrativa Infobae)

Hoy en día, es común encontrar canciones creadas con inteligencia artificial. Una prueba de ello es que EN redes circula una canción de Bad Bunny, Daddy Yankee y Justin Bieber, cuando en realidad, estos artistas nunca han colaborado, sólo son sus voces manipuladas a través de una IA.

De alguna manera, era previsible que los delincuentes también empezaran a utilizar estas herramientas de clonación de voz para fines ilícitos.

Alex West, consultor en PwC y coautor de algunos de los estudios más recientes sobre el tema, explicó que “los estafadores ya están logrando un gran éxito” y posiblemente estén apenas comenzando a utilizar esta tecnología. Añadió que “es evidente que los intentos de estafa van a ser cada vez más sofisticados”.

En febrero de 2023, un estudio realizado por investigadores de Microsoft demostró las capacidades de su sistema, VALL-E, para clonar voces con una calidad excepcional, utilizando solo una muestra de voz de tres segundos.

El sistema de Microsoft es capaz de clonar voces con acceso a tres segundos de la voz original. (Imagen ilustrativa Infobae)
El sistema de Microsoft es capaz de clonar voces con acceso a tres segundos de la voz original. (Imagen ilustrativa Infobae)

Expertos en generación de contenido mediante IA, como Henry Ajder, quien ha asesorado a compañías tales como Meta o Adobe, subrayan cómo la IA ha facilitado significantemente las estafas de suplantación de identidad.

Quiénes son el principal blanco de robo

De acuerdo con información de la Federal Trade Commission mencionada en FT, las estafas afectan de manera particular a las personas mayores, siendo las pérdidas económicas promedio más elevadas a medida que aumenta la edad de las víctimas.

Por ejemplo, las personas mayores de 80 años experimentan pérdidas que duplican a las sufridas por individuos menores de esa edad.

Ruth Card, de 73 años de edad, recibió una llamada de quien creyó era su nieto Brandon, pues la voz al otro lado del teléfono era idéntica a la de él. “Abuela, estoy en la cárcel, sin cartera, sin teléfono”, le dijo esa voz.

Las personas mayores son más susceptibles a estos ataques. (Imagen ilustrativa Infobae)
Las personas mayores son más susceptibles a estos ataques. (Imagen ilustrativa Infobae)

“Necesito dinero para la fianza”. Sin dudarlo, Ruth y su esposo acudieron al banco para retirar 3.000 dólares canadienses.

Al intentar retirar una cantidad similar en otra sucursal, el director del banco percibió que algo no iba bien y los interceptó: otro cliente había experimentado una situación similar y se percató de que la voz del interlocutor no pertenecía a quien decía ser. Era una voz creada por un sistema de inteligencia artificial, un deepfake de audio, según The Washington Post.

Cómo protegerse de estos audios

Para protegerse contra estafas de audios digitales, es esencial que las personas validen la identidad de quienes les contactan a través de otro canal de comunicación, asegurándose de que sea realmente quién dice ser.

Además, es fundamental no proporcionar ningún tipo de información personal o financiera durante llamadas no verificadas. Se aconseja, igualmente, hablar con familiares y amigos sobre estas técnicas de fraude, creando una red de alerta y prevención que disminuya la vulnerabilidad ante estos engaños tecnológicamente avanzados.

Guardar