IA replica al soporte de Google para acceder a los datos de tu correo electrónico

Un consultor de soluciones de Microsoft recibió una notificación en Gmail donde decía que su cuenta estaba en peligro

Guardar
Ciberdelincuentes se hacen pasar por trabajadores de empresas conocidas para engañar a sus víctimas. (Foto: EFE/Hannibal Hanschke)
Ciberdelincuentes se hacen pasar por trabajadores de empresas conocidas para engañar a sus víctimas. (Foto: EFE/Hannibal Hanschke)

La inteligencia artificial (IA) está siendo usada por ciberdelincuentes para engañar a cientos de usuarios a revelar información confidencial, con el propósito de acceder a su correo electrónico, o en el peor de los casos, robar dinero de sus cuentas bancarias.

Una de las últimas tácticas registradas que afectan a cuentas de Gmail consiste en el uso de la IA para simular interacciones por motivos de urgencia con el servicio de atención al cliente Google, pero que todo termina siendo falso.

Esto le ocurrió a Sam Mitrovic, consultor de soluciones en Microsoft, que estuvo recientemente a punto de convertirse en víctima de esta estafa, y contó claves de cómo funciona este modus operandi.

Cómo roban datos privados de Gmail usando inteligencia artificial

El ataque inicia desde la plataforma de correo electónico. (Foto: Unsplash)
El ataque inicia desde la plataforma de correo electónico. (Foto: Unsplash)

Mitrovic compartió su historia en su blog personal, detallando cómo comenzó la estafa con una notificación aparentemente legítima en su cuenta de Gmail. Según explica, recibió una alerta que solicitaba la aprobación para un intento de recuperación de su cuenta, un proceso que él no había iniciado.

Aunque rechazó la solicitud, este fue solo el primer paso de una campaña mucho más elaborada. Poco después de este incidente, Mitrovic recibió una llamada telefónica que, a primera vista, parecía provenir del servicio de soporte de Google en Australia.

Sin embargo, aunque la llamada parecía genuina, no quiso contestar en un primer momento. No obstante, una semana más tarde, el escenario se repitió. Movido por la curiosidad, finalmente decidió responder, y lo que siguió dejó en evidencia la astucia y el peligro de estas nuevas formas de estafa.

Qué pasa al contestar una llamada de un desconocido

Contestar a números desconocidos es una amenaza muy frecuente. (Foto: Freepik)
Contestar a números desconocidos es una amenaza muy frecuente. (Foto: Freepik)

Al otro lado de la línea, un supuesto operador de Google le informó de que habían detectado actividad sospechosa en su cuenta. Según le explicaron, alguien había accedido a sus datos personales durante una semana. La conversación parecía real, con un tono profesional y convincente.

Pero lo que Mitrovic no sabía en ese momento es que la voz que escuchaba no provenía de un operador humano, sino de un sistema de inteligencia artificial que imitaba el comportamiento de un empleado de soporte.

Asimismo, este tipo de estafa no es un caso aislado. Según informes recientes, cientos de usuarios de Gmail han sido engañados mediante tácticas similares, en las que se utilizan herramientas de IA para replicar la interacción con representantes de atención al cliente de grandes empresas tecnológicas.

Estos sistemas son capaces de analizar y responder en tiempo real, adaptándose a las respuestas del usuario para hacer la interacción aún más creíble.

Qué pasa al responder preguntas ante una llamada de un número desconocido

Estafadores usan temas de urgencias para los usuarios. (Foto: Shutterstock)
Estafadores usan temas de urgencias para los usuarios. (Foto: Shutterstock)

La sofisticación de estas técnicas radica en la capacidad de la IA para simular no solo la voz de un operador, sino también el comportamiento y las respuestas típicas que cabría esperar de un servicio de atención al cliente legítimo.

En el caso de Mitrovic, la estafa fue tan convincente que, si no hubiese estado alerta, podría haber terminado de proporcionar acceso a información crítica de su cuenta de correo electrónico.

Además, este tipo de tácticas evidencia un cambio en el escenario de las estafas en línea. Los ciberdelincuentes ya no se limitan a enviar correos electrónicos de phishing mal redactados o a intentar engañar con mensajes de texto fraudulentos.

Ahora, la IA se utiliza para crear interacciones que parecen auténticas, lo que aumenta la probabilidad de éxito. También, estas estafas no se limitan solo a cuentas de correo electrónico, sino que también buscan acceder a redes sociales, cuentas bancarias y otros servicios en línea de las víctimas.

Cómo prevenir estafas con inteligencia artificial

La IA es capaz de copiar varias acciones típicas del ser humano. (Imagen Ilustrativa Infobae)
La IA es capaz de copiar varias acciones típicas del ser humano. (Imagen Ilustrativa Infobae)

La experiencia de Mitrovic es un recordatorio de la importancia de estar siempre alerta ante notificaciones o llamadas inesperadas. Aunque la tecnología avanza, las amenazas también lo hacen, y la responsabilidad de proteger las cuentas personales recae en gran parte en los usuarios.

La recomendación general para evitar caer en este tipo de trampas es sencilla pero eficaz: verificar siempre la autenticidad de cualquier comunicación que solicite información personal o acceso a cuentas. En caso de duda, contactar con la empresa a través de los canales oficiales y nunca proporcionar información sensible a desconocidos.

Por su parte, los usuarios deben estar atentos a algunas señales de advertencia comunes. Las llamadas inesperadas, los correos electrónicos que solicitan información personal o los mensajes que parecen urgentes, son tácticas comunes en estos ataques

Los estafadores buscan crear una sensación de urgencia para que la víctima actúe rápidamente sin pensar. En el caso de las estafas que involucran inteligencia artificial, el nivel de sofisticación puede dificultar la detección, pero mantenerse vigilante y desconfiar de comunicaciones no solicitadas sigue siendo una de las mejores defensas.

Guardar