Ataques de phishing se disparan con ayuda de la inteligencia artificial

Se reportó un incremento del 617% en este tipo de malware ya que se crean estafas automatizadas

Los ciberdelincuentes utilizan inteligencia artificial para crear correos y sitios web falsos que parecen legítimos con el fin de obtener datos personales. (Freepik)

Los ciberdelincuentes están utilizando la inteligencia artificial para perfeccionar sus estrategias de phishing, personalizando sus ataques de manera alarmante.

Un ejemplo de común de este delito es cuando una persona recibe un correo electrónico que parece ser de su banco ya que cuenta con un nivel de detalle sorprendente, al incluir datos reales de transacciones pasadas. Dicho mensaje solicita que actualice su información de seguridad a través de un enlace que, a simple vista, puede parecer legítimo.

Sin embargo, este enlace lo redirige a una página falsa diseñada para robar credenciales. Este tipo de ataques, sofisticados y creíbles, están generando nuevas alertas en la comunidad de seguridad informática.

De acuerdo con Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, entre los fines relacionados con el uso de la IA se encuentran la recolección de datos personales, incluyendo los de reconocimiento (voz, rostro, huellas dactilares), generación de código malicioso, evasión de medidas de seguridad o ataques DDoS.

El número de ataques de phishing ha aumentado drásticamente en un año, con un reporte de 286 millones de intentos registrados por Kaspersky. (Freepik)

No obstante, existen otros riesgos que destacan por su crecimiento acelerado y su alta tasa de éxito, debido al desconocimiento de los usuarios y el exceso de información presente en línea.

Por ejemplo, están los ataques de phishing personalizados, con un 42.8% de mensajes fraudulentos dirigidos principalmente a robar datos financieros, según el Panorama de Amenazas para América Latina de Kaspersky. Éste registró 286 millones de intentos de ataques de phishing en el último año, lo que representa un alarmante aumento del 617% a nivel global, en comparación con el año anterior.

Si bien no se trata de un riesgo reciente, llama la atención que su incremento se debe, entre otros factores, a la aparición de herramientas que utilizan la inteligencia artificial para facilitar la creación de estafas de forma automatizada.

Los especialistas de Kaspersky también han señalado que, con el avance de la inteligencia artificial, se ha observado un incremento en la creación de deepfakes, estos son contenidos audiovisuales de fotos y grabaciones manipuladas para cambiar el contenido real, como en casos donde alguien aparenta ser otra persona.

La inteligencia artificial también está siendo usada para generar deepfakes, capaces de suplantar identidades y manipular información de audio y video. (Freepik)

Los investigadores también han identificado deepfakes de todo tipo; con audios o voz modificados, y otros de texto, creados usando una redacción similar a la de alguna persona conocida por la víctima.

A pesar de que la propagación de esta amenaza y sus consecuencias pueden afectar la reputación, privacidad, así como las finanzas de instituciones y usuarios, cifras de la compañía revelan que la mayoría de los colombianos no sabe qué es un deepfake (63%) y tampoco sabría reconocer un contenido de este tipo (72%). Esto hace que las personas sean más susceptibles a los fraudes y estafas impulsados por esta técnica.

Agregaron que en la Darknet se comercializa este tipo de material ilícito con propósitos que incluyen el fraude económico, engaños en el ámbito corporativo, coerción en el ámbito político, represalias personales, hostigamiento y material pornográfico.

La Darknet es una parte de Internet que no está indexada por los motores de búsqueda convencionales y que requiere de software, configuraciones o autorización especial para su acceso.

Los expertos sugieren la práctica "confiar, pero verificar", adoptando un escepticismo saludable ante cualquier comunicación que no parezca lógica o habitual. (Freepik)

A menudo se asocia con el anonimato y puede ser utilizada tanto para actividades legítimas, como para permitir la comunicación en regímenes opresivos, como para propósitos ilícitos, incluyendo el comercio de sustancias prohibidas, servicios ilegales, y la distribución de contenido protegido por derechos de autor o material de abuso.

Para evitar ser víctimas de las amenazas generadas por IA, se recomienda:

-Mantenerse informado sobre las nuevas tecnologías y sus riesgos: Conocer la IA, cómo funciona y tener en cuenta que ya existen amenazas asociadas a esta herramienta.

-Utilizar siempre fuentes de información confiables: el analfabetismo informativo sigue siendo un factor crucial para la proliferación de ciberamenazas como el phishing y los deepfakes.

-Tener buenos hábitos digitales como “confiar, pero verificar”: se debe actuar con cautela y escepticismo ante correos electrónicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que se reciban, especialmente si comunican información extraña o ilógica.