Fraudes incrementan significativamente debido a inteligencia artificial: cómo operan para evitar caer en el engaño

Los casos de fraude digital aumentan un 74 %, impulsados por el uso indebido de tecnologías avanzadas como inteligencia artificial para crear deepfakes, phishing y falsificación de voz

Es crucial establecer leyes que regulen el uso de tecnologías avanzadas para proteger a ciudadanos y empresas, promoviendo la transparencia con estándares éticos. (Infobae/HP)

Los avances en la tecnología digital han permitido incrementar la productividad de las empresas de forma considerable, así como brindar una herramienta fundamental para simplificar procesos tediosos, permitiéndole al trabajador destinar su tiempo a diferentes actividades laborales. No obstante, esta evolución también ha sido aprovechada por los ciberdelincuentes, quienes cuentan con mejores recursos para elaborar estrategias de fraude.

Según el Centro de Operaciones de Seguridad (SOC) de Appgate, el número de casos asociados a infracciones de copyright y fraudes ascendió un 74 % en el último periodo. Por tal motivo, es crucial que los usuarios reconozcan estas estrategias de fraude y estafa con el objetivo de evitar caer en las trampas de los ciberdelincuentes.

La misma tecnología que impulsa la productividad empresarial también es utilizada por ciberdelincuentes para elaborar estrategias de fraude cada vez más sofisticadas. (Reuters)

El peligro de la inteligencia artificial

En conversación con la Agencia de Noticias Andina, Diego Vences, especialista de Data Analytics, señaló que el uso no regulado y la sofistificación de las nuevas tecnologías como la inteligencia artificial (IA) representan un reto inmenso para la seguridad digital. Además, los ciberdelincuentes encuentran constantemente formas de fortalecer sus fraudes, por lo que la seguridad digital debe ir mejorando a la par.

“Es esencial promover el uso de herramientas tecnológicas en el país, pero también establecer leyes que regulen su aplicación para evitar su uso indebido. Esto reforzará la protección de ciudadanos y empresas contra el fraude y promoverá la transparencia con estándares éticos en el uso de la inteligencia artificial. Al implementar estas medidas, se puede maximizar su beneficio, minimizando los riesgos”, precisó.
Las empresas y usuarios deben mantenerse informados y adoptar medidas de seguridad avanzada para mitigar los riesgos asociados a las nuevas tecnologías. (Sascha Steinbah)

Consejos para identificar fraudes

Ante tal escenario, el especialista brindó una serie de recomendaciones para tomar en cuenta al momento de usar un dispositivo tecnológico, evitando de tal manera que algún delincuente pueda engañarlo y filtrar sus datos personales o estafar en una compra.

Fotos y videos falsos (Deepfake)

Una tecnología emergente utiliza inteligencia artificial para crear videos o imágenes que parecen reales, con el objetivo de suplantar identidades o manipular la información de manera engañosa. Esta técnica, conocida como deepfake, ha generado preocupación por su potencial para distorsionar la realidad y afectar la credibilidad de personas e instituciones.

Falsificación de voz (Voice Cloning)

Este método, que ha cobrado fuerza en el país, replica la voz de un familiar o persona de confianza mediante inteligencia artificial con el fin de convencer a las víctimas de enviar dinero o revelar información confidencial al infractor. Los delincuentes aprovechan la tecnología para hacerse pasar por conocidos y, así, ganar la confianza de sus víctimas de manera engañosa.

Diego Vences, especialista en Data Analytics, advierte sobre los riesgos del uso no regulado de la inteligencia artificial y su impacto en la seguridad digital. (Aly Song)

Suplantación de identidad (Phishing)

Estos mensajes fraudulentos imitan una vieja técnica de fraude. Conocidos como correos de phishing, están diseñados para convencer al receptor de revelar información confidencial al delincuente, como contraseñas, números de tarjetas o información bancaria. Los estafadores utilizan tácticas de ingeniería social para hacer que el correo parezca legítimo y engañar a las víctimas.

Identidad sintética (Frankenstein ID)

Este método de estafa se basa en crear una identidad falsa combinando información real y ficticia de diferentes perfiles con el objetivo de abrir cuentas fraudulentas para obtener dinero. Debido a su complejidad, suele ser difícil de detectar.