Los avances en la tecnología digital han permitido incrementar la productividad de las empresas de forma considerable, así como brindar una herramienta fundamental para simplificar procesos tediosos, permitiéndole al trabajador destinar su tiempo a diferentes actividades laborales. No obstante, esta evolución también ha sido aprovechada por los ciberdelincuentes, quienes cuentan con mejores recursos para elaborar estrategias de fraude.
Según el Centro de Operaciones de Seguridad (SOC) de Appgate, el número de casos asociados a infracciones de copyright y fraudes ascendió un 74 % en el último periodo. Por tal motivo, es crucial que los usuarios reconozcan estas estrategias de fraude y estafa con el objetivo de evitar caer en las trampas de los ciberdelincuentes.
El peligro de la inteligencia artificial
En conversación con la Agencia de Noticias Andina, Diego Vences, especialista de Data Analytics, señaló que el uso no regulado y la sofistificación de las nuevas tecnologías como la inteligencia artificial (IA) representan un reto inmenso para la seguridad digital. Además, los ciberdelincuentes encuentran constantemente formas de fortalecer sus fraudes, por lo que la seguridad digital debe ir mejorando a la par.
“Es esencial promover el uso de herramientas tecnológicas en el país, pero también establecer leyes que regulen su aplicación para evitar su uso indebido. Esto reforzará la protección de ciudadanos y empresas contra el fraude y promoverá la transparencia con estándares éticos en el uso de la inteligencia artificial. Al implementar estas medidas, se puede maximizar su beneficio, minimizando los riesgos”, precisó.
Consejos para identificar fraudes
Ante tal escenario, el especialista brindó una serie de recomendaciones para tomar en cuenta al momento de usar un dispositivo tecnológico, evitando de tal manera que algún delincuente pueda engañarlo y filtrar sus datos personales o estafar en una compra.
Fotos y videos falsos (Deepfake)
Una tecnología emergente utiliza inteligencia artificial para crear videos o imágenes que parecen reales, con el objetivo de suplantar identidades o manipular la información de manera engañosa. Esta técnica, conocida como deepfake, ha generado preocupación por su potencial para distorsionar la realidad y afectar la credibilidad de personas e instituciones.
Falsificación de voz (Voice Cloning)
Este método, que ha cobrado fuerza en el país, replica la voz de un familiar o persona de confianza mediante inteligencia artificial con el fin de convencer a las víctimas de enviar dinero o revelar información confidencial al infractor. Los delincuentes aprovechan la tecnología para hacerse pasar por conocidos y, así, ganar la confianza de sus víctimas de manera engañosa.
Suplantación de identidad (Phishing)
Estos mensajes fraudulentos imitan una vieja técnica de fraude. Conocidos como correos de phishing, están diseñados para convencer al receptor de revelar información confidencial al delincuente, como contraseñas, números de tarjetas o información bancaria. Los estafadores utilizan tácticas de ingeniería social para hacer que el correo parezca legítimo y engañar a las víctimas.
Identidad sintética (Frankenstein ID)
Este método de estafa se basa en crear una identidad falsa combinando información real y ficticia de diferentes perfiles con el objetivo de abrir cuentas fraudulentas para obtener dinero. Debido a su complejidad, suele ser difícil de detectar.