
La inteligencia artificial se ha convertido en una herramienta para los grupos delictivos en la ejecución de estafas. En América Latina, como en otras partes del mundo, las organizaciones criminales están expandiendo su influencia gracias esta tecnología que son cada vez más accesibles y no demandan una formación ni grandes inversiones.
Los fraudes han alcanzado un nivel de sofisticación sin precedentes, y según Interpol, esto se logra “sin necesidad de habilidades técnicas avanzadas y con un costo relativamente bajo”.
Cómo funcionan la estafas hechas con IA
El uso de herramientas de inteligencia artificial está permitiendo a los delincuentes aprovechar grandes cantidades de datos en redes sociales para llevar a cabo estafas cada vez más elaboradas. Estas tecnologías permiten extraer rápidamente información personal de plataformas como X (antes Twitter), lo que facilita la creación de mensajes automáticos y altamente personalizadas para manipular a las víctimas.

Por ejemplo, los estafadores pueden acceder a los seguidores de una cuenta de fútbol y, a partir de esa información, enviar mensajes diseñados para generar confianza y obtener más datos.
En este contexto, fraudes tradicionales como el phishing, correos electrónicos con software malicioso, las estafas románticas o los concursos falsos han alcanzado un mayor grado de sofisticación.
Las herramientas de IA no solo permiten crear imágenes realistas y redactar en varios idiomas, sino que también facilitan el envío masivo de correos fraudulentos mediante programas que incluso son gratuitos.
Según una evaluación reciente de Interpol, grupos criminales poderosos en América Latina, como el Cártel Jalisco Nueva Generación (CJNG) de México, el Primer Comando Capital (PCC) de Brasil y el Comando Rojo (CV) también de Brasil, están involucrados en este tipo de estafas.

La red de investigación InSight Crime señala que estos grupos han adoptado técnicas avanzadas de ciberfraude como parte de sus operaciones delictivas.
Por otro lado, la inteligencia artificial también se utiliza para generar imágenes y videos falsos con un nivel de hiperrealismo que resulta difícil de distinguir de los contenidos reales. Estas creaciones, conocidas como deepfakes, son aprovechadas por ciberdelincuentes para extorsionar, cometer fraudes o manipular a sus víctimas.
La IA facilita la creación de mensajes fraudulentos que incluyen fotos de personas familiares en situaciones que nunca ocurrieron, lo que refuerza la veracidad percibida del engaño.
Además, con solo escuchar la voz de una persona durante 5 o 10 segundos, es posible clonar su tono y patrones de habla, lo que permite a los delincuentes simular conversaciones telefónicas y generar grabaciones que pueden ser utilizadas para manipular a terceros o llevar a cabo estafas más elaboradas.

“Este es un ataque más sofisticados, no tan automático, pero que suele ser muy efectivo. Ya no hace falta secuestrar a alguien para pedir su rescate. Una llamada a un familiar puede liberar los fondos directamente”, señaló Etay Maor, estratega jefe de seguridad de Cato Networks y miembro fundador de Cato CTRL al medio inglés BBC.
En la frontera entre México y Estados Unidos, se ha identificado que grupos criminales están estafando a familias de migrantes desaparecidos mediante el uso de imágenes falsas.
Una investigación de InSight Crime detalla que estos grupos crean sitios web haciéndose pasar por organizaciones dedicadas a la búsqueda de personas desaparecidas. A través de estos portales, piden a las familias que envíen fotos de sus seres queridos con el pretexto de ayudar en la identificación.

Posteriormente, los delincuentes utilizan esas imágenes para generar fotos o videos falsos que parecen auténticos, alegando que la persona fue secuestrada y exigiendo un rescate para su liberación.
Cómo protegerse de las estafas con IA
Como usuarios finales, la única forma realmente efectiva de protegerse contra estafas sofisticadas creadas con inteligencia artificial es educarse sobre esta tecnología.
Al entender cómo funciona la IA, los usuarios serán capaces de identificar patrones sospechosos, como imágenes falsas o mensajes personalizados diseñados para manipularnos. La educación tecnológica otorga herramientas para detectar fraudes y así evitar caer en las trampas cada vez más elaboradas que utilizan estas técnicas.
Últimas Noticias
¿Tu artista favorita en Fortnite? El paso a paso para usar IA y crear skins realistas de estrellas de K-pop
Para lograr un resultado de calidad, debes elegir una herramienta de IA potente, como Midjourney y DALL-E 3

Lo nuevo de Gemini en Google TV: desde resúmenes de partidos hasta presentaciones interactivas
La televisión inteligente avanza hacia una nueva etapa: combina inteligencia artificial y conectividad para ofrecer experiencias cada vez más personalizadas

Ni bolsas de aire ni frenos: lo que realmente salva vidas según los expertos y pocos lo sabían
Adriana Casadiego, directora de marca de Hyundai Colombia, habló para Infobae sobre el desarrollo de motores eficientes, asistentes inteligentes y sistemas de absorción de impactos

Ingenieros del MIT desarrollan pulsera inteligente que permite controlar a distancia las manos de robots
El dispositivo traduce movimientos internos de músculos y tendones en gestos digitales precisos

Tu próximo Toyota podría ser fabricado por un humanoide: así son los robots que ya trabajan en Canadá
El despliegue pretende aliviar cargas físicas y elevar la eficiencia, pero figuras como Mark Cuban alertan que la tendencia podría fracasar en menos de una década


