
La inteligencia artificial (IA) ha revolucionado diversas industrias, desde la medicina hasta la educación, pero también ha abierto la puerta a un nuevo tipo de delincuencia. Los ciberdelincuentes, al aprovechar las capacidades de la IA, han comenzado a generar contenido falso con fines malintencionados, como el fraude, la difamación, la manipulación política y social, entre otros.
Utilizando herramientas avanzadas, estos delincuentes crean textos, imágenes, vídeos y audios falsos que pueden resultar extremadamente convincentes. Esta tecnología no solo ha facilitado la creación de contenido engañoso, también ha transformado la forma en que los atacantes operan en línea.
Según información suministrada por el Instituto Nacional de Ciberseguridad de España (Incibe), la IA está siendo utilizada para generar fake news o noticias falsas, diseñadas para desinformar y manipular a la opinión pública. Un ejemplo claro de esto son los generadores de texto como ChatGPT, que permiten crear artículos completos con un estilo muy similar al de los periodistas profesionales.

Esta capacidad de producir contenido escrito de alta calidad ha permitido a los ciberdelincuentes difundir desinformación de forma masiva.
Cómo crean imágenes falsas los ciberdelincuentes
Además de los generadores de texto, los ciberdelincuentes también utilizan IA para crear contenido visual y auditivo falsificado. Herramientas como DeepFaceLab permiten la creación de deepfakes, alterando vídeos de manera que son casi indistinguibles de los reales.
Estas herramientas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos en los que personas como políticos o celebridades pueden aparecer diciendo o haciendo cosas que nunca ocurrieron.

La capacidad de manipular vídeos de esta manera ha sido aprovechada para difundir propaganda, suplantar identidades y afectar la reputación de figuras públicas.
Cómo puede la IA llegar a clonar una voz
Por otro lado, la clonación de voz es otro de los avances que los ciberdelincuentes explotan. Programas como Lyrebird permiten replicar con alta precisión la voz de cualquier persona. Usando esta tecnología, los atacantes pueden crear audios falsos, en los que una persona parece estar pronunciando palabras o haciendo declaraciones que nunca dijo.
Esto no solo es utilizado para difundir rumores o declaraciones falsas, también se ha utilizado en fraudes económicos. Un caso real reportado por el Incibe describe cómo ciberdelincuentes utilizaron una voz clonada para estafar a una persona, haciendo que creyera que un familiar cercano estaba solicitando dinero en una emergencia. La víctima, al reconocer la voz, accedió a transferir una cantidad considerable de dinero.

Cómo no caer en los engaños creados con IA
Texto: En el caso de artículos o publicaciones escritas, es importante verificar la coherencia y la gramática del contenido. Los textos generados por IA pueden presentar errores sutiles, como repeticiones innecesarias o incoherencias en el estilo, que no son comunes en textos escritos por humanos.
Vídeo: Los deepfakes a menudo presentan anormalidades, como un número excesivo de parpadeos o movimientos faciales poco naturales. También puede haber incongruencias entre el rostro y el cuerpo, o la calidad del sonido puede no coincidir con la imagen, mostrando desfases o tonos extraños.
Audio: En el caso de audios generados por IA, como en el caso de la clonación de voces, se puede detectar variaciones inusuales en el tono o el ritmo del habla. Además, la falta de ruido de fondo o la presencia de sonidos extraños puede ser indicativo de manipulación.
Imágenes: Las imágenes generadas o alteradas por IA a menudo presentan detalles finos defectuosos, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También se puede notar que la iluminación y las sombras no son coherentes en toda la imagen.
Qué herramientas hay para verificar el contenido falso generado por IA
Afortunadamente, existen herramientas específicas que pueden ayudar a los usuarios a detectar contenido falso generado por IA. Según el Instituto Nacional de Ciberseguridad, algunas de las herramientas más efectivas incluyen:
- Detectores de IA para texto: Herramientas como GPTZero y Copyleaks permiten analizar el contenido escrito y determinar si ha sido generado por IA. Estas herramientas son capaces de detectar patrones lingüísticos y estructuras gramaticales que son característicos de los modelos de lenguaje artificial.
- Herramientas de detección de multimedia: Para vídeos y audios falsos, existen plataformas como Deepware, que permiten analizar y detectar deepfakes con alta precisión. Además, VerifAI y Resemble Detect permiten verificar si un contenido ha sido alterado o generado mediante IA.
Últimas Noticias
Glosario de tecnología: qué es innovación agrícola
Con el paso de los años es cada vez más difícil imaginar la vida sin tecnología, por lo que es necesario saber más de ella

Qué pasa con tu información cuando regalas o vendes un electrodoméstico inteligente
Estos dispositivos no solo recopilan datos para optimizar su funcionamiento, sino que también almacenan contraseñas e información personal de los usuarios

Llevar una batería en esta parte del avión puede provocar un incendio: en qué lugar es seguro guardarla
Se aconseja no agrupar varias baterías sueltas en un mismo compartimento, debido al riesgo de contacto accidental entre terminales

Orion, las gafas de realidad virtual más avanzadas de Meta: revelan su impresionante infraestructura
El prototipo de Meta combina diseño liviano, procesamiento distribuido y control multimodal en un dispositivo que anticipa el futuro de la informática personal

Tasas de éxito en la fertilización in vitro: cómo se usa la tecnología para lograrlo
Muchas mujeres buscan opciones de tecnología ya que nacen con un número limitado de óvulos, y a medida que envejecen, la cantidad y calidad de estos disminuye
