El avance de la inteligencia artificial (IA) ha revolucionado diversas industrias y optimizado numerosos aspectos de la vida diaria; sin embargo, también ha creado nuevas posibilidades para los cibercriminales. En un entorno digital en constante evolución, la IA emerge como una herramienta formidable que, si es utilizada con fines malintencionados, puede automatizar ataques, crear deepfakes y spear phishing personalizados, desarrollar malware evasivo, y lanzar campañas masivas de desinformación.
La creciente accesibilidad de la IA facilita que incluso los cibercriminales con recursos limitados puedan utilizarla. Al mismo tiempo, esta tecnología puede servir para detectar y aprovechar debilidades en sistemas de seguridad sofisticados, dando lugar a una continua carrera tecnológica entre atacantes y defensores en el ámbito de la ciberseguridad.
Pero ¿podría entonces la IA convertirse en la herramienta favorita de los cibercriminales en 2025? Existen señales que apuntan a que este escenario es una posibilidad cada vez más real.
1. La creciente dependencia de la IA en el desarrollo de software podría poner en riesgo la seguridad. Según datos recientes de la unidad de investigación de SILIKN, el 95.5% de los desarrolladores de software afirman que sus empresas emplean soluciones basadas en IA para crear o entregar aplicaciones. De estos, el 80.2% señala que la mayoría o la totalidad de sus equipos de desarrollo utilizan regularmente estas herramientas, lo que ha generado una preocupación creciente entre los desarrolladores sobre la posible disminución del pensamiento crítico derivada de su uso intensivo.
2. Los sistemas de aprendizaje de la inteligencia artificial podrían aumentar el riesgo de filtraciones en las bases de código. Según un estudio realizado por la unidad de investigación de SILIKN, el 53.9% de los encuestados manifestó inquietud por la capacidad de la IA para replicar patrones que incluyen información sensible, lo que incrementa las probabilidades de brechas de seguridad. Además, el 44.2% señaló que el manejo codificado de información confidencial o secreta representa un punto crítico de vulnerabilidad dentro de la cadena de suministro de software.
3. Los ciberatacantes están descubriendo nuevas formas de explotar la inteligencia artificial. Aunque sólo el 32.6% de ellos creía que las tecnologías de IA incrementarían el impacto de los ataques en 2024, el 77.4% considera que sí lo harán en 2025. Además, el uso de soluciones basadas en IA entre los atacantes ha crecido significativamente, ya que el 82.1% de ellos ahora las utiliza, lo que representa un aumento del 39.8% en comparación con el año anterior.
4. Debido a los riesgos de seguridad, los equipos de ciberseguridad de las organizaciones están considerando prohibir el uso de la codificación con IA. El 96.6% de estos equipos expresa preocupaciones acerca del uso de código generado por IA en sus sistemas. Además, el 71.2% de los encuestados indica que los equipos de seguridad no pueden mantenerse al mismo ritmo que los desarrolladores que implementan IA. Como consecuencia, los equipos sienten que están perdiendo el control y que las organizaciones corren mayores riesgos, ya que el 85.6% cree que el código generado por IA podría acarrear serias repercusiones en términos de seguridad.
5. Los modelos de inteligencia artificial son fácilmente vulnerables. Un 98.8% de los expertos en ciberseguridad expresa desconfianza hacia las medidas de seguridad de las herramientas de IA, mientras que los datos del Red Team de la unidad de investigación de SILIKN indican que estos modelos pueden ser hackeados con facilidad. El 45.3% de los encuestados se muestra preocupado por la fiabilidad y precisión de los LLM (modelos de lenguaje de gran escala), mientras que el 46.7% teme por la privacidad y seguridad de los datos. Además, el 81.7% de los participantes señala que la falta de personal capacitado es una de las principales preocupaciones.
6. Los riesgos de seguridad más críticos para los usuarios de IA están vinculados a la gestión de datos. Según el estudio realizado por la unidad de investigación de SILIKN, el 87.3% de las empresas utilizan actualmente inteligencia artificial, una cifra que se ha triplicado en el último año. En promedio, las empresas emplean casi 20 aplicaciones de IA, frente a las tres que utilizaban el año anterior y el 2.1% de los principales usuarios ahora utiliza alrededor de 100 aplicaciones.
7. El 44.5% de los empleados emplean herramientas de IA no autorizadas. Según el estudio mencionado, el 91.5% de los trabajadores de oficina indican que no han recibido capacitación sobre IA, y el 44.5% hace uso de herramientas no aprobadas. Además, el 55.7% de los profesionales de seguridad y TI no cuentan con una estrategia documentada para gestionar los riesgos asociados con estas herramientas. El uso de herramientas de IA no autorizadas, al igual que cualquier otro tipo de TI no regulada, aumenta los riesgos al ampliar la superficie de ataque de la organización sin supervisión de seguridad, lo que podría generar vulnerabilidades desconocidas y poner en peligro la postura de seguridad de la organización.
8. La inteligencia artificial mantiene a los profesionales de la ciberseguridad en un estado de alerta constante. Cuando se les preguntó sobre el nivel de amenaza que representa la IA para la ciberseguridad, un 98.8% de los encuestados estuvo de acuerdo en que es una amenaza y más del 66.6% indicó que su uso para crear o manipular contenido engañoso, como los deepfakes, constituye una amenaza significativa. Como resultado, el 80.9% de los profesionales de la seguridad han tenido que ajustar su estrategia de ciberseguridad en el último año debido al incremento de las ciberamenazas impulsadas por la IA y el 77.1% ha puesto un mayor énfasis en las capacidades preventivas. Además, el aumento de la IA adversaria está impactando a los expertos en ciberseguridad, ya que el 70.8% reconoce que sus niveles de estrés han empeorado en comparación con el año pasado, y el 72.3% asegura que la IA es la principal causa de su agotamiento y estrés.
9. La inteligencia artificial está dando lugar a una nueva generación de ciberataques. La mayoría de las empresas considera que la IA ofensiva se está convirtiendo rápidamente en una herramienta estándar entre los ciberdelincuentes, y el 95.5% de los responsables de seguridad anticipan enfrentarse a ataques diarios impulsados por IA. Dado que los riesgos actuales están cada vez más impulsados por la IA, el trabajo de los empleados y la proliferación de aplicaciones en la nube, los encuestados indican que necesitan mayor visibilidad sobre el código fuente que se envía a los repositorios, los archivos cargados en cuentas personales en la nube y las descargas de datos del sistema de gestión de relaciones con los clientes (CRM).
En resumen, la inteligencia artificial tiene el potencial de convertirse en una herramienta clave para los cibercriminales en 2025, al facilitar una nueva ola de ataques más rápidos, complejos y difíciles de detectar. Para mitigar estos riesgos, es fundamental adoptar un enfoque proactivo, implementando tecnologías de ciberseguridad igualmente avanzadas y fomentando una colaboración más estrecha entre gobiernos, empresas y expertos para proteger los sistemas frente a estas amenazas emergentes.
* Víctor Ruiz. Fundador de SILIKN | Emprendedor Tecnológico | (ISC)² Certified in Cybersecurity℠ (CC) | Cyber Security Certified Trainer (CSCT™) | EC-Council Ethical Hacking Essentials (EHE) | EC-Council Certified Cybersecurity Technician (CCT) | Cisco Ethical Hacker | Líder del Capítulo Querétaro de OWASP.
Twitter: https://twitter.com/silikn
Instagram: https://www.instagram.com/silikn
YouTube: https://www.youtube.com/@silikn7599