Inteligencia artificial ChatGPT puede ser usada para crear códigos maliciosos

Una investigación destacó que el sistema tiene el potencial para ayudar a cibercriminales con ataques como control remoto de los dispositivos de las víctimas

Guardar
Usando inteligencia artificial, los delincuentes
Usando inteligencia artificial, los delincuentes pueden crear códigos maliciosos con facilidad.

ChatGPT es una de las inteligencias artificiales más destacadas en este momento, por la facilidad que tiene para crear textos con indicaciones básicas. Algo que llamó la atención de expertos en ciberseguridad, que destacan que el programa puede producir códigos maliciosos de forma sencilla.

Check Point Research fue la encargada de la investigación y usaron ChatGPT y Codex, herramientas de OpenAI, para diseñar correos electrónicos maliciosos, códigos y una cadena de infección completa.

Esto lo hicieron teniendo como referencia que en foros de la Dark Web se están difundiendo códigos de ataque, que fueron creados a través de inteligencia artificial.

“ChatGPT tiene el potencial de alterar significativamente el panorama de amenazas cibernéticas. Ahora cualquier persona con recursos mínimos y cero conocimientos en código puede explotarlo fácilmente”, aseguró Manuel Rodríguez, gerente de ingeniería de seguridad de la compañía para América Latina.

Te puede interesar: Casi un millón de datos de usuarios de Sanitas están expuestos en internet

Usando inteligencia artificial, los delincuentes
Usando inteligencia artificial, los delincuentes pueden crear códigos maliciosos con facilidad.

IA para crear ciberataques

Para la investigación, los encargados tenían el objetivo de diseñar un código que les permitirá tener acceso remoto a otros computadores. Algo que consiguieron.

Usando ambas plataformas de inteligencia artificial crearon un correo electrónico de phishing, con un documento de Excel que contiene código malicioso capaz de descargar shells inversos, que es el método de conexión remota para el ataque.

Con el código tenía la capacidad de suplantar la identidad de una empresa de alojamiento y producir un VBA malicioso en un documento de Excel, que es un lenguaje de programación propio de Microsoft para esta aplicación de cálculo.

Por otro lado, gracias al contenido generado con la IA Codex pudieron ejecutar un shell inverso en una máquina con Windows para conectarse a una dirección IP específica y ejecutar un escaneo completo de un computador externo de forma remota.

Lo que consolida un completo paquete de ataque para un ciberdelincuente, que está a la mano en una herramienta que es gratuita y en un proceso que solo necesita las indicaciones adecuadas para obtener un resultado que puede ayudar a masificar los ataques informáticos, que en 2022 aumentaron un 28%.

Una situación que pone en alerta el potencial de la inteligencia artificial, en herramientas como ChatGPT y Codex, que también han sido usadas para ideas positivas, pero que en manos equivocadas pueden causar mucho daño.

“Es fácil generar correos electrónicos y códigos maliciosos. Creo que estas tecnologías de IA representan otro paso adelante en la peligrosa evolución de capacidades cibernéticas cada vez más sofisticadas y efectivas”, advierte Rodríguez.

Te puede interesar: Cuánto tarda un ciberdelincuente en adivinar la contraseña de mi correo o redes

Usando inteligencia artificial, los delincuentes
Usando inteligencia artificial, los delincuentes pueden crear códigos maliciosos con facilidad.

Los datos de ChatGPT se podrían terminar

Una investigación de Epoch AI, organización que estudia el desarrollo de la inteligencia artificial, asegura que 2026 es el año máximo para el que están diseñados los actuales centros de datos de alta calidad, los cuales reúnen la data para la creación de contenido de estas tecnologías.

Lo anterior, genera una alerta en plataformas como ChatGPT, DALL·E 2 y Midjourney, que usan ese conjunto de información para generar su contenido a través de texto y aprendizaje automático.

La recolección de información para estos dataset se hace de forma pública y a una gran escala para que la plataforma aprenda de forma correcta. Además, en el proceso hay humanos involucrados porque hay un filtro importante para ‘limpiar’ los datos de forma manual y que respondan de manera adecuada a las peticiones de los usuarios.

Los encargados del estudio aseguran que esto es un proceso lento y costoso, y aunque existen herramientas, como la propia inteligencia artificial, usarlas para revisar los modelos conlleva a una alta tasa de riesgos que pueden hacer aún más complicado el proceso.

Seguir leyendo:

Guardar