OpenAI reconoce que los cibercriminales usan ChatGPT para apoyar la creación de malware

Los cibercriminales utilizan modelos de OpenAI para desarrollar malware y llevar a cabo ataques de phishing, mientras la compañía contrarresta operaciones maliciosas sin detectar influencias electorales significativas

Guardar

Los cibercriminales utilizan el modelo de lenguaje grande GPT, de OpenAI, para crear 'sotfware' malicioso con el apoyo de la inteligencia artificial (IA), pese a las limitaciones integradas por la compañía tecnológica, así como para crear y difundir contenidos en redes sociales.

OpenAI ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. A ello se unen actividades como la redacción de publicaciones para redes sociales y depurar 'malware', y que la compañía recoge en la actualización del informe 'Influencia y operaciones cibernéticas'.

Con este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.

En este contexto, y a fecha de octubre de 2024, la compañía ha comprobado que los cibercriminales usan los modelos de IA "para realizar tareas en una fase específica e intermedia de actividad", esto es, después de haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de "desplegar productos acabados", como pueden ser las publicaciones de redes sociales y los programas maliciosos.

En cualquier caso, OpenAI indica que aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real, esto es, que no ha derivado en "la creación sustancial de nuevo malware ni en la creación de audiencias virales".

Sí han detectado actividad engañosa en redes sociales que alcanza una audiencia de gran tamaño, pero en estos casos, matiza, "el interés fue un engaño sobre el uso de la IA, no el uso de la IA en sí".

Uno de los casos analizados es el de SweetSpect, un grupo de amenazas de origen chino que utilizó los modelos de OpenAI "para respaldar sus operaciones cibernéticas ofensivas y al mismo tiempo realizar ataques de phishing" que dirigió contra los empleados de la compañía tecnológica, haciéndose pasar por un usuario de ChatGPT que buscaba ayuda del sorporte técnico, para infectar sus equipos y controlarlos.

Por su parte, el actor iraní STORM-0817 utilizó los modelos de IA para depurar código y obtener asistencia en la programación de un nuevo 'malware' para Android todavía en desarrollo y "relativamente rudimentario", con capacidades estándar de vigilancia. También uso ChatGPT para implementar la infraestructura de comando y control.

OpenAI también ha asegurado que, en un año en que más de 2.000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado "ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas" con el uso de sus modelos de IA.

Guardar