Microsoft advirtió que los adversarios de EEUU están comenzando a utilizar inteligencia artificial en operaciones cibernéticas ofensivas

El gigante tecnológico y su socio comercial OpenAI señalaron que habían detectado a actores cibernéticos maliciosos entre los que se encuentran China, Corea del Norte e Irán

Guardar
FOTO DE ARCHIVO: Un hombre sostiene una computadora portátil mientras se proyecta un código cibernético en esta fotografía ilustrativa tomada el 13 de mayo de 2017. REUTERS/Kacper Pempel/Ilustración/Foto de archivo
FOTO DE ARCHIVO: Un hombre sostiene una computadora portátil mientras se proyecta un código cibernético en esta fotografía ilustrativa tomada el 13 de mayo de 2017. REUTERS/Kacper Pempel/Ilustración/Foto de archivo

Microsoft dijo el miércoles que los adversarios de Estados Unidos (principalmente el régimen Irán y Corea del Norte y, en menor medida, Rusia y China) están comenzando a utilizar su inteligencia artificial generativa para montar u organizar operaciones cibernéticas ofensivas.

El gigante tecnológico y socio comercial OpenAI señaló que habían detectado e interrumpido conjuntamente el uso de sus tecnologías de inteligencia artificial por parte de actores cibernéticos maliciosos, cerrando sus cuentas.

En una publicación de blog, Microsoft dijo que las técnicas empleadas estaban en “etapa inicial” y no eran “particularmente novedosas o únicas”, pero era importante exponerlas públicamente mientras los adversarios estadounidenses aprovechan modelos de lenguaje grande para expandir su capacidad de violar redes y ejercer influencia. operaciones.

Las empresas de ciberseguridad llevan mucho tiempo utilizando el aprendizaje automático en defensa, principalmente para detectar comportamientos anómalos en las redes. Pero los delincuentes y los hackers ofensivos también lo utilizan, y la introducción de modelos de lenguaje grande liderados por ChatGPT de OpenAI incrementó ese juego del gato y el ratón.

Microsoft ha invertido miles de millones de dólares en OpenAI, y el anuncio del miércoles coincidió con la publicación de un informe que señala que se espera que la IA generativa mejore la ingeniería social maliciosa, lo que conducirá a deepfakes y clonación de voz más sofisticados. Una amenaza a la democracia en un año en el que más de 50 países celebrarán elecciones, magnificando la desinformación y que ya está ocurriendo.

FOTO DE ARCHIVO: El logotipo de ChatGPT se ve en esta ilustración tomada el 3 de febrero de 2023. REUTERS/Dado Ruvic/Illustration/File Photo
FOTO DE ARCHIVO: El logotipo de ChatGPT se ve en esta ilustración tomada el 3 de febrero de 2023. REUTERS/Dado Ruvic/Illustration/File Photo

A continuación se muestran algunos ejemplos proporcionados por Microsoft. En cada caso, dijo que todas las cuentas y activos de IA generativa de los grupos nombrados estaban deshabilitados:

— El grupo de ciberespionaje norcoreano conocido como Kimsuky ha utilizado los modelos para investigar a los think tanks extranjeros que estudian el país y para generar contenido que probablemente se utilice en campañas de piratería de phishing.

La Guardia Revolucionaria de Irán ha utilizado modelos en lenguaje extenso para ayudar en la ingeniería social, solucionar errores de software e incluso estudiar cómo los intrusos podrían evadir la detección en una red comprometida. Eso incluye generar correos electrónicos de phishing, “incluido uno que pretende provenir de una agencia de desarrollo internacional y otro que intenta atraer a feministas prominentes a un sitio web sobre feminismo creado por atacantes”. La IA ayuda a acelerar e impulsar la producción de correo electrónico.

La unidad de inteligencia militar rusa GRU conocida como Fancy Bear ha utilizado los modelos para investigar tecnologías de satélites y radares que pueden estar relacionadas con la guerra en Ucrania.

— El grupo chino de ciberespionaje conocido como Aquatic Panda, que apunta a una amplia gama de industrias, educación superior y gobiernos desde Francia hasta Malasia, ha interactuado con los modelos “de maneras que sugieren una exploración limitada de cómo los LLM pueden aumentar sus operaciones técnicas”.

— El grupo chino Maverick Panda, que se ha centrado en los contratistas de defensa estadounidenses, entre otros sectores, durante más de una década, tuvo interacciones con modelos en lenguaje extenso, lo que sugiere que estaba evaluando su efectividad como fuente de información “sobre temas potencialmente delicados, personas de alto perfil, geopolítica regional, influencia estadounidense y asuntos internos”.

En un blog separado publicado el miércoles, OpenAI dijo que su actual chatbot modelo GPT-4 ofrece “sólo capacidades incrementales limitadas para tareas de ciberseguridad maliciosas más allá de lo que ya se puede lograr con herramientas disponibles públicamente y sin tecnología de IA”.

Los investigadores de ciberseguridad esperan que eso cambie.

En abril pasado, la directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, Jen Easterly, dijo al Congreso que “hay dos amenazas y desafíos que definen una época. Uno es China y el otro es la inteligencia artificial”.

Easterly dijo en ese momento que Estados Unidos necesita garantizar que la IA se construya teniendo en cuenta la seguridad.

Los críticos del lanzamiento público de ChatGPT en noviembre de 2022 (y los lanzamientos posteriores de competidores como Google y Meta) sostienen que fue irresponsablemente apresurado, considerando que la seguridad fue en gran medida una ocurrencia tardía en su desarrollo.

“Por supuesto, los malos actores están utilizando modelos en lenguaje extenso; esa decisión se tomó cuando se abrió la Caja de Pandora”, dijo Amit Yoran, director ejecutivo de la firma de ciberseguridad Tenable.

Algunos profesionales de la ciberseguridad se quejan de la creación y venta de herramientas por parte de Microsoft para abordar las vulnerabilidades en modelos de lenguajes grandes cuando podría centrarse de manera más responsable en hacerlos más seguros.

¿Por qué no crear modelos básicos de LLM de caja negra más seguros en lugar de vender herramientas defensivas para un problema que están ayudando a crear?”, preguntó Gary McGraw, un veterano en seguridad informática y cofundador del Instituto Berryville de Aprendizaje Automático.

El profesor de la Universidad de Nueva York y ex director de seguridad de AT&T, Edward Amoroso, dijo que si bien el uso de la IA y los modelos en lenguaje grande puede no representar una amenaza inmediatamente obvia, “con el tiempo se convertirán en una de las armas más poderosas en la ofensiva militar de cada estado-nación”.

(Con información AP)

Guardar