Artistas crean una herramienta especial para envenenar la IA

Cansados de que usaran sus obras para entrenar los modelos, inventaron un programan que las modifica ligeramente

Guardar

Nuevo

Nightshade permite que los artistas ajusten algunos píxeles de sus creaciones. (STEPHANIE ARNETT/MITTR | MUSEO REIJKS, ENVATO)
Nightshade permite que los artistas ajusten algunos píxeles de sus creaciones. (STEPHANIE ARNETT/MITTR | MUSEO REIJKS, ENVATO)

La capacidad de la inteligencia artificial para producir pinturas, crear imágenes que representen cualquier objeto o imitar diversos estilos artísticos es sorprendete. Dicho proceso de generación implica el entrenamiento de la IA mediante el uso de obras de arte reales, muchas de las cuales son creadas por artistas sin recibir compensación.

En respuesta a esta situación, los artistas están mostrando resistencia frente a la IA y están a punto de tener acceso a una herramienta para contrarrestarla: Nightshade.

Qué significa envenenar las obras

Una imagen generada por DALL-E 3, herramienta de inteligencia artificial de OpenAI. (Open AI)
Una imagen generada por DALL-E 3, herramienta de inteligencia artificial de OpenAI. (Open AI)

Ben Zhao, profesor de la Universidad de Chicago, quien dirigió el equipo que creó Nightshade, le dijo al portal de reseñas del MIT que le objetivo del programa es que “ayude a inclinar el equilibrio de poder de las empresas de inteligencia artificial hacia los artistas” al implementar una función disuasorio contra las faltas a los derechos de autor e intelectuales de los creadores.

El hecho conocido como envenenamiento que realiza Nightshade consiste en agregar cambios invisibles a los píxeles del arte antes de subirlo en línea, de modo que si se incluye en un conjunto de entrenamiento de IA, puede causar que el modelo de lenguaje genere una respuesta incongruente.

Esto sucede debido a que en el proceso de preparación de datos de los modelos de lenguaje, es posible que se cometan errores en la eliminación de contenido problemático. Si el contenido sesgado no se filtra adecuadamente, la IA podría aprender de esos errores, resultando en un envenenamiento.

Nightshade aprovecha que los modelos de lenguaje están entrenados con grandes cantidades de datos (en este caso, imágenes extraídas de Internet).

Uso de los artistas

Los investigadores buscan integrar Nightshade con Glaze. (The Glaze Project)
Los investigadores buscan integrar Nightshade con Glaze. (The Glaze Project)

El equipo de Zhao ha desarrollado una herramienta llamada Glaze, que permite a los artistas “enmascarar” su estilo personal para evitar que las empresas de inteligencia artificial lo supriman.

Esta herramienta opera de manera similar a Nightshade, realizando cambios sutiles en los píxeles de las imágenes que son imperceptibles para el ojo humano pero que engañan a los modelos de aprendizaje automático, haciendo que interpreten la imagen de una manera diferente a lo que realmente muestra.

El equipo tiene planes de incorporar Nightshade en Glaze, brindando a los artistas la opción de utilizar la herramienta de envenenamiento de datos según su preferencia. Además, están trabajando para hacer que Nightshade sea de código abierto, lo que permitirá a otros usuarios experimentar con ella y desarrollar sus propias variantes.

Zhao enfatiza que cuanto más extensa sea la adopción de la herramienta y la creación de versiones personalizadas por parte de la comunidad, más potente se volverá la herramienta en su capacidad para proteger la expresión artística y preservar el estilo personal de los creadores, ayudándolos a evitar la supresión o la manipulación no deseada de sus obras por parte de algoritmos de inteligencia artificial.

Las imágenes envenenadas producen errores en las respuestas generadas por una IA. (The Glaze Project)
Las imágenes envenenadas producen errores en las respuestas generadas por una IA. (The Glaze Project)

Los artistas que deseen compartir su trabajo en línea sin que las empresas de inteligencia artificial censuren sus imágenes pueden utilizar Glaze para enmascarar sus obras con un estilo artístico diferente al suyo. Además, tienen la opción de emplear Nightshade.

En esencia, estas herramientas permiten a los artistas proteger su expresión artística y mantener su estilo, mientras que al mismo tiempo introducen un elemento de confusión en los datos utilizados por los modelos de inteligencia artificial, evitando que las obras sean suprimidas o malinterpretadas por dichos modelos.

Ensayos de envenenamiento

Los investigadores llevaron a cabo pruebas de este ataque en los modelos de Stable Diffusion más recientes y en un modelo de inteligencia artificial que construyeron desde cero.

Cuando proporcionaron a Stable Diffusion solamente 50 imágenes de perros que habían sido envenenadas y luego solicitaron que generara imágenes de este mismo animal, los resultados comenzaron a mostrar anomalías notables, como criaturas con varias extremidades y rasgos faciales caricaturescos.

El equipo de investigadores creo su propia IA para probar las herramientas de envenenamiento. (The Glaze Project)
El equipo de investigadores creo su propia IA para probar las herramientas de envenenamiento. (The Glaze Project)

El ataque de veneno también funciona con imágenes relacionadas tangencialmente. Por ejemplo, si el modelo extrajo una imagen envenenada para el mensaje “arte de fantasía”, los mensajes “dragón” y “un castillo en El Señor de los Anillos” serían manipulados de manera similar para convertirlos en otra cosa.

Zhao admite que existe el riesgo de que las personas abusen de la técnica de envenenamiento de datos para usos maliciosos. Sin embargo, dice que los atacantes necesitarían miles de muestras envenenadas para infligir un daño real a modelos más grandes y potentes, ya que están entrenados con miles de millones de muestras de datos.

Guardar

Nuevo