Los deepfakes son una realidad. Recientemente, vimos como se crearon imágenes de Katty Perry y Rihanna en la Met Gala, a pesar de que ninguna de ellas fue. Contenidos de este tipo causan mucha confusión dentro los usuarios y como solución OpenAI creó una herramienta para detectar este tipo de imágenes generadas con inteligencia artificial.
Esta iniciativa surge en un momento crítico, marcado por la creciente amenaza de los deepfakes y la desinformación en línea. Con el aumento de la capacidad de las IA generativas para crear contenido cada vez más realista y persuasivo, se hace evidente la necesidad de contar con herramientas efectivas para identificar y verificar la autenticidad de dicho contenido.
Algo que se hace más crítico cuando se trata de contenido que puede engañar a los usuarios, para llevarlos a entregar dinero, persuadir su intención de voto o dar información de forma errónea sobre un tema específico, teniendo en cuenta el poder de una imagen.
Cómo es la herramienta de OpenAI
La nueva herramienta de OpenAI se basa en un clasificador avanzado capaz de identificar imágenes creadas por su popular generador de imágenes, DALL-E.
Este clasificador ha sido sometido a rigurosas pruebas que han demostrado una precisión del 98,8% en la identificación de imágenes generadas por esta inteligencia artificial. Este nivel de precisión es un punto significativo en la lucha contra la desinformación en línea y los intentos de manipulación a través de imágenes sintéticas.
El funcionamiento de la herramienta se basa en el uso de algoritmos de inteligencia artificial para analizar las características únicas de las imágenes y determinar si han sido generadas por DALL-E o no. Además, la herramienta es capaz de detectar modificaciones menores en las imágenes, como compresión, recortes o cambios en la saturación, lo que la hace aún más robusta frente a intentos de engaño.
Sin embargo, es importante tener en cuenta que la herramienta no es infalible. Aunque puede identificar con precisión las imágenes generadas por DALL-E, su eficacia en la detección de contenido generado por otras IA generativas es limitada, marcando entre un 5 % y un 10 % en su conjunto de datos interno. Por lo que no es compatible con plataformas como Midjourney o Stability.
OpenAI ha adoptado un enfoque integral para abordar el problema de la autenticidad del contenido digital. Además del desarrollo de esta herramienta de detección de imágenes, la compañía se ha unido al Comité Directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA). Esta coalición se centra en establecer estándares abiertos para certificar la autenticidad del contenido digital y compartir información sobre cómo fue creado.
La integración de metadatos del estándar C2PA en todas las imágenes creadas y editadas por DALL-E 3, el último modelo de imagen de OpenAI, es un paso crucial hacia la garantía de la autenticidad del contenido digital. Estos metadatos proporcionan información sobre la procedencia y autenticidad de las imágenes, lo que ayuda a construir confianza en su veracidad.
Además de contribuir a los estándares de autenticidad del contenido, OpenAI está desarrollando nuevas herramientas para mejorar la integridad del contenido digital. Esto incluye la implementación de marcas de agua resistentes a la manipulación en contenido como audio, así como clasificadores de detección que utilizan inteligencia artificial para evaluar la probabilidad de que el contenido provenga de modelos generativos.
La disponibilidad de estas herramientas es un paso adelante significativo en la lucha contra la desinformación en línea y la manipulación de contenido digital. OpenAI ha anunciado que está abriendo aplicaciones para acceder a su clasificador de detección de imágenes a un grupo selecto de probadores, incluidos laboratorios de investigación y organizaciones sin fines de lucro de periodismo, a través de su Programa de Acceso para Investigadores.
Esta medida permitirá una evaluación independiente de la efectividad de la herramienta y su aplicación en el mundo real.