Google te ayudará en las búsquedas detectando las imágenes creadas con IA

La empresa se alió con marcas como Amazon, Meta y OpenAI para dar más información de contexto a los usuarios

Guardar
Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Dado Ruvic/Illustration/File Photo)
Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Dado Ruvic/Illustration/File Photo)

En respuesta al creciente contenido generado por inteligencia artificial y las confusiones que se generan, Google está tomando medidas para garantizar que los usuarios tengan acceso a información clara sobre el origen y la modificación de las imágenes que encuentran en sus búsquedas.

A través de una actualización de su herramienta “Acerca de esta imagen” y su colaboración con la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), Google promete mayor transparencia al detectar imágenes creadas o manipuladas por IA.

Cómo Google detectará las imágenes con inteligencia artificial

Google se ha unido con la C2PA, un consorcio de empresas y organizaciones, incluyendo a actores clave del mercado como Amazon, Meta, OpenAI y la BBC, para desarrollar un estándar global que certifique y detecte el contenido generado por inteligencia artificial.

Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Andrew Kelly)
Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Andrew Kelly)

Este trabajo conjunto ha dado como resultado la versión 2.1 de las credenciales de contenido de C2PA, un estándar diseñado para aumentar la seguridad y evitar manipulaciones en los metadatos que documentan la procedencia de imágenes, videos y audios.

Las credenciales de contenido permiten identificar si un archivo digital fue creado por una cámara, editado con software o generado completamente por inteligencia artificial.

Google ha integrado las credenciales de contenido de C2PA en productos clave, como Google Search y próximamente en Google Ads. Esto significa que cuando los usuarios realicen una búsqueda de imágenes, podrán acceder a información detallada sobre el origen de las mismas. La función “Acerca de esta imagen”, que ya está disponible en Google, se actualizará para ofrecer datos sobre si una imagen ha sido generada o modificada por herramientas de IA.

El proceso es simple: al hacer clic en los tres puntos verticales que aparecen sobre una imagen en los resultados de búsqueda, los usuarios podrán ver la opción “Acerca de esta imagen”. Si el contenido tiene metadatos de C2PA, se mostrará información sobre el dispositivo o software utilizado para capturar o modificar la imagen.

Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Annegret Hilse/File Photo)
Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Annegret Hilse/File Photo)

Por ejemplo, si los datos indican que la imagen fue tomada por un modelo específico de cámara, estos detalles serán verificados a través de una “Lista de confianza”, la cual certifica que la información es precisa.

La actualización de las credenciales de contenido no se limitará a Google Search. Según Laurie Richardson, vicepresidenta de confianza y seguridad de Google, la empresa tiene planes de expandir el uso de estas señales de autenticidad a otros productos, como Google Ads.

En el futuro, la detección de imágenes generadas por IA también influirá en cómo Google aplica sus políticas publicitarias. Las señales de autenticación de C2PA podrían utilizarse para informar a los anunciantes sobre el contenido que promueven y asegurar que cumplan con las regulaciones que prohíben la desinformación.

En el ámbito de video, YouTube, también propiedad de Google, será una de las primeras plataformas en seguir los pasos de TikTok, la cual ya implementa las credenciales de contenido para marcar automáticamente los videos que han sido generados por IA. Con esta integración, los usuarios de YouTube podrán obtener información sobre si el contenido que ven ha sido capturado por una cámara o creado artificialmente por software de generación de imágenes.

Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Dado Ruvic/Illustration/File Photo)
Google quiere evitar que los usuarios se confundan con imágenes falsas o deepfakes. (REUTERS/Dado Ruvic/Illustration/File Photo)

El esfuerzo de Google por etiquetar contenido generado por IA forma parte de una estrategia más amplia para combatir la desinformación en internet. En 2023, la empresa lanzó SynthID, una herramienta de marca de agua digital desarrollada por Google DeepMind.

Esta herramienta permite detectar y rastrear contenido generado por IA en plataformas como Google Imagen. SynthID se basa en una tecnología de marca de agua integrada directamente en el archivo, lo que dificulta la manipulación o eliminación de los datos sobre su origen.

Guardar