Sony, Canon y Nikon revolucionan: adiós a las imágenes falsas con IA

Las empresas quieren que las fotos tomadas por sus cámaras demuestren su veracidad frente a los ‘deepfake’

A través de metadatos, las empresas quieren brindar veracidad a sus fotos. (Reuters)

Sony, Canon y Nikon dieron a conocer un acuerdo para luchar contra las imágenes falsas generadas por inteligencia artificial. Las empresas desarrollarán una tecnología de autenticación que les permita autenticar la veracidad de un contenido.

Esto será una especie de firma digital, que se integrará en las imágenes capturadas por sus cámaras. En la firma se incluirá información vital como la fecha, ubicación y otros datos relevantes al momento de la toma. Con estas herramientas serán claves verificar la autenticidad de las imágenes al momento de comprarlas con un deepfake.

Cómo será la implementación de esta tecnología

Nikon será la primera en implementar esta tecnología en sus cámaras, seguida por Sony y Canon. Las firmas digitales serán un escudo resistente a manipulaciones y será ideal para trabajos profesionales de periodismo e investigación.

Estas tres compañías ocupan cerca del 90% del mercado de cámaras digitales a nivel global, por lo que quedará cubierta una gran parte de la industria fotográfica, en un momento donde cada vez son más precisas las creaciones con inteligencia artificial.

Una de las claves de esta colaboración radica en la creación de un estándar global. Esta uniformidad busca ser fundamental para los deepfakes generados tengan menos opciones de pasarse como contenido real.

A través de metadatos, las empresas quieren brindar veracidad a sus fotos. (Sony)

La firma digital estará acompañada de una página web gratuita llamada Verify, donde será posible verificar las imágenes para encontrar este estándar y detectar si el contenido cuenta con una firma que entregue datos sobre su fecha, ubicación y otros credenciales.

Sony, en su compromiso con esta lucha, tiene previsto introducir esta tecnología en tres de sus cámaras profesionales de tipo “mirrorless” mediante una actualización de firmware para el segundo trimestre de 2024. La compañía incluso contempla la posibilidad de extender esta tecnología para incluirla en los videos.

Por su parte, Canon tiene planeando lanzar una cámara con características similares para el mismo período. La empresa también está trabajando en una tecnología para añadir firmas digitales en videos y está desarrollando una aplicación para gestionar imágenes que se puedan distinguir entre fotos capturadas por humanos y las generadas por IA.

Esta alianza se suma a los desarrollos que han realizado otras empresas de tecnología como Google, Intel e Hitachi para combatir la propagación de contenido falso.

Por ejemplo, Google creó herramientas para generar una marca de agua digital invisible para imágenes generadas por IA, mientras que Intel ha trabajado para autenticar imágenes mediante el análisis de cambios en el color de la piel. Hitachi, por su parte, está enfocado en la autenticación de identidad en línea.

A través de metadatos, las empresas quieren brindar veracidad a sus fotos. (Imagen Ilustrativa Infobae)

Cada vez se comparten más deepfakes

Según un estudio de Genevieve Oh más de 143,000 nuevos vídeos manipulados por la IA o deepfake, se compartieron en línea en 2023, un número que supera los totales de años anteriores combinados.

Los investigadores aseguran que la tecnología ha facilitado la producción y la diseminación de este tipo de contenido, incluyendo material de abuso sexual infantil generado por IA.

Las deepfakes son imágenes, videos o audios manipulados con técnicas de inteligencia artificial y aprendizaje profundo, que hacen parecer que una persona está diciendo o haciendo algo que nunca dijo o hizo. Se generan superponiendo rostros o modificando la expresión facial y vocal en grabaciones existentes, con un nivel de realismo cada vez mayor, dificultando la distinción entre lo falso y lo auténtico.

Uno de los casos recientes sucedió en noviembre pasado, cuando padres de familia y estudiantes de la escuela secundaria de Westfield en Nueva Jersey, reportaron que algunos alumnos habían utilizado inteligencia artificial para generar imágenes pornográficas deepfake de sus compañeros. El problema fue comunicado a los padres a través de un correo electrónico del director de la escuela, y escaló tanto que se dispuso una investigación por parte de las autoridades escolares y la Policía de Westfield.