Google extendió su prohibición de anuncios con contenido sexualmente explícito para también incluir aquellos servicios que faciliten la creación de desnudos generados por inteligencia artificial. Una postura más estricta que entrará en vigor desde el próximo 30 de mayo, con la que la gigante tecnológica estadounidense busca mantener un entorno digital seguro y respetuoso.
Además, la decisión surge en respuesta a la creciente preocupación por la pornografía deepfake no consensual, una problemática que ha visto un incremento alarmante en los últimos años. Recordemos que este tipo de contenido utiliza IA para crear o modificar imágenes sexualmente explícitas de personas sin su permiso, como ha sucedido con estrellas de la talla de Taylor Swift.
En 2023, Google eliminó más de 1,8 mil millones de anuncios por violar sus políticas sobre contenido sexual, de acuerdo con el reporte anual de seguridad de anuncios de la compañía. Un dato que resalta la magnitud del desafío que enfrenta esta compañía en su lucha contra el contenido inapropiado y la importancia de la actualización de sus políticas.
Cómo Google hará cumplir su nueva política
La empresa empleará una combinación de revisiones humanas y sistemas automatizados para hacer cumplir esta política, destacando su compromiso con la seguridad en línea y la protección de los usuarios contra contenido dañino.
Es importante aclarar que esta es una actualización de la política dentro de Google Ads y excluirá específicamente la promoción de contenido sintético que haya sido modificado o creado para incluir desnudez o ser de índole sexual.
Según comunicó el portavoz de Google, Michael Aciman, el objetivo es “prohibir explícitamente los anuncios de servicios que ofrecen crear pornografía deepfake o contenido de desnudos sintéticos”.
Asimismo, se consideró la violación de estas nuevas reglas representa una falta grave. “Nos tomamos muy en serio las violaciones de esta política y las consideramos atroces”, advirtieron desde la compañía donde hay una postura de tolerancia cero hacia los infractores.
Por qué algunas aplicaciones lograban evadir las anteriores políticas
La implementación de esta regla también pone de manifiesto cómo algunas aplicaciones que facilitan la creación de pornografía deepfake habían logrado evadir previamente las restricciones de Google. Por ejemplo, aplicaciones de intercambio de caras que, si bien no se promocionaban como sexualmente explícitas en la tienda Google Play, sí lo hacían en sitios web pornográficos.
Esta brecha en la política de anuncios había permitido que este tipo de aplicaciones proliferaran, que incluso había generado un vacío legal y moral que Google busca ahora cerrar.
El problema de la pornografía deepfake no consensual no se limita a la explotación digital adulta; ha afectado también a menores. Dos estudiantes de secundaria en Florida fueron arrestados el pasado diciembre por supuestamente crear fotos desnudas generadas por IA de compañeros de clase.
Además, un hombre de Pittsburgh de 57 años fue condenado recientemente a más de 14 años de prisión por poseer material de abuso sexual infantil generado con inteligencia artificial.
Estados Unidos también está tomando medidas
En vista de la gravedad de este asunto, el Congreso de los Estados Unidos está considerando acciones legislativas. El mes pasado, tanto la Cámara de Representantes como el Senado presentaron el Acta DEFIANCE, que establecería un proceso a través del cual las víctimas de “falsificaciones digitales” podrían demandar a aquellos que hacen o distribuyen deepfakes no consensuados de ellas.
Este esfuerzo legislativo, junto con la iniciativa de Google, demuestra un creciente reconocimiento y acción contra los peligros que representa la tecnología deepfake cuando se utiliza de manera inapropiada.
Además, refleja una creciente preocupación por el impacto ético y social de las tecnologías de inteligencia artificial, especialmente en lo que respecta a la creación y distribución de contenido falso o engañoso que pueda afectar la dignidad de las personas.