Meta, la empresa matriz de redes sociales como Facebook e Instagram, comenzará a implementar cambios en su política respecto al contenido generado o manipulado por Inteligencia Artificial, los cuales incluyen la introducción de etiquetas específicas para identificar videos, audios e imágenes generados por IA en estas plataformas.
La implementación de estas actualizaciones comenzará en mayo de 2024, y a partir de julio próximo, ya no se eliminarán aquellos contenidos generados por IA que no violen las políticas de la compañía.
Con estas medidas, la compañía de Mark Zuckerberg buscará dar respuesta al incremento en el uso de la IA para generar contenido digital. Meta reconoce que la política original, enfocada principalmente en videos manipulados, es insuficiente ante el avance de la tecnología que ahora también permite generar audios y fotografías.
Cómo funcionará la nueva etiqueta
Uno de los aspectos más destacados de esta nueva estrategia es la etiqueta “Hecho con IA”, que se aplicará a los contenidos identificados como tales basándose en la detección de señales específicas en los metadatos.
Asimismo, incluye la participación de empresas como Google, OpenAI, Microsoft, Adobe y Midjourney, para facilitar a las plataformas de Meta la identificación de manera precisa si un contenido ha sido generado por IA.
La compañía también implementará otras medidas para proporcionar mayor contexto sobre el origen del contenido. Por ejemplo, si un material generado por IA representa un riesgo alto de engañar sobre un asunto de importancia, se añadirá una etiqueta más destacada para que las personas cuenten con más información y contexto al visualizarlo.
Por qué Meta toma estas medidas
Una de las razones clave detrás de estos cambios es la retroalimentación recibida por parte del Consejo Asesor de Contenido de Meta. Según Monika Bickert, vicepresidenta de Política de Contenidos en Meta, el órgano consideró que el enfoque de la empresa era demasiado restrictivo y sugirió adoptar un enfoque más amplio para abordar el contenido generado por IA.
Para la ejecutiva la decisión se basa en la evolución de la IA en los últimos años, que ahora es capaz de producir contenido realista en diversas formas, no solo en video, como se pensaba en un principio.
Incluso aseguro que “nuestro enfoque actual es demasiado limitado, ya que solo cubre los videos creados o alterados por IA que hacen parecer que una persona dice algo que no ha dicho”. Reconociendo la necesidad de adaptarse a los avances tecnológicos.
Este cambio de política marca un giro significativo en el enfoque de la compañía, que hasta ahora eliminaba este tipo de contenido basándose en directrices establecidas en 2020. Y durante el proceso de actualización, la empresa colaboró con más de 120 entidades, incluyendo académicos y organizaciones de la sociedad civil de 34 países, para recabar opiniones sobre cómo manejar este tipo de material.
Bickert también enfatizó que, a partir de julio, Meta dejará de eliminar contenido generado por IA que no infrinja las normas comunitarias de la plataforma.
En cambio, la empresa seguirá revisando estos contenidos con su red de casi 100 verificadores de datos independientes. Si un contenido es calificado como falso o alterado, se mostrará menos a las personas y se le añadirá una etiqueta superpuesta con información adicional.
A quienes afectará el cambio
Este nuevo enfoque hacia el contenido generado por IA afectará a personas, creadores, así como empresas y anunciantes, quienes deberán incluir avisos específicos en campañas que utilicen elementos visuales creados o manipulados por IA.
Adicionalmente, Meta recordó que seguirá eliminando cualquier publicación que viole sus Normas Comunitarias, independientemente de si ha sido creada por IA o humanos.
Y al evitar la eliminación de contenidos manipulados que no infrinjan otras políticas, apunta a un equilibrio entre la veracidad de la información y el derecho de los usuarios a expresarse creativamente.