El presidente Biden firmó recientemente una orden ejecutiva con el objetivo de controlar el desarrollo de sistemas de inteligencia artificial (IA) y su aplicación en todos los sectores de la sociedad ante los riesgos que esta nueva tecnología plantea. Según declaraciones previas del mandatario estadounidense, la IA “es la tecnología más trascendental” de la historia reciente, al tener implicaciones en todos los campos de la ciencia, la economía y la sociedad.
“Ya que los desafíos y las oportunidades de la IA son globales, vamos a mantener el progreso del liderazgo estadounidense globalmente” declaró Biden previo a la firma de la orden el pasado lunes 30 de octubre de 2023 y la calificó como la “acción más significativa” que cualquier gobierno en el mundo haya tomando frente a la IA. Sin embargo, Reality Defender, una compañía líder en la detección de deepfakes o medios manipulados por IA, ha señalado que esta medida presenta “limitaciones peligrosas”.
En entrevista con FOX News, el cofundador y director ejecutivo de Reality Defender, Ben Colman, expresó varias preocupaciones acerca de la orden ejecutiva, particularmente respecto a la marca de agua de procedencia.
La marca de agua de la inteligencia artificial es un identificador único incrustado en los datos que produce una IA, como textos o imágenes y sirve para determinar que los datos han sido generados por una determinada IA, ayudando a diferenciar estos contenidos de los creados por seres humanos. Es similar a una firma que certifica el origen de la información.
Una propuesta poco eficiente
“El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la marca de agua para etiquetar claramente el contenido generado por IA”, anunció la Casa Blanca. “Las agencias federales utilizarán estas herramientas para que a los estadounidenses les resulte más fácil saber que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo”.
De hecho, este marcado de agua de procedencia propuesto en el decreto ha sido desarrollado y promovido por algunas de las principales compañías tecnológicas, incluyendo Microsoft, Adobe, Arm e Intel. Colman expresó su preocupación por lo que denomina “un enfoque de jardín amurallado” por parte de estas empresas, ya que parece pedir confianza a los usuarios, prescindiendo de la necesidad de regulaciones externas.
Colman alertó sobre la posibilidad de que hackers y actores malintencionados, que representan una porción significativa del uso nocivo de la AI, no sigan las reglas establecidas por el gobierno y las grandes corporaciones.
“En nuestra opinión, es una especie de curita”, afirmó Colman a Fox News “Presupone que la marca de agua es perfecta y que todo el mundo, incluidos los piratas informáticos, va a seguir las normas. Es como decir que estamos construyendo grandes cerraduras para las casas que sólo admiten un determinado tipo de llave y que todos los aspirantes a delincuentes van a seguir nuestros protocolos”.
Soheil Feizi, profesor en la Universidad de Maryland, coincide con Colman. El académico mencionó a la revista Wired que los investigadores de su grupo determinaron que actualmente no existen métodos confiables de marcado de agua. Además, descubrieron que era sencillo evadir los sistemas existentes y añadir sellos falsos a contenidos no producidos por IA. Este hallazgo es respaldado por un estudio conjunto de la Universidad de California en Santa Bárbara y la Universidad Carnegie Mellon donde se comprobó que los emblemas pueden ser eliminados fácilmente mediante ataques simulados.
Puntuación probabilística
Ben Colman destaca un enfoque utilizado por la empresa Reality Defender: la puntuación probabilística. La técnica consiste en calificar el contenido en una escala de 0-99% de certeza tras analizar la capa de píxeles, el espectrograma, las formas de onda del audio y la construcción de oraciones en el texto.
De esta forma, una empresa de detección de deepfakes puede indicar a un interesado si el contenido es legítimo basándose en esa visión probabilística. Además, Colman señaló el riesgo involucrado en depender de marcas que se publicitan y tratan de convertirse en estándar, porque son, en última instancia, “hackeables”.
El experto instó a los funcionarios electos a implementar una herramienta rápida para proporcionar más información antes de que un contenido posiblemente manipulado se vuelva viral. Esta podría ser una puntuación probabilística, una casilla de verificación roja-verde, los resultados de una empresa de detección de deepfakes u otro tipo de informe.
De esta manera, el usuario final tendría conocimiento antes de decidir publicar, sobre la autenticidad de la imagen o de la información a la que tiene acceso.