
El presidente Biden firmó recientemente una orden ejecutiva con el objetivo de controlar el desarrollo de sistemas de inteligencia artificial (IA) y su aplicación en todos los sectores de la sociedad ante los riesgos que esta nueva tecnología plantea. Según declaraciones previas del mandatario estadounidense, la IA “es la tecnología más trascendental” de la historia reciente, al tener implicaciones en todos los campos de la ciencia, la economía y la sociedad.
“Ya que los desafíos y las oportunidades de la IA son globales, vamos a mantener el progreso del liderazgo estadounidense globalmente” declaró Biden previo a la firma de la orden el pasado lunes 30 de octubre de 2023 y la calificó como la “acción más significativa” que cualquier gobierno en el mundo haya tomando frente a la IA. Sin embargo, Reality Defender, una compañía líder en la detección de deepfakes o medios manipulados por IA, ha señalado que esta medida presenta “limitaciones peligrosas”.
En entrevista con FOX News, el cofundador y director ejecutivo de Reality Defender, Ben Colman, expresó varias preocupaciones acerca de la orden ejecutiva, particularmente respecto a la marca de agua de procedencia.

La marca de agua de la inteligencia artificial es un identificador único incrustado en los datos que produce una IA, como textos o imágenes y sirve para determinar que los datos han sido generados por una determinada IA, ayudando a diferenciar estos contenidos de los creados por seres humanos. Es similar a una firma que certifica el origen de la información.
Una propuesta poco eficiente
“El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la marca de agua para etiquetar claramente el contenido generado por IA”, anunció la Casa Blanca. “Las agencias federales utilizarán estas herramientas para que a los estadounidenses les resulte más fácil saber que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo”.
De hecho, este marcado de agua de procedencia propuesto en el decreto ha sido desarrollado y promovido por algunas de las principales compañías tecnológicas, incluyendo Microsoft, Adobe, Arm e Intel. Colman expresó su preocupación por lo que denomina “un enfoque de jardín amurallado” por parte de estas empresas, ya que parece pedir confianza a los usuarios, prescindiendo de la necesidad de regulaciones externas.

Colman alertó sobre la posibilidad de que hackers y actores malintencionados, que representan una porción significativa del uso nocivo de la AI, no sigan las reglas establecidas por el gobierno y las grandes corporaciones.
“En nuestra opinión, es una especie de curita”, afirmó Colman a Fox News “Presupone que la marca de agua es perfecta y que todo el mundo, incluidos los piratas informáticos, va a seguir las normas. Es como decir que estamos construyendo grandes cerraduras para las casas que sólo admiten un determinado tipo de llave y que todos los aspirantes a delincuentes van a seguir nuestros protocolos”.
Soheil Feizi, profesor en la Universidad de Maryland, coincide con Colman. El académico mencionó a la revista Wired que los investigadores de su grupo determinaron que actualmente no existen métodos confiables de marcado de agua. Además, descubrieron que era sencillo evadir los sistemas existentes y añadir sellos falsos a contenidos no producidos por IA. Este hallazgo es respaldado por un estudio conjunto de la Universidad de California en Santa Bárbara y la Universidad Carnegie Mellon donde se comprobó que los emblemas pueden ser eliminados fácilmente mediante ataques simulados.

Puntuación probabilística
Ben Colman destaca un enfoque utilizado por la empresa Reality Defender: la puntuación probabilística. La técnica consiste en calificar el contenido en una escala de 0-99% de certeza tras analizar la capa de píxeles, el espectrograma, las formas de onda del audio y la construcción de oraciones en el texto.
De esta forma, una empresa de detección de deepfakes puede indicar a un interesado si el contenido es legítimo basándose en esa visión probabilística. Además, Colman señaló el riesgo involucrado en depender de marcas que se publicitan y tratan de convertirse en estándar, porque son, en última instancia, “hackeables”.
El experto instó a los funcionarios electos a implementar una herramienta rápida para proporcionar más información antes de que un contenido posiblemente manipulado se vuelva viral. Esta podría ser una puntuación probabilística, una casilla de verificación roja-verde, los resultados de una empresa de detección de deepfakes u otro tipo de informe.
De esta manera, el usuario final tendría conocimiento antes de decidir publicar, sobre la autenticidad de la imagen o de la información a la que tiene acceso.
Últimas Noticias
Revelaron los diseños de la futura biblioteca presidencial dedicada a Donald Trump en Miami
La planificación del edificio involucra equipos especializados en diseño monumental, una ubicación emblemática frente al mar y la integración de espacios inspirados en experiencias gubernamentales previas

El Servicio Meteorológico Nacional emite advertencia por tormentas y granizo en Texas
La emisión de la alerta incluye áreas del noreste y parte del Panhandle de Oklahoma, donde se prevén posibles lluvias intensas, vientos fuertes y caída de granizo durante la tarde y noche del martes, según autoridades meteorológicas

El accidente de un autobús escolar en Tennessee dejó 2 estudiantes fallecidos, varios heridos y movilizó a toda una comunidad
Debido al siniestro que resultó en la muerte de los menores provocó reacciones de solidaridad e impulsó homenajes, mientras equipos de emergencia y personal directivo refuerzan el acompañamiento psicológico

Detuvieron a un militar por transportar una munición explosiva en su equipaje en el aeropuerto de Palm Springs
El hallazgo de un proyectil activo en la maleta de un marine activó un operativo especial y abrió una investigación penal en la terminal aérea californiana




