Microsoft pide nuevas leyes sobre fraude de deepfakes y abuso sexual en imágenes generadas por IA

La iniciativa busca prohibir que delincuentes usen voces y fotografías generadas artificialmente para estafar, y exige que las empresas desarrollen herramientas de identificación de contenido falso

Guardar
Microsoft insta al Congreso a
Microsoft insta al Congreso a aprobar leyes contra el uso fraudulento de IA para estafas. (REUTERS/Dado Ruvic)

El gigante tecnológico Microsoft está instando al Congreso a aprobar leyes que hagan ilegal el uso de voces e imágenes generadas por IA para estafar y que requieran que las empresas de IA desarrollen tecnología para identificar imágenes falsas creadas con sus productos.

Las recomendaciones forman parte de un documento de 50 páginas que Microsoft publicó el martes, en el que expone su visión amplia de cómo los gobiernos deberían abordar la IA.

A medida que legisladores y reguladores de todo el país debaten cómo regular la IA, las compañías detrás de la nueva tecnología han lanzado una plétora de sugerencias sobre cómo creen que los políticos deberían tratar la industria.

Microsoft, acostumbrado desde hace mucho tiempo a presionar a los gobiernos en temas que afectan su negocio, ha intentado posicionarse como proactivo y útil, tratando de moldear la conversación y el resultado final de la legislación, llamando activamente a la regulación.

Pequeñas empresas tecnológicas y capitalistas de riesgo han sido escépticos de este enfoque, acusando a grandes compañías de IA como Microsoft, Google y OpenAI de intentar hacer aprobar leyes que dificulten la competencia de nuevas empresas. Los partidarios de la legislación, incluidos políticos de California que lideran el país en intentar aprobar una amplia gama de leyes sobre IA, han señalado cómo los gobiernos no regularon el uso de redes sociales a tiempo, permitiendo potencialmente que problemas como el ciberacoso y la desinformación proliferaran sin control.

“En última instancia, el peligro no es que avancemos demasiado rápido, sino que avancemos demasiado lento o no avancemos en absoluto”, escribió el presidente de Microsoft, Brad Smith, en el documento de políticas.

En el documento, Microsoft pidió un “estatuto de fraude de deepfake” que específicamente haga ilegal el uso de IA para defraudar a las personas.

La identificación de deepfakes sigue
La identificación de deepfakes sigue siendo poco confiable, dicen los expertos. (Imagen ilustrativa Infobae)

A medida que la IA generadora de voces e imágenes mejora, los estafadores ya han comenzado a usarla para hacerse pasar por familiares y tratar de que las personas les envíen dinero. Otros grupos de presión tecnológica han argumentado que las leyes antifraude existentes son suficientes para vigilar la IA y que el gobierno no necesita legislación adicional.

El año pasado, Microsoft se separó de otras empresas tecnológicas en otro tema, cuando sugirió que el gobierno debería crear una agencia independiente para regular la IA, mientras que otros dijeron que la FTC y el DOJ eran capaces de regular la IA.

Microsoft también pidió al Congreso que obligue a las empresas de IA a construir herramientas de “procedencia” en sus productos de IA.

Las imágenes y los audios de IA ya se han utilizado en propaganda y para engañar a los votantes en todo el mundo. Las empresas de IA han estado trabajando en tecnología para incrustar firmas ocultas en imágenes y videos generados por IA que pueden utilizarse para identificar si el contenido es generado por IA. Sin embargo, la detección de deepfakes es notoriamente poco confiable, y algunos expertos cuestionan si alguna vez será posible separar de manera confiable el contenido de IA de las imágenes y audios reales.

Los gobiernos estatales y el Congreso también deberían actualizar las leyes que abordan la explotación sexual infantil y la creación y distribución de imágenes íntimas de personas sin su consentimiento, dijo Microsoft. Las herramientas de IA ya se han utilizado para crear imágenes sexuales de personas en contra de su voluntad y para crear imágenes sexuales de niños.

(c) 2024 , The Washington Post

Guardar