El presidente estadounidense Joe Biden anunció el viernes que el compromiso alcanzado por Amazon, Google, Meta, Microsoft y otras compañías que lideran el desarrollo de tecnología de inteligencia artificial para cumplir con una serie de medidas de seguridad de IA negociadas por su gobierno es un paso importante para manejar la “enorme” promesa y riesgos que plantea la tecnología.
Biden dijo que su gobierno ha obtenido compromisos voluntarios de siete empresas estadounidenses para garantizar que sus productos de IA sean seguros antes de lanzarlos. Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA, aunque no se detalla quién auditará la tecnología o responsabilizará a las empresas.
“Debemos ser lúcidos y estar atentos a las amenazas que puedan plantear las tecnologías emergentes”, declaró Biden, que añadió que las empresas tienen la “obligación fundamental” de garantizar la seguridad de sus productos.
“Las redes sociales nos han mostrado el daño que puede hacer una tecnología poderosa sin las medidas de seguridad adecuadas”, añadió Biden. “Estos compromisos son un paso prometedor, pero tenemos mucho más trabajo por hacer juntos”.
El aumento de la inversión comercial en herramientas de IA generativa capaces de escribir textos convincentemente similares a los de los humanos y producir nuevas imágenes y otros medios ha despertado la fascinación de algunos, pero también preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.
Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a llevar a cabo pruebas de seguridad “realizadas en parte por expertos independientes” para protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, indicó la Casa Blanca en un comunicado.
En esas pruebas también se examinarán los posibles daños sociales, como los prejuicios y la discriminación, y peligros más teóricos sobre sistemas avanzados de IA que podrían hacerse con el control de sistemas físicos o “autorreplicarse” haciendo copias de sí mismos.
Las empresas también se han comprometido con los métodos para reportar las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, conocidas como deepfake —imágenes manipuladas digitalmente.
También informarán públicamente sobre fallas y riesgos en su tecnología, incluyendo los efectos sobre la equidad y el sesgo, de acuerdo con la Casa Blanca.
Los compromisos voluntarios pretenden ser una forma inmediata de abordar riesgos antes de un impulso a largo plazo para lograr que el Congreso estadounidense apruebe leyes que regulen la tecnología. Los ejecutivos de las compañías planean reunirse con Biden en la Casa Blanca el viernes para comprometerse a cumplir las normas.
Algunos defensores de las regulaciones de IA afirman que la medida de Biden es un comienzo, pero se necesita hacer más para responsabilizar a las empresas y sus productos.
“No basta con una deliberación a puerta cerrada con las empresas que dé lugar a salvaguardias voluntarias”, señaló Amba Kak, directora ejecutiva del AI Now Institute. “Necesitamos una deliberación pública mucho más amplia, y eso va a plantear cuestiones que las empresas casi con toda seguridad no se comprometerán voluntariamente porque conduciría a resultados sustancialmente diferentes, que podrían afectar más directamente a sus modelos de negocio”.
El líder de la mayoría en el Senado, Chuck Schumer, demócrata por Nueva York, ha anunciado que presentará una propuesta de ley que regule la IA. Afirmó en un comunicado que colaborará estrechamente con el gobierno de Biden “y nuestros colegas bipartidistas” para desarrollar las promesas realizadas el viernes.
Varios ejecutivos del sector tecnológico han pedido una regulación, y varios acudieron a la Casa Blanca en mayo para hablar con Biden, la vicepresidenta Kamala Harris y otros funcionarios.
El presidente de Microsoft, Brad Smith, dijo en una publicación de blog el viernes que su empresa está haciendo algunos compromisos que van más allá de la promesa de la Casa Blanca, incluido el apoyo a la regulación que crearía un “régimen de licencias para modelos de alta capacidad”.
Pero a algunos expertos y competidores emergentes les preocupa que el tipo de regulación que se propone podría ser una bendición para los pioneros con mucho dinero liderados por OpenAI, Google y Microsoft, ya que compañías más pequeñas se ven desplazadas por el alto costo de hacer que sus sistemas de IA sean conocidos como modelos de lenguaje que se adhieran a las restricciones regulatorias.
(Con información de AP)
Seguir leyendo: