Estados Unidos regula los automóviles, la radio y la televisión; ¿cuándo lo hará con la IA?

Reportajes Especiales - Business

Guardar

A medida que aparecen sistemas de inteligencia artificial, cada vez más sofisticados, con el potencial de reconfigurar la sociedad, muchos expertos, legisladores e incluso ejecutivos de las principales empresas de inteligencia artificial quieren que el gobierno de Estados Unidos regule la tecnología y con rapidez.

“Debemos tomar decisiones pronto”, dijo en mayo Brad Smith, presidente de Microsoft, que este año lanzó una versión de su motor de búsqueda impulsada por inteligencia artificial. “No podemos retrasarnos, no hay tiempo que perder”, ha dicho Chuck Schumer, líder de la mayoría del Senado. “Hay que adelantarse a esto”, dijo el senador Mike Rounds, senador republicano por Dakota del Sur.

Sin embargo, la historia indica que quizás no se produzca una regulación federal integral de los sistemas avanzados de IA pronto. Es habitual que el Congreso y las agencias federales tarden décadas en promulgar normas que rijan las tecnologías revolucionarias, desde la electricidad hasta los automóviles. “El patrón general es que la regulación lleva un tiempo”, dijo Matthew Mittelsteadt, tecnólogo que estudia la IA en el Centro Mercatus de la Universidad George Mason.

En el siglo XIX, el Congreso tardó más de 50 años, después de la introducción del primer tren público propulsado por vapor, para darle al gobierno el poder de establecer reglas de precios en los ferrocarriles, la primera industria estadounidense sujeta a regulación federal. En el siglo XX, la burocracia se expandió con lentitud para regular la radio, la televisión y otras tecnologías. Y en el siglo XXI, los legisladores han tenido dificultades para salvaguardar la privacidad de los datos digitales.

Es posible que los formuladores de políticas subviertan la historia. Los miembros del Congreso han trabajado intensamente en los últimos meses para comprender e imaginar maneras de regular la IA, han celebrado audiencias y se han reunido en privado con líderes y expertos de la industria. El mes pasado, el presidente Joe Biden anunció salvaguardias voluntarias acordadas por siete empresas líderes en inteligencia artificial.

Pero la IA también presenta desafíos que podrían hacer que su regulación sea aún más difícil (y más lenta) que las tecnologías anteriores.

Los obstáculos

Para regular una nueva tecnología, Washington primero tiene que intentar comprenderla. “Necesitamos ponernos al día con mucha rapidez”, dijo en un comunicado Martin Heinrich, senador demócrata por Nuevo México, miembro de un grupo de trabajo bipartidista sobre IA.

Por lo general, eso sucede más rápido cuando las nuevas tecnologías se parecen a las más antiguas. El Congreso creó la Comisión Federal de Comunicaciones (FCC, por su sigla en inglés) en 1934, cuando la televisión aún era una industria incipiente, y la comisión la reguló basándose en normas anteriores para la radio y los teléfonos.

Pero algunos defensores de la regulación argumentan que la IA combina el potencial para invadir la privacidad, desinformar, discriminar en la contratación, perturbar la actividad laboral, infringir los derechos de autor, manipular elecciones y que gobiernos hostiles la conviertan en un arma en maneras que no tienen precedentes. Esto se suma a los temores de algunos expertos en inteligencia artificial de que una máquina superinteligente algún día podría acabar con la humanidad.

Si bien muchos quieren que se tomen decisiones con rapidez, es difícil regular una tecnología que evoluciona tan rápidamente como la IA. “No tengo idea de dónde estaremos dentro de dos años”, dijo Dewey Murdick, quien dirige el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.

La regulación también significa minimizar los riesgos potenciales y al mismo tiempo aprovechar los posibles beneficios, que en el caso de la IA pueden ir desde redactar correos electrónicos hasta hacer avanzar la medicina. Es un equilibrio difícil de lograr con una nueva tecnología. “A menudo, los beneficios simplemente no se anticipan”, dijo Susan Dudley, directora del Centro de Estudios Regulatorios de la Universidad George Washington. “Y, por supuesto, los riesgos también pueden ser imprevistos”.

La sobrerregulación puede sofocar la innovación, añadió Dudley, e impulsar a las industrias en el extranjero. También puede convertirse en un medio para que las empresas más grandes con recursos puedan presionar al Congreso para eliminar a los competidores menos establecidos.

La historia nos dice que la regulación suele ocurrir gradualmente a medida que mejora una tecnología o crece una industria, como ocurre con los automóviles y la televisión. A veces esto sucede sólo después de una tragedia. En 1906, cuando el Congreso aprobó la ley que condujo a la creación de la Administración de Alimentos y Medicamentos (FDA, por su sigla en inglés), no requería estudios de seguridad antes de que las empresas comercializaran nuevos medicamentos. En 1937, una versión líquida venenosa y no probada de sulfanilamida, destinada a tratar infecciones bacterianas, mató a más de 100 personas en 15 estados. Al año siguiente, el Congreso reforzó los poderes regulatorios de la FDA.

“En términos generales, el Congreso es una institución más reactiva”, dijo Jonathan Lewallen, politólogo de la Universidad de Tampa. Los contraejemplos tienden a involucrar tecnologías que el gobierno efectivamente construyó por sí mismo, como el desarrollo de la energía nuclear, que el Congreso reguló en 1946, un año después de que se detonaran las primeras bombas atómicas.

“Antes de intentar regular, tenemos que entender la razón de la regulación”, dijo Jay Obernolte, congresista republicano por California, que tiene una maestría en IA. “Sólo cuando se comprende ese propósito se puede diseñar un marco regulatorio que lo logre”.

Fuga de cerebros

Sin embargo, los legisladores aseguran que están logrando avances. “De hecho, me han impresionado mucho las iniciativas de mis colegas por educarse”, dijo Obernolte. “Las cosas se están moviendo, según los estándares del Congreso, extremadamente rápido”.

En general, los defensores de la regulación están de acuerdo. “El Congreso se está tomando el tema muy en serio”, dijo Camille Carlton del Center for Humane Technology, una organización sin fines de lucro que se reúne periódicamente con legisladores.

Si surgiera una regulación federal para la IA, ¿cómo sería?

Algunos expertos dicen que varias de las agencias federales ya tienen poderes regulatorios que cubren aspectos de la IA. La Comisión Federal de Comercio podría utilizar sus poderes antimonopolio existentes para evitar que las empresas de IA más grandes dominen a las más pequeñas. La FDA ya autorizó cientos de dispositivos médicos compatibles con IA. Y los expertos dijeron que dichas agencias podrían emitir regulaciones graduales y específicas para la IA en uno o dos años.

Aun así, existen desventajas de elaborar reglas agencia por agencia. Mittelsteadt lo llamó “el problema de demasiados cocineros en la cocina, donde todos los reguladores intentan regular lo mismo”. De manera similar, los gobiernos estatales y locales a veces regulan las tecnologías antes que el gobierno federal, como ocurre con los automóviles y la privacidad digital. El resultado puede ser contradicciones para las empresas y dolores de cabeza para los tribunales.

Pero algunos aspectos de la IA quizás no entren bajo la jurisdicción de ninguna agencia federal existente, por lo que algunos defensores quieren que el Congreso cree una nueva. Una posibilidad es una agencia similar a la FDA: expertos externos probarían los modelos de IA en desarrollo y las empresas necesitarían aprobación federal antes de lanzarlos. Llamémoslo “Departamento de Información”, dijo Murdick.

Pero los expertos suponen que crear una nueva agencia llevaría tiempo, tal vez una década o más. Y no hay garantía de que funcione. La financiación miserable podría hacer que la agencia sea ineficaz. Las empresas de IA podrían afirmar que sus poderes son inconstitucionalmente demasiado amplios o los defensores de los consumidores podrían considerarlos insuficientes. El resultado podría ser una lucha judicial prolongada o incluso una motivación para desregular la industria.

En vez de una estrategia en la que exista una agencia única para todos, Obernolte prevé reglas que se irán acumulando a medida que el Congreso promulgue leyes sucesivas en los próximos años. “Sería ingenuo creer que el Congreso podrá aprobar un proyecto de ley (la Ley de IA o como quieran llamarlo) y que el problema se resolverá por completo”, dijo.

Heinrich dijo en su declaración: “Esto tendrá que ser un proceso continuo a medida que estas tecnologías evolucionen”. El mes pasado, la Cámara de Representantes y el Senado aprobaron por separado varias disposiciones sobre cómo el Departamento de Defensa debería abordar la tecnología de inteligencia artificial. Pero aún no está claro qué disposiciones se convertirán en ley y ninguna regularía a la industria en sí misma.

Samuel Altman, director ejecutivo de OpenAI, en una audiencia en el Congreso sobre inteligencia artificial en Washington, el 16 de mayo de 2023. (Haiyun Jiang/The New York Times)

Samuel Altman, director ejecutivo de OpenAI, en una audiencia en el Congreso sobre inteligencia artificial en Washington, el 16 de mayo de 2023. (Haiyun Jiang/The New York Times)

Guardar