La inteligencia artificial como aspiración creativa humana nos acompaña desde el inicio de la historia y como realidad práctica alrededor de setenta años. Gisela Baños en su libro El sueño de la inteligencia artificial (2024), sostiene que la IA transitó oscuros “inviernos” y luminosos “veranos”. El primer verano de la IA (1956-1974) estuvo circunscripto al ámbito experimental, el segundo (1981-1987) abarcó el mundo profesional y empresarial, el tercero (desde 2011 hasta nuestros días) posibilitó el acceso a la IA a cualquier persona que cuente con un simple dispositivo sin tener que acudir a tecnologías de primer nivel.
La IA está en nuestras vidas desde hace un largo tiempo aunque debido a la utilización cotidiana que le damos no la tengamos presente. Es parte de una revolución industrial –la cuarta o 4.0– que presenta características únicas en la historia de la humanidad tales como el factor de aceleración y la convergencia tecnológica. Es a la vez, una “especie” creada por el ser humano para servirlo, pero que debido a su “evolución”, puede igualarlo y en algún momento superarlo en ciertas capacidades que son las que dotaron al homo sapiens de agencia y paciencia moral. Por dicho motivo, es posible afirmar que actualmente se está construyendo una ontología particular en torno a la IA (que podemos llamar “ontología digital”) entendida como una nueva forma de crear sentidos mediante el uso del lenguaje que impacta en la subjetividad humana a través de IA generativa que al producir comunicación -mediante la iteración dialógica- influye y transforma nuestras percepciones, experiencias y comprensiones del mundo.
A grandes rasgos se habla de tres clases de inteligencia artificial. La débil, la fuerte, la súper inteligente. La IA débil es aquella que está al servicio de la persona humana. La IA fuerte es aquella que iguala las capacidades de la persona humana. La IA súper inteligente es la que supera las capacidades de la persona humana. ¿En cuál situación nos encontramos actualmente? En el ámbito de la IA débil. Hasta el 2022 la mera expectativa de un acercamiento o paso mínimo hacia la IA fuerte se englobaba en una lejana visión futurista hasta que aparecieron, dentro del universo del procesamiento del lenguaje natural (PLN), los modelos de lenguaje de gran tamaño y todo cambió para siempre. Chat GPT 3.5 y Chat GPT4 (lanzado a principios de 2023) de OpenIA hicieron posible que aquello que pertenecía al cine de anticipación se convirtiera en realidad: por primera vez en la historia, el ser humano sintió que se daba el primer paso en el camino hacia una IA fuerte.
Ante una realidad imposible de negar, en el ámbito de la normatividad, se comenzó a debatir sobre la necesidad de sancionar alguna clase de regulación respecto de la IA. No solo mirando el presente, sino también, avizorando el futuro. Con una perplejidad cada vez más evidente: el derecho construido sobre la lógica del mundo analógico se torna muchas veces ineficaz para regular los desafíos emergentes del mundo digital.
La primera variable que se descartó fue la autorregulación que si bien presenta una mayor flexibilidad que permite superar los obstáculos emergentes de la creación y aplicación de las normas jurídicas y adaptarse con facilidad a la dinámica de los cambios tecnológicos, su puesta en escena presenta un gran inconveniente: al no ser la normativa obligatoria su cumplimiento se vincula exclusivamente con la buena voluntad de los agentes involucrados en el proceso de creación y despliegue de la IA.
En términos de modelos ideales regulatorios es posible distinguir tres variantes: el hiperregulado, el coevolutivo y el de contención.
El modelo hiperregulado presenta como principal característica un extremo nivel de regulación que impone controles muy estrictos y detallados sobre todos los aspectos del desarrollo y uso de la IA. Las regulaciones son exhaustivas y proactivas, buscando minimizar los riesgos potenciales antes de que puedan materializarse. Aunque puede garantizar un alto nivel de seguridad y control, también corre el riesgo de limitar la innovación y la flexibilidad tecnológica. Primero apuesta a la prohibición de la IA y luego a su desarrollo desde una extrema posición antropocéntrica.
El modelo coevolutivo propone que la regulación de la IA se desarrolle de manera conjunta con la evolución de la tecnología. Propone un marco legal adaptable y dinámico que puede ajustarse a medida que avanzan las capacidades y aplicaciones de la IA. Fomenta la colaboración entre legisladores, desarrolladores, académicos y otros actores para asegurar que las normativas se mantengan relevantes y efectivas ante el rápido progreso tecnológico. Plantea el derecho de acceder y usar IA, como así también, la potestad de coexistir socioafectivamente con una IA. Primero apuesta al desarrollo de la IA (con sus respectivos beneficios) y después establece los procedimientos de control.
El modelo de contención persigue equilibrar la prevención de riesgos y el fomento de la innovación. Propone una evaluación cuidadosa y continua de los riesgos asociados con la IA, implementando medidas de contención para prevenir daños, mientras se promueve el desarrollo de tecnologías que ofrezcan beneficios significativos. Desde el punto de vista jurídico, se caracteriza por un enfoque proactivo y flexible, que busca garantizar que el desarrollo de la IA sea responsable, seguro y beneficioso para la humanidad. Apuesta de manera sincrónica al desarrollo de la IA y a procedimientos de control basados en la contención.
Algunos ejemplos de estos modelos se pueden encontrar en la Unión Europea (hiperregulación), Canadá y Estados Unidos (contención), Singapur (coevolución). Este último es un paradigma a ser analizado debido a que siendo Singapur un país territorialmente pequeño y con escasez de recursos naturales, mediante el desarrollo de una sólida infraestructura digital y una reserva de talentos altamente calificados, se ubica a nivel mundial detrás de Estados Unidos y China; dicho modelo adoptó un enfoque sectorial que prescinde de una ley específica y de una agencia dedicada exclusivamente a la IA, utiliza marcos sectoriales y voluntarios relevantes, como así también, aplica normativa vigente en otros ámbitos tales como la protección de datos y la seguridad en línea.
Ante el comienzo de un incipiente debate en la Cámara de Diputados sobre la regulación de la IA, la ventana de oportunidades que se presenta para su desarrollo en nuestro país, hace necesario descartar cualquier alternativa que se acerque al modelo hiperregulado, y a la vez, indagar diversas alternativas normativas que –dentro del contexto argentino- naveguen entre los modelos de coevolución y contención.
Estamos en una posición ideal para convertirnos en un referente mundial de IA. Tenemos una gran posibilidad de crear un polo que atraiga inversiones, genere nuevas oportunidades de empleo y ubique a nuestro país en el mapa global de la innovación; no la desaprovechemos con normativas que, sin entender el factor de aceleración tecnológico, configuran un obstáculo más que una protección en torno al derecho al desarrollo científico y tecnológico, y especialmente, respecto del derecho de producir, desplegar, acceder y usar la inteligencia artificial.