2024: un punto de inflexión en la era de la inteligencia artificial

La IA sigue su expansión vertiginosa, destacando especialmente en campos como el aprendizaje automático, la robótica y el procesamiento de lenguaje natural

Un año cargado de enfoques regulatorios para la IA. (Imagen ilustrativa Infobae)

¿Qué viene para el futuro de la IA? En este año 2024, nos encontramos ante un punto de inflexión en el desarrollo de la inteligencia artificial, que no solo está transformando rápidamente nuestras tecnologías, sino también reconfigurando las sociedades, economías, culturas y estructuras laborales a nivel global. El desafío para los reguladores es encontrar un equilibrio delicado entre poner freno a los riesgos y fomentar la innovación tecnológica.

Crecimiento y Tendencias de la IA en 2024

A medida que avanzamos en 2024, la inteligencia artificial sigue su expansión vertiginosa, destacando especialmente en campos como el aprendizaje automático, la robótica y el procesamiento de lenguaje natural. Estas tecnologías no solo están alcanzando niveles superiores de eficiencia, sino que también se están volviendo más accesibles y aplicables a una amplia gama de usos. Desde su integración en dispositivos personales, con ejemplos como ChatGPT, Copilot, Gemini, Mistral y Llama3, reciente lanzamiento de la empresa Meta, hasta sus aplicaciones en la educación, en el sector médico, y hasta en el ámbito de la cultura y las artes, los medios de comunicación y el entretenimiento, la IA ha personalizado la experiencia del usuario creando contenido nuevo que antes era impensable sin la intervención humana. En términos generales, la utilización de la IA está remodelando la economía global, e impulsando ventajas competitivas significativas para las empresas que adoptan rápidamente la tecnología. Este cambio ha generado un debate intenso sobre la necesidad de políticas que promuevan una transición justa que permita a los humanos adaptarse a los cambios.

Desafíos Regulatorios

Una de las cuestiones más complejas que enfrentan los gobiernos es cómo regular la IA de manera efectiva. Por un lado, existe la necesidad de implementar normativas que protejan la privacidad de los individuos y mitiguen los riesgos por la utilización de la IA, pero por el otro lado, se busca evitar regulaciones demasiado estrictas que podrían sofocar la innovación y el desarrollo económico. Un ejemplo de esto es la reciente regulación de la inteligencia artificial propuesta por el Parlamento Europeo, cuyo texto original data del 2021 y cuya primera lectura tuvo lugar el 13 de marzo del 2024, con corrección de errores el 16 de abril del 2024. Esta regulación establece normas armonizadas en materia de inteligencia artificial para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial en la Unión Europea.

Su finalidad es promover la adopción de una inteligencia artificial centrada en el ser humano, fiable, que garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales, incluidos la democracia, el estado de derecho y la protección del medio ambiente. La regulación de la UE, clasifica la IA en función de su riesgo y se propone proteger a las personas de los efectos perjudiciales de los sistemas de IA, al mismo tiempo que brinda apoyo a la innovación. Además, se prohíben los sistemas de puntuación social o la IA manipuladora, catalogados como riesgo inaceptables.

El texto aborda los sistemas de IA de alto riesgo y los sistemas de IA de riesgo limitado, sujetos a obligaciones de transparencia, en tanto se deberá garantizar que los usuarios sean conscientes de que están interactuando con IA. Sin embargo, y en atención a la innovación, la ley no regula el riesgo mínimo, que está expresado en la mayoría de las aplicaciones de IA, como los videojuegos. Por otro lado los proveedores de modelos de IA de propósito general deben cumplir la directiva sobre derechos de autor y publicar un resumen sobre los contenidos utilizados para la formación.

El 2024 parece ser un año cargado de enfoques regulatorios para la IA. En Estados Unidos, la IA ha entrado en el debate político, culminando con la orden ejecutiva 14110 del presidente Biden el 30 de octubre del 2023, para el desarrollo y uso seguro, confiable y digno de la inteligencia artificial. Entre sus propósitos, se destaca que “el uso responsable de la IA tiene el potencial de ayudar a resolver desafíos

urgentes mientras hace nuestro mundo más próspero, productivo, innovador y seguro. Al mismo tiempo, un uso irresponsable podría exacerbar daños sociales como fraude, discriminación, sesgos y desinformación”.

En línea con estas iniciativas, tanto China como Brasil están adaptando sus propias legislaciones de IA, reflejando un interés global en establecer marcos regulatorios robustos para esta tecnología.

Sin embargo, surge la pregunta de si es posible regular una tecnología que evoluciona constantemente y crece a un ritmo acelerado, ya que las normativas deberán estar en constante actualización para no quedar obsoletas rápidamente. Este es un desafío adicional que los gobiernos deberán enfrentar en la regulación de la IA.