Gobiernos intentan establecer regulaciones para la inteligencia artificial

La Comisión Europea considera que cada uno de los software que sean lanzados al mercado pasen por una evaluación previa para minimizar sus posibles riesgos

Guardar
La Comisión Europea considera la calificación de las inteligencias artificiales según el nivel de riesgo potencial que suponen para la sociedad.
La Comisión Europea considera la calificación de las inteligencias artificiales según el nivel de riesgo potencial que suponen para la sociedad.

Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación.

Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos.

Prohibir que los usuarios accedan a información potencialmente dañina sobre fabricación de armas, generación de imágenes pornográficas con inteligencia artificial, falsificación de videos con tecnología de deepfake, entre otros usos, han sido prohibidos por las plataformas. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos, muchos de ellos con acceso gratuito.

Según Sam Altman, CEO de la compañía OpenAI, que desarrolló los modelos generativos de ChatGPT, GPT-3 y GPT-4, es necesario este proceso para el desarrollo de las inteligencias artificiales.

“Necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. la regulación será crítica y llevará tiempo resolverla”, publicó en su cuenta oficial de Twitter.

Le puede interesar: Papa Francisco: cómo usaron inteligencia artificial para crear estas fotos virales del Pontífice

Algunos primeros pasos en esta dirección están siendo definidos esde el año 2021, cuando la Unión Europea, por medio de su Comisión (encargada de emitir leyes que rigen en los territorios miembros), elaboró una propuesta regulatoria para este tipo de softwares.

Pirámide de riesgos de las inteligencias artificiales propuesta por la Comisión Europea para legislar sobre estos programas. (Comisión Europea)
Pirámide de riesgos de las inteligencias artificiales propuesta por la Comisión Europea para legislar sobre estos programas. (Comisión Europea)

Según la Comisión Europea, la regulación de esta tecnología es necesaria para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos. Todo esto con la intención de mejorar la calidad de los servicios y evitar que se perjudique a la sociedad de alguna forma.

La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.

Le puede interesar: Microsoft lanza “Create”, una herramienta para crear imágenes con inteligencia artificial

Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.

El ciclo de vida de las inteligencias artificiales según la Comisión Europea indica que, luego de ser aprobadas y registradas, los sistemas que presenten actualizaciones o nuevas funciones deberán volver a ser evaluadas para asegurarse de que no son dañinas. (Comisión Europea)
El ciclo de vida de las inteligencias artificiales según la Comisión Europea indica que, luego de ser aprobadas y registradas, los sistemas que presenten actualizaciones o nuevas funciones deberán volver a ser evaluadas para asegurarse de que no son dañinas. (Comisión Europea)

Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.

En el caso de Estados Unidos, organizaciones como Data & Society indicaron por medio de su directora ejecutiva, Janet Haven, que “necesitamos regular esto, necesitamos leyes (...)”. Según la vocera de la institución de investigación norteamericana, no es algo bueno que las compañías generen este tipo de sistemas de forma tan libre.

Le puede interesar: Bill Gates cree que cualquier inteligencia artificial se puede salir de control

Para Haven, “la idea de que las compañías de tecnología puedan construir lo que quieran y liberarlo al mercado mientras que la sociedad lucha para acostumbrarse y utilizarla es hacer las cosas al revés”.

Sam Altman, CEO de OpenAI, considera que es mejor que las inteligencias artificiales se creen y sean lanzadas al mercado para corregir sus errores antes de que estos sean mayores y generen algos riesgos. (Steve Jennings/Getty Images)
Sam Altman, CEO de OpenAI, considera que es mejor que las inteligencias artificiales se creen y sean lanzadas al mercado para corregir sus errores antes de que estos sean mayores y generen algos riesgos. (Steve Jennings/Getty Images)

Sin embargo, Sam Altman, quien está a favor de la regulación de este tipo de software, no coincide en la afirmación realizada por Haven. Según él, la mejor decisión es crear nuevos sistemas de inteligencia artificial y lanzarlos al mercado para que pueda aprender y se corrijan los errores que se puedan cometer mientras son más pequeños y no hacen daño a las personas.

“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman en una entrevista con el medio estadounidense ABC News.

Guardar