
Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación.
Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos.
Prohibir que los usuarios accedan a información potencialmente dañina sobre fabricación de armas, generación de imágenes pornográficas con inteligencia artificial, falsificación de videos con tecnología de deepfake, entre otros usos, han sido prohibidos por las plataformas. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos, muchos de ellos con acceso gratuito.
Según Sam Altman, CEO de la compañía OpenAI, que desarrolló los modelos generativos de ChatGPT, GPT-3 y GPT-4, es necesario este proceso para el desarrollo de las inteligencias artificiales.
“Necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. la regulación será crítica y llevará tiempo resolverla”, publicó en su cuenta oficial de Twitter.
Le puede interesar: Papa Francisco: cómo usaron inteligencia artificial para crear estas fotos virales del Pontífice
Algunos primeros pasos en esta dirección están siendo definidos esde el año 2021, cuando la Unión Europea, por medio de su Comisión (encargada de emitir leyes que rigen en los territorios miembros), elaboró una propuesta regulatoria para este tipo de softwares.

Según la Comisión Europea, la regulación de esta tecnología es necesaria para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos. Todo esto con la intención de mejorar la calidad de los servicios y evitar que se perjudique a la sociedad de alguna forma.
La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.
Le puede interesar: Microsoft lanza “Create”, una herramienta para crear imágenes con inteligencia artificial
Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.

Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.
En el caso de Estados Unidos, organizaciones como Data & Society indicaron por medio de su directora ejecutiva, Janet Haven, que “necesitamos regular esto, necesitamos leyes (...)”. Según la vocera de la institución de investigación norteamericana, no es algo bueno que las compañías generen este tipo de sistemas de forma tan libre.
Le puede interesar: Bill Gates cree que cualquier inteligencia artificial se puede salir de control
Para Haven, “la idea de que las compañías de tecnología puedan construir lo que quieran y liberarlo al mercado mientras que la sociedad lucha para acostumbrarse y utilizarla es hacer las cosas al revés”.

Sin embargo, Sam Altman, quien está a favor de la regulación de este tipo de software, no coincide en la afirmación realizada por Haven. Según él, la mejor decisión es crear nuevos sistemas de inteligencia artificial y lanzarlos al mercado para que pueda aprender y se corrijan los errores que se puedan cometer mientras son más pequeños y no hacen daño a las personas.
“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman en una entrevista con el medio estadounidense ABC News.
Últimas Noticias
Estados Unidos apuesta por la inteligencia artificial en las aulas, marcando un nuevo rumbo en la política educativa
La orden ejecutiva recién firmada por Donald Trump establece un plan ambicioso para incorporar la inteligencia artificial a la formación escolar, abriendo interrogantes sobre el acceso, la equidad y la implementación real en el sistema educativo

Conoce los mejores secretos de Google para tener el mejor SEO o posicionamiento en buscadores: guía para principiantes
Repetir palabras clave en exceso, ignorar los enlaces internos o descuidar la redacción son errores comunes que pueden afectar negativamente el desempeño SEO de una página

Apple mejora los AirPods: estas son las dos nuevas funciones para la grabación de audio y la calidad en llamadas
Fueron anunciadas en WWDC 2026 y estarán disponibles solo para tres modelos de estos audífonos

Administra servidores desde tu PC: aprende a instalar RSAT en Windows 11 paso a paso
Mejora la seguridad y productividad de tu equipo. La gestión remota con RSAT reduce riesgos y optimiza el tiempo de los administradores de sistemas

Meta apuesta por la superinteligencia: el nuevo laboratorio de Mark Zuckerberg busca superar la mente humana con inteligencia artificial
La compañía ha iniciado una reestructuración interna y un reclutamiento sin precedentes para crear un equipo de élite que desarrolle sistemas de inteligencia artificial capaces de realizar tareas más allá de las capacidades humanas
