Microsoft propone cinco acciones mundiales para regular la inteligencia artificial

Brad Smith, presidente de la empresa, asegura que las IA deberían tener “frenos de emergencia” para ralentizar su desarrollo o detenerlo por completo, si es necesario

Guardar
Según Brad Smith, la inteligencia
Según Brad Smith, la inteligencia artificial debe incluir un "freno de emergencia" que permita ralentizar su avance o detenerlo por completo de ser necesario. (REUTERS/Dado Ruvic)

Brand Smith, presidente de Microsoft, propuso cinco puntos que podrían mejorar el uso que se le da a las inteligencias artificiales en la actualidad, desde el punto de vista del usuario hasta los gobiernos.

De hecho, ese es un debate mundial porque se desconocen las consecuencias que podría tener su aplicación en el desarrollo de la comunidad.

La regulación de esta tecnología es uno de los puntos a tratar y diversas compañías y personalidades se han mostrado a favor de estas medidas como Sam Altman, fundador de OpenAI y creador de modelos como ChatGPT, GPT-3.5 y GPT-4.

Regulación de los gobiernos sobre la seguridad de la inteligencia artificial

Según Smith, es posible utilizar un marco de gestión de riesgos para las inteligencias artificiales en todos los gobiernos para mejorar la capacidad de respuestas ante posibles peligros que puedan surgir.

La inteligencia artificial puede utilizarse
La inteligencia artificial puede utilizarse para aumentar la calidad de las repuestas ante peligros generados por el desarrollo de las IA. (AFP)

Microsoft asegura haber utilizado equipos de prevención de riesgos de ciberseguridad para identificar el potencial dañino que tiene una inteligencia artificial, por lo que está dispuesto a trabajar con otros líderes en la industria del desarrollo de inteligencia artificial para elevar los estándares de protección para el futuro.

Exigir “frenos de seguridad” para sistemas de IA que controlan infraestructura crítica

“Inventores han concluido que la mejor forma de avanzar es condensar el poder de la nueva tecnología dominándola”, indicó Smith durante su conferencia de prensa. En la que añadió que en el caso de la inteligencia artificial no hay diferencia. Para el ejecutivo, es necesario que estos avances puedan tener instalado un “sistema de seguridad efectivo”.

El objetivo de esta función es que las personas puedan utilizarlo en caso de que sea necesario alguna vez o que se necesite ralentizar o pausar del todo este avance aún si esto no significa que habrá un riesgo potencial.

Microsoft asegura que son los gobiernos los que deben establecer los estándares de seguridad que considere necesarios, establecer un método para detectar los riesgos a tiempo y tener la capacidad para activar el “freno” cuando se perciba algún riesgo.

Según Brad Smith, la inteligencia
Según Brad Smith, la inteligencia artificial debe incluir un "freno de emergencia" que permita ralentizar su avance o detenerlo por completo de ser necesario. (Freepik)

Desarrollar un marco legal y regulatorio

Para el representante de Microsoft, se debe establecer una norma que se pueda aplicar a nuevos modelos generativos de inteligencia artificial para que las organizaciones que las fabrican tengan ciertas responsabilidades referentes a distintas etapas de desarrollo de la IA.

Una de las propuestas que incluye es la posibilidad que la inteligencia artificial pueda establecer etiquetas cuando genere archivos de fotos o videos, de modo que cualquier persona sepa que el contenido que está viendo fue creado por una IA, además de identificar la generación de contenido “deep fake” que podría ser utilizado para difundir información falsa.

Promover la transparencia y ofrecer acceso académico sin fines de lucro

La empresa también aseguró que se compromete a establecer principios de transparencia con respecto al uso de sus herramientas de inteligencia artificial, pues considera que es ideal un software de este tipo pueda serlo de forma responsable.

“Es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro”, afirmó Smith, quien además aseguró que su compañía adoptó una guía ética desde el año 2018 y que facilitará el acceso transparente a la información cuando interactúen con un modelo de inteligencia artificial.

Microsoft considera que la inteligencia
Microsoft considera que la inteligencia artificial debería estar abierta para ser usada durante la investigación académica. (Freepik)

La propuesta de Microsoft también incluye el establecimiento de un registro público de sistemas de inteligencia artificial de alto riesgo que pueda ser visitado por todos los usuarios libremente con la intención de hacerles saber qué medidas se están tomando para proteger su seguridad.

Usar las IA como herramientas para abordar desafíos sociales

“Creemos que es una gran oportunidad para atraer al público y al sector privado usando herramientas de inteligencia artificial”, aseguró Smith, quien además aseguró que es necesario centrarse en problemas específicos que la inteligencia artificial puede ayudar a resolver, sobre todo si se trata de amenazas.

Smith aseguró que es importante que la inteligencia artificial pueda ser utilizada para proteger a la democracia, los derechos fundamentales y ayudar a avanzar hacia la sostenibilidad en el planeta.

Guardar