Trabajadores de empresas de IA alertan sobre opacidad de compañías ante posibles riesgos

Guardar

Nueva York, 4 jun (EFE).- Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

OpenAI, que comenzó como un laboratorio de investigación sin fines de lucro y consiguió una enorme fama con ChatGPT en 2022, está trabajando en crear inteligencia artificial general, o A.G.I. -un programa capaz de hacer cualquier cosa que un humano pueda hacer-, según la prensa especializada.

En marzo de 2023, un grupo de empresarios del sector tecnológico, expertos y políticos solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con IA muy potente porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".

Uno de los mayores competidores de los chatbots de OpenAI -que cuenta con el respaldo de Microsoft- ahora es Google, pero hay otras compañías que también les pisan los talones, como Anthropic, empresa fundada por varios exempleados de OpenAI.

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Euoropea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Guardar