Microsoft vuelve al ruedo con Sam Altman y habló de una inteligencia artificial peligrosa

El presidente de la empresa, Brad Smith, indicó que la situación del ejecutivo se debió a una “ruptura” con la Junta

Para Smith, es vital que la IA cuente con controles de seguridad efectivos en infraestructuras críticas. (David Ryder/Bloomberg)

El presidente de Microsoft, Brad Smith, se pronunció sobre los hechos ocurridos con OpenAI, cuando decidió (sin el conocimiento de los ejecutivos de la empresa fundada por Bill Gates) que despedían a Sam Altman como CEO de la compañía

Pese a que la agencia Reuters indicó que el motivo del despido de Altman de OpenAI se debió, entre otros factores, al desarrollo de una inteligencia artificial que supondría un riesgo para la humanidad, el ejecutivo de Microsoft negó esa versión y aseguró que esa no era la razón que llevó a los ejecutivos a remover al cofundador de su puesto.

“No creo que ese haya sido el caso (...) Creo que hubo una diferencia entre la junta y otros, pero no tuvo nada que ver con una preocupación de ese tipo”, indicó Smith en conversación con Reuters. Aún así, la falta de claridad con respecto a los motivos que llevaron a los ejecutivos de OpenAI a despedir a Altman se mantiene pues de momento ni Microsoft ni la compañía de inteligencia artificial se han pronunciado con una explicación.

Por otro lado, el ejecutivo de Microsoft indicó que bajo ningún concepto OpenAI está desarrollando alguna inteligencia artificial que siquiera llegue a representar una amenaza de ese nivel. “No hay absolutamente ninguna probabilidad de ver esta llamada AGI, donde las computadoras son más poderosas que las personas, en los próximos 12 meses”, aseguró.

Microsoft posee el 49% de las acciones de OpenAI. (Hipertextual)

El ejecutivo sí indicó, por ejemplo, que aún hace falta que la inteligencia artificial tenga un “freno de seguridad”. Según Smith, “debería haber interruptores de seguridad en los sistemas de IA que controlan la infraestructura crítica. De esta forma se puede asegurar que siempre permanezcan bajo control humano”, dijo a Reuters.

El debate sobre los riesgos reales que la IA podría suponer para la humanidad ha estado activo en los últimos meses, con figuras destacadas advirtiendo sobre sus potenciales peligros. El motivo oficial detras del despido de Altman sigue siendo la declaración original de la junta de OpenAI: que “no fue consistentemente franco en sus comunicaciones con la junta”.

En el caso de Satya Nadella, CEO de Microsoft, el ejecutivo decidió pronunciarse con una visión positiva luego del accidentado proceso de despido, negociaciones y posterior reincorporación de Sam Altman como CEO de OpenAI. En su cuenta oficial de X (red social antes conocida como Twitter) dedicó palabras de agradecimiento al equipo de ambas compañías para superar los problemas en los que se vieron envueltas.

“El mayor privilegio de mi trabajo es trabajar con personas impulsadas por una misión”, escribió Nadella. Además, aseguró que aún durante el periodo en el que Altman dejó OpenAI, los trabajadores de la compañía mantuvieron “la calma y la determinación de impulsar su misión a pesar de todo lo que sucedía a su alrededor”.

Satya Nadella, CEO de Microsoft, manifiestó su apoyo al equipo de OpenAI en redes sociales. (Chona Kasinger/Bloomberg)

El CEO de Microsoft no fue una figura ajena al conflicto entre la junta de ejecutivos de OpenAI y su ahora recontratado CEO, Sam Altman. Nadella, quien formaba parte del directorio, no se enteró de la decisión que habían tomado los ejecutivos pese a que la empresa que dirige posee el 49% de las acciones de la empresa de inteligencia artificial.

En un memo escrito por Kevin Scott, jefe tecnológico y vicepresidente ejecutivo de inteligencia artificial de Microsoft, y que fue dirigido a los trabajadores de la compañía, se indicó que en estos momentos ambas empresas se encuentran trabajando para “brindar la mejor tecnología de inteligencia artificial a nuestros clientes y aliados”. Además aseguró que los hechos que se produjeron durante los últimos días no deben ser motivo de distracción.