Esta es la función más usada de ChatGPT, según el CEO de OpenAI

Sam Altman buscará proponer una organización de países para regular la inteligencia artificial

Guardar
Las personas buscan la asistencia
Las personas buscan la asistencia de ChatGPT para resumir sus correos electrónicos. (Pexels)

ChatGPT se ha convertido en una de las inteligencias artificiales más populares del mundo y OpenAI en una compañía líder en el desarrollo de esta tecnología gracias a la variedad de usos que tiene este modelo generativo.

Sin embargo el CEO de la empresa, Sam Altman, reveló durante una entrevista con su colega Patrick Collison en YouTube que pese a la cantidad de funciones habilitadas en este software, como la generación de textos, ayuda en la escritura de código de programación, entre otras, la aplicación más común entre los usuarios es la de resumir textos de forma automática “para mantenerse al día con mensajes de correo electrónico y de Slack (la plataforma de organización y productividad)”.

Aún cuando ChatGPT utilice la comunicación por medio de mensajes de textos, Altman aseguró que ya se está desarrollando una nueva característica que permitiría iniciar conversaciones de voz con “agentes de inteligencia artificial”, programas que cumplen con tareas de manera autónoma.

A diferencia de la función regular de ChatGPT, que funciona en base a preguntas o indicaciones hechas por un usuario, estos programas no requieren de comentarios constantes o supervisión para el logro de los objetivos que se le propongan.

Sam Altman, CEO de OpenAI,
Sam Altman, CEO de OpenAI, cree que la regulación de la inteligencia artificial puede ser positiva para proteger la seguridad de los usuarios. (Steve Jennings/Getty Images for TechCrunch)

Durante la conversación, Altman también consideró que la inteligencia artificial podría ser más participativa en la toma de decisiones importantes con la idea de mejorar la vida de las personas. Según el CEO de OpenAI, se podrían utilizar estos modelos para identificar opciones de inversión en empresas e incluso apoyar en la asignación de fondos a investigaciones para la lucha contra el cáncer.

Regulación de la inteligencia artificial

Altman no ha ocultado su interés y disposición para que se regule el avance de la inteligencia artificial y sus usos de modo que se pueda brindar seguridad a las personas.

Si bien algunos países como Italia y Canadá, e incluso organizaciones como el Parlamento Europeo están tomando acciones al respecto, el representante de OpenAI cree que se podría hacer más si se tiene a una organización que englobe a todos los países del mundo.

“Estoy pensando en plantear algo así como una OEA, pero para la inteligencia artificial”, afirmó. También indicó que la primera acción de esta organización ficticia sería exigir que todos los sistemas que se creen a futuro deben superar una serie de requisitos, someterse a auditorías y evaluaciones de seguridad antes de ser lanzadas al mercado.

Sam Altman, CEO de OpenAI,
Sam Altman, CEO de OpenAI, cree que la regulación de la inteligencia artificial puede ser positiva para proteger la seguridad de los usuarios. (AP Foto/Michael Dwyer)

Si bien el CEO de OpenAI aseguró en sus redes sociales y en entrevistas que considera que la inteligencia artificial debe estar en contacto con los humanos para mejorar constantemente sus pequeños errores, la idea de no hacerla disponible por motivos de seguridad no es contraria a esta premisa.

Una inteligencia artificial puede tener errores en su funcionamiento como ofrecer datos incorrectos y esto puede solucionarse una vez que se ha detectado el fallo, pero un fallo de seguridad puede comprometer la información de un usuario y eso puede prevenirse si se identifica antes de que un modelo esté disponible para el público.

Para Altman, es bueno que más personas se animen a hablar sobre el problema, aunque considera que esto es insuficiente si no se pasa a la acción. “Hay gente preocupada y hace trabajo técnico al respecto. Necesitamos más gente así”, indicó.

Guardar