Cuáles son las diferencias entre ChatGPT y TruthGPT, la IA de Elon Musk

El CEO de Twitter quiere que su proyecto ayude a que la humanidad no se destruya

Guardar
Para Elon Musk, "TruthGPT" no
Para Elon Musk, "TruthGPT" no considerará la corrección política para generar respuestas a consultas realizadas por los usuarios. (Patrick Pleul/Pool via REUTERS)

Como una forma de competir con otras compañías como OpenAI, Google e incluso Microsoft en el desarrollo de modelos de inteligencia artificial, Elon Musk, decidió incursionar en este mercado emergente con su propio proyecto, al que le llamará “TruthGPT” (VerdadGPT).

El nombre del proyecto en el que Musk está trabajando es una clara competencia a ChatGPT, el software de OpenAI, el CEO de Twitter afirmó durante una entrevista con Fox News que el nuevo programa se dedicará a “buscar la verdad y tratar de comprender la naturaleza del universo”.

A pesar de haber formado parte del equipo fundador de OpenAI en el año 2015 (el cual dejó en el año 2018 luego de que se le negara ser su CEO), Musk dijo que los modelos de inteligencia artificial como ChatGPT y Bard en el caso de Google fueron enseñados a responder y brindar información desde una perspectiva de “corrección política”.

Diferencias entre ChatGPT y TruthGPT

Según Musk, el desarrollo de la inteligencia artificial tiene el potencial de “destruir la civilización”, por lo que una de las diferencias que tendría “TruthGPT” es su intento por comprender el universo y que se vea a la humanidad como parte importante de él.

“Este es el camino a la seguridad pues es poco probable que una inteligencia artificial preocupada por comprender el universo aniquile a los humanos porque somos una parte interesante del universo”, explicó al decir que es la base del proyecto en comparación con el de OpenAI.

Elon Musk considera que la
Elon Musk considera que la inteligencia artificial tiene el potencial para destruir a la humanidad. (REUTERS/Aly Song)

Esta opinión dista mucho de la posición establecida por el CEO de OpenAI, Sam Altman, quien afirmó que pensar en estos momentos en la inteligencia artificial como una conciencia que intentará “dominar el mundo” no es real y que ese argumento está basado en películas de ciencia ficción.

El CEO de Twitter también considera que la inteligencia artificial supone un peligro real para las personas y la ubica al nivel de fatalidades. “La IA es más peligrosa que la producción de automóviles deficientes pues, por más pequeño que sea el riesgo, tiene el potencial de destruir la civilización”, aseguró durante su entrevista.

Por otro lado, Musk afirmó que algunos modelos de inteligencia artificial fueron programados por profesionales quienes la diseñaron “para mentir” con fines políticos, algo que afirma que no sucederá con su modelo propio.

Sin embargo, Altman comentó esto previamente en una publicación en su cuenta oficial de Twitter en la que afirmó que “no queremos que ChatGPT esté a favor o en contra de ninguna política de forma predeterminada. Si las personas quieren alguna de ellas, entonces debería ser así”. Esto luego de que se acuse a este modelo de inteligencia artificial de tener tendencias o preferencias hacia determinadas ideas políticas.

Elon Musk acusó a otras
Elon Musk acusó a otras inteligencias artificiales como ChatGPT de ser políticamente correctas y ser programadas para "mentir" a las personas con fines políticos. (REUTERS/Florence Lo)

A favor de la regulación de inteligencias artificiales

Uno de los aspectos en los que tanto Musk como Altman coinciden es que ambos se encuentran a favor de la regulación de las operaciones de inteligencia artificial.

El CEO de Twitter expresó su temor en caso de que haya “creado cosas para acelerar (la creación de inteligencias artificiales)” y solicitó el establecimiento de una entidad reguladora “que supervise el desarrollo de las inteligencias artificiales y asegure que se opere dentro del interés público”.

Desde su cuenta de Twitter, Altman aseguró que ya se están haciendo intentos por regular el avance de esta tecnología en el mercado global mientras que las compañías desarrolladoras y sus clientes están en la búsqueda de nuevas formas de uso para estos softwares avanzados.

Hasta el momento, Italia y Canadá han iniciado investigaciones para aumentar las medidas de ciberseguridad durante el uso de la inteligencia artificial y la Comisión Europea está elaborando un plan de regulación para permitir el uso de algunos programas en los territorios de la Unión Europea.

Guardar