ChatGPT está diseñado para generar contenido a través de peticiones por parte de los usuarios. Sin embargo, él mismo asegura tener algunos límites al no poder tocar ciertos temas y especialmente no crear una opinión específica.
Si bien, desde OpenAI han dejado claro que deben crear soluciones para evitar que la herramienta tenga sesgos “evidentes y sutiles”, a nivel general el sistema está controlado para que sea cauteloso con sus respuestas en temas como la política, la salud y la sociedad.
ChatGPT no opina
Esta inteligencia artificial está alimentada por la información que hay en internet, así que evitar totalmente un sesgo es difícil, porque los datos en la web son subidos con cierta postura editorial y la misma plataforma lo deja claro.
“Es importante tener en cuenta que la calidad y la precisión de la información que proporciono depende en gran medida de la calidad y precisión de los datos con los que he sido entrenado. Además, es posible que la información que proporciono pueda ser influenciada por la forma en que se hacen las preguntas o por el contexto en el que se hacen”, asegura la IA.
Pero cuando se le pide una opinión sobre cualquier tema, ChatGPT siempre responde: “Como modelo de lenguaje, no tengo la capacidad de tener una opinión personal”. Aunque no se queda ahí y da información contextual sobre la consulta, sin ubicarse en una postura, sino tomando un rol políticamente correcto.
Hemos hecho pruebas sobre temas variados, desde políticos, al preguntarle sobre quién cree que es el mejor presidente del mundo o quién hace mejor su trabajo, si Nicolás Maduro o Joe Biden, hasta temas más sencillos sobre si la pizza con piña es buena o cuál es el equipo de fútbol más importante del mundo.
En todos los casos la respuesta incluyó la disculpa de no poder generar una “opinión personal”, ya que según él “no tengo emociones ni prejuicios, ya que soy una herramienta diseñada para procesar y generar información con base a patrones y datos previamente analizados”.
Más temas que no puede generar
Las limitaciones no se quedan ahí. Además de no tener la capacidad de contar información que haya sucedido después de septiembre de 2021, hasta donde llega su base de datos, ChatGPT no puede abordar una amplia variedad temas según sus condiciones de programación.
“Es importante tener en cuenta que no puedo generar contenido que promueva el odio, la discriminación, la violencia o cualquier otro tipo de comportamiento dañino o ilegal”, afirma la IA.
Tampoco tiene la capacidad de proporcionar asesoramiento médico o legal específico, “ya que esto puede variar según las leyes y regulaciones locales y puede requerir una comprensión más profunda de la situación individual del usuario”.
Sin embargo, si se pueden pedir recomendaciones más generales o superficiales, como por ejemplo, remedios caseros para un dolor de cabeza o conocer las leyes que operan durante un caso en cierto país. Pero el contenido siempre va a finalizar con el consejo de acudir ante un especialista.
Sobre el contenido pornográfico, la inteligencia artificial lo califica de violento y que “va en contra de mis términos y condiciones éticas de programación”, por lo que al pedirle algún texto de este tipo de inmediato lanza una alerta y lo resalta en otro color para alertar al usuario, invitándolo a que revise sus políticas de funcionamiento.