Estados Unidos abrió una investigación sobre OpenAI y ChatGPT para determinar si pone en riesgo los datos de los usuarios

La Comisión Federal de Comercio estudia si el prototipo de chatbot ha infringido las leyes de protección al consumidor

El logo de ChatGPT se ve en esta ilustración tomada, el 3 de febrero de 2023. REUTERS/Dado Ruvic/Illustration/Archivo

La Comisión Federal de Comercio (FTC, en inglés) ha abierto una amplia investigación sobre OpenAI, para determinar si su chatbot con inteligencia artificial (IA) ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y los datos personales de los usuarios, según informó este jueves The Washington Post.

La comisión envió esta semana una demanda de investigación civil de 20 páginas a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.

Entre los diversos ejemplos que detalla la larga carta, a la que tuvo acceso The Washington Post, estaba un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.

ChatGPT obtuvo gran popularidad tras su lanzamiento público y gratuito el noviembre pasado y consiguió un récord de 100 millones de descargas en 2 meses.

El consejero delegado de OpenAI, Sam Altman, en Washington, Estados Unidos, el 16 de mayo de 2023. REUTERS/Elizabeth Frantz/Archivo

La FTC pidió a OpenAI que proporcionara descripciones detalladas de todas las quejas que había recibido de sus productos que hacían declaraciones “falsas, engañosas, despectivas o dañinas”.

Además, según la misiva, la comisión está investigando si la empresa participó en prácticas desleales o engañosas que resultaron en un “daño a la reputación” de los consumidores.

En una de sus respuestas, ChatGPT dijo que un abogado (que realmente existía) había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post.

Pero tal artículo no existía, el viaje nunca ocurrió y el abogado afirmó que nunca fue acusado de acosar a un estudiante.

Un smartphone con el logo de ChatGPT desplegado es colocado en la placa base de un ordenador en esta ilustración tomada el 23 de febrero de 2023. REUTERS/Dado Ruvic/Ilustración/Archivo

La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como "alucinaciones", problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.

Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.

(Con información de EFE)

Seguir leyendo: