Las conversaciones que se tienen en ChatGPT no son totalmente privadas, la información que se comparte allí es fundamental para el sistema, porque le permite mejorar y aprender, lo que representa un riesgo para los datos personales que se envían en el chat.
OpenAI, empresa encargada de la inteligencia artificial, aseguró que revisa las conversaciones con los usuarios y toma los datos. Aunque, según ellos, con la idea de mejorar su funcionamiento y garantizar la seguridad.
“Como parte de nuestro compromiso con una IA segura y responsable, revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”, afirma la compañía.
Algo contradictorio, porque al preguntarle directamente ChatGPT, la plataforma niega que almacene información.
“Como modelo de lenguaje, no tengo la capacidad de almacenar ni acceder a la información que se comparte en esta plataforma. Sin embargo, puedo asegurarte que la plataforma de OpenAI utiliza medidas de seguridad para proteger los datos que se intercambian en ella”, asegura el chatbot.
Qué información toma ChatGPT
En las políticas de privacidad de la inteligencia artificial se menciona una lista de los datos que recopila el sistema. Información que de caer en manos maliciosas representaría un problema grande de seguridad. Estos datos son:
- Nombres.
- Datos de contacto.
- Credenciales de la cuenta.
- Información de pago.
- Historial de transacciones.
- Entrada y carga de archivos.
- Protocolo de Internet.
- Tipo y configuración del navegador.
- Fecha y hora de las solicitudes.
- Forma de interacción con las webs de OpenAI.
- Sistema operativo.
- Tipo de dispositivo.
Si bien esta información es utilizada para mejorar la inteligencia artificial, según las políticas de la empresa dueña de la tecnología, los datos podrían ser compartidos con terceros en cuatro casos específicos:
- Vendedores y proveedores de servicios.
- Transferencias comerciales.
- Requisitos legales.
- Afiliados
En términos generales, estos actores externos son empresas que estén bajo el dominio de OpenAI, que requieran la información por temas legales, terceros con relaciones comerciales y en caso de que la compañía sea adquirida por otra.
Ante este panorama, lo mejor que se puede hacer como usuario es evitar compartir datos personales con el chatbot y en general con cualquier inteligencia artificial, ya que no es claro dónde pueda terminar y en manos de quién.
Fuga de datos en ChatGPT
OpenAI dio los detalles del fallo de seguridad que sufrió recientemente: los datos de los usuarios quedaron expuestos, así como parte de su historial de conversación con la plataforma.
Esto obligó a que la inteligencia artificial fuera cerrada durante un día para solucionar el problema, ya que durante nueve horas estuvo visible la información del 1,2% del total de suscriptores de ChatGPT Plus, que es la versión premium de la aplicación que tiene un costo de 20 dólares al mes.
Esta situación se dio a conocer cuando una serie de usuarios compartieron en Reddit que en sus perfiles del chatbot estaban apareciendo historiales de conversaciones que nunca tuvieron con la IA.
Si bien nunca pudieron acceder a esos chats, si fue una falla masiva que llevó a la suspensión de la plataforma durante ese día para solucionar el problema.
Luego la compañía aseguró que el error que llevó a esa situación también generó que los datos de algunos usuarios y sus métodos de pago quedaran visibles durante nueve horas. El motivo del problema fue un fallo en el software, pero no dieron muchos más detalles.
En el informe confirmaron que el error nunca llevó a que se pudieran ver los números completos de las tarjetas de crédito y que la probabilidad de que otro usuario haya visto los datos filtrados es muy baja.