OpenAI, empresa dueña de ChatGPT, dio los detalles del fallo de seguridad que sufrió recientemente: los datos de los usuarios quedaron expuestos, así como parte de su historial de conversación con la plataforma.
Esto obligó a que la inteligencia artificial (IA) fuera cerrada durante un día para solucionar el problema, ya que durante nueve horas estuvo visible la información del 1,2% del total de suscriptores de ChatGPT Plus, que es la versión premium de la aplicación que tiene un costo de 20 dólares al mes.
Le puede interesar: ChatGPT descubre nuevas emociones: “Frenestasia” y “Aurórea”
Qué pasó en ChatGPT
Esta situación inició el lunes 20 de marzo cuando una serie de usuarios compartió en Reddit que en sus perfiles del chatbot estaban apareciendo historiales de conversaciones que nunca tuvieron con la IA.
“Cuando inicié sesión en mi cuenta, me di cuenta de algunos títulos extraños en el historial de conversaciones que definitivamente no eran míos. Había un montón de contenido en coreano, incluidas búsquedas sobre acupuntura coreana y otros temas similares. Estoy seguro de que nunca inicié ninguna de estas conversaciones, y ni siquiera hablo coreano”, contó uno de los afectados.
Si bien nunca pudieron acceder a esos chats, si fue una falla masiva que llevó a la suspensión de la plataforma durante ese día para solucionar el problema.
Ahora la compañía asegura que el error que llevó a esa situación también generó que los datos de algunos usuarios y sus métodos de pago quedaran visibles durante nueve horas. El motivo del problema fue un fallo en el software, pero no dieron muchos más detalles.
Le puede interesar: Inteligencia artificial vs. humanos: retamos a ChatGPT y DALL-E
“En las horas previas a que desconectáramos ChatGPT el lunes, fue posible que algunos usuarios vieran el nombre y apellido, la dirección de correo electrónico, la dirección de pago, los últimos cuatro dígitos y la fecha de vencimiento de la tarjeta de crédito de otros usuarios activos que estuvieron activos durante un período específico de 9 horas”, aseguró OpenAI.
En el informe confirmaron que el error nunca llevó a que se pudieran ver los números completos de las tarjetas de crédito y que la probabilidad de que otro usuario haya visto los datos filtrados es muy baja.
Para que los hubiesen podido ver solo había dos opciones. Una que se abriera un e-mail de ChatGPT Plus entre la 01:00 y las 10:00, hora del Pacífico, el lunes 20 de marzo, porque “debido al error, algunos correos electrónicos de confirmación de suscripción generados durante esa ventana de tiempo se enviaron a los usuarios equivocados” y en estos mensajes se encontraban los cuatro últimos dígitos de la tarjeta de otra persona.
Le puede interesar: Cuatro claves para entender GPT-4, una nueva versión de la inteligencia artificial
El segundo escenario posible era que, en el mismo rango de tiempo, mencionado, se ingresara a la opción ‘Gestionar mi suscripción’, en la sección ‘Mi cuenta’. En ese caso, era posible que alguien viera la información de otro perfil como su nombre completo, dirección de correo electrónico, domicilio de facturación y los últimos 4 dígitos de la tarjeta de crédito.
“Nos hemos comunicado con los usuarios afectados para notificar que su información de pago pudo haber sido expuesta. Estamos seguros de que no existe un riesgo continuo para los datos de los usuarios”, informó la compañía.
Más allá de haber resuelto la situación y a que, según ellos, la filtración de datos fue menor, es una primera alerta de seguridad informática para la empresa y sus herramientas, en un momento en el que la industria tecnológica está muy pendiente de sus avances y en el que Microsoft está apostando por su inteligencia artificial para incluirla en sus productos, como sucedió con Bing y Office.