Una aerolínea debe pagar 550 euros a un pasajero que se quejó del trato del bot de inteligencia artificial de la empresa

El chatbot le proporcionó una información errónea acerca de una tarifa de reembolso que la compañía no ofrecía

Guardar
Pasajero quejándose en el mostrador
Pasajero quejándose en el mostrador de un aeropuerto (Shutterstock).

El avance de la tecnología es una carrera inalcanzable y que ya no tiene freno. La inteligencia artificial es uno de los desarrollos más significativos de los últimos años y cada vez está aplicada a más sectores. Su finalidad es en principio simplificar las tareas de trabajo y hacer que los clientes se encuentren más cómodos y reserven más rápido sus compras. Sin embargo, esto no sale siempre bien, y en ocasiones puede cometer errores y complicaciones.

Esto es precisamente lo que le ocurrió a un pasajero de la aerolínea Air Canada, el cual preguntó al chatbot de inteligencia artificial si la compañía ofrecía tarifas de duelo tras la muerte de su abuela en noviembre de 2022. Este le contestó que podía reclamar el precio más bajo hasta 90 días después de volar presentando un reclamo. Sin embargo, la política de duelo real de la aerolínea no incluye un reembolso posterior al vuelo. También dice que todos los descuentos deben aprobarse primero.

Te puede interesar: El impresionante castillo del siglo XV que es uno de los mejor conservados de España

“Palabras engañosas”

Tras confiar en la inteligencia artificial, el pasajero reservó un vuelo ida y vuelta a Toronto para el funeral de su abuela por un valor de más de 1.100 €. Pero cuando fue a solicitar el reembolso a la aerolínea, su sorpresa fue que la aerolínea le denegó el dinero. Ante esto, envío a la compañía numerosos correos electrónicos con capturas de pantalla adjuntas de su conversación con el chatbot en un intento de recuperar el dinero.

Pero el 8 de febrero de 2023, un representante de Air Canada le informó que el chatbot proporcionaba “palabras engañosas” y que la política de duelo de la compañía no aplicaba descuentos de forma retroactiva. La aerolínea le dijo al viajero que actualizaría el chatbot para que sus mensajes se alinearan con la información publicada en el sitio web de la aerolínea.

Te puede interesar: El bonito pueblo de Ibiza que es de los mejores para ver los atardeceres de la isla: playas paradisiacas y rica gastronomía

Una denuncia

Pero esto no se quedó aquí, pues el afectado interpuso una demanda a la aerolínea, en la que afirmó ante el tribunal que el chatbot era una “entidad jurídica separada” y, por lo tanto, era responsable de sus acciones. Así, recientemente, el tribunal que lleva el caso se puso de lado del cliente y ordenó a Air Canada emitir un reembolso por aproximadamente 550 €.

“Aunque un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información contenida en su sitio web”, escribió Christopher Rivers, miembro del tribunal de resolución civil de los tribunales de Columbia Británica.

“Creo que Air Canada no tomó las precauciones necesarias para garantizar que su chatbot fuera preciso”, continuó Rivers. “Si bien Air Canada sostiene que el pasajero pudo encontrar la información correcta en otra parte de su sitio web, no explica por qué la página web titulada ‘Viajes de duelo’ era intrínsecamente más confiable que su chatbot. Tampoco explica por qué los clientes deberían tener que volver a verificar la información que se encuentra en una parte de su sitio web, en otra parte de su sitio web”.

Guardar