Una aerolínea deberá compensar a un usuario porque un chatbot con IA le brindó información errónea

El error del robot llevó a Jake Moffatt a pagar más del doble de la cantidad que había previsto inicialmente para su viaje

Guardar
Un ciudadano consiguió que un
Un ciudadano consiguió que un tribunal fallara a su favor, obligando a Air Canada a pagar más de 600 dólares por dar información incorrecta a través de un chatbot (Imagen ilustrativa Infobae)

Tras la muerte de su abuela en Ontario hace unos años, Jake Moffatt, residente en Columbia Británica, visitó el sitio web de Air Canada para reservar un vuelo para el funeral. Recibió ayuda de un chatbot con inteligencia artificial, que le dijo que la aerolínea ofrecía tarifas reducidas a los pasajeros que reservaban viajes de última hora debido a tragedias.

Moffatt compró un pasaje de casi 600 dólares para un vuelo al día siguiente después de que el chatbot le dijera que le devolverían parte de su dinero en virtud de la política de duelo de la aerolínea siempre que lo solicitara en un plazo de 90 días, según una reciente decisión del tribunal de resoluciones civiles.

Pero cuando Moffatt intentó más tarde recibir el descuento, se enteró de que el chatbot se había equivocado. Air Canada sólo concedía descuentos por duelo si la solicitud se había presentado antes de un vuelo. La aerolínea alegó posteriormente que el chatbot era una entidad jurídica independiente “responsable de sus propios actos”, según la decisión. Moffatt presentó una demanda ante el tribunal canadiense, que dictaminó que Air Canada debía a Moffatt más de 600 dólares en concepto de daños y perjuicios y tasas judiciales tras no haberle prestado una “atención razonable”.

Tras aportar información equivocada sobre
Tras aportar información equivocada sobre las tarifas de duelo, Air Canada es sentenciada a compensar económicamente a un cliente desinformado por un chatbot (REUTERS/Carlos Osorio)

A medida que las empresas han ido incorporando chatbots dotados de inteligencia artificial a sus sitios web con la esperanza de ofrecer un servicio más rápido, el litigio de Air Canada arroja luz sobre los problemas asociados a esta tecnología en auge y sobre cómo podrían enfocar los tribunales las cuestiones de responsabilidad. En este caso, el tribunal canadiense se puso del lado del cliente y dictaminó que Air Canada no se aseguró de que su chatbot fuera preciso.

“Aunque un chatbot tiene un componente interactivo, no deja de ser una parte del sitio web de Air Canada”, escribió en su fallo Christopher Rivers, miembro del tribunal. “Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web.” No hay diferencia si la información proviene de una página estática o de un chatbot”.

Un portavoz de Air Canada dijo en una declaración a The Washington Post que la aerolínea acatará la decisión del tribunal. Moffatt visitó por primera vez el sitio web de Air Canada el 11 de noviembre de 2022, el día en que murió su abuela, según el tribunal. Allí, preguntó al chatbot por las tarifas de duelo.

Tribunal rechazó defensa de Air
Tribunal rechazó defensa de Air Canada que argumentó que el chatbot era entidad independiente (REUTERS/Andrew Wallace)

“Si necesita viajar inmediatamente o ya ha viajado y desea enviar su tiquete para obtener una tarifa reducida por duelo, le rogamos que lo haga en un plazo de 90 días a partir de la fecha de emisión de su billete rellenando nuestro formulario de solicitud de reembolso de billete”, respondió el chatbot, según la decisión del tribunal.

Las respuestas del chatbot enlazaban a la página web de la aerolínea en la que se detallaba su política de viajes por duelo. La página web afirma que la aerolínea prohíbe “reembolsos por viajes que ya se han producido”. Moffatt, confiando en las instrucciones del chatbot, reservó un billete de ida por unos 590 dólares de Vancouver a Toronto, según la decisión. Unos días después, pagó unos 627 dólares por un vuelo de ida y vuelta.

El 17 de noviembre de 2022, Moffatt solicitó un reembolso a través del formulario de solicitud de la aerolínea. Proporcionó el certificado de defunción de su abuela y envió correos electrónicos a los empleados de Air Canada durante los tres meses siguientes, según la decisión.

El error del chatbot de
El error del chatbot de Air Canadá llevó a Moffatt a pagar alrededor de 1.209 dólares por los vuelos, cantidad considerablemente mayor a los 564 dólares que había previsto inicialmente (Imagen ilustrativa Infobae)

En febrero de 2023, un empleado de Air Canada le dijo a Moffatt que el chatbot le había engañado, según la decisión. Moffatt siguió intercambiando correos electrónicos con los empleados, pero no recibió el reembolso, según la decisión, lo que le llevó a presentar una reclamación.

Moffatt dijo que no habría comprado los tiquetes si hubiera sabido que tendría que pagar la tarifa completa, según la decisión. Moffatt creía que debería haber pagado unos 564 dólares en total, según la decisión, pero acabó pagando unos 1.209 dólares.

Air Canada argumentó que el chatbot es una “entidad legal independiente” y que la aerolínea no debería ser responsable de la información que el chatbot proporciona, según la decisión del tribunal. Air Canada también alegó que Moffatt podría haber encontrado la política de duelo de la aerolínea explorando más a fondo su sitio web, según la decisión.

Air Canada acató la decisión
Air Canada acató la decisión judicial tras el fallo sobre uso de su chatbot (REUTERS/Ben Nelms)

Pero Rivers dictaminó que esas alegaciones no eran razonables. Rivers determinó que Moffatt pagó unos 483 dólares más de lo que debía. Ordenó a Air Canada que pagara a Moffatt esa cantidad, además de unos 93 dólares en concepto de tasas judiciales y 26.80 dólares en concepto de intereses de demora.

“Moffatt dice, y yo lo acepto, que confiaron en que el chatbot les proporcionaría información precisa. Considero que era razonable dadas las circunstancias”, escribió Rivers en la sentencia. “No hay razón para que el señor Moffatt sepa que una sección de la página web de Air Canada es precisa y otra no”.

(c) 2024 , The Washington Post

Guardar