La Inteligencia Artificial suele ser un elemento de gran ayuda para las compañías aéreas a la hora de dar servicio a sus pasajeros. Muchas de ellas utilizan “chatbots” como método de atención al cliente, lo que les permite reducir en inversión de personal.
No obstante, a Air Canadá la IA le ha jugado una mala pasada. Un pasajero compró un billete por 1.215 dólares para acudir al entierro de un familiar. Entonces, el “chatbot” le informó de que la política de la compañía le ofrecía el reembolso del mismo con motivo del duelo si lo solicitaba en un plazo de 90 días.
Obviamente, este lo pidió, pero la aerolínea no lo aceptó alegando que no existen este tipo de condiciones. Esta incongruencia llevó al joven a acudir a los tribunales, alegando “tergiversación negligente”, y haciendo responsable a Air Canadá de la información proporcionada.
Por su parte, esta alegó que su IA es una “entidad legal independiente, responsable de sus propias acciones”, y que el chico debería haber consultado las condiciones oficiales de la compañía. Sin embargo, sus comentarios no prosperaron y ha tenido que hacer frente a la compensación de 880 dólares (unos 813 euros).
Parece que alguien ha malinterpetado (por error o adrede) la parte de "waived for death of...", en particular, que la regla (si existe) se aplica a muertes ocurridas después de la compra del billete (y por lo general el que ha de morir es el pasajero titular del ticket, aunque a veces también cubre muerte de familiares). Habría que ver la conversación para saber si el viajero abusó de un fallo del chatbot para que aparentemente le dijera que volar a un funeral es gratis...