
Linia lotnicza Air Canada musi zwrócić klientowi częściowy zwrot pieniędzy dokonany w imieniu firmy przez chatbota. Jak podaje „ Edmonton Journal ”, trybunał arbitrażowy w stanie Kolumbia Brytyjska skazał firmę na zapłatę 812 dolarów kanadyjskich (559 euro) . Wcześniej sztuczna inteligencja obiecywała klientowi zwrot pieniędzy po zakupie biletu pełnopłatnego, wbrew polityce firmy.
Błąd chatbota tkwi w szczegółach: Jak wynika z wyroku , klient zapytał firmę o zniżkę na rezerwację krótkoterminową z powodu żałoby – zmarła jego babcia. Takie „taryfy żałobne” istnieją w kilku liniach lotniczych, a Air Canada jest jedną z nich. Wytyczne linii mówią jednak, że taki bilet należy zarezerwować przed wylotem. Chatbot natomiast poradził klientowi, aby najpierw dokonał rezerwacji biletu po normalnej cenie i skontaktuj się z firmą w ciągu 90 dni, aby uzyskać zwrot pieniędzy.
To właśnie zrobił ten człowiek – i właśnie takiej zapłaty Air Canada nie chciała mu zapłacić. Szczególnie interesujące jest uzasadnienie linii lotniczej do przeniesienia całej odpowiedzialności na samolot. W orzeczeniu stwierdzono, że linia lotnicza argumentuje, że „nie może ponosić odpowiedzialności za informacje przekazane przez któregokolwiek z jej agentów, pracowników lub przedstawicieli – w tym chatbota”. W ten sposób firma sugeruje, że „chatbot jest odrębnym podmiotem prawnym, który jest odpowiedzialny za swoje własne działania”.
Argument ten nie przekonał sądu. „Dla Air Canada powinno być jasne, że jest odpowiedzialna za wszystkie informacje zawarte na swojej stronie internetowej” – stwierdzono w orzeczeniu trybunału. Nie ma znaczenia, czy informacja pochodzi ze strony statycznej, czy z chatbota.
Spór prawny jest interesujący także dlatego, że porusza aspekt odpowiedzialności w związku z wykorzystaniem sztucznej inteligencji: pozostaje wiele nierozwiązanych kwestii, kto ponosi odpowiedzialność w przypadku podjęcia przez sztuczną inteligencję błędnej decyzji.