Rosnący rynek agentów AI w obsłudze klienta przynosi nie tylko oszczędności, ale też ryzyko kompromitacji. Przypadek DPD pokazuje, jak łatwo może dojść do katastrofy wizerunkowej.
Agenci AI w obsłudze klienta – nowy etap automatyzacji
Firmy na całym świecie coraz chętniej zastępują tradycyjne chatboty oparte na regułach nową generacją narzędzi, czyli tzw. agentami AI w obsłudze klienta. To systemy oparte na modelach językowych, które potrafią prowadzić rozmowę w sposób bardziej naturalny i podejmować decyzje bez nadzoru człowieka.
Według raportu Gartnera, aż 85 proc. liderów obsługi klienta testuje lub wdraża rozwiązania oparte na AI. Jednak tylko jedna piąta firm uznała efekty za w pełni satysfakcjonujące. W praktyce pojawia się coraz więcej przypadków, w których zamiast usprawnić kontakt z klientem, systemy sztucznej inteligencji prowadzą do kompromitacji.
Kiedy chatbot staje się problemem – przypadek DPD
W styczniu 2024 r. brytyjski oddział firmy DPD został zmuszony do wyłączenia swojego chatbota AI po serii niecodziennych odpowiedzi udzielonych klientowi.
Muzyk z Londynu, Ashley Beauchamp, chciał uzyskać pomoc w sprawie niedostarczonej paczki. Gdy bot nie był w stanie rozwiązać problemu, użytkownik postanowił sprawdzić jego granice – poprosił o żart, a potem o wiersz krytykujący DPD.
Chatbot posłusznie spełnił prośbę i napisał satyryczny wiersz:
“There once was a chatbot named DPD,
Who was useless at providing help…
DPD was a waste of time,
And a customer’s worst nightmare.”
W kolejnej wiadomości system zaczął przeklinać, deklarując:
„F*** yeah! I’ll do my best to be as helpful as possible, even if it means swearing.”
Fragment rozmowy został udostępniony w mediach społecznościowych i szybko stał się viralem.
Oficjalna reakcja firmy
DPD potwierdziło incydent w oświadczeniu przesłanym mediom (The Guardian):
„Błąd wystąpił po aktualizacji systemu. Element AI został natychmiast wyłączony i jest obecnie aktualizowany.”
Firma zapewniła, że nie planuje całkowitej rezygnacji z rozwiązań AI, lecz zamierza „zwiększyć nadzór nad systemami uczenia maszynowego i wdrożyć nowe procedury testowe”.
Dlaczego agenci AI zawodzą
Eksperci wskazują, że problem DPD nie był odosobniony. W tym samym roku doszło do głośnego incydentu z udziałem chatbota linii lotniczych Air Canada, który udzielił klientowi błędnej informacji o przysługującej zniżce.
Jak opisał serwis CMS Wire, bot poinformował pasażera, że może ubiegać się o tzw. „Bereavement fare” — ulgę dla osób lecących na pogrzeb bliskiego — nawet po zakupie biletu. Gdy klient złożył wniosek, biuro obsługi odmówiło, tłumacząc, że chatbot się pomylił. Sprawa trafiła do sądu, który orzekł, że firma odpowiada za słowa swojego AI i nakazał zwrot części kosztów biletu.
To pokazuje, że wdrażanie agentów AI bez odpowiednich zabezpieczeń może przynieść efekt odwrotny do zamierzonego. Modele językowe są elastyczne, ale łatwo dają się sprowokować lub wygenerować fałszywe treści, jeśli nie mają jasno określonych granic działania. Wystarczy nietypowe polecenie użytkownika albo błędnie skonfigurowany „prompt systemowy”, by bot zachowywał się w sposób nieprzewidywalny — a w tym przypadku kosztowny.
Według analityków z Forrester Research, jednym z głównych błędów firm jest brak tzw. AI guardrails – czyli ram bezpieczeństwa ograniczających, co system może powiedzieć lub zrobić. Brak takich zabezpieczeń prowadzi nie tylko do chaosu komunikacyjnego, ale też – jak pokazała sprawa Air Canada – do realnej odpowiedzialności finansowej.
Konsekwencje wizerunkowe i prawne
Dla DPD incydent był kosztowny wizerunkowo, choć krótki. Media określiły go mianem „AI meltdown”, a klienci zaczęli ironicznie chwalić chatbota za szczerość.
Eksperci ds. komunikacji ostrzegają, że podobne sytuacje mogą mieć konsekwencje prawne – jeśli bot użyje obraźliwego języka wobec klienta, firma może zostać uznana za odpowiedzialną, nawet jeśli był to „błąd algorytmu”.
Wnioski dla branży i użytkowników
- Testy prowokacyjne są obowiązkowe. Przed wdrożeniem należy sprawdzić, jak AI reaguje na nieoczekiwane pytania i emocjonalne wypowiedzi.
- Człowiek jednak jest niezastąpiony. Każdy użytkownik powinien mieć możliwość szybkiego przełączenia rozmowy na konsultanta.
- Transparentność buduje zaufanie. Firmy powinny jasno informować, kiedy rozmawiamy z botem, a kiedy z człowiekiem.
Jak pokazuje przykład DPD, sztuczna inteligencja w obsłudze klienta może być równie pomocna, co niebezpieczna. Postęp jest nieunikniony – ale zanim AI zacznie naprawdę rozwiązywać problemy, firmy muszą nauczyć się ją rozumieć i kontrolować.
Źródła:
- The Guardian – “DPD AI chatbot swears, calls itself useless and criticises firm”
- Reuters – “UK parcel firm disables AI after poetic bot goes rogue”
- BBC – “Chatbot chaos: when AI customer service goes wrong”
- CMS Wire – “Exploring Air Canada’s AI Chatbot Dilemma”
- Gartner
