Skandal w środowisku prawniczym. Powszechna praktyka ujawniona przez leniwego prawnika. AI wygenerowało fałszywe precedensy.
Fałszywe precedensy w brytyjskim sądzie apelacyjnym
Sędzia Mark Blundell z Wyższego Trybunału Imigracyjnego (ang. Upper Tribunal Immigration and Asylum Chamber) orzekł, że adwokat Chowdhury Rahman posłużył się generatywną sztuczną inteligencją do przygotowania apelacji w sprawie azylowej. W dokumentach złożonych przed sądem znalazły się odwołania do orzeczeń, które w rzeczywistości nie istnieją. Sprawę jako pierwsza ujawniła redakcja The Guardian.
W uzasadnieniu sędzia Blundell napisał:
„Cytowane sprawy były albo fikcyjne, albo całkowicie nieistotne”
– Mark Blundell, Wyższy Trybunał Imigracyjny, uzasadnienie orzeczenia.
Rahman powołał się na dwanaście precedensów, które miały potwierdzać jego linię argumentacji. Sąd wykazał, że część z nich została w całości wymyślona przez narzędzie AI, a pozostałe nie miały związku z przedstawionym stanowiskiem.
Adwokat nie potrafił wskazać źródeł
Rahman reprezentował dwie obywatelki Hondurasu w wieku 29 i 35 lat. Kobiety ubiegały się o azyl w Wielkiej Brytanii, twierdząc, że ich bezpieczeństwo i życie są zagrożone przez konflikt z lokalnym gangiem. Sprawa trafiła do Wyższego Trybunału Imigracyjnego w ramach procedury odwoławczej od wcześniejszego orzeczenia.
Według relacji The Independent, podczas posiedzenia sędzia Blundell poprosił Rahmana o wskazanie źródeł precedensów, na które się powoływał. Prawnik nie był w stanie ich podać, a dalsza analiza wniosku wykazała, że żadne z przytoczonych orzeczeń nie figuruje w rejestrach sądowych.
„Pan Rahman nie miał pojęcia o jakichkolwiek precedensach, na które się powoływał. Niektóre z nich nie istniały. Żaden nie wspierał argumentów zawartych w apelacji”
– stanowi fragment uzasadnienia (The Independent). Sędzia w uzasadnieniu stwierdził również:
„To nie był problem stylu pisania. To był problem nieistniejących spraw”
Postępowanie dyscyplinarne
Po ujawnieniu okoliczności sędzia Blundell zapowiedział przekazanie sprawy do Rady Dyscyplinarnej Adwokatów Anglii i Walii (ang. Bar Standards Board), która nadzoruje wykonywanie zawodu prawniczego w systemie common law.
„Istnieje przytłaczające prawdopodobieństwo, że pan Rahman użył generatywnej sztucznej inteligencji i próbował to zataić podczas rozprawy”
– Mark Blundell (Tribunal Decisions Service). Rada ma uprawnienia do wymierzenia kar dyscyplinarnych, w tym zawieszenia w prawach wykonywania zawodu lub wykreślenia z listy adwokatów (ang. disbarment).
Wcześniejsze przypadki: USA i Kanada
Podobne sytuacje miały już miejsce poza Wielką Brytanią. W czerwcu 2023 roku w Stanach Zjednoczonych prawnicy z nowojorskiej kancelarii Levidow, Levidow & Oberman złożyli do Federalnego Sądu Okręgowego dla Południowego Dystryktu Nowego Jorku (ang. United States District Court for the Southern District of New York) pozew, w którym przytoczyli sześć nieistniejących orzeczeń.
Jak ustalił Reuters, dokument został przygotowany przy użyciu AI. Sędzia P. Kevin Castel, prowadzący sprawę Mata v. Avianca, Inc., skrytykował ich działania:
„To nie była pomyłka, ale całkowita lekkomyślność”
– P. Kevin Castel, Southern District of New York (Reuters).W Kanadzie, w 2024 roku, sąd w prowincji Ontario odrzucił apelację, w której również pojawiły się odwołania do nieistniejących źródeł. Adwokat został upomniany, a sąd zalecił opracowanie nowych wytycznych dotyczących korzystania z AI w praktyce prawniczej (The Guardian).
Jak działa generatywna sztuczna inteligencja
Modele językowe, takie jak ChatGPT, nie przeszukują baz orzecznictwa ani rejestrów sądowych. Działają w prostszy sposób: przewidują kolejne słowa, opierając się na wzorcach językowych wyuczonych z ogromnych zbiorów tekstów.
Jeśli w tych danych pojawiły się fragmenty opinii prawnych, model może naśladować styl pisma prawniczego, ale nie sprawdza, czy przywołane sprawy faktycznie istnieją.
Wyjątkiem są specjalne wersje systemów prawniczych, które mają dostęp do baz orzeczeń przez specjalne integracje. Nawet one nie są wolne od błędów, dlatego wszystko i tak wymaga weryfikacji.
Innymi słowy: AI może stworzyć coś, co wygląda jak fragment wyroku, ale nie ma gwarancji, że to prawda. Dlatego wszystko trzeba sprawdzać w oficjalnych bazach.
Dlaczego AI „halucynuje”
Zjawisko to nosi nazwę halucynacji AI (ang. AI hallucination). Polega na tworzeniu przez system informacji, które brzmią prawdopodobnie, ale są całkowicie fikcyjne. Nie wynika to z błędu programistycznego, lecz z samej architektury modelu językowego, który nie rozumie kontekstu ani prawdy.
Prof. Sandra Wachter z University of Oxford, ekspertka ds. etyki AI, podkreśla (UK Parliament Committees):
„Wprowadzamy i ufamy systemom, które brzmią przekonująco i wyrzucają tekst brzmiący prawdopodobnie, ale nie mający nic wspólnego z prawdą”
Z badań Magesh i współautorów z 2024 r. wynika, że nawet wyspecjalizowane systemy prawnicze generują błędne lub fikcyjne cytowania w ponad 30 proc. przypadków (arXiv). Oznacza to, że problem dotyczy również profesjonalnych narzędzi używanych przez kancelarie i sądy.
Jak wykrywać halucynacje i dlaczego musimy się z nimi pogodzić
Paradoks polega na tym, że AI musi czasem wymyślać, bo jej skuteczność opiera się na zdolności do generowania odpowiedzi nawet przy braku pełnej wiedzy. Gdyby tego nie robiła, byłaby nieprzydatna w wielu zastosowaniach, np. przy tworzeniu szkiców apelacji, streszczeń czy uzasadnień. Dlatego halucynacje nie mogą zostać całkowicie wyeliminowane — można je jedynie wychwytywać i ograniczać.
W środowisku prawniczym stosuje się m.in.:
- weryfikację każdej sprawy i cytatu w oficjalnych bazach orzecznictwa (np. LexisNexis, Westlaw, BAILII),
- kontrolę dokumentów przygotowanych przez AI przez drugiego prawnika,
- wewnętrzne procedury oznaczania treści wygenerowanych przez AI,
- obowiązek ujawniania użycia narzędzi generatywnych w dokumentach procesowych.
Prof. Wachter zwraca uwagę na odpowiedzialność użytkownika, nie technologii (UK Parliament Committees):
„Użyteczność takich systemów polega właśnie na tym, że generują wiarygodne treści — nawet jeśli są one błędne. Odpowiedzialność za ich weryfikację zawsze musi spoczywać na człowieku”
AI nie przestanie „halucynować”. To człowiek musi mieć procedury, które odróżnią fakty od fikcji.
Źródła:
- The Guardian — High court tells UK lawyers to urgently stop misuse of AI in legal work
- The Guardian — Barrister found to have used AI to prepare for hearing after citing fictitious cases
- The Independent — Chowdhury Rahman: Barrister caught citing fake AI-generated cases in asylum appeal
- Tribunal Decisions Service — UI-2025-003373, UI-2025-003374
- Reuters — New York lawyers sanctioned for using fake ChatGPT cases in legal brief
- The Guardian — Lawyer caught using AI-generated false citations in court case penalised in Australian first
- Le Monde — Chatbots are like parrots, they repeat without understanding
- UK Parliament Committees — Oral evidence: Governance of Artificial Intelligence
- arXiv — Hallucination in Legal LLMs
