The Guardian: jak AI skompromitowało prawnika. Sąd odrzuca zmyślone przez AI precedensy

Data:

Skandal w środowisku prawniczym. Powszechna praktyka ujawniona przez leniwego prawnika. AI wygenerowało fałszywe precedensy.


Fałszywe precedensy w brytyjskim sądzie apelacyjnym

Sędzia Mark Blundell z Wyższego Trybunału Imigracyjnego (ang. Upper Tribunal Immigration and Asylum Chamber) orzekł, że adwokat Chowdhury Rahman posłużył się generatywną sztuczną inteligencją do przygotowania apelacji w sprawie azylowej. W dokumentach złożonych przed sądem znalazły się odwołania do orzeczeń, które w rzeczywistości nie istnieją. Sprawę jako pierwsza ujawniła redakcja The Guardian.

W uzasadnieniu sędzia Blundell napisał:

„Cytowane sprawy były albo fikcyjne, albo całkowicie nieistotne”

– Mark Blundell, Wyższy Trybunał Imigracyjny, uzasadnienie orzeczenia.

Rahman powołał się na dwanaście precedensów, które miały potwierdzać jego linię argumentacji. Sąd wykazał, że część z nich została w całości wymyślona przez narzędzie AI, a pozostałe nie miały związku z przedstawionym stanowiskiem.

Pomnik Matki Boskiej w Konotopiu – fundacja Romana Karkosika

Adwokat nie potrafił wskazać źródeł

Rahman reprezentował dwie obywatelki Hondurasu w wieku 29 i 35 lat. Kobiety ubiegały się o azyl w Wielkiej Brytanii, twierdząc, że ich bezpieczeństwo i życie są zagrożone przez konflikt z lokalnym gangiem. Sprawa trafiła do Wyższego Trybunału Imigracyjnego w ramach procedury odwoławczej od wcześniejszego orzeczenia.

Według relacji The Independent, podczas posiedzenia sędzia Blundell poprosił Rahmana o wskazanie źródeł precedensów, na które się powoływał. Prawnik nie był w stanie ich podać, a dalsza analiza wniosku wykazała, że żadne z przytoczonych orzeczeń nie figuruje w rejestrach sądowych.

„Pan Rahman nie miał pojęcia o jakichkolwiek precedensach, na które się powoływał. Niektóre z nich nie istniały. Żaden nie wspierał argumentów zawartych w apelacji”

– stanowi fragment uzasadnienia (The Independent). Sędzia w uzasadnieniu stwierdził również:

„To nie był problem stylu pisania. To był problem nieistniejących spraw”


Postępowanie dyscyplinarne

Po ujawnieniu okoliczności sędzia Blundell zapowiedział przekazanie sprawy do Rady Dyscyplinarnej Adwokatów Anglii i Walii (ang. Bar Standards Board), która nadzoruje wykonywanie zawodu prawniczego w systemie common law.

„Istnieje przytłaczające prawdopodobieństwo, że pan Rahman użył generatywnej sztucznej inteligencji i próbował to zataić podczas rozprawy”

– Mark Blundell (Tribunal Decisions Service). Rada ma uprawnienia do wymierzenia kar dyscyplinarnych, w tym zawieszenia w prawach wykonywania zawodu lub wykreślenia z listy adwokatów (ang. disbarment).


Wcześniejsze przypadki: USA i Kanada

Podobne sytuacje miały już miejsce poza Wielką Brytanią. W czerwcu 2023 roku w Stanach Zjednoczonych prawnicy z nowojorskiej kancelarii Levidow, Levidow & Oberman złożyli do Federalnego Sądu Okręgowego dla Południowego Dystryktu Nowego Jorku (ang. United States District Court for the Southern District of New York) pozew, w którym przytoczyli sześć nieistniejących orzeczeń.

Jak ustalił Reuters, dokument został przygotowany przy użyciu AI. Sędzia P. Kevin Castel, prowadzący sprawę Mata v. Avianca, Inc., skrytykował ich działania:

„To nie była pomyłka, ale całkowita lekkomyślność”

– P. Kevin Castel, Southern District of New York (Reuters).W Kanadzie, w 2024 roku, sąd w prowincji Ontario odrzucił apelację, w której również pojawiły się odwołania do nieistniejących źródeł. Adwokat został upomniany, a sąd zalecił opracowanie nowych wytycznych dotyczących korzystania z AI w praktyce prawniczej (The Guardian).

Weryfikacja dyplomów przez pracodawców

Jak działa generatywna sztuczna inteligencja

Modele językowe, takie jak ChatGPT, nie przeszukują baz orzecznictwa ani rejestrów sądowych. Działają w prostszy sposób: przewidują kolejne słowa, opierając się na wzorcach językowych wyuczonych z ogromnych zbiorów tekstów.

Jeśli w tych danych pojawiły się fragmenty opinii prawnych, model może naśladować styl pisma prawniczego, ale nie sprawdza, czy przywołane sprawy faktycznie istnieją.

Wyjątkiem są specjalne wersje systemów prawniczych, które mają dostęp do baz orzeczeń przez specjalne integracje. Nawet one nie są wolne od błędów, dlatego wszystko i tak wymaga weryfikacji.

Innymi słowy: AI może stworzyć coś, co wygląda jak fragment wyroku, ale nie ma gwarancji, że to prawda. Dlatego wszystko trzeba sprawdzać w oficjalnych bazach.


Dlaczego AI „halucynuje”

Zjawisko to nosi nazwę halucynacji AI (ang. AI hallucination). Polega na tworzeniu przez system informacji, które brzmią prawdopodobnie, ale są całkowicie fikcyjne. Nie wynika to z błędu programistycznego, lecz z samej architektury modelu językowego, który nie rozumie kontekstu ani prawdy.

Prof. Sandra Wachter z University of Oxford, ekspertka ds. etyki AI, podkreśla (UK Parliament Committees):

„Wprowadzamy i ufamy systemom, które brzmią przekonująco i wyrzucają tekst brzmiący prawdopodobnie, ale nie mający nic wspólnego z prawdą”

Z badań Magesh i współautorów z 2024 r. wynika, że nawet wyspecjalizowane systemy prawnicze generują błędne lub fikcyjne cytowania w ponad 30 proc. przypadków (arXiv). Oznacza to, że problem dotyczy również profesjonalnych narzędzi używanych przez kancelarie i sądy.

AI i terapeutyczne peptydy – nowa era leków

Jak wykrywać halucynacje i dlaczego musimy się z nimi pogodzić

Paradoks polega na tym, że AI musi czasem wymyślać, bo jej skuteczność opiera się na zdolności do generowania odpowiedzi nawet przy braku pełnej wiedzy. Gdyby tego nie robiła, byłaby nieprzydatna w wielu zastosowaniach, np. przy tworzeniu szkiców apelacji, streszczeń czy uzasadnień. Dlatego halucynacje nie mogą zostać całkowicie wyeliminowane — można je jedynie wychwytywać i ograniczać.

W środowisku prawniczym stosuje się m.in.:

  • weryfikację każdej sprawy i cytatu w oficjalnych bazach orzecznictwa (np. LexisNexis, Westlaw, BAILII),
  • kontrolę dokumentów przygotowanych przez AI przez drugiego prawnika,
  • wewnętrzne procedury oznaczania treści wygenerowanych przez AI,
  • obowiązek ujawniania użycia narzędzi generatywnych w dokumentach procesowych.

Prof. Wachter zwraca uwagę na odpowiedzialność użytkownika, nie technologii (UK Parliament Committees):

„Użyteczność takich systemów polega właśnie na tym, że generują wiarygodne treści — nawet jeśli są one błędne. Odpowiedzialność za ich weryfikację zawsze musi spoczywać na człowieku”

AI nie przestanie „halucynować”. To człowiek musi mieć procedury, które odróżnią fakty od fikcji.


Źródła:

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Udostępnij post:

Popularne

Czytaj więcej
Related

Psy kochają swoich właścicieli bardziej niż jedzenie? Badania mózgu pokazują zaskakujące wyniki

Najnowsze badania fMRI dowodzą, że psy reagują na zapach...

Najgorszy w Polsce urząd wojewódzki jest we Wrocławiu! W rankingu NIK jest tylko jedno – ostatnie miejsce

NIK: skala nieprawidłowości we Wrocławiu nie ma odpowiednika w...

„Zemsta Faraona” potrafi zepsuć wakacje. Biegunka podróżnych nie tylko w Egipcie – jak jej uniknąć?

Biegunka podróżnych, znana też jako „zemsta faraona”, to zmora...

Jastrzębska Spółka Węglowa chce budować statki kosmiczne! Choć na Barbórkę nie mają

Jastrzębska Spółka Węglowa formalnie rozszerza działalność o produkcję statków...