“Kreatywny” prawnik, którego nie chcesz w zespole. O tym, dlaczego AI zmyśla i jak nie dać się nabrać.

Każdy, kto spędził z modelem językowym (LLM) więcej niż godzinę, przeżył ten moment. Zadajesz skomplikowane pytanie prawne. Model odpowiada błyskawicznie, eleganckim językiem, sypiąc paragrafami i orzecznictwem. Wszystko brzmi logicznie, profesjonalnie i… jest kompletną bzdurą.

W branży technologicznej przyjęło się nazywać to zjawisko “halucynacjami”. My w Gaius wolimy bardziej przyziemne, ale prawdziwsze określenie: zmyślanie (lub, jeśli chcemy być uprzejmi: nadmierna kreatywność).

Dlaczego maszyna, która przeczytała więcej książek niż jakikolwiek człowiek, potrafi kłamać w żywe oczy? I dlaczego w pracy prawnika jest to znacznie bardziej niebezpieczne niż w copywritingu?

Dlaczego AI kłamie jak z nut? (Mechanizm Autouzupełniania)

Aby zrozumieć, skąd bierze się zmyślanie, musimy odczarować magię AI. Model językowy to nie encyklopedia ani baza danych orzeń. To – w dużym uproszczeniu – statystyczny system autouzupełniania.

Wyobraź sobie studenta prawa na egzaminie ustnym, który nie zna odpowiedzi, ale bardzo chce zdać. Mówi płynnie, używa mądrych słów (“domniemanie”, “prekluzja”), brzmi pewnie, ale treść jego wypowiedzi nie ma pokrycia w faktach. Model działa podobnie. Jego celem nie jest “prawda”, ale “prawdopodobieństwo”. Maszyna przewiduje, jakie słowo najlepiej pasuje do poprzedniego.

Jeśli zapytasz o nieistniejący wyrok, model nie powie “nie wiem”. On spróbuje stworzyć coś, co wygląda jak wyrok. I zrobi to tak przekonująco, że bez weryfikacji w LEX-ie czy Legalisie, nie zorientujesz się, że właśnie czytasz fikcję literacką.

Skala zagrożenia: Od niewinnej pomyłki do katastrofy procesowej

W prawie precyzja jest wszystkim. Dlatego zmyślanie modeli podzieliliśmy na trzy kategorie ryzyka – od irytujących po krytyczne.

Poziom 1: Szum informacyjny (Ryzyko Niskie)

Model myli daty, przekręca nazwisko autora komentarza lub używa sformułowań z systemu anglosaskiego (np. “ławy przysięgłych” w kontekście polskiego sądu).

Poziom 2: “Mata v. Avianca”, czyli kompletna fabrykacja (Ryzyko Średnie)

To słynny przypadek z USA, gdzie prawnik użył ChatGPT do napisania pisma procesowego. Model wymyślił nieistniejące orzeczenia, opatrzył je sygnaturami i cytatami. Prawnik ich nie sprawdził i złożył pismo w sądzie.

Poziom 3: Błąd jednego znaku (Ryzyko Krytyczne)

To najbardziej podstępna forma zmyślania, najtrudniejsza do wykrycia przez ludzkie oko.

Dlaczego “Polski Orzeł” (Bielik) myli się rzadziej?

Często pytacie, dlaczego promujemy polskie modele językowe (takie jak Bielik), skoro amerykańscy giganci (GPT-4, Claude) mają większe budżety. Odpowiedź tkwi w danych treningowych.

Gigantyczne modele z USA “uczyły się” na całym internecie. Wiedzą wszystko o prawie Kalifornii, ale polski Kodeks Cywilny to dla nich egzotyka. Często “tłumaczą” sobie prawo w locie, nakładając kalki językowe i pojęciowe z angielskiego na polski. Ponadto, im większy model i im szersza jego wiedza ogólna, tym większy ma bagaż skojarzeń, które mogą prowadzić do zmyślania.

Polskie modele, takie jak Bielik, były trenowane na ogromnych zbiorach polskich tekstów, w tym tekstach prawnych. One nie muszą tłumaczyć pojęć – one “myślą” po polsku.

Mniejszy, ale wyspecjalizowany model często popełnia mniej błędów w swojej dziedzinie, niż genialny polihistor, który wie “trochę o wszystkim”.

Jak się bronić? Zasada ograniczonego zaufania

Czy zmyślanie dyskwalifikuje AI w kancelarii? Nie, tak samo jak błędy aplikanta nie sprawiają, że przestajemy zatrudniać ludzi. Trzeba tylko zmienić metodykę pracy.

  1. Weryfikacja u źródła: Traktuj odpowiedź AI jako wskazówkę, a nie gotowiec. Jeśli model podaje sygnaturę – sprawdź ją w systemie informacji prawnej.
  2. Używaj narzędzi RAG (Retrieval-Augmented Generation): W Gaius-Lex stosujemy technikę, która “zmusza” model do korzystania z dostarczonych dokumentów, a nie z własnej, zawodnej pamięci. To tak, jakby pozwolić studentowi korzystać z podręcznika na egzaminie. Ryzyko zmyślania spada wtedy drastycznie, bo model opiera się na tekście, który ma przed “oczami”.
  3. Bądź sceptyczny: Jeśli odpowiedź modelu idealnie potwierdza Twoją niszową, karkołomną tezę prawną – bądź podwójnie czujny. AI chce Cię zadowolić, więc jeśli zasugerujesz odpowiedź w pytaniu, model chętnie ją potwierdzi, nawet zmyślając fakty.

Sztuczna inteligencja to potężny silnik dla prawnika, ale kierownica i hamulec muszą pozostać w Twoich rękach. Pamiętaj: AI nie ma uprawnień zawodowych i nie ponosi odpowiedzialności OC. Ty tak.

Podobne artykuły