AI w sporach i postępowaniach
Warsztat dla litigatorów. Zarządzanie ryzykiem halucynacji, weryfikacja wyników, obowiązki względem sądu
Od publikacji sprawy Mata v. Avianca (2023) udokumentowano globalnie ponad 700 spraw, w których sąd zidentyfikował halucynacje AI w pismach procesowych składanych przez profesjonalnych pełnomocników. W 2025 i 2026 roku sankcje finansowe i dyscyplinarne wobec kancelarii ze Stanów Zjednoczonych, Wielkiej Brytanii i Kanady stały się powtarzalne. Polskie sądy jeszcze nie sformułowały własnego standardu odpowiedzialności, ale pierwsze przypadki pojawiły się już w postępowaniach przed sądami administracyjnymi i w skargach na decyzje KIO.
Ryzyko jest realne, regulacja sektorowa się zaostrza, a praktyka procesowa stoi przed pytaniem, gdzie AI w pracy litygatora ma sens, gdzie nie ma, i jak skonstruować protokół weryfikacji, który wytrzymuje kontrolę z perspektywy odpowiedzialności zawodowej.
- Radcowie prawni i adwokaci praktykujący w obszarze sporów sądowych i arbitrażu, prowadzący sprawy gospodarcze, cywilne, administracyjne, podatkowe, pracownicze.
- Litigatorzy in-house w działach prawnych dużych przedsiębiorstw, banków, ubezpieczycieli, podmiotów leczniczych, gdzie postępowania sądowe i administracyjne stanowią stały element pracy.
- Partnerzy zarządzający kancelariami procesowymi podejmujący decyzje o polityce korzystania z AI przez zespół oraz o stacku narzędziowym dla działu litygacyjnego.
- Pełnomocnicy pracujący z arbitrażem krajowym i międzynarodowym, gdzie reguły IBA oraz reguły poszczególnych ośrodków arbitrażowych zaczynają wprowadzać obowiązki ujawnienia użycia AI.
Cele szkolenia
- Po szkoleniu uczestnik rozumie mechanizm powstawania halucynacji w pracy z modelami językowymi i potrafi rozpoznać siedem typów najczęstszych błędów (zmyślone orzeczenia, błędne sygnatury, źle przypisane cytaty, nieistniejące przepisy, mylne daty wejścia w życie, zmyśleni autorzy publikacji, błędna logika prawna).
- Uczestnik zna kluczowe zorganizowane sankcje wobec pełnomocników z lat 2023 – 2026: Rozumie, jakie naruszenia zostały sankcjonowane i dlaczego.
- Uczestnik potrafi zaprojektować protokół weryfikacji wyników AI dla pism procesowych – rozszerzona wersja P5V w pięciu obszarach (numery i sygnatury, daty i terminy, cytaty, autorzy publikacji, logika prawna). Wie, którą warstwę weryfikacji wykonuje system, którą człowiek, i gdzie leży granica.
- Uczestnik zna obowiązki względem sądu wynikające z kodeksu etyki radcy prawnego i adwokata oraz orzecznictwa międzynarodowego: obowiązek ujawnienia użycia AI, obowiązek weryfikacji źródeł, granice automatyzacji w sporządzaniu pism procesowych.
- Uczestnik rozumie mapę polskich i międzynarodowych narzędzi LegalTech użytecznych w pracy litygatora: Omnilexia (semantyczne wyszukiwanie orzecznictwa), LogitFlow (analiza akt sprawy, OCR), Gaius-Lex (hybrydowe wyszukiwanie i analiza), Beck-Noxtua (waitlist, lato 2026), narzędzia ogólne (Claude, ChatGPT, Copilot) z konfiguracją dopuszczalną dla pracy procesowej.
- Uczestnik potrafi zbudować ścieżkę pracy z aktami sprawy: ekstrakcja faktów ze sprawy, mapowanie zarzutów strony przeciwnej, generowanie pierwszej wersji odpowiedzi, identyfikacja luk w argumentacji, weryfikacja końcowego pisma przed złożeniem.
Korzyści dla uczestnika
- Gotowy protokół weryfikacji wyników AI
- Biblioteka 20 promptów dla pracy procesowej, sprawdzenie spójności wewnętrznej pisma, weryfikacja przywołanego orzecznictwa
- Karta dziewięciu kazusów halucynacji
- Mapa narzędzi LegalTech dla litygatora
- Spełnienie obowiązku z art. 4 AI Act – udokumentowane szkolenie z kompetencji AI dla pracy procesowej
- Ochrona przed sankcjami zawodowymi i finansowymi
- Argumentacja w rozmowach z klientami i zarządem
Format
Jeden dzień stacjonarnie. Dużo ćwiczeń praktycznych: uczestnicy otrzymują realne pisma z halucynacjami i mają za zadanie je zidentyfikować, przygotować zarzut do sądu, oraz zbudować własny protokół weryfikacji na wypadek, gdyby sami mieli użyć AI w pracy procesowej.
Program
- Taksonomia halucynacji AI w pracy procesowej: siedem typów i jak je rozpoznać. Przegląd kluczowych spraw (Mata v. Avianca, Ko v. Li, Ayinde v. Haringey, Gordon Rees, Wadsworth v. Walmart, Morgan & Morgan, orzeczenia sędziów federalnych w Mississippi i New Jersey).
- Protokół P5V (5-krokowa weryfikacja) dla każdego cytatu i tezy wspartej AI: Potwierdź, Przeczytaj, Porównaj, Powołaj, Przypisuj odpowiedzialność.
- Autorska struktura promptu R-K-Z-F-O-Ź-W (Rola, Kontekst, Zadanie, Format, Ograniczenia, Źródła, Weryfikacja) dla pracy procesowej: gotowe szablony do pism procesowych i innych dokumentów.
- Obowiązki względem sądu: art. 3 ustawy o radcach prawnych oraz art. 4 prawa o adwokaturze w kontekście AI, zasady etyki, orzecznictwo dyscyplinarne.
- Ryzyka odpowiedzialności cywilnej i dyscyplinarnej za halucynacje: jak zabezpieczyć siebie i kancelarię, polityki wewnętrzne, ubezpieczenie OC w kontekście AI.
- Budowanie zarzutu dotyczącego halucynacji w piśmie przeciwnika: strategia procesowa, wniosek do sądu, konsekwencje dla strony przeciwnej, skutki dla sprawy głównej.
- AI w przygotowaniu strategii procesowej: co można robić odpowiedzialnie (analiza orzecznictwa, burza mózgów, strukturyzacja argumentów), a gdzie są granice (przygotowanie ostatecznych pism, cytaty, autorstwa tez).
Paweł Kowalski - Pełnomocnik Prezesa Krajowej Izby Radców Prawnych ds. Nowych Technologii oraz członek Komisji ds. Sztucznej Inteligencji przy Fédération des Barreaux d’Europe (FBE).