AI w sporach i postępowaniachWarsztat dla litigatorów. Zarządzanie ryzykiem halucynacji, weryfikacja wyników, obowiązki względem sądu – EY Academy of Business

AI w sporach i postępowaniach
Warsztat dla litigatorów. Zarządzanie ryzykiem halucynacji, weryfikacja wyników, obowiązki względem sądu

Od publikacji sprawy Mata v. Avianca (2023) udokumentowano globalnie ponad 700 spraw, w których sąd zidentyfikował halucynacje AI w pismach procesowych składanych przez profesjonalnych pełnomocników. W 2025 i 2026 roku sankcje finansowe i dyscyplinarne wobec kancelarii ze Stanów Zjednoczonych, Wielkiej Brytanii i Kanady stały się powtarzalne. Polskie sądy jeszcze nie sformułowały własnego standardu odpowiedzialności, ale pierwsze przypadki pojawiły się już w postępowaniach przed sądami administracyjnymi i w skargach na decyzje KIO.

Ryzyko jest realne, regulacja sektorowa się zaostrza, a praktyka procesowa stoi przed pytaniem, gdzie AI w pracy litygatora ma sens, gdzie nie ma, i jak skonstruować protokół weryfikacji, który wytrzymuje kontrolę z perspektywy odpowiedzialności zawodowej.

  • Radcowie prawni i adwokaci praktykujący w obszarze sporów sądowych i arbitrażu, prowadzący sprawy gospodarcze, cywilne, administracyjne, podatkowe, pracownicze.
  • Litigatorzy in-house w działach prawnych dużych przedsiębiorstw, banków, ubezpieczycieli, podmiotów leczniczych, gdzie postępowania sądowe i administracyjne stanowią stały element pracy.
  • Partnerzy zarządzający kancelariami procesowymi podejmujący decyzje o polityce korzystania z AI przez zespół oraz o stacku narzędziowym dla działu litygacyjnego.
  • Pełnomocnicy pracujący z arbitrażem krajowym i międzynarodowym, gdzie reguły IBA oraz reguły poszczególnych ośrodków arbitrażowych zaczynają wprowadzać obowiązki ujawnienia użycia AI.

Cele szkolenia

  • Po szkoleniu uczestnik rozumie mechanizm powstawania halucynacji w pracy z modelami językowymi i potrafi rozpoznać siedem typów najczęstszych błędów (zmyślone orzeczenia, błędne sygnatury, źle przypisane cytaty, nieistniejące przepisy, mylne daty wejścia w życie, zmyśleni autorzy publikacji, błędna logika prawna).
  • Uczestnik zna kluczowe zorganizowane sankcje wobec pełnomocników z lat 2023 – 2026: Rozumie, jakie naruszenia zostały sankcjonowane i dlaczego.
  • Uczestnik potrafi zaprojektować protokół weryfikacji wyników AI dla pism procesowych – rozszerzona wersja P5V w pięciu obszarach (numery i sygnatury, daty i terminy, cytaty, autorzy publikacji, logika prawna). Wie, którą warstwę weryfikacji wykonuje system, którą człowiek, i gdzie leży granica.
  • Uczestnik zna obowiązki względem sądu wynikające z kodeksu etyki radcy prawnego i adwokata oraz orzecznictwa międzynarodowego: obowiązek ujawnienia użycia AI, obowiązek weryfikacji źródeł, granice automatyzacji w sporządzaniu pism procesowych.
  • Uczestnik rozumie mapę polskich i międzynarodowych narzędzi LegalTech użytecznych w pracy litygatora: Omnilexia (semantyczne wyszukiwanie orzecznictwa), LogitFlow (analiza akt sprawy, OCR), Gaius-Lex (hybrydowe wyszukiwanie i analiza), Beck-Noxtua (waitlist, lato 2026), narzędzia ogólne (Claude, ChatGPT, Copilot) z konfiguracją dopuszczalną dla pracy procesowej.
  • Uczestnik potrafi zbudować ścieżkę pracy z aktami sprawy: ekstrakcja faktów ze sprawy, mapowanie zarzutów strony przeciwnej, generowanie pierwszej wersji odpowiedzi, identyfikacja luk w argumentacji, weryfikacja końcowego pisma przed złożeniem.

Korzyści dla uczestnika

  • Gotowy protokół weryfikacji wyników AI
  • Biblioteka 20 promptów dla pracy procesowej, sprawdzenie spójności wewnętrznej pisma, weryfikacja przywołanego orzecznictwa
  • Karta dziewięciu kazusów halucynacji
  • Mapa narzędzi LegalTech dla litygatora
  • Spełnienie obowiązku z art. 4 AI Act – udokumentowane szkolenie z kompetencji AI dla pracy procesowej
  • Ochrona przed sankcjami zawodowymi i finansowymi
  • Argumentacja w rozmowach z klientami i zarządem

Format

Jeden dzień stacjonarnie. Dużo ćwiczeń praktycznych: uczestnicy otrzymują realne pisma z halucynacjami i mają za zadanie je zidentyfikować, przygotować zarzut do sądu, oraz zbudować własny protokół weryfikacji na wypadek, gdyby sami mieli użyć AI w pracy procesowej.

Program

  • Taksonomia halucynacji AI w pracy procesowej: siedem typów i jak je rozpoznać. Przegląd kluczowych spraw (Mata v. Avianca, Ko v. Li, Ayinde v. Haringey, Gordon Rees, Wadsworth v. Walmart, Morgan & Morgan, orzeczenia sędziów federalnych w Mississippi i New Jersey).
  • Protokół P5V (5-krokowa weryfikacja) dla każdego cytatu i tezy wspartej AI: Potwierdź, Przeczytaj, Porównaj, Powołaj, Przypisuj odpowiedzialność.
  • Autorska struktura promptu R-K-Z-F-O-Ź-W (Rola, Kontekst, Zadanie, Format, Ograniczenia, Źródła, Weryfikacja) dla pracy procesowej: gotowe szablony do pism procesowych i innych dokumentów.
  • Obowiązki względem sądu: art. 3 ustawy o radcach prawnych oraz art. 4 prawa o adwokaturze w kontekście AI, zasady etyki, orzecznictwo dyscyplinarne.
  • Ryzyka odpowiedzialności cywilnej i dyscyplinarnej za halucynacje: jak zabezpieczyć siebie i kancelarię, polityki wewnętrzne, ubezpieczenie OC w kontekście AI.
  • Budowanie zarzutu dotyczącego halucynacji w piśmie przeciwnika: strategia procesowa, wniosek do sądu, konsekwencje dla strony przeciwnej, skutki dla sprawy głównej.
  • AI w przygotowaniu strategii procesowej: co można robić odpowiedzialnie (analiza orzecznictwa, burza mózgów, strukturyzacja argumentów), a gdzie są granice (przygotowanie ostatecznych pism, cytaty, autorstwa tez).

Paweł Kowalski - Pełnomocnik Prezesa Krajowej Izby Radców Prawnych ds. Nowych Technologii oraz członek Komisji ds. Sztucznej Inteligencji przy Fédération des Barreaux d’Europe (FBE).

AI w sporach i postępowaniach

Cena

1 300 zł netto (1 599,00 zł brutto)

AI w sporach i postępowaniach
Warsztat dla litigatorów. Zarządzanie ryzykiem halucynacji, weryfikacja wyników, obowiązki względem sądu

Od publikacji sprawy Mata v. Avianca (2023) udokumentowano globalnie ponad 700 spraw, w których sąd zidentyfikował halucynacje AI w pismach procesowych składanych przez profesjonalnych pełnomocników. W 2025 i 2026 roku sankcje finansowe i dyscyplinarne wobec kancelarii ze Stanów Zjednoczonych, Wielkiej Brytanii i Kanady stały się powtarzalne. Polskie sądy jeszcze nie sformułowały własnego standardu odpowiedzialności, ale pierwsze przypadki pojawiły się już w postępowaniach przed sądami administracyjnymi i w skargach na decyzje KIO.

Ryzyko jest realne, regulacja sektorowa się zaostrza, a praktyka procesowa stoi przed pytaniem, gdzie AI w pracy litygatora ma sens, gdzie nie ma, i jak skonstruować protokół weryfikacji, który wytrzymuje kontrolę z perspektywy odpowiedzialności zawodowej.

Dla kogo?

  • Radcowie prawni i adwokaci praktykujący w obszarze sporów sądowych i arbitrażu, prowadzący sprawy gospodarcze, cywilne, administracyjne, podatkowe, pracownicze.
  • Litigatorzy in-house w działach prawnych dużych przedsiębiorstw, banków, ubezpieczycieli, podmiotów leczniczych, gdzie postępowania sądowe i administracyjne stanowią stały element pracy.
  • Partnerzy zarządzający kancelariami procesowymi podejmujący decyzje o polityce korzystania z AI przez zespół oraz o stacku narzędziowym dla działu litygacyjnego.
  • Pełnomocnicy pracujący z arbitrażem krajowym i międzynarodowym, gdzie reguły IBA oraz reguły poszczególnych ośrodków arbitrażowych zaczynają wprowadzać obowiązki ujawnienia użycia AI.
Cele i korzyści

Cele szkolenia

  • Po szkoleniu uczestnik rozumie mechanizm powstawania halucynacji w pracy z modelami językowymi i potrafi rozpoznać siedem typów najczęstszych błędów (zmyślone orzeczenia, błędne sygnatury, źle przypisane cytaty, nieistniejące przepisy, mylne daty wejścia w życie, zmyśleni autorzy publikacji, błędna logika prawna).
  • Uczestnik zna kluczowe zorganizowane sankcje wobec pełnomocników z lat 2023 – 2026: Rozumie, jakie naruszenia zostały sankcjonowane i dlaczego.
  • Uczestnik potrafi zaprojektować protokół weryfikacji wyników AI dla pism procesowych – rozszerzona wersja P5V w pięciu obszarach (numery i sygnatury, daty i terminy, cytaty, autorzy publikacji, logika prawna). Wie, którą warstwę weryfikacji wykonuje system, którą człowiek, i gdzie leży granica.
  • Uczestnik zna obowiązki względem sądu wynikające z kodeksu etyki radcy prawnego i adwokata oraz orzecznictwa międzynarodowego: obowiązek ujawnienia użycia AI, obowiązek weryfikacji źródeł, granice automatyzacji w sporządzaniu pism procesowych.
  • Uczestnik rozumie mapę polskich i międzynarodowych narzędzi LegalTech użytecznych w pracy litygatora: Omnilexia (semantyczne wyszukiwanie orzecznictwa), LogitFlow (analiza akt sprawy, OCR), Gaius-Lex (hybrydowe wyszukiwanie i analiza), Beck-Noxtua (waitlist, lato 2026), narzędzia ogólne (Claude, ChatGPT, Copilot) z konfiguracją dopuszczalną dla pracy procesowej.
  • Uczestnik potrafi zbudować ścieżkę pracy z aktami sprawy: ekstrakcja faktów ze sprawy, mapowanie zarzutów strony przeciwnej, generowanie pierwszej wersji odpowiedzi, identyfikacja luk w argumentacji, weryfikacja końcowego pisma przed złożeniem.

Korzyści dla uczestnika

  • Gotowy protokół weryfikacji wyników AI
  • Biblioteka 20 promptów dla pracy procesowej, sprawdzenie spójności wewnętrznej pisma, weryfikacja przywołanego orzecznictwa
  • Karta dziewięciu kazusów halucynacji
  • Mapa narzędzi LegalTech dla litygatora
  • Spełnienie obowiązku z art. 4 AI Act – udokumentowane szkolenie z kompetencji AI dla pracy procesowej
  • Ochrona przed sankcjami zawodowymi i finansowymi
  • Argumentacja w rozmowach z klientami i zarządem
Program

Format

Jeden dzień stacjonarnie. Dużo ćwiczeń praktycznych: uczestnicy otrzymują realne pisma z halucynacjami i mają za zadanie je zidentyfikować, przygotować zarzut do sądu, oraz zbudować własny protokół weryfikacji na wypadek, gdyby sami mieli użyć AI w pracy procesowej.

Program

  • Taksonomia halucynacji AI w pracy procesowej: siedem typów i jak je rozpoznać. Przegląd kluczowych spraw (Mata v. Avianca, Ko v. Li, Ayinde v. Haringey, Gordon Rees, Wadsworth v. Walmart, Morgan & Morgan, orzeczenia sędziów federalnych w Mississippi i New Jersey).
  • Protokół P5V (5-krokowa weryfikacja) dla każdego cytatu i tezy wspartej AI: Potwierdź, Przeczytaj, Porównaj, Powołaj, Przypisuj odpowiedzialność.
  • Autorska struktura promptu R-K-Z-F-O-Ź-W (Rola, Kontekst, Zadanie, Format, Ograniczenia, Źródła, Weryfikacja) dla pracy procesowej: gotowe szablony do pism procesowych i innych dokumentów.
  • Obowiązki względem sądu: art. 3 ustawy o radcach prawnych oraz art. 4 prawa o adwokaturze w kontekście AI, zasady etyki, orzecznictwo dyscyplinarne.
  • Ryzyka odpowiedzialności cywilnej i dyscyplinarnej za halucynacje: jak zabezpieczyć siebie i kancelarię, polityki wewnętrzne, ubezpieczenie OC w kontekście AI.
  • Budowanie zarzutu dotyczącego halucynacji w piśmie przeciwnika: strategia procesowa, wniosek do sądu, konsekwencje dla strony przeciwnej, skutki dla sprawy głównej.
  • AI w przygotowaniu strategii procesowej: co można robić odpowiedzialnie (analiza orzecznictwa, burza mózgów, strukturyzacja argumentów), a gdzie są granice (przygotowanie ostatecznych pism, cytaty, autorstwa tez).

Cena

1 300 zł netto (1 599,00 zł brutto)

Lokalizacja

Warszawa

Termin

1 października 2026

Kontakt

Anna Sobora

Koordynator kursu

  • +48 572 002 646
  • anna.sobora@pl.ey.com