AI Governance w organizacji – EY Academy of Business

AI Governance w organizacji

Sztuczna inteligencja staje się integralną częścią procesów biznesowych, a wraz z jej rozwojem rośnie znaczenie odpowiedzialnego zarządzania i zgodności z regulacjami. Jeśli jesteś prawnikiem lub pracujesz w dziale compliance lub ryzyka to nasze nowe szkolenie powinieneś wpisać do swojego kalendarza.

Dwudniowy, intensywny i praktyczny kurs pozwoli zrozumieć wymagania i ryzyka prawne oraz najlepsze praktyki w nadzorze nad systemami AI. Uczestnicy poznają kompleksowe podejście do budowy struktur, procedur i dokumentacji, które zapewnią bezpieczeństwo i zgodność w całym cyklu życia technologii.

  • Dyrektorzy i menedżerowie działów prawnych
  • Dyrektorzy, menedżerowie oraz specjaliści compliance i ryzyka
  • Specjaliści ds. bezpieczeństwa informacji i regulacji
  • Wszystkie osoby w firmach, które są odpowiedzialne za wsrażanie systemów sztucznej inteligencji

Cele szkolenia:

  • Zrozumienie regulacji dotyczących AI (AI Act, RODO, NIS2)
  • Poznanie modeli nadzoru i procedur obowiązkowych w procesach AI
  • Umiejętność oceny projektów AI bez kompetencji technicznych
  • Weryfikacja dostawców i przygotowanie organizacji do kontroli regulatora

Korzyści dla uczestników:

  • Gotowe narzędzia do wdrożenia systemu AI Governance w organizacji
  • Wiedza o obowiązkach prawnych i ryzykach związanych z AI
  • Praktyczne przykłady dokumentacji i procedur zgodności
  • Umiejętność zarządzania systemami AI po wdrożeniu i reagowania na incydenty

BLOK I

Przegląd regulacji dotyczących sztucznej inteligencji

  • Kompleksowe omówienie AI Act: zakres, definicje, konstrukcja obowiązków, odpowiedzialność
  • Kategorie systemów AI: minimalnego ryzyka, ograniczonego ryzyka, wysokiego ryzyka, niedozwolone
  • Konsekwencje klasyfikacji systemu dla organizacji
  • Relacje z innymi aktami: RODO, NIS2, prawo pracy, prawo konsumenckie, regulacje sektorowe
  • Wymagania dotyczące automatyzacji decyzji i przetwarzania danych osobowych
  • Obowiązki organizacji jako podmiotu wdrażającego AI.

Rola działu prawnego w procesie wdrażania AI

  • Zadania działu prawnego w projektach dotyczących AI: nadzór, ocena ryzyka, proces zgodności
  • Struktura współpracy prawników z zarządem, bezpieczeństwem informacji, IT, compliance i jednostkami biznesowymi
  • Ustalanie odpowiedzialności i przepływu informacji w projektach AI
  • Prowadzenie procesu oceny zgodności w całym cyklu życia systemu.

Ocena projektów z wykorzystaniem AI bez kompetencji technicznych

  • Kryteria prawne i organizacyjne umożliwiające analizę projektu bez wiedzy technicznej
  • Jak interpretować informacje dostarczane przez dostawców, zespoły biznesowe i IT
  • Identyfikacja ryzyk prawnych związanych z działaniem systemu i automatyzacją decyzji
  • Ocena zgodności z AI Act, RODO i zasadami przejrzystości.

 

BLOK II

Struktura systemu nadzoru nad sztuczną inteligencją (AI Governance)

  • Modele nadzoru: centralny, federacyjny, mieszany
  • Tworzenie wewnętrznych ról: osoba odpowiedzialna za zgodność, osoba nadzorująca działanie systemu, właściciel procesu.
  • Funkcje komitetu ds. AI: kontrola, analiza ryzyka, rekomendacje, zatwierdzanie projektów
  • Integracja nadzoru nad AI z istniejącymi systemami compliance i bezpieczeństwa informacji.

Procedury obowiązkowe w procesie wdrażania i stosowania AI

  • Procedura zgłaszania projektów wykorzystujących AI w organizacji
  • Procedura klasyfikacji systemu zgodnie z AI Act
  • Procedura oceny ryzyka prawnego, organizacyjnego i etycznego
  • Procedura nadzoru nad działaniem systemu po wdrożeniu
  • Procedura raportowania incydentów związanych z AI.
  1. Dokumentacja regulacyjna i organizacyjna
  • Rejestr systemów AI
  • Karta oceny systemu AI (dokumentacja umożliwiająca pełną ocenę zgodności)
  • Dokumentacja dotycząca danych wykorzystywanych przez system
  • Dokumentacja nadzoru ludzkiego
  • Dokumentacja działań monitorujących i audytowych.

 

BLOK III

Weryfikacja dostawców systemów AI

  • Wymogi AI Act dotyczące dostawców i konsekwencje dla organizacji
  • Dokumenty wymagane od dostawcy: deklaracja zgodności, raport oceny ryzyka, dokumentacja systemu
  • Weryfikacja jakości dostarczonych danych i sposobu ich przetwarzania
  • Ocena spełnienia wymogów transparentności, nadzoru ludzkiego i dokładności działania systemu.

Obowiązki organizacji wdrażającej (deployera)

  • Odpowiedzialność za właściwe wdrożenie systemu zgodnie z obowiązującymi regulacjami
  • Zarządzanie ryzykiem błędów, nieprawidłowości i potencjalnego naruszenia prawa
  • Prowadzenie dokumentacji potwierdzającej zgodność.
  • Analiza konsekwencji prawnych niedochowania obowiązków.

Kluczowe elementy umów dotyczących wdrożenia i eksploatacji AI

  • Zakres obowiązków dostawcy i organizacji
  • Postanowienia dotyczące danych: dostęp, jakość, odpowiedzialność
  • Zasady aktualizacji systemu i dokumentacji
  • Odpowiedzialność za błędy systemu i szkody wynikające z jego działania
  • Mechanizmy reagowania na incydenty i nieprawidłowości.

 

BLOK IV

Zarządzanie systemami AI po wdrożeniu

  • Monitoring działania systemu: regularność, metody, odpowiedzialność
  • Analiza skutków operacyjnych i prawnych stosowania AI
  • Kluczowe wskaźniki zgodności i jakości działania systemu
  • Aktualizacje i zmiany wpływające na ponowną ocenę zgodności.

Nadzór nad systemami wysokiego ryzyka

  • Obowiązki wynikające z AI Act: dokumentacja, testy, transparentność, nadzór ludzki
  • Walidacja jakości danych i weryfikacja ograniczeń wynikających z funkcjonowania systemu
  • Zasady przeprowadzania okresowych przeglądów zgodności
  • Reakcja na nieprawidłowości i obowiązek podejmowania działań naprawczych.

Kultura zgodności i zasady odpowiedzialnego korzystania z AI

  • Zasady korzystania z narzędzi AI przez pracowników
  • Tworzenie polityki wewnętrznej dotyczącej sztucznej inteligencji
  • Edukacja pracowników w zakresie ryzyka i odpowiedzialności
  • Mechanizmy zapobiegania nadużyciom, błędom i nieprawidłowościom.

Przygotowanie organizacji do kontroli organów nadzoru

  • Dokumenty, które muszą być dostępne dla regulatora
  • Postępowanie w przypadku zgłoszenia incydentu lub wniosku o audyt
  • Najczęstsze naruszenia wykrywane w praktyce

Standardy dowodzenia zgodności.

Paweł Kowalski - Radca prawny, specjalista w zakresie prawa Unii Europejskiej, prawa medycznego, prawa międzynarodowego oraz regulacji dotyczących nowych technologii. Pełnomocnik Prezesa Krajowej Izby Radców Prawnych ds. Nowych Technologii oraz członek Komisji ds. Sz

AI Governance w organizacji

Cena

2 500 zł netto (3 075,00 zł brutto)

AI Governance w organizacji

Sztuczna inteligencja staje się integralną częścią procesów biznesowych, a wraz z jej rozwojem rośnie znaczenie odpowiedzialnego zarządzania i zgodności z regulacjami. Jeśli jesteś prawnikiem lub pracujesz w dziale compliance lub ryzyka to nasze nowe szkolenie powinieneś wpisać do swojego kalendarza.

Dwudniowy, intensywny i praktyczny kurs pozwoli zrozumieć wymagania i ryzyka prawne oraz najlepsze praktyki w nadzorze nad systemami AI. Uczestnicy poznają kompleksowe podejście do budowy struktur, procedur i dokumentacji, które zapewnią bezpieczeństwo i zgodność w całym cyklu życia technologii.

Dla kogo?

  • Dyrektorzy i menedżerowie działów prawnych
  • Dyrektorzy, menedżerowie oraz specjaliści compliance i ryzyka
  • Specjaliści ds. bezpieczeństwa informacji i regulacji
  • Wszystkie osoby w firmach, które są odpowiedzialne za wsrażanie systemów sztucznej inteligencji
Cele i korzyści

Cele szkolenia:

  • Zrozumienie regulacji dotyczących AI (AI Act, RODO, NIS2)
  • Poznanie modeli nadzoru i procedur obowiązkowych w procesach AI
  • Umiejętność oceny projektów AI bez kompetencji technicznych
  • Weryfikacja dostawców i przygotowanie organizacji do kontroli regulatora

Korzyści dla uczestników:

  • Gotowe narzędzia do wdrożenia systemu AI Governance w organizacji
  • Wiedza o obowiązkach prawnych i ryzykach związanych z AI
  • Praktyczne przykłady dokumentacji i procedur zgodności
  • Umiejętność zarządzania systemami AI po wdrożeniu i reagowania na incydenty
Program

BLOK I

Przegląd regulacji dotyczących sztucznej inteligencji

  • Kompleksowe omówienie AI Act: zakres, definicje, konstrukcja obowiązków, odpowiedzialność
  • Kategorie systemów AI: minimalnego ryzyka, ograniczonego ryzyka, wysokiego ryzyka, niedozwolone
  • Konsekwencje klasyfikacji systemu dla organizacji
  • Relacje z innymi aktami: RODO, NIS2, prawo pracy, prawo konsumenckie, regulacje sektorowe
  • Wymagania dotyczące automatyzacji decyzji i przetwarzania danych osobowych
  • Obowiązki organizacji jako podmiotu wdrażającego AI.

Rola działu prawnego w procesie wdrażania AI

  • Zadania działu prawnego w projektach dotyczących AI: nadzór, ocena ryzyka, proces zgodności
  • Struktura współpracy prawników z zarządem, bezpieczeństwem informacji, IT, compliance i jednostkami biznesowymi
  • Ustalanie odpowiedzialności i przepływu informacji w projektach AI
  • Prowadzenie procesu oceny zgodności w całym cyklu życia systemu.

Ocena projektów z wykorzystaniem AI bez kompetencji technicznych

  • Kryteria prawne i organizacyjne umożliwiające analizę projektu bez wiedzy technicznej
  • Jak interpretować informacje dostarczane przez dostawców, zespoły biznesowe i IT
  • Identyfikacja ryzyk prawnych związanych z działaniem systemu i automatyzacją decyzji
  • Ocena zgodności z AI Act, RODO i zasadami przejrzystości.

 

BLOK II

Struktura systemu nadzoru nad sztuczną inteligencją (AI Governance)

  • Modele nadzoru: centralny, federacyjny, mieszany
  • Tworzenie wewnętrznych ról: osoba odpowiedzialna za zgodność, osoba nadzorująca działanie systemu, właściciel procesu.
  • Funkcje komitetu ds. AI: kontrola, analiza ryzyka, rekomendacje, zatwierdzanie projektów
  • Integracja nadzoru nad AI z istniejącymi systemami compliance i bezpieczeństwa informacji.

Procedury obowiązkowe w procesie wdrażania i stosowania AI

  • Procedura zgłaszania projektów wykorzystujących AI w organizacji
  • Procedura klasyfikacji systemu zgodnie z AI Act
  • Procedura oceny ryzyka prawnego, organizacyjnego i etycznego
  • Procedura nadzoru nad działaniem systemu po wdrożeniu
  • Procedura raportowania incydentów związanych z AI.
  1. Dokumentacja regulacyjna i organizacyjna
  • Rejestr systemów AI
  • Karta oceny systemu AI (dokumentacja umożliwiająca pełną ocenę zgodności)
  • Dokumentacja dotycząca danych wykorzystywanych przez system
  • Dokumentacja nadzoru ludzkiego
  • Dokumentacja działań monitorujących i audytowych.

 

BLOK III

Weryfikacja dostawców systemów AI

  • Wymogi AI Act dotyczące dostawców i konsekwencje dla organizacji
  • Dokumenty wymagane od dostawcy: deklaracja zgodności, raport oceny ryzyka, dokumentacja systemu
  • Weryfikacja jakości dostarczonych danych i sposobu ich przetwarzania
  • Ocena spełnienia wymogów transparentności, nadzoru ludzkiego i dokładności działania systemu.

Obowiązki organizacji wdrażającej (deployera)

  • Odpowiedzialność za właściwe wdrożenie systemu zgodnie z obowiązującymi regulacjami
  • Zarządzanie ryzykiem błędów, nieprawidłowości i potencjalnego naruszenia prawa
  • Prowadzenie dokumentacji potwierdzającej zgodność.
  • Analiza konsekwencji prawnych niedochowania obowiązków.

Kluczowe elementy umów dotyczących wdrożenia i eksploatacji AI

  • Zakres obowiązków dostawcy i organizacji
  • Postanowienia dotyczące danych: dostęp, jakość, odpowiedzialność
  • Zasady aktualizacji systemu i dokumentacji
  • Odpowiedzialność za błędy systemu i szkody wynikające z jego działania
  • Mechanizmy reagowania na incydenty i nieprawidłowości.

 

BLOK IV

Zarządzanie systemami AI po wdrożeniu

  • Monitoring działania systemu: regularność, metody, odpowiedzialność
  • Analiza skutków operacyjnych i prawnych stosowania AI
  • Kluczowe wskaźniki zgodności i jakości działania systemu
  • Aktualizacje i zmiany wpływające na ponowną ocenę zgodności.

Nadzór nad systemami wysokiego ryzyka

  • Obowiązki wynikające z AI Act: dokumentacja, testy, transparentność, nadzór ludzki
  • Walidacja jakości danych i weryfikacja ograniczeń wynikających z funkcjonowania systemu
  • Zasady przeprowadzania okresowych przeglądów zgodności
  • Reakcja na nieprawidłowości i obowiązek podejmowania działań naprawczych.

Kultura zgodności i zasady odpowiedzialnego korzystania z AI

  • Zasady korzystania z narzędzi AI przez pracowników
  • Tworzenie polityki wewnętrznej dotyczącej sztucznej inteligencji
  • Edukacja pracowników w zakresie ryzyka i odpowiedzialności
  • Mechanizmy zapobiegania nadużyciom, błędom i nieprawidłowościom.

Przygotowanie organizacji do kontroli organów nadzoru

  • Dokumenty, które muszą być dostępne dla regulatora
  • Postępowanie w przypadku zgłoszenia incydentu lub wniosku o audyt
  • Najczęstsze naruszenia wykrywane w praktyce

Standardy dowodzenia zgodności.

Cena

2 500 zł netto (3 075,00 zł brutto)

Lokalizacja

Warszawa

Termin

31 marca – 1 kwietnia 2026

Kontakt

Anna Sobora

Koordynator kursu

  • +48 572 002 646
  • anna.sobora@pl.ey.com

Chcesz zorganizować to szkolenie w formule zamkniętej? Skontaktuj się:

Nina Niemojewska

  • +48 573 802 426
  • Nina.Niemojewska@pl.ey.com