AI w cyberbezpieczeństwie – ryzyka i zagrożenia – EY Academy of Business

AI w cyberbezpieczeństwie – ryzyka i zagrożenia

Generatywna sztuczna inteligencja w radykalny sposób zmienia krajobraz cyberzagrożeń.
Zapisz się

Generatywna sztuczna inteligencja w radykalny sposób zmienia krajobraz cyberzagrożeń. Narzędzia, które zwiększają produktywność zespołów, są jednocześnie ryzykiem same w sobie, jak również wykorzystywane przez cyberprzestępców do skalowania ataków, podnoszenia ich jakości oraz omijania tradycyjnych mechanizmów kontroli.

 

W efekcie organizacje mierzą się dziś z nowym typem ryzyka: nie tylko technicznego, lecz także operacyjnego, reputacyjnego i regulacyjnego, często generowanego przez nieświadome lub niekontrolowane użycie AI.

Dla kogo?
  • Osoby pracujące z krytycznymi systemami lub danymi w organizacji
  • Liderzy techniczni i menedżerowie
  • Analitycy, product ownerzy
  • Osoby odpowiedzialne za szeroko rozumiane bezpieczeństwo firmy
  • Pracownicy IT, którzy dotychczas nie mieli styczności z AI w kontekście bezpieczeństwa

Szkolenie nie jest przeznaczone dla specjalistów cyberbezpieczeństwa ani pentesterów

Cel szkolenia

Celem szkolenia jest zbudowanie świadomości ryzyk związanych z AI, dla osób, które nie są wyspecjalizowane w cyberbezpieczeństwie, ale na co dzień:

  • korzystają z narzędzi AI,
  • wdrażają rozwiązania technologiczne,
  • współtworzą procesy biznesowe.

Szkolenie ma charakter uświadamiająco‑praktyczny i koncentruje się na realnych scenariuszach, z którymi organizacje mierzą się już dziś.

Korzyści z udziału w szkoleniu

Po szkoleniu uczestnicy:

  • rozumieją, jak AI zmienia charakter cyberzagrożeń i dlaczego tradycyjne mechanizmy obrony są niewystarczające,
  • potrafią rozpoznawać ataki wspierane przez AI (phishing, deepfake’i, manipulacja chatbotami),
  • świadomie oceniają ryzyko użycia AI w projektach IT i biznesowych,
  • lepiej chronią organizację przed niezamierzonym wyciekiem danych i eskalacją incydentów,
  • stają się pierwszą linią obrony, a nie nieświadomym wektorem ryzyka.
Program szkolenia
  1. Podstawy działania AI w kontekście bezpieczeństwa
    Czym różni się LLM od aplikacji AI, skąd biorą się halucynacje i dlaczego AI publiczna nie działa jak enterprise
  2. Rozpoznawanie phishingu generowanego przez AI
    Uczestnicy odróżniają prawdziwe e‑maile i wiadomości od fałszywych
  3. Wykrywanie deepfake’ów analiza nagrań i obrazów pod kątem autentyczności
  4. Manipulowanie chatbotem (prompt injection)
    Próby skłonienia modelu do wykonania zadań spoza jego roli
  5. Regulacje prawne dotyczące AI
    Krótki przegląd kluczowych wymagań EU AI Act, RODO, NIS2 i DORA przy użyciu i wdrażaniu systemów AI
  6. Klasyfikacja danych z pomocą AI
    Identyfikacja danych wrażliwych i demonstracja, co AI potrafi z nich wyciągnąć
  7. Bezpieczne wdrażanie i użycie AI w firmie
    Zwięzłe omówienie zasad governance, polityk, zasad dostępu, etykiet poufności i właściwego doboru narzędzi AI
  8. Analiza ryzyka użycia AI
    Praca w grupach nad scenariuszami biznesowymi i identyfikacją zagrożeń
  9. Bezpieczne i niebezpieczne prompty
    Ćwiczenia z formułowania odpowiedzialnych zapytań
  10. Wykrywanie błędów i uprzedzeń AI
    Analiza przykładów stronniczych decyzji modeli
  11. Mini‑symulacja incydentu phishingowego
    Omówienie przebiegu i reakcji na atak wspierany przez AI
  12. Wnioski i rekomendacje
    Podsumowanie oraz wskazanie priorytetów bezpieczeństwa w kontekście AI w organizacji
Trenerzy
Marcin Nowicki
− Trener IT, wykładowca i konsultant od 2001 roku − Operacje międzybranżowe − Od kierownictwa do produkcji − Od średnich firm po globalne korporacje, organizacje globalne (ONZ), europejskie (EBC) i rządowe (ministerstwa) oraz uniwersytety − Gospodarz audycji radiowej o tematyce IT − Współorganizator międzynarodowych konferencji IT w Niemczech i USA.