Návrh Školení

Úvod do modelování hrozeb AI

  • Co činí AI systémy zranitelnými?
  • Prostředí útoku na AI proti tradičním systémům
  • Klíčové vektory útoku: data, model, výstup a vrstvy rozhraní

Adversní útoky na AI modely

  • Porozumění adversním příkladům a technikám poruchového zpracování
  • Útoky bílé schránky vs. černé schránky
  • Metody FGSM, PGD a DeepFool
  • Vizualizace a tvorba adversních vzorků

Inverzní útoky na model a únik osobních údajů

  • Odvozování trénovacích dat z výstupu modelu
  • Útoky na členství
  • Rizika soukromí v klasifikačních a generativních modelech

Otravování dat a zpětné útoky

  • Jak otrávená data ovlivňují chování modelu
  • Útoky s aktivním triggrem a trojanskými útoky
  • Strategie detekce a čištění

Robustnost a obranné techniky

  • Adversní trénink a rozšiřování dat
  • Maskování gradientů a předzpracování vstupu
  • Techniky hladkého modelování a regularizace

Obranné techniky AI chránící soukromí

  • Úvod do diferenciálního soukromí
  • Vložení šumu a rozpočty soukromí
  • Federované učení a bezpečné agregace

Praktická bezpečnost AI

  • Hrozby ohrožené hodnocení modelů a nasazení
  • Použití ART (Adversarial Robustness Toolbox) v aplikovaných podmínkách
  • Průmyslové případové studie: skutečné porušení zabezpečení a zmírnění hrozeb

Shrnutí a další kroky

Požadavky

  • Porozumění pracovním postupům strojového učení a tréninku modelů
  • Zkušenosti s Pythonem a běžnými ML rámci jako je PyTorch nebo TensorFlow
  • Odborné znalosti základních konceptů bezpečnosti nebo modelování hrozeb jsou užitečné

Cílová skupina

  • Inženýři strojového učení
  • Analýsté kybernetické bezpečnosti
  • Výzkumníci AI a týmy ověřování modelů
 14 Hodiny

Počet účastníků


Cena za účastníka

Reference (1)

Nadcházející kurzy

Související kategorie