Návrh Školení

Vstup do AI hrozivostního modelování

  • Co učiní AI systémy zranitelnými?
  • Porównávání povrchu útoků na AI s tradičními systémy
  • Klíčové vektory útoku: vrstvy dat, modelu, výstupu a rozhraní

Protivádežné útoky na AI modely

  • Porozumění protivádežným příkladům a technikám perturbace
  • Bílá vs. černá skříňová útočení
  • Metody FGSM, PGD a DeepFool
  • Vizualizace a vytváření protivádežných vzorků

Inverzní útoky a ujítka osobních údajů

  • Odvozování trénovacích dat z modelového výstupu
  • Útoky na členství
  • Rizika soukromí v klasifikačních a generativních modelech

Poškození dat a zavedení zadních vrátek

  • Jak otrávená data ovlivňují chování modelu
  • Zadní vratka na základě spouštěčů a Trojanové útoky
  • Strategie detekce a čištění

Odpornost a obranné techniky

  • Protivádežné trénování a datová augmentace
  • Maskování gradientů a předzpracování vstupu
  • Vyhlazování modelu a regularizační techniky

Obrana AI zabezpečená soukromí

  • Úvod do diferenciálního soukromí
  • Injekce šumu a rozpočty pro soukromí
  • Spuštěné učení a zabezpečená agregace

AI Security v praxi

  • Hrozivostově orientovaná hodnocení a nasazení modelu
  • Použití ART (Adversarial Robustness Toolbox) v aplikovaných prostředích
  • Průmyslové případové studie: skutečné útoky a jejich zmírnění

Shrnutí a další kroky

Požadavky

  • Přehled o pracovních postupech v oblasti strojového učení a tréninku modelů
  • Zkušenosti s Python a běžnými ML rámci, jako je PyTorch nebo TensorFlow
  • Srozumění základním pojmům bezpečnosti nebo modelování hrozeb se hodí

Cílová skupina

  • Inženýři v oblasti strojového učení
  • Analysté cybersecurity
  • Vědci AI a týmy pro validaci modelů
 14 hodiny

Počet účastníků


Cena za účastníka

Nadcházející kurzy

Související kategorie