Návrh Školení

Vstup do hrozby modelů AI

  • Co znečišťuje systémy AI?
  • Povrch útoku na AI vs tradiční systémy
  • Klíčové vektory útoku: data, model, výstup a vrstvy rozhraní

Protiváhy proti modelům AI

  • Pochopení protiváhových příkladů a perturbačních technik
  • Bílá skříň vs černá skříň útoky
  • Metody FGSM, PGD a DeepFool
  • Vizualizace a vytváření protiváhových vzorků

Inverze modelu a ujímání se soukromí

  • Odvodění trénovacích dat z výstupu modelu
  • Útoky na členství
  • Rizika pro soukromí v klasifikačních a generativních modelech

Otrava dat a vložení zadních dveří

  • Jak otrávená data ovlivňují chování modelu
  • Spouštěči založené na zadních dveřích a Trojanovi útoky
  • Strategie detekce a dezinfekce

Odpornost a obranná technika

  • Výcvik proti protiváhům a zvětšování dat
  • Maskeření gradientu a předzpracování vstupu
  • Umožnění modelu a techniky regularizace

Obranná technika AI chránící soukromí

  • Vstup do diferenciálního soukromí
  • Injekce šumu a rozpočty soukromí
  • Federované učení a bezpečné agregace

AI Security v praxi

  • Hrozby modelu hodnocení a nasazení s ohledem na hrozby
  • Použití ART (Adversarial Robustness Toolbox) ve skutečných situacích
  • Průmyslové případové studie: skutečné porušení a zlepšení

Souhrn a další kroky

Požadavky

Translate this From: en To: cs
  • Pochopení pracovních postupů strojového učení a trénování modelů
  • Zkušenosti s Python a běžnými ML frameworky jako PyTorch nebo TensorFlow
  • Příznakem je znalost základních pojmů z oblasti bezpečnosti nebo modelování hrozeb

Cílová skupina

  • Inženýři strojového učení
  • Analysté kybernetické bezpečnosti
  • Výzkumníci v oblasti umělé inteligence a týmy pro ověřování modelů
 14 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie