Děkujeme za vaši dotaz! Jeden z našich pracovníků vás brzy kontaktuje.
Děkujeme za rezervaci! Jeden z našich pracovníků vás brzy kontaktuje.
Návrh Školení
Úvod do modelování hrozeb AI
- Co činí AI systémy zranitelnými?
- Prostředí útoku na AI proti tradičním systémům
- Klíčové vektory útoku: data, model, výstup a vrstvy rozhraní
Adversní útoky na AI modely
- Porozumění adversním příkladům a technikám poruchového zpracování
- Útoky bílé schránky vs. černé schránky
- Metody FGSM, PGD a DeepFool
- Vizualizace a tvorba adversních vzorků
Inverzní útoky na model a únik osobních údajů
- Odvozování trénovacích dat z výstupu modelu
- Útoky na členství
- Rizika soukromí v klasifikačních a generativních modelech
Otravování dat a zpětné útoky
- Jak otrávená data ovlivňují chování modelu
- Útoky s aktivním triggrem a trojanskými útoky
- Strategie detekce a čištění
Robustnost a obranné techniky
- Adversní trénink a rozšiřování dat
- Maskování gradientů a předzpracování vstupu
- Techniky hladkého modelování a regularizace
Obranné techniky AI chránící soukromí
- Úvod do diferenciálního soukromí
- Vložení šumu a rozpočty soukromí
- Federované učení a bezpečné agregace
Praktická bezpečnost AI
- Hrozby ohrožené hodnocení modelů a nasazení
- Použití ART (Adversarial Robustness Toolbox) v aplikovaných podmínkách
- Průmyslové případové studie: skutečné porušení zabezpečení a zmírnění hrozeb
Shrnutí a další kroky
Požadavky
- Porozumění pracovním postupům strojového učení a tréninku modelů
- Zkušenosti s Pythonem a běžnými ML rámci jako je PyTorch nebo TensorFlow
- Odborné znalosti základních konceptů bezpečnosti nebo modelování hrozeb jsou užitečné
Cílová skupina
- Inženýři strojového učení
- Analýsté kybernetické bezpečnosti
- Výzkumníci AI a týmy ověřování modelů
14 Hodiny
Reference (1)
Profesionální znalosti a způsob, jakým nám je prezentoval
Miroslav Nachev - PUBLIC COURSE
Kurz - Cybersecurity in AI Systems
Přeloženo strojem