Děkujeme za vaši dotaz! Jeden z našich pracovníků vás brzy kontaktuje.
Děkujeme za rezervaci! Jeden z našich pracovníků vás brzy kontaktuje.
Návrh Školení
Vstup do AI hrozivostního modelování
- Co učiní AI systémy zranitelnými?
- Porównávání povrchu útoků na AI s tradičními systémy
- Klíčové vektory útoku: vrstvy dat, modelu, výstupu a rozhraní
Protivádežné útoky na AI modely
- Porozumění protivádežným příkladům a technikám perturbace
- Bílá vs. černá skříňová útočení
- Metody FGSM, PGD a DeepFool
- Vizualizace a vytváření protivádežných vzorků
Inverzní útoky a ujítka osobních údajů
- Odvozování trénovacích dat z modelového výstupu
- Útoky na členství
- Rizika soukromí v klasifikačních a generativních modelech
Poškození dat a zavedení zadních vrátek
- Jak otrávená data ovlivňují chování modelu
- Zadní vratka na základě spouštěčů a Trojanové útoky
- Strategie detekce a čištění
Odpornost a obranné techniky
- Protivádežné trénování a datová augmentace
- Maskování gradientů a předzpracování vstupu
- Vyhlazování modelu a regularizační techniky
Obrana AI zabezpečená soukromí
- Úvod do diferenciálního soukromí
- Injekce šumu a rozpočty pro soukromí
- Spuštěné učení a zabezpečená agregace
AI Security v praxi
- Hrozivostově orientovaná hodnocení a nasazení modelu
- Použití ART (Adversarial Robustness Toolbox) v aplikovaných prostředích
- Průmyslové případové studie: skutečné útoky a jejich zmírnění
Shrnutí a další kroky
Požadavky
- Přehled o pracovních postupech v oblasti strojového učení a tréninku modelů
- Zkušenosti s Python a běžnými ML rámci, jako je PyTorch nebo TensorFlow
- Srozumění základním pojmům bezpečnosti nebo modelování hrozeb se hodí
Cílová skupina
- Inženýři v oblasti strojového učení
- Analysté cybersecurity
- Vědci AI a týmy pro validaci modelů
14 hodiny