Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Návrh Školení
Vstup do hrozby modelů AI
- Co znečišťuje systémy AI?
- Povrch útoku na AI vs tradiční systémy
- Klíčové vektory útoku: data, model, výstup a vrstvy rozhraní
Protiváhy proti modelům AI
- Pochopení protiváhových příkladů a perturbačních technik
- Bílá skříň vs černá skříň útoky
- Metody FGSM, PGD a DeepFool
- Vizualizace a vytváření protiváhových vzorků
Inverze modelu a ujímání se soukromí
- Odvodění trénovacích dat z výstupu modelu
- Útoky na členství
- Rizika pro soukromí v klasifikačních a generativních modelech
Otrava dat a vložení zadních dveří
- Jak otrávená data ovlivňují chování modelu
- Spouštěči založené na zadních dveřích a Trojanovi útoky
- Strategie detekce a dezinfekce
Odpornost a obranná technika
- Výcvik proti protiváhům a zvětšování dat
- Maskeření gradientu a předzpracování vstupu
- Umožnění modelu a techniky regularizace
Obranná technika AI chránící soukromí
- Vstup do diferenciálního soukromí
- Injekce šumu a rozpočty soukromí
- Federované učení a bezpečné agregace
AI Security v praxi
- Hrozby modelu hodnocení a nasazení s ohledem na hrozby
- Použití ART (Adversarial Robustness Toolbox) ve skutečných situacích
- Průmyslové případové studie: skutečné porušení a zlepšení
Souhrn a další kroky
Požadavky
Translate this
From: en
To: cs
- Pochopení pracovních postupů strojového učení a trénování modelů
- Zkušenosti s Python a běžnými ML frameworky jako PyTorch nebo TensorFlow
- Příznakem je znalost základních pojmů z oblasti bezpečnosti nebo modelování hrozeb
Cílová skupina
- Inženýři strojového učení
- Analysté kybernetické bezpečnosti
- Výzkumníci v oblasti umělé inteligence a týmy pro ověřování modelů
14 hodiny