Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Návrh Školení
Vstup do AI Red Teaming
- Přehled ohrožení v oblasti umělé inteligence
- Role red týmů ve zabezpečení AI
- Etické a právní aspekty
Adversární Machine Learning
- Typy útoků: únik, otrávení, extrakce, dedukce
- Generování adversárních příkladů (např. FGSM, PGD)
- Cílené vs necílené útoky a ukazatele úspěchu
Testování odolnosti modelu
- Hodnocení odolnosti před rušivými faktory
- Prozkoumávání slepých míst a selhání modelů
- Stresové testy klasifikačních, vizuálních a NLP modelech
Red Teaming AI Potoků
- Útočná plocha AI potoků: data, model, nasazení
- Exploitace nezabezpečených API a koncových bodů modelů
- Reverzní inženýrství chování a výstupů modelu
Simulace a nástroje
- Použití Adversarial Robustness Toolbox (ART)
- Red Teaming s nástroji jako je TextAttack a IBM ART
- Nástroje pro sandboxování, monitorování a pozorovatelnost
Strategie AI Red Týmů a Obrana Collaboration
- Vytváření cvičení a cílů red týmu
- Komunikace nalezených skrytých ohrožení s blue týmem
- Integrace red teamingu do správy rizik AI
Shrnutí a další kroky
Požadavky
- Požadavky na znalosti v oblasti strojového učení a architektur hlubokého učení
- Zkušenosti s Python a rámci pro ML (například TensorFlow, PyTorch)
- znalost konceptů z oblasti kybernetické bezpečnosti nebo technik útočné bezpečnosti
Cílová skupina
- Výzkumníci v oblasti bezpečnosti
- Týmy pro útočnou bezpečnost
- Odborníci na AI zajištění a red teamové profesionálové
14 hodiny