Děkujeme za vaši dotaz! Jeden z našich pracovníků vás brzy kontaktuje.
Děkujeme za rezervaci! Jeden z našich pracovníků vás brzy kontaktuje.
Návrh Školení
Vstup do AI Red Teaming
- Přehled ohrožení v oblasti umělé inteligence
- Role red týmů ve zabezpečení AI
- Etické a právní aspekty
Adversární Machine Learning
- Typy útoků: únik, otrávení, extrakce, dedukce
- Generování adversárních příkladů (např. FGSM, PGD)
- Cílené vs necílené útoky a ukazatele úspěchu
Testování odolnosti modelu
- Hodnocení odolnosti před rušivými faktory
- Prozkoumávání slepých míst a selhání modelů
- Stresové testy klasifikačních, vizuálních a NLP modelech
Red Teaming AI Potoků
- Útočná plocha AI potoků: data, model, nasazení
- Exploitace nezabezpečených API a koncových bodů modelů
- Reverzní inženýrství chování a výstupů modelu
Simulace a nástroje
- Použití Adversarial Robustness Toolbox (ART)
- Red Teaming s nástroji jako je TextAttack a IBM ART
- Nástroje pro sandboxování, monitorování a pozorovatelnost
Strategie AI Red Týmů a Obrana Collaboration
- Vytváření cvičení a cílů red týmu
- Komunikace nalezených skrytých ohrožení s blue týmem
- Integrace red teamingu do správy rizik AI
Shrnutí a další kroky
Požadavky
- Požadavky na znalosti v oblasti strojového učení a architektur hlubokého učení
- Zkušenosti s Python a rámci pro ML (například TensorFlow, PyTorch)
- znalost konceptů z oblasti kybernetické bezpečnosti nebo technik útočné bezpečnosti
Cílová skupina
- Výzkumníci v oblasti bezpečnosti
- Týmy pro útočnou bezpečnost
- Odborníci na AI zajištění a red teamové profesionálové
14 hodiny