Návrh Školení

Vstup do AI Red Teaming

  • Přehled ohrožení v oblasti umělé inteligence
  • Role red týmů ve zabezpečení AI
  • Etické a právní aspekty

Adversární Machine Learning

  • Typy útoků: únik, otrávení, extrakce, dedukce
  • Generování adversárních příkladů (např. FGSM, PGD)
  • Cílené vs necílené útoky a ukazatele úspěchu

Testování odolnosti modelu

  • Hodnocení odolnosti před rušivými faktory
  • Prozkoumávání slepých míst a selhání modelů
  • Stresové testy klasifikačních, vizuálních a NLP modelech

Red Teaming AI Potoků

  • Útočná plocha AI potoků: data, model, nasazení
  • Exploitace nezabezpečených API a koncových bodů modelů
  • Reverzní inženýrství chování a výstupů modelu

Simulace a nástroje

  • Použití Adversarial Robustness Toolbox (ART)
  • Red Teaming s nástroji jako je TextAttack a IBM ART
  • Nástroje pro sandboxování, monitorování a pozorovatelnost

Strategie AI Red Týmů a Obrana Collaboration

  • Vytváření cvičení a cílů red týmu
  • Komunikace nalezených skrytých ohrožení s blue týmem
  • Integrace red teamingu do správy rizik AI

Shrnutí a další kroky

Požadavky

  • Požadavky na znalosti v oblasti strojového učení a architektur hlubokého učení
  • Zkušenosti s Python a rámci pro ML (například TensorFlow, PyTorch)
  • znalost konceptů z oblasti kybernetické bezpečnosti nebo technik útočné bezpečnosti

Cílová skupina

  • Výzkumníci v oblasti bezpečnosti
  • Týmy pro útočnou bezpečnost
  • Odborníci na AI zajištění a red teamové profesionálové
 14 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie