Návrh Školení

Vstup do červeného týmu v oblasti umělé inteligence

  • Pochopení hrozivé situace pro umělou inteligenci
  • Roly červených týmů ve zabezpečení AI
  • Ethické a právní aspekty

Adversární Machine Learning

  • Druhy útoků: evaze, otrávení, extrakce, odvozování
  • Vytváření adversárních příkladů (např. FGSM, PGD)
  • Cílené vs necílené útoky a metriky úspěchu

Testování odolnosti modelu

  • Hodnocení odolnosti při změnách
  • Výzkum slepých míst a selhávacích režimů modelu
  • Napínací testy klasifikačních, vizualizací a NLP modelů

Červené týmy v AI potrubích

  • Povrch útoku v AI potrubích: data, model, nasazení
  • Využívání nezabezpečených API a koncových bodů modelu
  • Reverzní inženýrství chování a výstupů modelu

Simulace a nástroje

  • Používání Adversarial Robustness Toolbox (ART)
  • Červené týmy s nástroji jako je TextAttack a IBM ART
  • Nástroje pro sandboxing, monitorování a přehlednost

Taktika a obrana červených týmů v AI Collaboration

  • Vytváření cvičení a cílů pro červené týmy
  • Komunikace nálezů s modrými týmy
  • Integrace červených týmů do správy rizik AI

Souhrn a další kroky

Požadavky

  • Pochopení strojového učení a architektur hlubokého učení
  • Zkušenosti s Python a ML frameworky (např. TensorFlow, PyTorch)
  • Znalost konceptů kybernetické bezpečnosti nebo útočných technik

Audience

  • Výzkumníci v oblasti bezpečnosti
  • Týmy pro útočné bezpečnostní testování
  • Profesionálové zajištění AI a red teamů
 14 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie