Návrh Školení

Úvod do Red Teaming AI

  • Porozumění hrozebnému prostředí AI
  • Role red týmů v bezpečnosti AI
  • Etické a právní aspekty

Protistranné Strojové Učení

  • Typy útoků: odvádění, otrávení, extrakce, inferencia
  • Generování protistranných příkladů (např. FGSM, PGD)
  • Cílené vs. necílené útoky a metriky úspěšnosti

Testování Robustnosti Modelu

  • Hodnocení robustnosti při poruchách
  • Průzkum slepých míst a režimů selhání modelu
  • Stresové testování klasifikačních, vizuálních a NLP modelů

Red Teaming AI Potrubí

  • Útočná plocha potrubí AI: data, model, nasazení
  • Exploze nezabezpečených API a koncových bodů modelu
  • Reversní inženýrství chování a výstupů modelu

Simulace a Nástroje

  • Použití Adversarial Robustness Toolbox (ART)
  • Red teaming s nástroji jako TextAttack a IBM ART
  • Nástroje pro sandboxování, monitorování a sledovatelnost

Strategie Red Teamu AI a Spolupráce s Obranou

  • Vývoj cvičení a cílů red teamu
  • Komunikace zjištění s blue týmy
  • Integrace red teaming do řízení rizik AI

Shrnutí a Další Kroky

Požadavky

  • Porozumění architektuře strojového učení a hlubokého učení
  • Zkušenosti s Pythonem a rámci ML (např. TensorFlow, PyTorch)
  • Odběžné znalosti pojmů kyberbezpečnosti nebo ofenzivních bezpečnostních technik

Cílová Skupina

  • Výzkumníci v oblasti bezpečnosti
  • Týmy ofenzivní bezpečnosti
  • Profesionálové zajišťující bezpečnost AI a red teamování
 14 hodiny

Počet účastníků


Cena za účastníka

Nadcházející kurzy

Související kategorie