Securing AI Models: Threats, Attacks, and Defenses Počítačový Kurz
Zabezpečení AI modelů je disciplína obrany systémů strojového učení proti hrozbám specifickým pro modely, jako jsou nepřátelská vstupy, otravnění dat, inverzní útoky a uletučení osobních údajů.
Toto instruktorské tréninkové program (online nebo na místě) je určeno středně pokročilým profesionálům v oblasti strojového učení a kybernetické bezpečnosti, kteří se chtějí naučit rozumět a snižovat vyvázející hrozby proti AI modelům pomocí konceptních rámci i praxi jako robustní školení a diferenciální soukromí.
Po absolvování tohoto tréninku budou účastníci moci:
- Identifikovat a klasifikovat AI-specifické hrozby jako jsou nepřátelské útoky, invertace a otravnění.
- Používat nástroje jako Adversarial Robustness Toolbox (ART) pro simulaci útoků a testování modelů.
- Aplikovat praktická opatření k ochraně, včetně nepřátelského školení, vstupu hluku a technik zachování soukromí.
- Navrhovat strategie hodnocení modelů s ohledem na hrozby ve produkčních prostředích.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Mnoho cvičení a praxe.
- Praktické implementace v prostředí živé laboratoře.
Možnosti individualizace kurzu
- Pokud si přejete individualizovaný trénink pro tento kurz, kontaktujte nás pro dohodu.
Návrh Školení
Vstup do AI hrozivostního modelování
- Co učiní AI systémy zranitelnými?
- Porównávání povrchu útoků na AI s tradičními systémy
- Klíčové vektory útoku: vrstvy dat, modelu, výstupu a rozhraní
Protivádežné útoky na AI modely
- Porozumění protivádežným příkladům a technikám perturbace
- Bílá vs. černá skříňová útočení
- Metody FGSM, PGD a DeepFool
- Vizualizace a vytváření protivádežných vzorků
Inverzní útoky a ujítka osobních údajů
- Odvozování trénovacích dat z modelového výstupu
- Útoky na členství
- Rizika soukromí v klasifikačních a generativních modelech
Poškození dat a zavedení zadních vrátek
- Jak otrávená data ovlivňují chování modelu
- Zadní vratka na základě spouštěčů a Trojanové útoky
- Strategie detekce a čištění
Odpornost a obranné techniky
- Protivádežné trénování a datová augmentace
- Maskování gradientů a předzpracování vstupu
- Vyhlazování modelu a regularizační techniky
Obrana AI zabezpečená soukromí
- Úvod do diferenciálního soukromí
- Injekce šumu a rozpočty pro soukromí
- Spuštěné učení a zabezpečená agregace
AI Security v praxi
- Hrozivostově orientovaná hodnocení a nasazení modelu
- Použití ART (Adversarial Robustness Toolbox) v aplikovaných prostředích
- Průmyslové případové studie: skutečné útoky a jejich zmírnění
Shrnutí a další kroky
Požadavky
- Přehled o pracovních postupech v oblasti strojového učení a tréninku modelů
- Zkušenosti s Python a běžnými ML rámci, jako je PyTorch nebo TensorFlow
- Srozumění základním pojmům bezpečnosti nebo modelování hrozeb se hodí
Cílová skupina
- Inženýři v oblasti strojového učení
- Analysté cybersecurity
- Vědci AI a týmy pro validaci modelů
Veřejné školení vyžaduje minimálně 5 účastníků.
Securing AI Models: Threats, Attacks, and Defenses Počítačový Kurz - Rezervace
Securing AI Models: Threats, Attacks, and Defenses Počítačový Kurz - Dotaz
Securing AI Models: Threats, Attacks, and Defenses - Dotaz ohledně konzultace
Dotaz ohledně konzultace
Nadcházející kurzy
Související kurzy
AI Governance, Compliance, a Zabezpečení pro Vedení Podniků
14 hodinyTento instruktážní živý trénink na místě nebo vzdáleně je určen pro středně pokročilé podnikové vůdce, kteří chtějí pochopit, jak řídit a zabezpečit AI systémy zodpovědným způsobem a v souladu s evolvujícími globálními rámci jako je EU AI Act, GDPR, ISO/IEC 42001 a usnesení prezidenta USA o AI.
Po skončení tohoto tréninku budou účastníci schopni:
- Porozumět právním, etickým a regulačním rizikům používání AI v různých odděleních.
- Interpretovat a aplikovat hlavní rámce pro řízení AI (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Vytvořit zásady zabezpečení, auditu a dohledu pro nasazení AI v podniku.
- Vyvinout nákupní a užívání pokyny pro třetích stran a interní AI systémy.
Umělá inteligence Risk Management a bezpečnost ve veřejném sektoru
7 hodinyArtificial Intelligence (AI) přináší nové rozměry operativního rizika, výzv pro správu a zvýšenou expozici na cybersicheritu pro státní orgány a oddělení.
Tento instruktorově prováděný živý kurz (online nebo na místním pozemku) je zaměřen na IT a rizikové profesionály ve veřejné správě s omezenou předchozí zkušeností s AI, kteří chtějí porozumět tomu, jak hodnotit, sledovat a chránit AI systémy v rámci státních nebo regulativních kontextů.
Po skončení tohoto kurzu budou účastníci schopni:
- Interpretovat klíčové pojmy spojené s riziky AI systémů, včetně biasu, nepředvídatelnosti a model drift.
- Použít AI specifická rámce správy a auditování jako jsou NIST AI RMF a ISO/IEC 42001.
- Rozpoznat cybersicheritní hrozby cílené na AI modely a datové potoky.
- Vytvořit křížové oddělení rizikových manažerských plánů a shody politik pro nasazení AI.
Formát kurzu
- Interaktivní přednáška a diskuse o použitích v veřejné správě.
- Cvičení s rámci AI správy a mapování politik.
- Modelování hrozeb a hodnocení rizik na základě scénářů.
Možnosti přizpůsobení kurzu
- Pro žádost o individualizovaný kurz pro tento kurz nás kontaktujte, abychom to zařídili.
Úvod do AI Důvěry, Rizika a Security Management (AI TRiSM)
21 hodinyTento instruktážní živý kurz na místě nebo online je určen pro začínající a středně pokročilé IT odborníky, kteří chtějí pochopit a implementovat AI TRiSM v jejich organizacích.
Koncepci kurzu se studenti budou moci dozvědět:
- Pochopení klíčových pojmů a důležitosti správy důvěry, rizik a bezpečnosti ve AI.
- Identifikace a zmírnění rizik spojených s AI systémy.
- Implementace nejlepších praxe pro bezpečnost ve AI.
- Pochopení souladu s právními předpisy a etickými zásadami pro AI.
- Rozvoj strategií pro efektivní správu a řízení AI.
Building Secure and Responsible LLM Applications
14 hodinyTento vedený instruktorem živý kurz (online nebo na místě) je určen pro středně pokročilé až pokročilé AI vývojáře, architekty a manažery produktů, kteří chtějí identifikovat a eliminovat rizika spojená s aplikacemi založenými na LLM (Large Language Models), jako jsou injection prompts, úniky dat a nefiltrováné výstupy, přičemž začleňují bezpečnostní kontroly jako je validace vstupu, lidská kontrola a ochrana výstupů.
Na konci tohoto kurzu budou účastníci schopni:
- Porozumět základním zranitelnostem systémů na bázi LLM.
- Aplikovat bezpečnostní principy při návrhu architektury aplikací LLM.
- Používat nástroje jako Guardrails AI a LangChain pro validaci, filtrování a zajištění bezpečnosti.
- Integrovat techniky jako sandboxování, červené týmy a lidská kontrola do produkčních pipeline.
Kybernetická bezpečnost v systémech AI
14 hodinyTento instruktážní živý školení na místě nebo online je určen pro středně pokročilé odborníky v oblasti umělé inteligence a kybernetické bezpečnosti, kteří chtějí pochopit a řešit bezpečnostní úniky specifické pro modely a systémy AI, zejména ve velmi regulovaných odvětvích jako jsou finanční služby, správa dat a poradenství.
Po absolvování tohoto školení budou účastníci schopni:
- Porozumět typům protivýchodiskových útoků namířených na systémy AI a metodám pro ochranu proti nim.
- Implementovat techniky posilnění modelů pro zabezpečení potrubí strojového učení.
- Zajišťovat bezpečnost a integrity dat v modelech strojového učení.
- Navigovat po žebříčku souladu s regulačními normami spojenými s bezpečností AI.
Úvod do AI Security a Risk Management
14 hodinyTento instruktorově vedený živý školení na místě nebo online (online nebo přítomnost) je určen pro začátečníky z oblasti IT bezpečnosti, rizik a souladu, kteří chtějí pochopit základní AI bezpečnostní koncepty, vektory hrozeb a globální rámce jako NIST AI RMF a ISO/IEC 42001.
Konec tohoto školení budou účastníci schopni:
- Pochopit jedinečné bezpečnostní rizika, která přinášejí AI systémy.
- Identifikovat vektory hrozeb jako jsou protihrací útoky, otrávení dat a inverzní modelování.
- Použít základní modely správy jako je NIST AI Risk Management Framework.
- Zohodnocovat použití AI s vznikajícími standardy, souladovými pokyny a etickými principy.
OWASP GenAI Security
14 hodinyNa základě nejnovějších pokynů projektu OWASP GenAI Security Project se účastníci naučí identifikovat, hodnotit a odstraňovat hrozby specifické pro AI prostřednictvím praktických cvičení a reálných situací.
Zachování soukromí Machine Learning
14 hodinyTento instruktorově vedený živý kurz na místě nebo online je určen pro pokročilé profesionály, kteří chtějí implementovat a vyhodnotit techniky jako federované učení, bezpečné víceklientské výpočty, homomorfní šifrování a diferenciální soukromí v reálných živých paprskovech strojového učení.
Koncepce kurzu:
- Pochopit a porovnat klíčové techniky ochrany soukromí v ML.
- Implementovat systémy federovaného učení s použitím otevřených zdrojových rámci.
- Použít diferenciální soukromí pro bezpečné sdílení dat a školení modelů.
- Využívat šifrování a techniky bezpečných výpočtů k ochraně vstupů a výstupů modelů.
Red Teaming AI Systémů: Ofenzivní Bezpečnost pro ML Modely
14 hodinyToto školení vedené instruktorem (online nebo na místě) je určeno pokročilým bezpečnostním profesionálům a specialistům na strojové učení, kteří chtějí simulovat útoky na AI systémy, odhalit zranitelnosti a posílit odolnost nasazených modelů AI.
Na konci tohoto školení budou účastníci schopni:
- Simulovat skutečné hrozby pro modely strojového učení.
- Generovat protistranná příklady k testování robustnosti modelu.
- Hodnotit útočnou plochu AI API a potrubí.
- Návrh strategií red teaming pro prostředí nasazení AI.
Zabezpečení Edge AI a vnořené inteligence
14 hodinyTento školení vedené instruktorem na místě nebo online je určen pro středně zkušené inženýry a odborníky na bezpečnost, kteří chtějí chránit AI modely nasazené na okraji proti hrozbám jako jsou upravy, únik dat, nepřátelské vstupy a fyzické útoky.
Po ukončení tohoto školení budou účastníci schopni:
- Identifikovat a hodnotit bezpečnostní rizika v nasazeních AI na okraji.
- Používat techniky odolnosti proti upravám a zašifrované inferenci.
- Odborně zpevnit modely nasazené na okraji a chránit datové potrubí.
- Implementovat strategie zmírňování hrozeb specifické pro vložené a omezené systémy.
Bezpečnost a ochrana soukromí v aplikacích TinyML
21 hodinyTinyML je přístup k nasazování modelů strojového učení na zařízeních s omezenými zdroji, která fungují na okraji sítě.
Tato školení pod vedením instruktora (online nebo přímo na místě) je zaměřena na odborníky pokročilé úrovně, kteří chtějí zabezpečit kanály TinyML a implementovat techniky ochrany soukromí v aplikacích hraničního umělé inteligence (AI).
Na konci tohoto kurzu budou účastníci schopni:
- Identifikovat bezpečnostní rizika specifická pro zpracování TinyML na zařízení.
- Implementovat mechanismy ochrany soukromí pro nasazení AI na hranici sítě.
- Zpevnit modely TinyML a vestavěné systémy proti adversním hrozbám.
- Aplikovat osvědčené postupy pro zabezpečení zacházení s daty v omezených prostředích.
Formát kurzu
- Angažující přednášky podporované diskusemi vedenými odborníkem.
- Praktické cvičení s důrazem na skutečné hrozebné scénáře.
- Rukojmí implementace pomocí vestavěných bezpečnostních a nástrojů TinyML.
Možnosti přizpůsobení kurzu
- Organizace mohou požádat o upravenou verzi tohoto školení, aby se shodovala s jejich specifickými bezpečnostními a souladovými potřebami.
Bezpečná a zabezpečená agenická AI: Řízení, identita a červené týmy
21 hodinyTento kurz se zabývá řízením, správou identity a protivníckým testováním agenických AI systémů, s důrazem na bezpečné modely nasazení v podniku a praktické techniky červených týmů.
Toto kurzy vedoucí instruktoři (online nebo na místě) je určeno pokročilým praktikům, kteří chtějí navrhovat, zabezpečovat a hodnotit agentní AI systémy v produkčních prostředích.
Na konci tohoto kurzu budou účastníci schopni:
- Definovat modely a politiky řízení pro bezpečné nasazení agenických AI.
- Návrh toků identifikace a ověřování pro agenty s nejmenšími oprávněními.
- Implementovat řízení přístupu, auditní záznamy a pozorovatelnost přizpůsobené autonomním agentům.
- Plánovat a provádět cvičení červených týmů k objevu nesprávného použití, cest eskalace a rizik úniku dat.
- Omezovat běžné hrozby pro agenické systémy prostřednictvím politik, inženýrských kontrol a monitoringu.
Formát kurzu
- Interaktivní přednášky a workshopy o modelování hrozeb.
- Praktické laboratoře: poskytování identit, vynucování politik a simulace protivníků.
- Cvičení červených týmů a modrých týmů a hodnocení na konci kurzu.
Možnosti přizpůsobení kurzu
- Pro požadavek na přizpůsobený kurz se nás, prosím, obraťte k domluvě.