Privacy-Preserving Machine Learning Počítačový Kurz
Privacy-Preserving Machine Learning je oblast zaměřená na ochranu citlivých dat, zatímco stále umožňuje pokročilé AI schopnosti v decentralizovaných nebo omezených prostředích.
Tato instruktorem vedena živá školení (online nebo na místě) je určená pokročilým profesionálům, kteří chtějí implementovat a vyhodnotit techniky jako federované učení, bezpečný výpočet více stran, homomorfní šifrování a diferenciální soukromí ve skutečných strojových learning pipelinech.
Na konci tohoto školení budou účastníci schopni:
- Porozumět a porovnat klíčové techniky ochrany soukromí v ML.
- Implementovat federované systémy učení pomocí open-source rámceství.
- Aplikovat diferenciální soukromí pro bezpečné sdílení dat a trénink modelů.
- Používat šifrovací a bezpečné výpočetní techniky k ochraně vstupů a výstupů modelu.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Spousta cvičení a praktické práce.
- Hands-on implementace v živém laboratorním prostředí.
Možnosti přizpůsobení kurzu
- Pro požadavek na přizpůsobené školení se prosím obraťte na nás, abychom to uspořádali.
Návrh Školení
Úvod do Privacy-Preserving ML
- Pohnutky a rizika v prostředích s citlivými daty
- Přehled technik Privacy-Preserving ML
- Hrozbové modely a regulační aspekty (např. GDPR, HIPAA)
Federované učení
- Koncept a architektura federovaného učení
- Synchronizace a agregace klient-serveru
- Implementace pomocí PySyft a Flower
Diferenciální soukromí
- Matematika diferenciálního soukromí
- Aplikace DP v dotazování dat a tréninku modelů
- Použití Opacus a TensorFlow Privacy
Bezpečný výpočet více stran (SMPC)
- Protokoly SMPC a případové využití
- Šifrovací vs. tajné sdílení přístupy
- Bezpečné výpočetní pracovní postupy s CrypTen nebo PySyft
Homomorfní šifrování
- Plně vs. částečně homomorfní šifrování
- Šifrované odvozování pro citlivé pracovní vytížení
- Praktická práce s TenSEAL a Microsoft SEAL
Aplikace a případové studie z praxe
- Soukromí v zdravotnictví: federované učení pro medicínskou AI
- Bezpečná spolupráce ve financích: rizikové modely a dodržování požadavků
- Případové studie z obrany a státní správy
Shrnutí a další kroky
Požadavky
- Pochopení principů strojového učení
- Zkušenosti s Pythonem a knihovnami ML (např. PyTorch, TensorFlow)
- Opačnost s koncepty ochrany dat nebo kybernetické bezpečnosti je užitečná
Cílová skupina
- Výzkumníci AI
- Týmy pro ochranu dat a dodržování požadavků na soukromí
- Bezpečnostní inženýři pracující v regulovaných odvětvích
Veřejné školení vyžaduje minimálně 5 účastníků.
Privacy-Preserving Machine Learning Počítačový Kurz - Rezervace
Privacy-Preserving Machine Learning Počítačový Kurz - Dotaz
Privacy-Preserving Machine Learning - Dotaz ohledně konzultace
Dotaz ohledně konzultace
Nadcházející kurzy
Související kurzy
ISACA Advanced in AI Security Management (AAISM)
21 hodinyAAISM je pokročilý rámec pro hodnocení, správu a řízení bezpečnostních rizik v systémech umělé inteligence.
Toto instruktorem vedené živé školení (online nebo na místě) je zaměřeno na pokročilé odborníky, kteří chtějí implementovat efektivní bezpečnostní kontroly a správné praktiky pro podnikové AI prostředí.
Na konci tohoto programu budou účastníci připraveni:
- Hodnotit bezpečnostní rizika AI pomocí průmyslově uznávaných metodologií.
- Implementovat modely správy pro odpovědné nasazení AI.
- Spolknout bezpečnostní politiky AI s cíly organizace a požadavky regulačních orgánů.
- Zlepšit odolnost a zodpovědnost v operačním prostředí poháněném AI.
Formát kurzu
- Podporované přednášky s odbornou analýzou.
- Praktické workshopy a aktivity založené na hodnocení.
- Aplikované cvičení pomocí reálných scénářů správy AI.
Možnosti přizpůsobení kurzu
- Pro školení přizpůsobené vaší podnikové strategii AI, nás kontaktujte pro přizpůsobení kurzu.
Řízení, dodržování předpisů a bezpečnost AI pro vedení podniku
14 hodinyToto vedení instruktorem živého školení České republice (online nebo na místě) je zaměřeno na středně pokročilé vedoucí pracovníky podniku, kteří chtějí pochopit, jak odpovědně spravovat a zabezpečovat AI systémy v souladu s novými globálními rámci jako je např. EU AI Act, GDPR, ISO/IEC 42001 aExecutive Order on AI Spojených států.
Na konci tohoto školení budou účastníci schopni:
- Porozumět právním, etickým a regulačním rizikům použití AI ve všech odděleních.
- Interpretovat a uplatňovat hlavní rámce pro řízení AI (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Zavedovat zásady bezpečnosti, auditu a dozoru pro nasazení AI v podniku.
- Vytvářet směrnice pro nákup a použití třetích stran a interních AI systémů.
Řízení rizik umělé inteligence a bezpečnost ve veřejném sektoru
7 hodinyUmělá inteligence (AI) přináší nové rozměry operačních rizik, výzev pro správu a zranitelnost z hlediska kybernetické bezpečnosti pro státní orgány a úřady.
Tato instruktorem védaná živá školení (online nebo na místě) je určená IT a rizikovým odborníkům ve veřejném sektoru s omezenou předchozí zkušeností s AI, kteří chtějí pochopit, jak hodnotit, sledovat a zajistit AI systémy v rámci státních nebo regulačních kontextů.
Na konci tohoto školení budou účastníci schopni:
- Interpretovat klíčové pojmy rizik souvisejících s AI systémy, včetně předsudků, nepředvídatelnosti a modelového posunu.
- Používat AI specifická rámce pro řízení a audit, jako je NIST AI RMF a ISO/IEC 42001.
- Rozpoznávat kybernetické hrozby namířené proti AI modelům a datovým potokům.
- Vytvářet meziúřední řídicí plány pro řízení rizik a politickou souladnost při nasazení AI.
Formát kurzu
- Interaktivní přednášky a diskuse o případech použití ve veřejném sektoru.
- Cvičení s rámci pro řízení AI a mapování politik.
- Scénářové modelování hrozeb a hodnocení rizik.
Možnosti přizpůsobení kurzu
- Pro požadavek na přizpůsobené školení tohoto kurzu nás prosím kontaktujte, abychom to domluvili.
Úvod do AI Důvěry, Rizika a Security Management (AI TRiSM)
21 hodinyTento instruktážní živý kurz na místě nebo online je určen pro začínající a středně pokročilé IT odborníky, kteří chtějí pochopit a implementovat AI TRiSM v jejich organizacích.
Koncepci kurzu se studenti budou moci dozvědět:
- Pochopení klíčových pojmů a důležitosti správy důvěry, rizik a bezpečnosti ve AI.
- Identifikace a zmírnění rizik spojených s AI systémy.
- Implementace nejlepších praxe pro bezpečnost ve AI.
- Pochopení souladu s právními předpisy a etickými zásadami pro AI.
- Rozvoj strategií pro efektivní správu a řízení AI.
Building Secure and Responsible LLM Applications
14 hodinyTento vedený instruktorem živý kurz (online nebo na místě) je určen pro středně pokročilé až pokročilé AI vývojáře, architekty a manažery produktů, kteří chtějí identifikovat a eliminovat rizika spojená s aplikacemi založenými na LLM (Large Language Models), jako jsou injection prompts, úniky dat a nefiltrováné výstupy, přičemž začleňují bezpečnostní kontroly jako je validace vstupu, lidská kontrola a ochrana výstupů.
Na konci tohoto kurzu budou účastníci schopni:
- Porozumět základním zranitelnostem systémů na bázi LLM.
- Aplikovat bezpečnostní principy při návrhu architektury aplikací LLM.
- Používat nástroje jako Guardrails AI a LangChain pro validaci, filtrování a zajištění bezpečnosti.
- Integrovat techniky jako sandboxování, červené týmy a lidská kontrola do produkčních pipeline.
Kybernetická bezpečnost v systémech AI
14 hodinyTento instruktážní živý školení na místě nebo online je určen pro středně pokročilé odborníky v oblasti umělé inteligence a kybernetické bezpečnosti, kteří chtějí pochopit a řešit bezpečnostní úniky specifické pro modely a systémy AI, zejména ve velmi regulovaných odvětvích jako jsou finanční služby, správa dat a poradenství.
Po absolvování tohoto školení budou účastníci schopni:
- Porozumět typům protivýchodiskových útoků namířených na systémy AI a metodám pro ochranu proti nim.
- Implementovat techniky posilnění modelů pro zabezpečení potrubí strojového učení.
- Zajišťovat bezpečnost a integrity dat v modelech strojového učení.
- Navigovat po žebříčku souladu s regulačními normami spojenými s bezpečností AI.
Úvod do bezpečnosti a řízení rizik umělé inteligence
14 hodinyToto instruktorem vedeno živé školení v České republice (online nebo na místě) je určené začínajícím profesionálům v oblasti IT bezpečnosti, řízení rizik a soudržnosti, kteří chtějí pochopit základní koncepty bezpečnosti umělé inteligence, hrozebné vektory a globální rámce jako je NIST AI RMF a ISO/IEC 42001.
Na konci tohoto školení budou účastníci schopni:
- Pochopit jedinečné bezpečnostní rizika zavedená systémy umělé inteligence.
- Identifikovat hrozebné vektory jako jsou adversariální útoky, otravování dat a inverzní modely.
- Použít základní správní modely jako je NIST AI Risk Management Framework.
- Zapojit používání umělé inteligence do vznikajících standardů, soudržnostních směrnic a etických principů.
OWASP GenAI Security
14 hodinyNa základě nejnovějších pokynů projektu OWASP GenAI Security Project se účastníci naučí identifikovat, hodnotit a odstraňovat hrozby specifické pro AI prostřednictvím praktických cvičení a reálných situací.
Red Teaming AI Systémů: Ofenzivní Bezpečnost pro ML Modely
14 hodinyToto školení vedené instruktorem (online nebo na místě) je určeno pokročilým bezpečnostním profesionálům a specialistům na strojové učení, kteří chtějí simulovat útoky na AI systémy, odhalit zranitelnosti a posílit odolnost nasazených modelů AI.
Na konci tohoto školení budou účastníci schopni:
- Simulovat skutečné hrozby pro modely strojového učení.
- Generovat protistranná příklady k testování robustnosti modelu.
- Hodnotit útočnou plochu AI API a potrubí.
- Návrh strategií red teaming pro prostředí nasazení AI.
Zabezpečení Edge AI a vložené inteligence
14 hodinyToto vedené instruktorem živé školení České republice (on-line nebo na místě) je určeno středně pokročilým inženýrům a odborníkům na bezpečnost, kteří chtějí zabezpečit AI modely nasazené u hraničních zařízení proti hrozbám jako jsou manipulace, únik dat, adversariální vstupy a fyzické útoky.
Na konci tohoto školení budou účastníci schopni:
- Identifikovat a hodnotit bezpečnostní rizika v nasazeních Edge AI.
- Aplikovat techniky odolnosti proti manipulaci a šifrované inference.
- Posílit modely nasazené na hraničních zařízeních a zabezpečit datové potoky.
- Implementovat strategie odolnosti proti hrozbám specifickým pro vložené a omezené systémy.
Zabezpečení AI modelů: hrozby, útoky a obrany
14 hodinyTuto instruktorem vedenou živou školení v České republice (online nebo na místě) je zaměřeno na středně pokročilé odborníky v oblasti strojového učení a kybernetické bezpečnosti, kteří chtějí pochopit a zmírnit nové hrozby proti AI modelům pomocí konceptuálních rámceství a praktických obranných metod jako robustní trénink a diferenciální soukromí.
Na konci tohoto školení budou účastníci schopni:
- Identifikovat a klasifikovat AI specifické hrozby, jako jsou adversní útoky, inverze a otravování.
- Používat nástroje jako Adversarial Robustness Toolbox (ART) k simulaci útoků a testování modelů.
- Aplikovat praktické obranné metody včetně adversního tréninku, vložení šumu a technik ochraňujících soukromí.
- Návrh strategií hodnocení modelů s ohledem na hrozby ve produkčních prostředích.
Bezpečnost a ochrana soukromí v aplikacích TinyML
21 hodinyTinyML je přístup k nasazování modelů strojového učení na zařízeních s omezenými zdroji, která fungují na okraji sítě.
Tato školení pod vedením instruktora (online nebo přímo na místě) je zaměřena na odborníky pokročilé úrovně, kteří chtějí zabezpečit kanály TinyML a implementovat techniky ochrany soukromí v aplikacích hraničního umělé inteligence (AI).
Na konci tohoto kurzu budou účastníci schopni:
- Identifikovat bezpečnostní rizika specifická pro zpracování TinyML na zařízení.
- Implementovat mechanismy ochrany soukromí pro nasazení AI na hranici sítě.
- Zpevnit modely TinyML a vestavěné systémy proti adversním hrozbám.
- Aplikovat osvědčené postupy pro zabezpečení zacházení s daty v omezených prostředích.
Formát kurzu
- Angažující přednášky podporované diskusemi vedenými odborníkem.
- Praktické cvičení s důrazem na skutečné hrozebné scénáře.
- Rukojmí implementace pomocí vestavěných bezpečnostních a nástrojů TinyML.
Možnosti přizpůsobení kurzu
- Organizace mohou požádat o upravenou verzi tohoto školení, aby se shodovala s jejich specifickými bezpečnostními a souladovými potřebami.
Bezpečná a zabezpečená agenická AI: Řízení, identita a červené týmy
21 hodinyTento kurz se zabývá řízením, správou identity a protivníckým testováním agenických AI systémů, s důrazem na bezpečné modely nasazení v podniku a praktické techniky červených týmů.
Toto kurzy vedoucí instruktoři (online nebo na místě) je určeno pokročilým praktikům, kteří chtějí navrhovat, zabezpečovat a hodnotit agentní AI systémy v produkčních prostředích.
Na konci tohoto kurzu budou účastníci schopni:
- Definovat modely a politiky řízení pro bezpečné nasazení agenických AI.
- Návrh toků identifikace a ověřování pro agenty s nejmenšími oprávněními.
- Implementovat řízení přístupu, auditní záznamy a pozorovatelnost přizpůsobené autonomním agentům.
- Plánovat a provádět cvičení červených týmů k objevu nesprávného použití, cest eskalace a rizik úniku dat.
- Omezovat běžné hrozby pro agenické systémy prostřednictvím politik, inženýrských kontrol a monitoringu.
Formát kurzu
- Interaktivní přednášky a workshopy o modelování hrozeb.
- Praktické laboratoře: poskytování identit, vynucování politik a simulace protivníků.
- Cvičení červených týmů a modrých týmů a hodnocení na konci kurzu.
Možnosti přizpůsobení kurzu
- Pro požadavek na přizpůsobený kurz se nás, prosím, obraťte k domluvě.