Bezpečnost a ochrana soukromí v aplikacích TinyML Počítačový Kurz
TinyML je přístup k nasazování modelů strojového učení na zařízeních s omezenými zdroji, která fungují na okraji sítě.
Tato školení pod vedením instruktora (online nebo přímo na místě) je zaměřena na odborníky pokročilé úrovně, kteří chtějí zabezpečit kanály TinyML a implementovat techniky ochrany soukromí v aplikacích hraničního umělé inteligence (AI).
Na konci tohoto kurzu budou účastníci schopni:
- Identifikovat bezpečnostní rizika specifická pro zpracování TinyML na zařízení.
- Implementovat mechanismy ochrany soukromí pro nasazení AI na hranici sítě.
- Zpevnit modely TinyML a vestavěné systémy proti adversním hrozbám.
- Aplikovat osvědčené postupy pro zabezpečení zacházení s daty v omezených prostředích.
Formát kurzu
- Angažující přednášky podporované diskusemi vedenými odborníkem.
- Praktické cvičení s důrazem na skutečné hrozebné scénáře.
- Rukojmí implementace pomocí vestavěných bezpečnostních a nástrojů TinyML.
Možnosti přizpůsobení kurzu
- Organizace mohou požádat o upravenou verzi tohoto školení, aby se shodovala s jejich specifickými bezpečnostními a souladovými potřebami.
Návrh Školení
Úvod do bezpečnosti v TinyML
- Bezpečnostní výzvy ve strojovém učení s omezenými zdroji
- Modely hrozeb pro nasazení TinyML
- Kategorie rizik v aplikacích vestavěné AI
Ochrana soukromí ve hraničním AI
- Aspekty ochrany soukromí při zpracování dat na zařízení
- Minimalizace expozice a přenosu dat
- Techniky pro decentralizované zacházení s daty
Adversní útoky na modely TinyML
- Hrozby z přehlížení a otrávení modelů
- Manipulace s vstupy vestavěných senzorů
- Hodnocení zranitelnosti v omezených prostředích
Zpevnění bezpečnosti pro vestavěné ML
- Ochranné vrstvy firmware a hardwaru
- Mechanismy řízení přístupu a bezpečného spouštění
- Osvědčené postupy pro zabezpečení kanálů inference
Techniky ochrany soukromí v TinyML
- Zvážení kvantizace a návrh modelů pro ochranu soukromí
- Techniky anonymizace na zařízení
- Lehké šifrování a metody bezpečného výpočtu
Bezpečné nasazení a údržba
- Bezpečné poskytování zařízení TinyML
- Strategie pro aktualizace OTA a opravy
- Monitoring a reakce na incidenty na hranici sítě
Testování a ověřování bezpečných systémů TinyML
- Bezpečnostní a ochranářské testovací frameworky
- Simulace skutečných útoků v praxi
- Ověřování a záležitosti souladu
Případové studie a aplikované scénáře
- Bezpečnostní selhání v ekosystémech hraničního AI
- Návrh odolných architektur TinyML
- Hodnocení kompromisů mezi výkonem a ochranou
Shrnutí a další kroky
Požadavky
- Porozumění architektuře vestavěných systémů
- Zkušenosti s pracovními postupy strojového učení
- znalost základů kyberbezpečnosti
Cílová skupina
- Analýtici bezpečnosti
- Vývojáři AI
- Inženýři vestavěných systémů
Veřejné školení vyžaduje minimálně 5 účastníků.
Bezpečnost a ochrana soukromí v aplikacích TinyML Počítačový Kurz - Rezervace
Bezpečnost a ochrana soukromí v aplikacích TinyML Počítačový Kurz - Dotaz
Bezpečnost a ochrana soukromí v aplikacích TinyML - Dotaz ohledně konzultace
Dotaz ohledně konzultace
Nadcházející kurzy
Související kurzy
AI Governance, Compliance, a Zabezpečení pro Vedení Podniků
14 hodinyTento instruktážní živý trénink na místě nebo vzdáleně je určen pro středně pokročilé podnikové vůdce, kteří chtějí pochopit, jak řídit a zabezpečit AI systémy zodpovědným způsobem a v souladu s evolvujícími globálními rámci jako je EU AI Act, GDPR, ISO/IEC 42001 a usnesení prezidenta USA o AI.
Po skončení tohoto tréninku budou účastníci schopni:
- Porozumět právním, etickým a regulačním rizikům používání AI v různých odděleních.
- Interpretovat a aplikovat hlavní rámce pro řízení AI (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Vytvořit zásady zabezpečení, auditu a dohledu pro nasazení AI v podniku.
- Vyvinout nákupní a užívání pokyny pro třetích stran a interní AI systémy.
Umělá inteligence Risk Management a bezpečnost ve veřejném sektoru
7 hodinyArtificial Intelligence (AI) přináší nové rozměry operativního rizika, výzv pro správu a zvýšenou expozici na cybersicheritu pro státní orgány a oddělení.
Tento instruktorově prováděný živý kurz (online nebo na místním pozemku) je zaměřen na IT a rizikové profesionály ve veřejné správě s omezenou předchozí zkušeností s AI, kteří chtějí porozumět tomu, jak hodnotit, sledovat a chránit AI systémy v rámci státních nebo regulativních kontextů.
Po skončení tohoto kurzu budou účastníci schopni:
- Interpretovat klíčové pojmy spojené s riziky AI systémů, včetně biasu, nepředvídatelnosti a model drift.
- Použít AI specifická rámce správy a auditování jako jsou NIST AI RMF a ISO/IEC 42001.
- Rozpoznat cybersicheritní hrozby cílené na AI modely a datové potoky.
- Vytvořit křížové oddělení rizikových manažerských plánů a shody politik pro nasazení AI.
Formát kurzu
- Interaktivní přednáška a diskuse o použitích v veřejné správě.
- Cvičení s rámci AI správy a mapování politik.
- Modelování hrozeb a hodnocení rizik na základě scénářů.
Možnosti přizpůsobení kurzu
- Pro žádost o individualizovaný kurz pro tento kurz nás kontaktujte, abychom to zařídili.
Úvod do AI Důvěry, Rizika a Security Management (AI TRiSM)
21 hodinyTento instruktážní živý kurz na místě nebo online je určen pro začínající a středně pokročilé IT odborníky, kteří chtějí pochopit a implementovat AI TRiSM v jejich organizacích.
Koncepci kurzu se studenti budou moci dozvědět:
- Pochopení klíčových pojmů a důležitosti správy důvěry, rizik a bezpečnosti ve AI.
- Identifikace a zmírnění rizik spojených s AI systémy.
- Implementace nejlepších praxe pro bezpečnost ve AI.
- Pochopení souladu s právními předpisy a etickými zásadami pro AI.
- Rozvoj strategií pro efektivní správu a řízení AI.
Building Secure and Responsible LLM Applications
14 hodinyTento vedený instruktorem živý kurz (online nebo na místě) je určen pro středně pokročilé až pokročilé AI vývojáře, architekty a manažery produktů, kteří chtějí identifikovat a eliminovat rizika spojená s aplikacemi založenými na LLM (Large Language Models), jako jsou injection prompts, úniky dat a nefiltrováné výstupy, přičemž začleňují bezpečnostní kontroly jako je validace vstupu, lidská kontrola a ochrana výstupů.
Na konci tohoto kurzu budou účastníci schopni:
- Porozumět základním zranitelnostem systémů na bázi LLM.
- Aplikovat bezpečnostní principy při návrhu architektury aplikací LLM.
- Používat nástroje jako Guardrails AI a LangChain pro validaci, filtrování a zajištění bezpečnosti.
- Integrovat techniky jako sandboxování, červené týmy a lidská kontrola do produkčních pipeline.
Kybernetická bezpečnost v systémech AI
14 hodinyTento instruktážní živý školení na místě nebo online je určen pro středně pokročilé odborníky v oblasti umělé inteligence a kybernetické bezpečnosti, kteří chtějí pochopit a řešit bezpečnostní úniky specifické pro modely a systémy AI, zejména ve velmi regulovaných odvětvích jako jsou finanční služby, správa dat a poradenství.
Po absolvování tohoto školení budou účastníci schopni:
- Porozumět typům protivýchodiskových útoků namířených na systémy AI a metodám pro ochranu proti nim.
- Implementovat techniky posilnění modelů pro zabezpečení potrubí strojového učení.
- Zajišťovat bezpečnost a integrity dat v modelech strojového učení.
- Navigovat po žebříčku souladu s regulačními normami spojenými s bezpečností AI.
Úvod do AI Security a Risk Management
14 hodinyTento instruktorově vedený živý školení na místě nebo online (online nebo přítomnost) je určen pro začátečníky z oblasti IT bezpečnosti, rizik a souladu, kteří chtějí pochopit základní AI bezpečnostní koncepty, vektory hrozeb a globální rámce jako NIST AI RMF a ISO/IEC 42001.
Konec tohoto školení budou účastníci schopni:
- Pochopit jedinečné bezpečnostní rizika, která přinášejí AI systémy.
- Identifikovat vektory hrozeb jako jsou protihrací útoky, otrávení dat a inverzní modelování.
- Použít základní modely správy jako je NIST AI Risk Management Framework.
- Zohodnocovat použití AI s vznikajícími standardy, souladovými pokyny a etickými principy.
Deploying AI na Mikrokontrolérech s TinyML
21 hodinyToto instruktážní, živé školení v České republice (online nebo na místě) je určeno pro středně pokročilé inženýry embedded systémů a vývojáře AI, kteří chtějí nasadit modely strojového učení na mikrokontrolery pomocí TensorFlow Lite a Edge Impulse.
Po absolvování tohoto školení budou účastníci schopni:
- Pochopit základy TinyML a jeho výhody pro aplikace hraniční AI.
- Nastavit vývojové prostředí pro projekty TinyML.
- Trénovat, optimalizovat a nasadit modely AI na mikrokontrolery s nízkou spotřebu energie.
- Použít TensorFlow Lite a Edge Impulse k implementaci reálných aplikací TinyML.
- Optimalizovat modely AI pro energetickou účinnost a omezující faktory paměti.
OWASP GenAI Security
14 hodinyNa základě nejnovějších pokynů projektu OWASP GenAI Security Project se účastníci naučí identifikovat, hodnotit a odstraňovat hrozby specifické pro AI prostřednictvím praktických cvičení a reálných situací.
Zachování soukromí Machine Learning
14 hodinyTento instruktorově vedený živý kurz na místě nebo online je určen pro pokročilé profesionály, kteří chtějí implementovat a vyhodnotit techniky jako federované učení, bezpečné víceklientské výpočty, homomorfní šifrování a diferenciální soukromí v reálných živých paprskovech strojového učení.
Koncepce kurzu:
- Pochopit a porovnat klíčové techniky ochrany soukromí v ML.
- Implementovat systémy federovaného učení s použitím otevřených zdrojových rámci.
- Použít diferenciální soukromí pro bezpečné sdílení dat a školení modelů.
- Využívat šifrování a techniky bezpečných výpočtů k ochraně vstupů a výstupů modelů.
Red Teaming AI Systémů: Ofenzivní Bezpečnost pro ML Modely
14 hodinyToto školení vedené instruktorem (online nebo na místě) je určeno pokročilým bezpečnostním profesionálům a specialistům na strojové učení, kteří chtějí simulovat útoky na AI systémy, odhalit zranitelnosti a posílit odolnost nasazených modelů AI.
Na konci tohoto školení budou účastníci schopni:
- Simulovat skutečné hrozby pro modely strojového učení.
- Generovat protistranná příklady k testování robustnosti modelu.
- Hodnotit útočnou plochu AI API a potrubí.
- Návrh strategií red teaming pro prostředí nasazení AI.
Zabezpečení Edge AI a vnořené inteligence
14 hodinyTento školení vedené instruktorem na místě nebo online je určen pro středně zkušené inženýry a odborníky na bezpečnost, kteří chtějí chránit AI modely nasazené na okraji proti hrozbám jako jsou upravy, únik dat, nepřátelské vstupy a fyzické útoky.
Po ukončení tohoto školení budou účastníci schopni:
- Identifikovat a hodnotit bezpečnostní rizika v nasazeních AI na okraji.
- Používat techniky odolnosti proti upravám a zašifrované inferenci.
- Odborně zpevnit modely nasazené na okraji a chránit datové potrubí.
- Implementovat strategie zmírňování hrozeb specifické pro vložené a omezené systémy.
Securing AI Models: Threats, Attacks, and Defenses
14 hodinyTento instruktorův kurz (na místě nebo online) je zaměřen na středně pokročilé odborníky v oblasti strojového učení a kybernetické bezpečnosti, kteří chtějí porozumět a minimalizovat nově vznikající hrozby proti AI modelům, pomocí jak konceptuálních rámce, tak praktických obranných metod jako je robustní školení a diferenciální soukromí.
Koncepčně se studenté budou moci:
- Identifikovat a klasifikovat AI-specifické hrozby, jako jsou protiútočné útoky, invertace a otrávení.
- Použít nástroje jako Adversarial Robustness Toolbox (ART) pro simulaci útoků a testování modelů.
- Aplikovat praktické obranné metody, včetně protiútočného školení, vložení šumu a technik ochrany soukromí.
- Navrhovat hrozby-vědomé strategie hodnocení modelů ve výrobních prostředích.
Bezpečná a zabezpečená agenická AI: Řízení, identita a červené týmy
21 hodinyTento kurz se zabývá řízením, správou identity a protivníckým testováním agenických AI systémů, s důrazem na bezpečné modely nasazení v podniku a praktické techniky červených týmů.
Toto kurzy vedoucí instruktoři (online nebo na místě) je určeno pokročilým praktikům, kteří chtějí navrhovat, zabezpečovat a hodnotit agentní AI systémy v produkčních prostředích.
Na konci tohoto kurzu budou účastníci schopni:
- Definovat modely a politiky řízení pro bezpečné nasazení agenických AI.
- Návrh toků identifikace a ověřování pro agenty s nejmenšími oprávněními.
- Implementovat řízení přístupu, auditní záznamy a pozorovatelnost přizpůsobené autonomním agentům.
- Plánovat a provádět cvičení červených týmů k objevu nesprávného použití, cest eskalace a rizik úniku dat.
- Omezovat běžné hrozby pro agenické systémy prostřednictvím politik, inženýrských kontrol a monitoringu.
Formát kurzu
- Interaktivní přednášky a workshopy o modelování hrozeb.
- Praktické laboratoře: poskytování identit, vynucování politik a simulace protivníků.
- Cvičení červených týmů a modrých týmů a hodnocení na konci kurzu.
Možnosti přizpůsobení kurzu
- Pro požadavek na přizpůsobený kurz se nás, prosím, obraťte k domluvě.
Úvod do TinyML
14 hodinyTento instruktážní živý výcvik na místě nebo online je určen pro začínající inženýry a datové vědce, kteří chtějí pochopit základy TinyML,zkoumat jeho aplikace a nasazovat AI modely na mikrokontrolery.
Konec tohoto výcviku budou účastníci schopni:
- Pochopit základy TinyML a jejich význam.
- Nasazovat lehké AI modely na mikrokontrolery a zařízení na okraji sítě.
- Optimalizovat a posouzená modely strojového učení pro nízký spotřebu energie.
- Aplikovat TinyML pro skutečné aplikace, jako je rozpoznávání gest, detekce anomálií a zpracování zvuku.
TinyML: Spuštění AI na zařízeních s ultra nízkým spotřebou energie
21 hodinyTento instruktorově řízené,živé školení v České republice (online nebo na místním přednáškovém zařízení) je určen pro středně kvalifikované inženýry s embedded systémy, vývojáře IoT a AI badatele, kteří chtějí implementovat techniky TinyML pro AI-zapojené aplikace na energeticky efektivní hardwaru.
Po ukončení tohoto školení budou účastníci schopni:
- Pochopit základy TinyML a hraničního AI.
- Nasazovat lehké AI modely na mikrokontroléry.
- Optimalizovat AI dedukci pro nízkou spotřebu energie.
- Integrace TinyML s skutečnými IoT aplikacemi.