Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Návrh Školení
Přehled architektury LLM a plochy útoků
- Jak jsou LLM vytvářeny, nasazovány a přístupné prostřednictvím API
- Klíčové komponenty v zásobníku aplikací LLM (např. prompty, agenti, paměť, API)
- Kde a jak se ve skutečném provozu objevují bezpečnostní problémy
Injekce promptů a útoky typu jailbreak
- Co je injekce promptů a proč je nebezpečná
- Přímé a nepřímé scénáře injekce promptů
- Techtkníky jailbreakingu k obejití bezpečnostních filtrů
- Strategie detekce a zásahů proti útokům
Potíže s unikáním dat a rizika související s ochranou soukromí
- Náhodné odhalení dat prostřednictvím odpovědí
- Úniky PII a špatné použití paměti modelu
- Návrh promptů s ohledem na ochranu soukromí a generování doplněného vyhledáváním (RAG)
Filtrování a chránění výstupu LLM
- Použití Guardrails AI pro filtraci a validaci obsahu
- Definování schémat a omezení výstupů
- Sledování a logování nebezpečných výstupů
Aproachy s člověkem v cyklu a pracovní postupy
- Kde a kdy zavést lidské dohledy
- Fronty schválení, práh hodnocení a zpracování náhradních scénářů
- Kalibrování důvěry a rola vysvětlitelnosti
Zabezpečené LLM aplikace Design Patterns
- Nejmenší povolení a sandboxing pro volání API a agenty
- Omezení rychlosti, škrtací klapky a detekce zneužívání
- Pevné propojení s LangChain a izolace promptů
Soulad, logování a Governance
- Zajištění auditolnosti výstupů LLM
- Udržování stopovatelnosti a kontroly verze promptu
- Vyvážení s interními bezpečnostními politikami a požadavky na soulad
Souhrn a další kroky
Požadavky
- Pochopení velkých jazykových modelů a prompt-založených rozhraní
- Zkušenosti s vytvářením aplikací LLM pomocí Python
- Znalost integrace API a cloudových nasazení
Cílová skupina
- Vývojáři AI
- Aplikační a řešení architekti
- Techničtí manažeři produktů pracující s nástroji LLM
14 hodiny