Návrh Školení

Přehled architektury LLM a plochy útoků

  • Jak jsou LLM vytvářeny, nasazovány a přístupné prostřednictvím API
  • Klíčové komponenty v zásobníku aplikací LLM (např. prompty, agenti, paměť, API)
  • Kde a jak se ve skutečném provozu objevují bezpečnostní problémy

Injekce promptů a útoky typu jailbreak

  • Co je injekce promptů a proč je nebezpečná
  • Přímé a nepřímé scénáře injekce promptů
  • Techtkníky jailbreakingu k obejití bezpečnostních filtrů
  • Strategie detekce a zásahů proti útokům

Potíže s unikáním dat a rizika související s ochranou soukromí

  • Náhodné odhalení dat prostřednictvím odpovědí
  • Úniky PII a špatné použití paměti modelu
  • Návrh promptů s ohledem na ochranu soukromí a generování doplněného vyhledáváním (RAG)

Filtrování a chránění výstupu LLM

  • Použití Guardrails AI pro filtraci a validaci obsahu
  • Definování schémat a omezení výstupů
  • Sledování a logování nebezpečných výstupů

Aproachy s člověkem v cyklu a pracovní postupy

  • Kde a kdy zavést lidské dohledy
  • Fronty schválení, práh hodnocení a zpracování náhradních scénářů
  • Kalibrování důvěry a rola vysvětlitelnosti

Zabezpečené LLM aplikace Design Patterns

  • Nejmenší povolení a sandboxing pro volání API a agenty
  • Omezení rychlosti, škrtací klapky a detekce zneužívání
  • Pevné propojení s LangChain a izolace promptů

Soulad, logování a Governance

  • Zajištění auditolnosti výstupů LLM
  • Udržování stopovatelnosti a kontroly verze promptu
  • Vyvážení s interními bezpečnostními politikami a požadavky na soulad

Souhrn a další kroky

Požadavky

  • Pochopení velkých jazykových modelů a prompt-založených rozhraní
  • Zkušenosti s vytvářením aplikací LLM pomocí Python
  • Znalost integrace API a cloudových nasazení

Cílová skupina

  • Vývojáři AI
  • Aplikační a řešení architekti
  • Techničtí manažeři produktů pracující s nástroji LLM
 14 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie