Návrh Školení

Úvod do AI inference s Dockerem

  • Pochopení úloh AI inference
  • Výhody kontejnerizované inference
  • Scénáře a omezení nasazení

Vytváření AI inferenčních kontejnerů

  • Volba základních imagí a frameworků
  • Balení předtrénovaných modelů
  • Struktura kódu pro kontejnerové spuštění

Zabezpečení kontejnerizovaných AI služeb

  • Minimalizace útočné plochy kontejnerů
  • Správa tajných klíčů a citlivých souborů
  • Bezpečné strategie pro síťování a expozici API

Přenosné techniky nasazení

  • Optimalizace imagí pro přenosnost
  • Zajištění prediktibilních runtime prostředí
  • Správa závislostí napříč platformami

Lokální nasazení a testování

  • Spouštění služeb lokálně s Dockerem
  • Ladicí techniky pro kontejnery inference
  • Testování výkonu a spolehlivosti

Nasazení na serverech a cloudových VMs

  • Přizpůsobení kontejnerů vzdáleným prostředím
  • Konfigurace bezpečného přístupu k serverům
  • Nasazení API inference na cloudových VMs

Využití Docker Compose pro multi-servisní AI systémy

  • Orchestrace inference s podporujícími komponentami
  • Správa proměnných prostředí a konfigurací
  • Měření mikroservisů s Compose

Monitorování a údržba AI inferenčních služeb

  • Přístupy k logování a observabilitě
  • Detekce selhání v inference pipeleine
  • Aktualizace a verzování modelů v produkčním prostředí

Shrnutí a další kroky

Požadavky

  • Porozumění základním konceptům strojového učení
  • Zkušenosti s Pythonem nebo back-end vývojem
  • Přehled o základních konceptech kontejnerů

Účastníci

  • Vývojáři
  • Back-end inženýři
  • Týmy nasazující AI služby
 14 Hodiny

Počet účastníků


Cena za účastníka

Reference (5)

Nadcházející kurzy

Související kategorie