Návrh Školení

Úvod do Ollama

  • Co je Ollama a jak funguje?
  • Výhody spouštění modelů AI lokálně
  • Přehled podporovaných LLM (Llama, DeepSeek, Mistral atd.)

Instalace a nastavení Ollama

  • Systémové požadavky a požadavky na hardware
  • Instalace Ollama na různé operační systémy
  • Konfigurace závislostí a nastavení prostředí

Lokální spouštění modelů AI

  • Stahování a načítání modelů AI v Ollama
  • Interakce s modely prostřednictvím příkazového řádku
  • Základní rychlé inženýrství pro místní úkoly AI

Optimalizace výkonu a využití zdrojů

  • Správa hardwarových prostředků pro efektivní provádění AI
  • Snížení latence a zlepšení doby odezvy modelu
  • Srovnání výkonu pro různé modely

Use Cases pro místní nasazení AI

  • Chatboti a virtuální asistenti využívající umělou inteligenci
  • Úlohy zpracování dat a automatizace
  • Aplikace umělé inteligence zaměřené na soukromí

Shrnutí a další kroky

Požadavky

  • Základní porozumění konceptům AI a strojového učení
  • Znalost rozhraní příkazového řádku

Publikum

  • Vývojáři používající modely AI bez závislostí na cloudu
  • Business profesionálů se zájmem o soukromí AI a nákladově efektivní nasazení
  • Nadšenci umělé inteligence zkoumající nasazení místních modelů
 7 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie