Návrh Školení

Úvod do Ollama

  • Co je Ollama a jak funguje?
  • Výhody spouštění AI modelů lokálně
  • Přehled podporovaných LLM (Llama, DeepSeek, Mistral atd.)

Instalace a nastavení Ollama

  • Požadavky na systém a hardware
  • Instalace Ollama na různých operačních systémech
  • Konfigurace závislostí a nastavení prostředí

Spouštění AI modelů lokálně

  • Stažení a načtení AI modelů do Ollama
  • Interakce s modelem prostřednictvím příkazového řádku
  • Základní prompt engineering pro lokální AI úlohy

Optimalizace výkonu a využití zdrojů

  • Správa hardwarových prostředků pro efektivní spouštění AI modelů
  • Snížení latency a zlepšení reakční doby modelu
  • Změření výkonu různých modelů

Případové studie pro lokální AI nasazení

  • AI-založené chatbota a virtuální asistenti
  • Zpracování dat a automatizace úloh
  • Soukromost-orientovaná AI aplikace

Shrnutí a další kroky

Požadavky

  • Základní znalost konceptů umělé inteligence a strojového učení
  • Příznaky s příkazovými řádky

Cílová skupina

  • Vývojáři, kteří spouštějí AI modely bez závislosti na cloudu
  • Business odborníci zajímající se o soukromí a nákladově efektivní nasazení AI
  • Fandom umělé inteligence zkoumající místní nasazení modelů
 7 hodiny

Počet účastníků


Price per participant

Upcoming Courses

Související kategorie