Návrh Školení

Úvod

    Co jsou Large Language Models (LLMs)? LLM vs tradiční modely NLP Přehled funkcí a architektury LLM Výzvy a omezení LLM

Pochopení LLM

    Životní cyklus LLM Jak LLM fungují Hlavní součásti LLM: kodér, dekodér, pozornost, vložení atd.

Začínáme

    Nastavení vývojového prostředí Instalace LLM jako vývojového nástroje, např. Google Colab, Hugging Face

Práce s LLM

    Prozkoumání dostupných možností LLM Vytvoření a používání LLM Jemné doladění LLM na vlastní datové sadě

Shrnutí textu

    Pochopení úlohy sumarizace textu a jejích aplikací Použití LLM pro extrakční a abstraktní sumarizaci textu Hodnocení kvality generovaných souhrnů pomocí metrik jako ROUGE, BLEU atd.

Odpověď na otázku

    Pochopení úlohy zodpovězení otázek a jejích aplikací Použití LLM pro zodpovídání otázek v otevřené a uzavřené doméně Hodnocení přesnosti generovaných odpovědí pomocí metrik jako F1, EM atd.

Generování textu

    Pochopení úlohy generování textu a jeho aplikací Použití LLM pro podmíněné a nepodmíněné generování textu Ovládání stylu, tónu a obsahu generovaných textů pomocí parametrů, jako je teplota, top-k, top-p atd.

Integrace LLM s jinými frameworky a platformami

    Používání LLM s PyTorch nebo TensorFlow Používání LLM s Flask nebo Streamlit Používání LLM s Google Cloud nebo AWS

Odstraňování problémů

    Pochopení běžných chyb a chyb v LLM Použití TensorBoard k monitorování a vizualizaci tréninkového procesu Použití PyTorch Lightning ke zjednodušení tréninkového kódu a zlepšení výkonu Použití Hugging Face Datasets k načtení a předběžnému zpracování dat

Shrnutí a další kroky

Požadavky

    Porozumění zpracování přirozeného jazyka a hluboké učení Zkušenosti s Pythonem a PyTorch nebo TensorFlow Basic zkušenostmi s programováním

Publikum

    Vývojáři NLP nadšenci Data vědci
 14 hodiny

Počet účastníků



Price per participant

Související kurzy

Související kategorie