Návrh Školení

Úvod

    Umělé neuronové sítě vs algoritmy založené na rozhodovacím stromě

Přehled funkcí XGBoost

    Prvky algoritmu zesílení gradientu Zaměření na rychlost výpočtu a výkon modelu XGBoost vs logistická regrese Random Forest a standardní zesílení gradientu

Evoluce stromových algoritmů

    Rozhodovací stromy, Bagging, Random Forest, Boosting, Gradient Boosting Optimalizace systému Algoritmická vylepšení

Příprava prostředí

    Instalace SciPy a scikit-learn

Vytvoření modelu XGBoost

    Stažení datové sady Řešení běžného klasifikačního problému Trénink modelu XGBoost pro klasifikaci Vyřešte běžnou regresní úlohu

Sledování výkonu

    Hodnocení a vykazování výkonu Včasné zastavení

Vykreslování prvků podle důležitosti

    Výpočet důležitosti funkce Rozhodnutí, které vstupní proměnné ponechat nebo zrušit

Konfigurace zesílení přechodu

    Prohlédněte si křivky učení na trénovacích a ověřovacích datových sadách Úprava rychlosti učení Úprava počtu stromů

Ladění hyperparametrů

    Zlepšení výkonu modelu XGBoost Návrh řízeného experimentu k vyladění hyperparametrů Searchs kombinací parametrů

Vytvoření potrubí

    Začlenění modelu XGBoost do kompletního potrubí strojového učení Ladění hyperparametrů v potrubí Pokročilé techniky předběžného zpracování

Odstraňování problémů

Shrnutí a závěr

Požadavky

  • Zažijte psaní modelů strojového učení

Publikum

  • Datoví vědci
  • Inženýři strojového učení
 14 hodiny

Počet účastníků



Price per participant

Související kategorie