Návrh Školení

Základy NiFi a toku dat

  • Data v pohybu vs. data v klidu: koncepty a výzvy
  • Architektura NiFi: jádra, řadič toku, poznávání a oznámení
  • Klíčové komponenty: procesory, připojení, řadiče a poznávání

Big Data kontext a integrace

  • Role NiFi v ekosystémech Big Data (Hadoop, Kafka, cloudové úložiště)
  • Přehled HDFS, MapReduce a moderních alternativ
  • Použití: streamování dat, převádění logů, event pipelines

Instalace, konfigurace & nastavení clusteru

  • Instalace NiFi v jednoduchém a clustrovém režimu
  • Konfigurace clusteru: role uzlů, Zookeeper a vyvažování zatížení
  • Správa nasazení NiFi: pomocí Ansible, Docker nebo Helm

Návrh a správa toku dat

  • Směrování, filtrování, rozdělování a sloučování toků
  • Konfigurace procesorů (InvokeHTTP, QueryRecord, PutDatabaseRecord atd.)
  • Zpracování schémat, obohacování a transformace dat
  • Obsluha chyb, opakování vztahů a zpětný tlak

Scénáře integrace

  • Připojení k databázím, systémům zpráv, REST API
  • Streamování do analytických systémů: Kafka, Elasticsearch nebo cloudové úložiště
  • Integrace s Splunk, Prometheus nebo logovacími pipeliney

Sledování, obnovení & poznávání

  • Použití UI NiFi, metrik a vizualizace poznávání
  • Návrh autonomního obnovení a elegantné obsluhy selhání
  • Zálohování, verze toku a správa změn

Optimalizace výkonu & optimalizace

  • JVM tunování, heap, thread pools a clustrové parametry
  • Optimalizace návrhu toku pro snížení lahvích hrdel
  • Izolace zdrojů, priorizace toku a kontrola propustnosti

Odborné postupy & řízení

  • Dokumentace toku, standardy pojmenování, modulární návrh
  • Zabezpečení: TLS, ověřování, řízení přístupu, šifrování dat
  • Správa změn, verze, role uživatelů a auditní trasování

Řešení potíží & reakce na incidenty

  • Běžné problémy: deadevlock, únik paměti, chyby procesorů
  • Analyza logů, diagnostika chyb a vyšetřování zdrojových příčin
  • Strategie obnovení a vrácení toku

Praktické cvičení: Implementace realistického datového pipeline

  • Vytvoření toku od konce do konce: ingestní, transformační a dodací části
  • Implementace obsluhy chyb, zpětného tlaku a škálování
  • Výkonové testy a optimalizace pipeline

Závěr a další kroky

Požadavky

  • Zkušenosti s příkazovou řádkou Linuxu
  • Základní pochopení sítí a datových systémů
  • Omlouvání se o konceptech datového streamování nebo ETL (Extract, Transform, Load)

Účastníci

  • Systémoví administrátoři
  • Data engineeri
  • Vývojáři
  • DevOps profesionálové
 21 hodiny

Počet účastníků


Cena za účastníka

Reference (7)

Nadcházející kurzy

Související kategorie