Analýza velkých dat v zdravotnictví Počítačový Kurz
Analýza velkých dat se týká procesu zkoumání velkého množství různorodých datových sad s cílem odhalit korelace, skryté vzory a další užitečné zjištění.
Zdravotnictví disponuje obrovským množstvím komplexních heterogenních lékařských a klinických dat. Aplikace analýzy velkých dat na data v zdravotnictví nabízí ohromné potenciály pro odvození poznatků, které mohou přispět ke zlepšení poskytování zdravotních služeb. Nicméně rozsah těchto datových sad představuje výzvu v analýze a praktickém využití ve klinickém prostředí.
V tomto instruktorem vedeném, živé tréninku (vzdáleném) se účastníci naučí provádět analýzu velkých dat v zdravotnictví během série praktických cvičení.
Koncem tohoto školení budou účastníci schopni:
- Nainstalovat a nakonfigurovat nástroje pro analýzu velkých dat, jako je Hadoop MapReduce a Spark
- Pochopit charakteristiku lékařských dat
- Aplikovat techniky velkých dat na zpracování lékařských dat
- Studovat systémy a algoritmy velkých dat v kontextu aplikací ve zdravotnictví
Cílová skupina
- Vývojáři
- Analitici dat
Formát kurzu
- Část přednášky, část diskuze, cvičení a intenzivní praktické procvičování.
Poznámka
- Pro požadavek na přizpůsobené školení pro tento kurz nás prosím kontaktujte s cílem sjednotit datum a čas.
Návrh Školení
Úvod do analýzy velkých dat v zdravotnictví
Přehled technologií analýzy velkých dat
- Apache Hadoop MapReduce
- Apache Spark
Nainstalování a konfigurace Apache Hadoop MapReduce
Nainstalování a konfigurace Apache Spark
Použití prediktivního modelování pro data v zdravotnictví
Použití Apache Hadoop MapReduce pro data v zdravotnictví
Provádění fenotypace a klastrování na datech v zdravotnictví
- Klasifikační hodnotící metriky
- Klasifikační ensambl metody
Použití Apache Spark pro data v zdravotnictví
Práce s lékařskou ontologií
Použití analýzy grafů na datech v zdravotnictví
Zjednodušení dimenzionality dat v zdravotnictví
Práce s metrikami podobnosti pacientů
Řešení potíží
Závěr a shrnutí
Požadavky
- Pochopení konceptů strojového učení a datového těžby
- Pokročilá zkušenost s programováním (Python, Java, Scala)
- Profesní ovládání procesů dat a ETL
Veřejné školení vyžaduje minimálně 5 účastníků.
Analýza velkých dat v zdravotnictví Počítačový Kurz - Rezervace
Analýza velkých dat v zdravotnictví Počítačový Kurz - Dotaz
Analýza velkých dat v zdravotnictví - Dotaz ohledně konzultace
Dotaz ohledně konzultace
Reference (1)
The VM I liked very much The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Kurz - Big Data Analytics in Health
Nadcházející kurzy
Související kurzy
Školení administrátorů pro Apache Hadoop
35 hodinyPublikum:
Kurz je určen pro IT odborníky hledající řešení pro uchovávání a zpracování velkých datových souborů v prostředí distribuovaného systému.
Gopožadavky:
Profilovaná znalost správy clusterů Hadoop.
Big Data Analytics s Google Colab a Apache Spark
14 hodinyTento instruktážní živý kurz (na místě nebo online) je určen pro středně pokročilé datové vědce a inženýry, kteří chtějí použít Google Colab a Apache Spark pro zpracování velkých dat a analytiku.
Po ukončení tohoto kurzu budou účastníci schopni:
- Nastavit prostředí pro velká data pomocí Google Colab a Sparku.
- Efektivně zpracovat a analyzovat výrazné datové sady pomocí Apache Spark.
- Visualizovat velká data ve spolupracovném prostředí.
- Integrace Apache Spark se cloudovými nástroji.
Správa Hadoop
21 hodinyKurz předmět je určen pro IT specialisty, kteří hledají řešení pro ukládání a zpracování velkých datových sad v distribuovaném systému.
Cíl kurzu:
Získat znalosti týkající se Hadoop cluster administration
Hadoop a Spark pro správce
35 hodinyToto školení vedené instruktorem (online nebo na místě) je určeno správcům systémů, kteří chtějí naučit se nastavovat, nasazovat a spravovat Hadoop clustery ve své organizaci.
Na konci tohoto školení budou účastníci schopni:
- Nainstalovat a nakonfigurovat Apache Hadoop.
- Pochopit čtyři hlavní komponenty v ekosystému Hadoop: HDFS, MapReduce, YARN a Hadoop Common.
- Použít Hadoop Distributed File System (HDFS) k škálování clusteru na stovky nebo tisíce uzlů.
- Nastavit HDFS jako úložiště pro místní nasazení Spark.
- Nastavit Spark k připojení ke střídavým úložišťům, jako je Amazon S3 a NoSQL databázové systémy, např. Redis, Elasticsearch, Couchbase, Aerospike atd.
- Provádět správcovské úkoly, jako jsou zřizování, správa, monitorování a bezpečnost Apache Hadoop clusteru.
Praktické zavedení do streamování dat
21 hodinyV tomto školení vedeném instruktorem, které se koná na místě nebo vzdáleně, zúčastníci naučí nastavovat a integrovat různé streamovací frameworky s existujícími systémy pro úložiště velkých dat a souvisejícími software a mikroslužbami.
Koncem tohoto školení budou zúčastníci schopni:
- Nainstalovat a nakonfigurovat různé streamovací frameworky, jako je Spark Streaming a Kafka Streaming.
- Porozumět a vybrat nejvhodnější framework pro daný úkol.
- Zpracovávat data v reálném čase, současně a řádek po řádku.
- Integrovat streamovací řešení s existujícími databázemi, datovými skladovami, datovými jezery atd.
- Integrovat nejvhodnější streamovací knihovnu s podnikovými aplikacemi a mikroslužbami.
SMACK Stack pro Datovou Vědu
14 hodinyTato vedená školení, provedené živě v České republice (online nebo na místě), je zaměřena na datové analytiky, kteří chtějí použít SMACK stack pro budování platform zpracování dat pro řešení s velkými daty.
Na konci tohoto školení budou účastníci schopni:
- Implementovat architekturu data pipeline pro zpracování velkých dat.
- Vytvořit clusterovou infrastrukturu pomocí Apache Mesos a Dockeru.
- Analyzovat data s Sparkem a Scalou.
- Spravovat nestrukturovaná data pomocí Apache Cassandra.
Základy Apache Spark
21 hodinyTato vedená školení na místě (online nebo na místě) je určená inženýrům, kteří chtějí nastavit a nasadit systém Apache Spark pro zpracování velmi velkých objemů dat.
Na konci tohoto školení budou účastníci schopni:
- Nainstalovat a nakonfigurovat Apache Spark.
- Rychle zpracovávat a analyzovat velmi velké soubory dat.
- Pochopit rozdíly mezi Apache Sparkem a Hadoop MapReduce a kdy se který používá.
- Integrovat Apache Spark s jinými nástroji pro strojové učení.
Správa Apache Spark
35 hodinyToto živé školení vedené instruktorem v České republice (online nebo na místě) je zaměřeno na začátečníky až středně pokročilé správce systému, kteří chtějí nasazovat, udržovat a optimalizovat clustery Spark.
Na konci tohoto školení budou účastníci schopni:
- Nainstalujte a nakonfigurujte Apache Spark v různých prostředích.
- Spravujte prostředky clusteru a monitorujte aplikace Spark.
- Optimalizujte výkon clusterů Spark.
- Implementujte bezpečnostní opatření a zajistěte vysokou dostupnost.
- Ladění a odstraňování běžných problémů se Sparkem.
Apache Spark v cloudu
21 hodinyKřivka učení Apache Spark se na začátku pomalu zvyšuje, potřebuje hodně úsilí, aby se první vrátil. Tento kurz si klade za cíl proskočit první náročnou částí. Po absolvování tohoto kurzu účastníci porozumí základům Apache Spark, jasně odliší RDD od DataFrame, naučí se Python a Scala API, porozumí exekutorům a úkolům atd. Tento kurz také důsledně dodržuje doporučené postupy se zaměřuje na cloudové nasazení, Databricks a AWS. Studenti také porozumí rozdílům mezi AWS EMR a AWS Glue, jednou z nejnovějších služeb Spark společnosti AWS.
PUBLIKUM:
Data Engineer, DevOps, Data Scientist
Spark pro vývojáře
21 hodinyCÍL:
Tento kurz představí Apache Spark. Studenti se dozví, jak Spark zapadá do ekosystému Big Data a jak ho použít k analýze dat. Kurz pokrývá interaktivní analýzu dat pomocí Spark shellu, vnitřní funkce Sparku, Spark API, Spark SQL, Spark streaming a strojové učení a GraphX.
CÍLOVÁ SKUPINA :
Vývojáři / Analýzci dat
Škálování Datových Trubnic s Spark NLP
14 hodinyToto živé školení vedené instruktorem v České republice (online nebo na místě) je zaměřeno na datové vědce a vývojáře, kteří chtějí používat Spark NLP, postavený na Apache Spark, k vývoji, implementaci a škálování zpracování textu v přirozeném jazyce. modely a potrubí.
Na konci tohoto školení budou účastníci schopni:
- Nastavte potřebné vývojové prostředí, abyste mohli začít budovat kanály NLP pomocí Spark NLP.
- Pochopte funkce, architekturu a výhody používání Spark NLP.
- K implementaci zpracování textu použijte předem připravené modely dostupné v Spark NLP.
- Naučte se stavět, trénovat a měnit Spark NLP modely pro produkční projekty.
- Aplikujte klasifikaci, odvození a analýzu sentimentu na případy použití v reálném světě (klinická data, statistiky chování zákazníků atd.).
Python a Spark pro Velká Data (PySpark)
21 hodinyV tomto živém školení pod vedením instruktora v České republice se účastníci naučí, jak používat Python a Spark společně k analýze velkých dat při práci na praktických cvičeních.
Na konci tohoto školení budou účastníci schopni:
- Naučte se používat Spark s Python k analýze Big Data.
- Pracujte na cvičeních, která napodobují případy ze skutečného světa.
- Použijte různé nástroje a techniky pro analýzu velkých dat pomocí PySpark.
Python, Spark a Hadoop pro Velká Data
21 hodinyToto živé školení vedené instruktorem v České republice (online nebo na místě) je zaměřeno na vývojáře, kteří chtějí používat a integrovat Spark, Hadoop a Python ke zpracování, analýze a transformaci velkých a komplexních souborů dat.
Na konci tohoto školení budou účastníci schopni:
- Nastavte potřebné prostředí pro zahájení zpracování velkých dat pomocí Spark, Hadoop a Python.
- Pochopte funkce, základní komponenty a architekturu Spark a Hadoop.
- Naučte se, jak integrovat Spark, Hadoop a Python pro zpracování velkých dat.
- Prozkoumejte nástroje v ekosystému Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka a Flume).
- Vytvářejte systémy doporučení pro společné filtrování podobné jako Netflix, YouTube, Amazon, Spotify a Google.
- Použijte Apache Mahout ke škálování algoritmů strojového učení.
Apache Spark SQL
7 hodinySpark SQL je modul Apache Sparku pro práci s strukturovanými a nestrukturovanými daty. Spark SQL poskytuje informace o struktuře dat a provedených výpočtech. Tato informace mohou být použity k optimalizaci. Dvě běžné použití Spark SQL jsou:
- provádění dotazů SQL.
- čtení dat z existující instalace Hive.
V tomto školení vedeném instruktorem (na místě nebo na dálku) se účastníci naučí analyzovat různé typy datových souborů pomocí Spark SQL.
Po ukončení tohoto školení budou účastníci schopni:
- Nainstalovat a nakonfigurovat Spark SQL.
- Provádět analýzu dat pomocí Spark SQL.
- Dotazovat se na data v různých formátech.
- Vizualizovat data a výsledky dotazů.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Záplava cvičení a praxe.
- Přímo v laboratoři implementovat v reálném čase.
Možnosti přizpůsobení kurzu
- Pokud chcete pořádat customizované školení pro tento kurz, kontaktujte nás a domluvte si to.
Stratio: Moduly Rocket a Intelligence s PySpark
14 hodinyStratio je datová platforma, která integruje big data, AI a správu do jediného řešení. Moduly Rocket a Intelligence umožňují rychlou datovou procházkou, transformaci a pokročilý analytický výkon ve firemních prostředích.
Tato instruktor-provedená živá školení (online nebo na místě) je určeno středně pokročilým datovým profesionálům, kteří chtějí efektivně používat moduly Rocket a Intelligence v Stratio s PySpark, zaměřením na smyčkové struktury, uživatelsky definované funkce a pokročilou datovou logiku.
Po ukončení tohoto školení budou účastníci schopni:
- Navigovat a pracovat ve Stratio platformě s využitím modulů Rocket a Intelligence.
- Používat PySpark ve kontextu nahrávání dat, transformace a analýzy.
- Používat smyčky a podmíněnou logiku pro ovládání datových pracovních toků a úkolů inženýrství funkcí.
- Vytvářet a spravovat uživatelsky definované funkce (UDF) pro opakovatelné datové operace v PySpark.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Mnoho cvičení a praxe.
- Praktické realizace v živém laboratorním prostředí.
Možnosti personalizace kurzu
- Pro požadavek na personalizované školení tohoto kurzu, kontaktujte nás pro uspořádání.
 
                    