
Lokální instruktorem vedené Apache Spark školení České republice.
Reference
Učitel přizpůsobil vzdělávací program našim současným potřebám.
EduBroker Sp. z o.o.
Kurz: Python and Spark for Big Data (PySpark)
Machine Translated
Provádění podobných cvičení různými způsoby skutečně pomáhá pochopit, co každá složka ( Hadoop / Spark, samostatný / klastr) může udělat samostatně a společně. Dalo mi nápady, jak bych měl vyzkoušet svou aplikaci na svém místním počítači, když se vyvíjím, vs, když je nasazen v clusteru.
Thomas Carcaud - IT Frankfurt GmbH
Kurz: Spark for Developers
Machine Translated
individuální pozornost.
ARCHANA ANILKUMAR - PPL
Kurz: Python and Spark for Big Data (PySpark)
Machine Translated
Bylo skvělé pochopit, co se děje pod kapotou Spark. Znalost toho, co se děje pod kapotou, pomáhá lépe pochopit, proč váš kód dělá nebo nedělá to, co očekáváte. Hodně školení bylo ruce, na kterých je vždy skvělé a sekce o optimalizaci byla mimořádně relevantní pro mou současnou práci, která byla hezká.
Intelligent Medical Objects
Kurz: Apache Spark in the Cloud
Machine Translated
Apache Spark Podkategorie
Apache Spark Návrh Školení
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na vývojáře, kteří chtějí používat a integrovat Spark, Hadoop, a Python k zpracování, analýze a transformaci velkých a složitých datových souborů.
Po ukončení tohoto tréninku budou účastníci schopni:
Vytvořte nezbytné prostředí k zahájení zpracování velkých dat pomocí Spark, Hadoop, a Python. Pochopte vlastnosti, klíčové složky a architekturu Spark a Hadoop. Naučte se, jak integrovat Spark, Hadoop, a Python pro zpracování velkých dat. Prozkoumejte nástroje v ekosystému Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka a Flume). Vytvořte společné systémy doporučení pro filtrování podobné Netflix, YouTube, Amazon, Spotify a Google. Použijte Apache Mahout pro skalování algoritmů strojového učení.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
This course will introduce Apache Spark. The students will learn how Spark fits into the Big Data ecosystem, and how to use Spark for data analysis. The course covers Spark shell for interactive data analysis, Spark internals, Spark APIs, Spark SQL, Spark streaming, and machine learning and graphX.
AUDIENCE :
Developers / Data Analysts
By the end of this training, participants will be able to:
- Use Hortonworks to reliably run Hadoop at a large scale.
- Unify Hadoop's security, governance, and operations capabilities with Spark's agile analytic workflows.
- Use Hortonworks to investigate, validate, certify and support each of the components in a Spark project.
- Process different types of data, including structured, unstructured, in-motion, and at-rest.
Tento instruktor-ledovaný, živý trénink představuje koncepty a přístupy k implementaci geospatiální analýzy a chodí účastníky prostřednictvím vytváření prediktivní analytické aplikace pomocí Magellan na Spark.
Po ukončení tohoto tréninku budou účastníci schopni:
Efektivní vyhledávání, sdílení a připojení geospatiálních datových sítí na stupnici Implementace geospatiálních údajů v obchodní inteligenci a prediktivních analytických aplikacích Použijte prostorový kontext k rozšíření kapacity mobilních zařízení, senzorů, záznamů a nosičů
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
V tomto instruktorově vedeném, živém tréninku se účastníci naučí, jak používat Alluxio pro propojení různých počítačových rámců se systémy ukládání a efektivně spravovat multi-petabyte data, jak postupují prostřednictvím vytvoření aplikace s Alluxio.
Po ukončení tohoto tréninku budou účastníci schopni:
Rozvíjet aplikaci s Alluxio Připojení velkých datových systémů a aplikací při zachování jednoho názvového prostoru Efektivně extrahuje hodnotu z velkých dat v jakémkoli formátu ukládání Zlepšení výkonu pracovní zátěže Rozložte a spravujte Alluxio samostatně nebo klastrovaně
publikum
Data vědci Vývojář Systémový administrátor
Formát kurzu
Částečná přednáška, částečná diskuse, cvičení a těžká praxe
- to execute SQL queries.
- to read data from an existing Hive installation.
In this instructor-led, live training (onsite or remote), participants will learn how to analyze various types of data sets using Spark SQL.
By the end of this training, participants will be able to:
- Install and configure Spark SQL.
- Perform data analysis using Spark SQL.
- Query data sets in different formats.
- Visualize data and query results.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
By the end of this training, participants will be able to:
- Install and configure different Stream Processing frameworks, such as Spark Streaming and Kafka Streaming.
- Understand and select the most appropriate framework for the job.
- Process of data continuously, concurrently, and in a record-by-record fashion.
- Integrate Stream Processing solutions with existing databases, data warehouses, data lakes, etc.
- Integrate the most appropriate stream processing library with enterprise applications and microservices.
The health industry has massive amounts of complex heterogeneous medical and clinical data. Applying big data analytics on health data presents huge potential in deriving insights for improving delivery of healthcare. However, the enormity of these datasets poses great challenges in analyses and practical applications to a clinical environment.
In this instructor-led, live training (remote), participants will learn how to perform big data analytics in health as they step through a series of hands-on live-lab exercises.
By the end of this training, participants will be able to:
- Install and configure big data analytics tools such as Hadoop MapReduce and Spark
- Understand the characteristics of medical data
- Apply big data techniques to deal with medical data
- Study big data systems and algorithms in the context of health applications
Audience
- Developers
- Data Scientists
Format of the Course
- Part lecture, part discussion, exercises and heavy hands-on practice.
Note
- To request a customized training for this course, please contact us to arrange.
AUDIENCE:
Data Engineer, DevOps, Data Scientist
Toto školení vedené instruktory, živé (na místě nebo na dálku), je zaměřeno na softwarové inženýry, kteří chtějí streamovat velká data pomocí Spark Streaming a Scala .
Na konci tohoto školení budou účastníci schopni:
- Vytvořte aplikace Spark s programovacím jazykem Scala .
- Pomocí technologie Spark Stream můžete zpracovávat nepřetržité datové proudy.
- Zpracovávejte datové proudy dat v reálném čase pomocí technologie Spark Streaming.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Spousta cvičení a cvičení.
- Praktická implementace v prostředí živé laboratoře.
Možnosti přizpůsobení kurzu
- Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás a domluvte se.
Tento instruktor vedený, živý trénink (online nebo on-site) je zaměřen na vědce údajů, kteří chtějí použít SMACK stack k budování datových zpracovatelských platforem pro řešení velkých dat.
Po ukončení tohoto tréninku budou účastníci schopni:
Vytvořte architekturu datového potrubí pro zpracování velkých dat. Rozvíjet infrastrukturu klastru s Apache Mesos a Docker. Analýza dat pomocí Spark a Scala. Řízení nestrukturovaných dat pomocí Apache Cassandra.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na inženýry, kteří chtějí zavést Apache Spark systém pro zpracování velmi velkých množství dat.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Apache Spark. Uvědomte si rozdíl mezi Apache Spark a Hadoop MapReduce a kdy použít. Rychle si přečtěte a analyzujte velmi velké datové sady. Integrujte Apache Spark s jinými nástroji strojového učení.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na vývojáře, kteří chtějí provést analýzu velkých dat pomocí Apache Spark ve svých aplikacích.NET.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Apache Spark. Pochopte, jak.NET implementuje Spark API tak, aby byly přístupné z aplikace.NET. Rozvíjet aplikace pro zpracování dat pomocí C# nebo F#, schopné zpracovávat datové sady, jejichž velikost je měřena v terabytích a pedabytích. Rozvíjet funkce strojového učení pro aplikaci.NET pomocí funkcí Apache Spark. Provádějte průzkumnou analýzu pomocí SQL dotazů na velkých datových souborech.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na správce systémů, kteří se chtějí dozvědět, jak vytvořit, rozvíjet a spravovat Hadoop klustery v rámci své organizace.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Apache Hadoop. Pochopte čtyři hlavní složky Hadoop ekosystému: HDFS, MapReduce, YARN a Hadoop Common. Použijte Hadoop Distributed File System (HDFS) pro skalování klastru na stovky nebo tisíce uzlin. • Nainstalujte HDFS, aby fungoval jako skladovací motor pro on-premise Spark deploymenty. Nastavení Spark pro přístup k alternativním úložným řešením, jako je Amazon S3 a NoSQL databázových systémů, jako jsou Redis, Elasticsearch, Couchbase, Aerospike, atd. Provádět administrativní úkoly, jako je poskytování, řízení, monitorování a zabezpečení Apache Hadoop klastru.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
By the end of this training, participants will be able to:
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
It divides into two packages:
-
spark.mllib contains the original API built on top of RDDs.
-
spark.ml provides higher-level API built on top of DataFrames for constructing ML pipelines.
Audience
This course is directed at engineers and developers seeking to utilize a built in Machine Library for Apache Spark
By the end of this training, participants will be able to:
- Understand how graph data is persisted and traversed.
- Select the best framework for a given task (from graph databases to batch processing frameworks.)
- Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel.
- View real-world big data problems in terms of graphs, processes and traversals.
Last Updated: