
Lokální instruktorem vedené Big Data školení České republice.
Reference
Líbí se mi komplexní přístup k vyučovanému předmětu. Kurz byl strukturován, témata byla připravena a prezentována v dobrém pořádku, což nám pomohlo pochopit postupnou logiku toho, jak jednotlivé aspekty Teradata fungují. Obzvláště se mi líbí, že na téma indexů byl kladen velký dopad. Pablo je velmi sympatický člověk a dobrý učitel. Čas strávený na tomto školení byl rozhodně dobře strávený.
MicroStrategy Poland Sp. z o.o.
Kurz: Teradata Fundamentals
Machine Translated
Vysvětlete krok, který je třeba učinit při pokusu o zodpovězení otázky pomocí SQL
Maastricht University | UMIO
Kurz: Teradata Fundamentals
Machine Translated
Velmi dobře přenesené znalosti učitele, žádné nezodpovězené otázky.
Karolin Papaj - Mowi Poland SA
Kurz: Data Mining and Analysis
Machine Translated
Big Data Návrh Školení
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na vývojáře, kteří chtějí používat a integrovat Spark, Hadoop, a Python k zpracování, analýze a transformaci velkých a složitých datových souborů.
Po ukončení tohoto tréninku budou účastníci schopni:
Vytvořte nezbytné prostředí k zahájení zpracování velkých dat pomocí Spark, Hadoop, a Python. Pochopte vlastnosti, klíčové složky a architekturu Spark a Hadoop. Naučte se, jak integrovat Spark, Hadoop, a Python pro zpracování velkých dat. Prozkoumejte nástroje v ekosystému Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka a Flume). Vytvořte společné systémy doporučení pro filtrování podobné Netflix, YouTube, Amazon, Spotify a Google. Použijte Apache Mahout pro skalování algoritmů strojového učení.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na analytiky a vědce údajů, kteří chtějí použít Weka k provádění úkolů v oblasti datového těžby.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Weka Pochopte Weka prostředí a pracovní zázemí. Výkon datových úkolů pomocí Weka.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na analytiky údajů nebo kdokoli, kdo by chtěl použít SPSS Modeler k provádění datových činností.
Po ukončení tohoto tréninku budou účastníci schopni:
Pochopte základní principy datového těžby. Naučte se, jak importovat a hodnotit kvalitu dat s modelem. Vývoj, implementace a hodnocení datových modelů efektivně.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Účastníci budou mít příležitost tuto znalost uplatnit prostřednictvím praktických cvičení. Skupinová interakce a zpětná vazba instruktorů tvoří důležitou součást třídy.
Kurz začíná úvodem do elementárních konceptů Big Data, pak postupuje do programovacích jazyků a metod používaných k provedení Data Analysis. Konečně diskutujeme o nástrojích a infrastruktuře, která umožňují Big Data skladování, distribuované zpracování a Scala kapacitu.
Formát kurzu
Částečná přednáška, částečná diskuse, praktická praxe a implementace, příležitostné zkoušky na měření pokroku.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
V tomto živém kurzu vedeném instruktorem představujeme procesy zapojené do KDD a provádíme řadu cvičení pro praxi provádění těchto procesů.
publikum
Data analytici nebo někdo, kdo se zajímá o to, jak interpretovat data k řešení problémů
Formát kurzu
Po teoretické diskusi o KDD bude instruktor předkládat případy v reálném životě, které vyzývají k aplikaci KDD k řešení problému. Účastníci připraví, vybírají a vyčistí vzorkové datové soubory a využívají své předchozí znalosti o údajích k navrhování řešení založených na výsledcích jejich pozorování.
V tomto živém tréninku vedeném instruktorem se účastníci naučí, jak používat Apache Kylin k instalaci datového skladu v reálném čase.
Po ukončení tohoto tréninku budou účastníci schopni:
Spotřeba streamingových dat v reálném čase pomocí Kylin Používejte Apache Kylin's výkonné funkce, bohatý SQL rozhraní, spark kubing a subsekundní dotaz latence
Poznámka
Používáme nejnovější verzi Kylin (na základě tohoto textu, Apache Kylin v2.0)
publikum
Big Data inženýr [ 0 ] analytici
Formát kurzu
Částečná přednáška, částečná diskuse, cvičení a těžká praxe
In this instructor-led, live training, participants will learn how to use Datameer to overcome Hadoop's steep learning curve as they step through the setup and analysis of a series of big data sources.
By the end of this training, participants will be able to:
- Create, curate, and interactively explore an enterprise data lake
- Access business intelligence data warehouses, transactional databases and other analytic stores
- Use a spreadsheet user-interface to design end-to-end data processing pipelines
- Access pre-built functions to explore complex data relationships
- Use drag-and-drop wizards to visualize data and create dashboards
- Use tables, charts, graphs, and maps to analyze query results
Audience
- Data analysts
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
Tento instruktorem vedený živý trénink (na místě nebo na dálku) je zaměřen na vědce s údaji, kteří chtějí používat Excel k těžbě dat.
Na konci tohoto školení budou účastníci schopni:
- Prozkoumejte data pomocí Excel abyste mohli provádět těžbu a analýzu dat.
- Pro dolování dat použijte algoritmy společnosti Microsoft.
- Porozumět konceptům v těžbě dat Excel .
Formát kurzu
- Interaktivní přednáška a diskuse.
- Spousta cvičení a cvičení.
- Praktická implementace v prostředí živé laboratoře.
Možnosti přizpůsobení kurzu
- Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás a domluvte se.
V tomto živém tréninku vedeném instruktorem se účastníci dozví, jak nainstalovat, konfigurovat a používat Dremio jako jednotný vrstvu pro nástroje pro analýzu dat a základní datové záložky.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Dremio Provádění dotazů proti více zdrojům dat bez ohledu na umístění, velikost nebo strukturu Integrujte Dremio s BI a datovými zdroji, jako jsou Tableau a Elasticsearch
publikum
Data vědci Business Výzkumníci Data inženýři
Formát kurzu
Částečná přednáška, částečná diskuse, cvičení a těžká praxe
Poznámky
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
In this instructor-led, live training, participants will learn the fundamentals of Apache Drill, then leverage the power and convenience of SQL to interactively query big data across multiple data sources, without writing code. Participants will also learn how to optimize their Drill queries for distributed SQL execution.
By the end of this training, participants will be able to:
- Perform "self-service" exploration on structured and semi-structured data on Hadoop
- Query known as well as unknown data using SQL queries
- Understand how Apache Drills receives and executes queries
- Write SQL queries to analyze different types of data, including structured data in Hive, semi-structured data in HBase or MapR-DB tables, and data saved in files such as Parquet and JSON.
- Use Apache Drill to perform on-the-fly schema discovery, bypassing the need for complex ETL and schema operations
- Integrate Apache Drill with BI (Business Intelligence) tools such as Tableau, Qlikview, MicroStrategy and Excel
Audience
- Data analysts
- Data scientists
- SQL programmers
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources.
By the end of this training, participants will be able to:
- Install and configure Apache Arrow in a distributed clustered environment
- Use Apache Arrow to access data from disparate data sources
- Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
- Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
- Data scientists
- Data engineers
Format of the Course
- Part lecture, part discussion, exercises and heavy hands-on practice
Note
- To request a customized training for this course, please contact us to arrange.
High-value government solutions will be created from a mashup of the most disruptive technologies:
- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.
But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.
The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.
The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.
Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).
Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
If you try to make sense out of the data you have access to or want to analyse unstructured data available on the net (like Twitter, Linked in, etc...) this course is for you.
It is mostly aimed at decision makers and people who need to choose what data is worth collecting and what is worth analyzing.
It is not aimed at people configuring the solution, those people will benefit from the big picture though.
Delivery Mode
During the course delegates will be presented with working examples of mostly open source technologies.
Short lectures will be followed by presentation and simple exercises by the participants
Content and Software used
All software used is updated each time the course is run, so we check the newest versions possible.
It covers the process from obtaining, formatting, processing and analysing the data, to explain how to automate decision making process with machine learning.
Day 2 - explores a range of topics that relate analysis practices and tools for Big Data environments. It does not get into implementation or programming details, but instead keeps coverage at a conceptual level, focusing on topics that enable participants to develop a comprehensive understanding of the common analysis functions and features offered by Big Data solutions.
Day 3 - provides an overview of the fundamental and essential topic areas relating to Big Data solution platform architecture. It covers Big Data mechanisms required for the development of a Big Data solution platform and architectural options for assembling a data processing platform. Common scenarios are also presented to provide a basic understanding of how a Big Data solution platform is generally used.
Day 4 - builds upon Day 3 by exploring advanced topics relatng to Big Data solution platform architecture. In particular, different architectural layers that make up the Big Data solution platform are introduced and discussed, including data sources, data ingress, data storage, data processing and security.
Day 5 - covers a number of exercises and problems designed to test the delegates ability to apply knowledge of topics covered Day 3 and 4.
This course is mostly focused on discussion and presentation of solutions, though hands-on exercises are available on demand.
This instructor-led, live training introduces the challenges of serving large-scale data and walks participants through the creation of an application that can compute responses to user requests, over large datasets in real-time.
By the end of this training, participants will be able to:
- Use Vespa to quickly compute data (store, search, rank, organize) at serving time while a user waits
- Implement Vespa into existing applications involving feature search, recommendations, and personalization
- Integrate and deploy Vespa with existing big data systems such as Hadoop and Storm.
Audience
- Developers
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
The course consists of 8 modules (4 on day 1, and 4 on day 2)
In this instructor-led, live training, participants will learn the mindset with which to approach Big Data technologies, assess their impact on existing processes and policies, and implement these technologies for the purpose of identifying criminal activity and preventing crime. Case studies from law enforcement organizations around the world will be examined to gain insights on their adoption approaches, challenges and results.
By the end of this training, participants will be able to:
- Combine Big Data technology with traditional data gathering processes to piece together a story during an investigation
- Implement industrial big data storage and processing solutions for data analysis
- Prepare a proposal for the adoption of the most adequate tools and processes for enabling a data-driven approach to criminal investigation
Audience
- Law Enforcement specialists with a technical background
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
Attendees will learn during this course how to manage the big data using its three pillars of data integration, data governance and data security in order to turn big data into real business value. Different exercices conducted on a case study of customer management will help attendees to better understand the underlying processes.
By the end of this training, participants will:
- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
Tento instruktor-vedl, živé školení (na místě nebo vzdálené) je zaměřena na softwarové inženýry, kteří chtějí používat Sqoop a Flume pro přenos dat mezi systémy.
Do konce tohoto školení budou účastníci moci:
- Služte velká data pomocí Sqoop a Flume.
- Ingestování dat z více zdrojů dat.
- Přesuňte data z relačních databází do HDFS a Hive.
- Exportujte data z HDFS do relační databáze.
Formát kurzu
- Interaktivní přednáška a diskuse.
- Spousta cvičení a praxe.
- Praktická implementace v prostředí živé laboratoře.
Možnosti přizpůsobení kurzu
- Chcete-li požádat o školení na míru pro tento kurz, kontaktujte nás a zamluvte si.
Tento výcvik vedený instruktorem (online nebo on-site) je zaměřen na technické osoby, které chtějí zavést Talend Open Studio pro Big Data s cílem zjednodušit proces čtení a čtení prostřednictvím Big Data.
Po ukončení tohoto tréninku budou účastníci schopni:
Instalace a nastavení Talend Open Studio pro Big Data. Připojte se k Big Data systémům, jako jsou Cloudera, HortonWorks, MapR, Amazon EMR a Apache. Pochopte a nastavte velké datové komponenty a konektory Open Studio's. Nastavení parametrů pro automatické generování kódu MapReduce. Použijte rozhraní Open Studio's drag-and-drop pro spuštění Hadoop pracovních míst. Prototyp velkých datových potrubí. Automatizace projektů integrace velkých dat.
Formát kurzu
Interaktivní přednáška a diskuse. Mnoho cvičení a praxe. Hands-on implementace v živém laboratoři prostředí.
Možnosti personalizace kurzu
Chcete-li požádat o přizpůsobené školení pro tento kurz, kontaktujte nás, abyste uspořádali.
Course goal:
Getting knowledge regarding Hadoop cluster administration
Last Updated: