Návrh Školení

Úvod

Pochopení základů metodologie heterogenních výpočtů

Proč Parallel Computing? Pochopení potřeby paralelních počítačů

Vícejádrové procesory – architektura a design

Úvod do vláken, základy vláken a základní pojmy paralelní Programming

Pochopení základů GPU procesů optimalizace softwaru

OpenMP – standard pro paralelní směrnici Programming

Praktické / Ukázka různých programů na vícejádrových strojích

Úvod do GPU Computing

GPUs pro paralelní výpočty

Model GPU Programming

Praktické / Ukázka různých programů na GPU

SDK, sada nástrojů a instalace prostředí pro GPU

Práce s různými knihovnami

Ukázka GPU a nástrojů s ukázkovými programy a OpenACC

Pochopení modelu CUDA Programming

Naučte se architekturu CUDA

Prozkoumání a nastavení vývojových prostředí CUDA

Práce s CUDA Runtime API

Pochopení paměťového modelu CUDA

Prozkoumání dalších funkcí CUDA API

AccessEfektivní využití globální paměti v CUDA: Global Memory Optimization

Optimalizace datových přenosů v CUDA pomocí CUDA Streams

Použití sdílené paměti v CUDA

Pochopení a použití atomových operací a instrukcí v CUDA

Případová studie: Základní digitální zpracování obrazu pomocí CUDA

Práce s více GPU Programming

Pokročilé hardwarové profilování a vzorkování na NVIDIA / CUDA

Použití CUDA Dynamic Parallelism API pro dynamické spouštění jádra

Shrnutí a závěr

Požadavky

  • C Programming
  • Linux GCC
  21 hodiny

Počet účastníků



Price per participant

Související kurzy

GPU Programming - OpenCL vs CUDA vs ROCm

  28 hodiny

ROCm for Windows

  21 hodiny

Související kategorie