Информация


Партнеры



Курсы
Параллельное программирование с OpenMP

Информация о курсе

В рамках курса проводится изучение основных возможностей стандарта OpenMP, необходимых для создания эффективных параллельных программ для многоядерных и многопоточных процессоров. Рассматриваются подходы для функциональной отладки OpenMP-программ, а также отладки эффективности.

В рамках курса рассматриваются современные направления развития параллельных вычислительных систем (многоядерность и многопоточность), OpenMP – модель параллелизма по управлению, конструкции распределения работы, конструкции для синхронизации нитей, система поддержки выполнения OpenMP-программ, переменные окружения, управляющие выполнением OpenMP-программы, вложенный параллелизм, наиболее часто встречаемые ошибки в OpenMP-программах, функциональная отладка OpenMP-программ, отладка эффективности OpenMP-программ, использование OpenMP на кластере.

Цель

Цель курса состоит в изложении основных возможностей стандарта OpenMP, необходимых для создания эффективных параллельных программ для многоядерных и многопоточных процессоров.

Предварительные знания

При изложении учебного материала курса у обучаемых предполагается наличие общих (начальных) знаний в области программирования.

Записаться на программу

Расписание

Время Лекции Тесты

14:00 - 15:00

(Москва)

11 октября

Введение

Современные направления развития параллельных вычислительных систем (многоядерность и многопоточность). SMP (Symmetric Multiprocessing) и DSM (Distributed Shared Memory)-системы. Процессы и нити. Модель общей памяти. Стандарт POSIX (Portable Operating System Interface for UNIX) для создания параллельных программ для мультипроцессоров.

тест

14:00 - 15:00

(Москва)

18 октября

OpenMP - модель параллелизма по управлению

Выполнение OpenMP-программы (Fork and Join Model). Модель памяти. Понятие консистентности памяти. Консистентность памяти в OpenMP (weak ordering). Классы переменных (клаузы SHARED, PRIVATE; директива THREADPRIVATE).

тест

14:00 - 15:00

(Москва)

25 октября

Основные понятия

Директивы и клаузы. Понятие структурного блока. Компиляция OpenMP-программы. Параллельная область (директива PARALLEL). Понятие задачи (директива TASK).

тест

14:00 - 15:00

(Москва)

01 ноября

Конструкции распределения работы

Распределение витков циклов. Циклы с зависимостью по данным. Организация конвейерного выполнения для циклов с зависимостью по данным. Распределение нескольких структурных блоков между нитями (директива SECTION). Редукционные операторы (клауза REDUCTION). Выполнение структурного блока одной нитью (директива SINGLE). Распределение операторов одного структурного блока между нитями (директива WORKSHARE). Копирование значений приватных переменных (клаузы FIRSTPRIVATE, LASTPRIVATE, COPYIN, COPYPRIVATE).

тест

14:00 - 15:00

(Москва)

08 ноября

Конструкции для синхронизации нитей

Директивы MASTER, CRITICAL, BARRIER, TASKWAIT, ATOMIC, FLUSH, ORDERED.

тест

14:00 - 15:00

(Москва)

15 ноября

Система поддержки выполнения OpenMP-программ. Переменные окружения, управляющие выполнением OpenMP-программы

Задание/опрос количества нитей, выполняющих параллельную область. Определение номера нити. Внутренние переменные, управляющие выполнением OpenMP-программы (ICV-Internal Control Variables). Задание/опрос значений ICV-переменных. Функции для синхронизации нитей (семафоры). Функции работы со временем.

тест

14:00 - 15:00

(Москва)

22 ноября

Наиболее часто встречаемые ошибки в OpenMP-программах. Функциональная отладка OpenMP-программ

Трудно обнаруживаемые ошибки типа race condition (конфликт доступа к данным). Ошибки типа deadlock (блокировки). Использование TotalView для отладки OpenMP-программ. Автоматизированный поиск ошибок в OpenMP-программах при помощи Intel Thread Checker и Sun Studio Thread Analyzer.

тест

14:00 - 15:00

(Москва)

29 ноября

Отладка эффективности OpenMP-программ

Стратегии распределения витков цикла между нитями (клауза SCHEDULE). Отмена барьерной синхронизации по окончании выполнения цикла (клауза NOWAIT). Локализация данных. Задание поведения нитей во время ожидания (переменная OMP_WAIT_POLICY). Оптимизация OpenMP-программы при помощи Intel Thread Profiler.

тест

14:00 - 15:00

(Москва)

06 декабря

Использование OpenMP на кластере

Технология Intel Cluster OpenMP. Программная реализация DSM. Директива SHARABLE. Гибридная модель параллельного программирования MPI/OpenMP.

тест

Телефон: +7 (495) 253-9312, 253-9313, Факс: +7 (495) 253-9310, e-mail: info@hpcu.ru
© Интернет-Университет Суперкомпьютерных Технологий, 2008 - 2017