Информация


Партнеры



Курсы
Основы параллельного программирования с использованием MPI

Информация о курсе

Курс посвящен основам разработки параллельных программ с использованием интерфейса обмена сообщениями (MPI Message Passing Interface). Приводятся основные понятия и концепции модели передачи сообщений, рассматривается архитектура MPI.

В курсе дается краткий обзор моделей параллельного программирования и программных реализаций этих моделей, рассматриваются архитектура MPI, привязки к языкам программирования C/C++ и Fortran, структура MPI-программы, настройка среды, компиляция и выполнение MPI-программ, двухточечные обмены, блокирующие и неблокирующие, буферизованные, двух- и односторонние, коллективные обмены – широковещательная рассылка, распределение и сбор данных, операции редукции, синхронизация, работа с группами процессов, интра- и интеркоммуникаторы, пользовательские типы данных и виртуальные топологии.

Цель

Цель курса состоит в приобретении базовых навыков использования интерфейса обмена сообщениями MPI для разработки параллельных приложений.

Предварительные знания

Для выполнения практических заданий предполагается наличие у учащихся навыков программирования на языках C и/или Fortran. Желателен также опыт работы в среде Linux.

Записаться на программу

Расписание

Время Лекции Тесты

17:10 - 18:10

(Москва)

09 марта

Параллельные модели программирования и их программные реализации

В лекции дается краткий обзор учебного курса, даются ссылки на учебно-методическую литературу и источники информации, которые могут быть использованы в рамках данного курса. Затем обсуждаются последовательная и параллельная модели программирования. Рассматриваются различные парадигмы параллельного программирования и соответствующие программные средства (POSIX Threads, Microsoft Windows API, OpenMP, MPI, PVM и т. д.).

тест

17:10 - 18:10

(Москва)

16 марта

"Архитектура" MPI

В лекции рассматривается "архитектура" программной реализации MPI на примере MPICH-2. Объясняется роль демона mpd, разбирается настройка пользовательской среды. Приводятся типовые схемы организации параллельных MPI-программ, их структура. Рассматриваются привязки к языкам программирования C и Fortran, а также способы компиляции и запуска MPI-программ. Лекция включает выполнение практических заданий.

тест

17:10 - 18:10

(Москва)

23 марта

Двухточечные обмены в MPI

В лекции обсуждаются средства организации двухточечных обменов. Рассматриваются различные режимы блокирующих двухсторонних обменов, их реализация в MPI, приводятся примеры использования. Основное внимание уделяется стандартным обменам, обменам с буферизацией и "по готовности". Рассматриваются функции "приёмопередачи", а также возможные проблемы при организации двухточечных обменов.

тест

17:10 - 18:10

(Москва)

06 апреля

Неблокирующие двухточечные обмены

В лекции описываются средства организации неблокирующих двухточечных обменов. Рассматриваются операции неблокирующих отправки и приёма сообщений, процедуры-пробники. Даются примеры использования неблокирующих операций.

тест

17:00 - 18:00

(Москва)

16 апреля

Коллективные обмены

В лекции рассматриваются коллективные обмены. Среди них – широковещательная рассылка. Обсуждаются операции распределения и сбора данных, а также операции приведения (редукции). Внимание уделяется также роли синхронизации в параллельном программировании и средствам синхронизации в MPI.

тест

17:10 - 18:10

(Москва)

20 апреля

Группы процессов и коммуникаторы

В лекции рассматриваются средства организации групп процессов и соответствующих им коммуникаторов. Речь идёт об интра- и интеркоммуникаторах. Разбираются примеры использования коллективных обменов в производных группах процессов, а также обмена между группами процессов.

тест

17:10 - 18:10

(Москва)

27 апреля

Пользовательские типы. Виртуальные топологии

В лекции рассматриваются методы работы с пользовательскими типами данных. Пользовательские типы позволяют обойти некоторые ограничения MPI. Разъясняются такие вопросы, как построение карты типа, его регистрация и аннулирование. Обсуждаются примеры использования пользовательских типов в MPI-программах. Рассматриваются также виртуальные топологии, которыми могут быть наделены группы процессов, относящихся к MPI-программе. Основное внимание уделяется декартовым топологиям. Приводятся примеры.

тест

17:10 - 18:10

(Москва)

04 мая

Другие возможности MPI

В заключительной лекции дается краткий обзор тех возможностей MPI, которые не рассматривались в предыдущих лекциях. Среди них односторонние обмены, дополнительные вопросы организации коллективных обменов, а также средства управления процессами из MPI-программы в процессе ее выполнения.

тест

Телефон: +7 (495) 253-9312, 253-9313, Факс: +7 (495) 253-9310, e-mail: info@hpcu.ru
© Интернет-Университет Суперкомпьютерных Технологий, 2008 - 2017