Основы параллельного программирования с использованием MPI Лекция 8 Немнюгин Сергей Андреевич Санкт-Петербургский государственный университет физический факультет кафедра вычислительной физики Лекция 8 Аннотация В заключительной лекции даётся краткий обзор тех возможностей MPI, которые не рассматривались в предыдущих лекциях. Среди них атрибуты коммуникатора, односторонние обмены, дополнительные вопросы организации коллективных обменов, параллельные операции ввода-вывода, внешние интерфейсы, а также средства управления процессами из MPI-программы в процессе её выполнения. Рассматриваются программные инструменты отладки и оптимизации параллельных программ. 2008 План лекции Атрибуты коммуникатора. MPI-1 и MPI-2, сравнительный обзор. Запуск процессов. Демон mpd. Односторонние обмены. Взаимодействие между группами процессов. Коллективные обмены. Параллельные операции ввода-вывода. Программные инструменты отладки и оптимизации MPI-программ. 2008 Атрибуты 2008 Атрибуты Атрибут коммуникатора – дополнительная информация, добавляемая к коммуникатору с помощью механизма кэширования. Если какая-то информация записана в качестве атрибута в одном из процессов, она автоматически становится доступной всем другим процессам из данного коммуникатора. Специальной организации пересылок сообщений при этом не требуется, система сама позаботится о передаче необходимой информации. Атрибуты определяются только для того коммуникатора, к которому они присоединены. Они могут дублироваться только при дублировании коммуникатора - других способов их передачи от одного коммуникатора другому нет. 2008 Атрибуты В C атрибуты имеют тип void *. Обычно это указатели на структуры, которые содержат необходимую информацию или обработчики для объекта MPI. В программах на языке Fortran атрибуты имеют тип integer. Идентификатор атрибута - целое число, которое назначается системой автоматически и называется ключом атрибута. Атрибуты бывают системные и пользовательские. Системные атрибуты не могут модифицироваться программистом. К их числу относятся топология, адрес обработчика ошибок и некоторые другие. Значения ключей являются глобальными и могут использоваться всеми коммуникаторами программы. 2008 Атрибуты В MPI реализованы (локальные) операции с атрибутами. Подпрограмма: int MPI_Keyval_create(MPI_Copy_function *copy_fn, MPI_Delete_function *delete_fn, int *keyval, void *extra_state) MPI_Keyval_create(copy_fn, delete_fn, keyval, extra_state, ierr) предназначена для создания нового ключа атрибута keyval (выходной параметр). Ключи уникальны для каждого процесса и не видны пользователю, хотя явным образом хранятся в виде целых значений. Будучи однажды задан, ключ может быть использован для задания атрибутов и доступа к ним в любом коммуникаторе. Функция copy_fn вызывается, когда коммуникатор дублируется подпрограммой MPI_Comm_dup, а функция delete_fn используется для удаления. Параметр extra_state задает дополнительную информацию для функций копирования и удаления. 2008 Атрибуты Функция MPI_Copy_function определяется следующим образом: typedef int MPI_Copy_function(MPI_Comm oldcomm, int keyval, void *extra_state, void *attribute_val_in, void *attribute_val_out, int *flag) subroutine copy_function(oldcomm, keyval, extra_state, attribute_val_in, attribute_val_out, flag, ierr) 2008 Атрибуты Функция копирования вызывается для каждого значения ключа в исходном коммуникаторе в произвольном порядке. Каждое обращение к функции копирования выполняется со значением ключа и соответствующим ему атрибутом. Если она возвращает значение флага flag = 0, атрибут удаляется из продублированного коммуникатора. В противном случае (flag = 1) устанавливается новое значение атрибута, равное значению, возвращенному в параметре attribute_val_out. 2008 Атрибуты Удалить ключ атрибута можно с помощью вызова подпрограммы : int MPI_Keyval_free(int *keyval) MPI_Keyval_free(keyval, ierr) Используемый атрибут можно удалить, поскольку фактическое удаление происходит только после того, как будут удалены все ссылки на атрибут. Эти ссылки должны быть явным образом удалены программой, например, посредством вызова MPI_Attr_delete каждый такой вызов удаляет один экземпляр атрибута, либо вызовом MPI_Comm_free, который удаляет все экземпляры атрибута, связанные с удаляемым коммуникатором. 2008 Атрибуты Подпрограмма: int MPI_Attr_put(MPI_Comm comm, int keyval, void* attribute) MPI_Attr_put(comm, keyval, attribute, ierr) используется для задания атрибута attribute, который в дальнейшем может использоваться подпрограммой MPI_Attr_get. С атрибутом ассоциируется значение ключа keyval. Подпрограмма: int MPI_Attr_get(MPI_Comm comm, int keyval, void *attribute, int *flag) MPI_Attr_get(comm, keyval, attribute, flag, ierr) возвращает значение атрибута attribute, соответствующее значению ключа keyval. Первый параметр задает коммуникатор, с которым связан атрибут. 2008 Атрибуты Подпрограмма: int MPI_Attr_delete(MPI_Comm comm, int keyval) MPI_Attr_delete(comm, keyval, ierr) удаляет атрибут с указанным значением ключа. Делается это с помощью функции удаления атрибута delete_fn, заданной при создании keyval. Параметр comm задает коммуникатор, с которым связан атрибут. 2008 Атрибуты Пример program main_mpi include 'mpif.h' integer rank, ierr integer numprocs, newcomm integer key, attr, extra external copy_fun, del_fun logical flag call MPI_Init(ierr) call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr) call MPI_Keyval_create(copy_fun, del_fun, key, extra, ierr) ATTR = 120 call MPI_Attr_put(MPI_COMM_WORLD, key, attr, ierr) call MPI_Attr_get(MPI_COMM_WORLD, key, attr, flag, ierr) print *, "PROCESS = ", RANK, " BEFORE DUP ATTRIBUTE = ", attr call MPI_Comm_dup(MPI_COMM_WORLD, newcomm, ierr) 2008 Атрибуты call MPI_Attr_get(newcomm, key, attr, flag, ierr) if (flag) then print *, "process = ", rank, " after dup attribute = ", attr end if call MPI_Comm_free(newcomm, ierr) call MPI_Finalize(ierr) stop end 2008 Атрибуты subroutine copy_fun(comm, keyval, extra, attr_in, attr_out, flag, ierr) integer comm, keyval, fuzzy, attr_in, attr_out logical flag include 'mpif.h' attr_out = attr_in + 1 flag =.true. ierr = MPI_SUCCESS end subroutine del_fun(comm, keyval, attr, extra, ierr) integer comm, keyval, attr, extra, ierr include 'mpif.h' ierr = MPI_SUCCESS if(keyval /= MPI_KEYVAL_INVALID) then attr = attr - 1 end if return end 2008 Атрибуты Результат выполнения программы: 2008 MPI-1 и MPI-2. Сравнительный обзор 2008 MPI-1 и MPI-2. Сравнительный обзор В спецификации MPI-2 появились новые возможности, превратившие MPI в ещё более гибкий инструмент разработки параллельных программ. Краткий перечень новых (по сравнению с MPI-1) возможностей: возможность запуска новых процессов во время выполнения MPIпрограммы; односторонние двухточечные обмены; параллельные операции ввода-вывода; модифицированные привязки к языкам; новые предопределённые типы данных; расширенные возможности коллективных обменов; внешние интерфейсы; поддержка многопоточности и другие. 2008 Динамический запуск процессов 2008 Динамический запуск процессов Возможность запуска новых процессов во время выполнения MPI-программы В MPI-1 параллельная программа запускается в определённом и фиксированном количестве процессов. Это не позволяет приложению, например, «подстраиваться» под изменяющуюся трудоёмкость расчёта. В то же время такой инструмент параллельного программирования как PVM поддерживает возможность динамического изменения числа процессов параллельного приложения. Эта возможность появилась в MPI-2. Дополнительный процесс (несколько процессов) может быть запущен во время выполнения программы. Процесс может быть также остановлен. 2008 Динамический запуск процессов Запуск одного процесса выполняется с помощью обращения к подпрограмме: int MPI_Comm_spawn(char *command, char *argv[], int maxprocs, MPI_Info info, int root, MPI_Comm comm, MPI_Comm *intercomm, int array_of_errcodes[]) MPI_Comm_spawn(command, argv, maxprocs, info, root, comm, intercomm, array_of_errcodes, ierror) Входные параметры: command – командная строка запуска процесса; argv – аргументы командной строки запуска процесса; maxprocs – максимальное количество запускаемых процессов; info – указывает системе как и где запускается процесс; root – ранг главного процесса. 2008 Динамический запуск процессов Выходные параметры: intercomm – интеркоммуникатор между исходной группой процессов и вновь запущенными процессами; array_of_errcodes – коды завершения для запущенных процессов. При запуске группы процессов для них создаётся собственный коммуникатор MPI_COMM_WORLD, отличный от такого же для родительских процессов. Это коллективная операция. Она завершается после того, как во всех дочерних процессах состоится вызов MPI_Init. Завершение данного вызова в родительском процессе не означает, что в дочерних процессах завершены все вызовы MPI_Init. Интеркоммуникатор intercomm содержит родительский процесс в локальной группе и дочерние процессы. 2008 Динамический запуск процессов Командная строка запуска дочернего процесса представляет собой строку, содержащую имя исполняемого файла. Дочерний процесс обязательно должен вызывать MPI_Init, иначе результат не определён. Аргумент argv является массивом строковых представляющих аргументы запускаемых программ. значений, При вызове MPI_Comm_spawn предприниматеся попытка запустить maxprocs процессов. Если какой-то процесс не может быть запущен, возвращается значение MPI_ERR_SPAWN. Аргумент info создаётся вызовом специальной подпрограммы MPI_Info_create. 2008 Динамический запуск процессов В том случае, когда необходимо запустить несколько разных исполняемых файлов или один файл, но с разными параметрами, можно использовать подпрограмму MPI_Comm_spawn_multiple. Опуская подробное описание её параметров, приведём интерфейс: int MPI_Comm_spawn_multiple(int count, char *array_of_commands[], char **array_of_argv[], int array_of_maxprocs[], MPI_Info array_of_info[], int root, MPI_Comm comm, MPI_Comm *intercomm, int array_of_errcodes[]) MPI Comm_spawn_multiple(count, array_of_commands, array_of_argv, array_of_ maxprocs, array_of_info, root, comm, intercomm, array_of_errcodes, ierror) 2008 Динамический запуск процессов Подпрограмма MPI_Get_parent возвращает интеркоммуникатор вызывающего процесса: родительский int MPI_Comm_get_parent(MPI_Comm *parent) MPI_Comm_get_parent(parent, ierr) Если данный процесс не является дочерним по отношению к какомулибо другому процессу, возвращается значение «пустого» коммуникатора MPI_COMM_NULL. 2008 Динамический запуск процессов Пример Master #include "mpi.h" int main(int argc, char *argv[]) { int world_size, universe_size, *universe_sizep, flag; MPI_Comm everyone; char worker_program[100]; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &world_size); if (world_size != 1) error("Top heavy with management"); MPI_Attr_get(MPI_COMM_WORLD, MPI_UNIVERSE_SIZE, &universe_sizep, &flag); if (!flag) { printf("This MPI does not support UNIVERSE_SIZE. How many\n\ processes total?"); scanf("%d", &universe_size); } else universe_size = *universe_sizep; if (universe_size == 1) error("No room to start workers"); choose_worker_program(worker_program); 2008 Динамический запуск процессов MPI_Comm_spawn(worker_program, MPI_ARGV_NULL, universe_size1, MPI_INFO_NULL, 0, MPI_COMM_SELF, &everyone, MPI_ERRCODES_IGNORE); MPI_Finalize(); return 0; } } 2008 Динамический запуск процессов Slave #include "mpi.h" int main(int argc, char *argv[]) { int size; MPI_Comm parent; MPI_Init(&argc, &argv); MPI_Comm_get_parent(&parent); if (parent == MPI_COMM_NULL) error("No parent!"); MPI_Comm_remote_size(parent, &size); if (size != 1) error("Something's wrong with the parent"); MPI_Finalize(); return 0; } 2008 Динамический запуск процессов Демон mpd В MPI-2 демон mpd играет важную роль. Параллельная программа может выполняться только если предварительно были запущены демоны mpd, образующие «кольцо демонов». Кольцо демонов создаётся один раз и может быть использовано многократно, разными программами одного пользователя. Кольцо демонов прекращает свой существование в результате выполнения команды mpdallexit. Кольцо демонов одного пользователя не может взаимодействовать с демонами mpd других пользователей. Благодаря демонам mpd запуск MPI-программ выполняется быстрее. Локальный экземпляр MPI-процесса завершается по нажатию клавиш Ctrl+C, при этом завершаются и все остальные процессы. Исключена возможность «зависания» процессов. Динамический запуск процессов Запуск демонов (в этом примере 5) выполняется командой: mpdboot –n 5 Проверка взаимодействия командой: демонов между собой выполняется mpdtrace Если при выполнении этой команды выводятся сообщения об ошибках, это говорит о неправильной настройке MPI или локальной сети. Завершение работы демонов выполняется командой: mpdallexit Взаимодействие между группами процессов 2008 Взаимодействие между группами процессов Взаимодействие между группами процессов MPI-2 допускает организацию обмена сообщениями между группами процессов, которые запущены независимо друг от друга. Это позволяет, например, «подключиться» к параллельной программе приложению, выполняющему обработку данных. Эта возможность полезна при создании клиент-серверных приложений и в других ситуациях. Основные механизмы взаимодействия: связь по имени; связь через порт. 2008 Взаимодействие между группами процессов Программная реализация взаимодействия: MPI_Open_port MPI_Close_port MPI_Comm_accept MPI_Publish_name MPI_Unpublish_name MPI_Lookup_name и другие подпрограммы. 2008 Односторонние обмены 2008 Односторонние обмены Односторонние обмены основаны на механизме удалённого доступа к памяти (RMA – Remote Memory Access) и позволяют процессу, инициировавшему обмен, самостоятельно задать параметры обмена как для источника, так и для адресата сообщения. Односторонние обмены используются в том случае, когда процесс «знает», какие данные другого процесса он должен модифицировать, а процесс-адресат сообщения этого не знает. Стандартная схема обмена сообщениями в этом случае требует согласования действий отправителя и получателя сообщения, для чего могут потребоваться дополнительные затраты времени (например, на пересылку параметров обмена). При этом объединены функции коммуникации и синхронизации. В односторонних обменах эти функции разделены. 2008 Односторонние обмены 2008 Односторонние обмены Односторонний обмен возможен, если процесс создаёт «окно», доступное всем остальным процессам. Окно создаётся (коллективным) вызовом подпрограммы: int MPI_Win_create(void *base, MPI_Aint size, int disp_unit, MPI_Info info, MPI_Comm comm, MPI_Win *win) MPI_Win_create(base, size, disp unit, info, comm, win, ierror) Входные параметры: base – адрес окна; size – размер окна в байтах; disp_unit – масштабный множитель для вычисления смещений; info – информационный параметр; comm – коммуникатор. Выходной параметр – win – окно. 2008 Односторонние обмены Аннулировать окно можно вызовом подпрограммы: int MPI_Win_free(MPI_Win *win) MPI_Win_free(win, ierror) 2008 Односторонние обмены Три операции одностороннего обмена: 1. MPI_Put – передача данных от отправителя в окно; 2. MPI_Get - передача данных из окна отправителю; 3. MPI_Accumulate – обновление окна получателя. Это неблокирующие операции. 2008 Односторонние обмены int MPI_Put(void *origin_addr, int origin_count, MPI_Datatype origin_datatype, int target_rank, MPI_Aint target_disp, int target_count, MPI_Datatype target_datatype, MPI_Win win) MPI_Put(origin_addr, origin_count, origin_datatype, target_rank, target_disp, target_count, target_datatype, win, ierror) Входные параметры: origin_addr – адрес буфера отправки сообщения; origin_count – количество элементов в буфере отправки; origin_datatype – тип передаваемых данных; target_rank – ранг адресата; target_disp – смещение от начала окна приёма до буфера приёма; target_count – количество принимаемых данных; target_datatype – тип принимаемых данных; win – окно приёма. 2008 Односторонние обмены При выполнении этой операции данные размещаются в буфере приёма по адресу адрес_окна + смещение × disp_unit При вызове подпрограммы MPI_Get данные копируются в обратном направлении – из памяти адресата в память «источника». 2008 Односторонние обмены Синхронизация при выполнении односторонних обменов Операции синхронизации: MPI_Win_fence MPI_Win_start, MPI_Win_complete, MPI_Win_post, MPI_Win_wait MPI_Win_lock, MPI_Win_unlock 2008 Односторонние обмены Пример subroutine example(vec1, b, map, n, comm, p) integer n, map(n), comm, p real vec1(n), b(n) integer sizeofreal, win, ierr call MPI_Type_extent(MPI_REAL, sizeofreal, ierr) call MPI_Win_create(b, n * sizeofreal, sizeofreal, & MPI_INFO_NULL, comm, win, ierr) call MPI_Win_fence(0, win, ierr) do i = 1, n j = map(i) / p k = mod(map(i), p) call MPI_Get(vec1(i), 1, MPI_REAL, j, k, 1, MPI_REAL, win, & ierr) end do call MPI_Win_fence(0, win, ierr) call MPI_Win_free(win, ierr) end 2008 Коллективные обмены 2008 Коллективные обмены В MPI-2 расширены возможности коллективных обменов сообщениями. Расширения заключаются в обобщении некоторых операций коллективного обмена на интеркоммуникаторы, введении дополнительных конструкторов интеркоммуникаторов, введении двух новых операций обмена – обобщённой операции «all-to-all» и операции исключающего сканирования. Есть и другие расширения. Подпрограмма MPI_Comm_create может использоваться для создания интеркоммуникаторов. 2008 Коллективные обмены 2008 Коллективные обмены Подпрограмма MPI_Comm_split расщепления интеркоммуникатора. может использоваться для В MPI-1 коллективные обмены ограничены интракоммуникаторами. В MPI-2 коллективные интеркоммуникаторах. 2008 обмены могут выполняться и в Коллективные обмены Пример. Операция Allgather в интеркоммуникаторе 2008 Коллективные обмены При выполнении коллективных обменов допускается использование одного буфера как для передачи, так и для приёма. Только для интракоммуникаторов! В MPI-2 имеется обобщённая операция MPI_Alltoallw. Она допускает дифференцированное задание параметров count, displacement, datatype. Смещения задаются в байтах. 2008 Внешние интерфейсы 2008 Внешние интерфейсы Механизм внешних интерфейсов позволяет программисту добавить новую функциональность поверх базовой функциональности MPI. Обобщённые запросы дают неблокирующие операции. возможность определить новые При использовании стандартных запросов операции, связанные с ними, выполняются средой исполнения MPI и приложение на этот процесс не влияет. При использовании обобщённых запросов «ответственность» за выполнение операции берёт на себя приложение. Оно сообщает MPI о завершении операции. 2008 Внешние интерфейсы Операции с обобщёнными запросами: MPI_Grequest_start MPI_Grequest_complete и некоторые другие. 2008 Другие возможности MPI-2 2008 Другие возможности MPI-2 Операции декодирования производных типов. Ассоциирование пользовательской информации с полями структуры status. Присвоение имён объектам MPI (например, коммуникаторам, окнам и др.). MPI и многопоточность (MPI_Init_thread, MPI_Thread_single, MPI_Thread_multiple и др.). Новые операции кеширования атрибутов. 2008 Другие возможности MPI-2 Параллельные операции ввода-вывода (MPI_File_open, MPI_File_close, MPI_File_read, MPI_File_write и др.). 2008 Отладка и профилирование параллельных MPI-программ 2008 Отладка и профилирование параллельных MPI-программ Отладка параллельных MPI-программ без использования специальных программных инструментов сложна и малоэффективна. Существуют разные инструменты, среди них jumpshot – собственное средство отладки MPI. Intel ® Trace Analyzer and Collector – это инструмент анализа, для которого характерно следующее: анализ выполняется на основе статистики, собранной во время выполнения программы; «инструментовка» исполняемого файла почти не влияет на производительность программы; анализ выполняется и для обменов сообщениями; поддерживается OpenMP и гибридная модель параллельного программирования MPI+OpenMP; поддерживается многопоточность Java. 2008 Отладка и профилирование параллельных MPI-программ Интерфейс программы 2008 Отладка и профилирование параллельных MPI-программ Так выглядит «плохая» программа (блокирующие обмены): 2008 Отладка и профилирование параллельных MPI-программ Так выглядит «хорошая» программа (неблокирующие обмены): 2008 Заключение В этой лекции мы рассмотрели: атрибуты; операции одностороннего обмена; внешние интерфейсы; обобщённые коллективные обмены; другие возможности MPI-2; некоторые инструменты отладки и настройки MPI-приложений. 2008 Задания для самостоятельной работы Решения следует высылать по электронной почте: [email protected] 2008 Задания для самостоятельной работы Повторите задания предыдущих лекций, используя там, где это возможно, операции одностороннего обмена, расширенную функциональность коллективных обменов MPI-2, другие возможности MPI-2. 2008