Оптимизация ПО для поддержки технологии Hyper-Threading с помощью OpenMP™ и Intel® Threading Toolkit Максим Перминов [email protected] Разработчик ПО, корпорация Intel 1 Содержание Технология Hyper-Threading – многопоточность – OpenMP™ Наша первая программа на OpenMP Наша первая корректная программа на OpenMP Оптимизация производительности с помощью Intel® Threading Toolkit 2 Как работает технология HT Без HyperThreading Физические процессоры Логические Физический процессор процессоры распределение ресурсов видимые для ОС Время На выходе Ресурс 1 Поток 2 Поток 1 Ресурс 2 С HyperThreading Ресурс 3 Ресурс 1 Ресурс 2 + Ресурс 3 Лучшее использование ресурсов и более высокая производительность благодаря двум одновременно обрабатываемым потокам 3 Разбивайте Ваше приложение на несколько потоков Что? Стратегия многопоточности – Распараллеливание задачи – Распараллеливание данных Как? Внедрение многопоточности – Языки программирования (C#, Java) – API / Библиотека (Win32, P-потоки, MPI) – Расширение языков программирования (OpenMP) OpenMP позволяет ускорить распараллеливание задач и данных 4 Что такое OpenMP™? Расширение компилятора для легкого распараллеливания НЕ МЕНЯЕТ КОД C/C++ Три компоненты: – #pragma (директива компилятора) – самое важное – API и библиотека Runtime – Переменные окружения Преимущества: – – – – Легкий путь использования Hyper-Threading Переносимость и стандартизация Постепенное распараллеливание Специальные инструменты профилирования 5 Модель программирования Параллельность типа «разветвлениесоединение»: – основной поток порождает группу дополнительных потоков – Группа потоков соединяется в конце области распараллеливания Вся память (переменные) совместно используется по умолчанию Распараллеливание можно осуществлять шаг за шагом основной поток – Последовательная программа разворачивается в параллельную группа потоков Области распараллеливания 6 Наша первая программа на OpenMP™ Все прагмы OpenMP™ начинаются с omp Прагма parallel порождает группу из n потоков Все внутри исполняется n раз! Вся память используется совместно! void func() { int a, b, c, d; void func() { int a, b, c, d; #pragma omp parallel { a = a + b; c = c + d; } } a = a + b; c = c + d; } 7 Упражнение 1: Hello OpenMP™ Изначальный код – Откройте проект PrimeHT.dsp – Скомпилируйте и запустите, используя стандартный компилятор Microsoft* – Скомпилируйте и запустите, используя компилятор Intel® Compiler; отметьте результаты Hello OpenMP™ – Найдите в PrimeHT.cpp цикл, серьезно влияющий на производительность – Создайте вокруг него область распараллеливания OpenMP Оставьте код тайминга вне области распараллеливания – Включите в Intel Compiler поддержку OpenMP опция /Qopenmp – Скомпилируйте и запустите – Можете объяснить результаты? 8 Приписывание задач потокам Разделяющие работу прагмы приписывают задачи потокам Прагма sections приписывает неитеративные задачи void func() { int a, b, c, d; #pragma omp parallel { #pragma omp sections { #pragma omp section a = a + b; //one thread #pragma omp section c = c + d; //another thread } } } 9 Прагмы, разделяющие задачу Прагмы, разделяющие задачу, можно объединять с прагмой parallel void func() { int a, b, c, d; #pragma omp parallel sections { #pragma omp section a = a + b; //one thread #pragma omp section c = c + d; //another thread } } Две функции, исполняющиеся параллельно: #pragma omp parallel sections { #pragma omp section do_compress(); #pragma omp section do_encrypt(); } #pragma omp parallel sections Распараллеливание на уровне задания! 10 Упражнение 2: Parallel Sections Разбейте основной цикл на два например, from .. to/2 и to/2 .. to Превратите общую область в конструкцию «parallel sections» Поместите каждый подцикл в свою секцию Скомпилируйте и запустите; (попытайтесь) объяснить результат 11 Разделение работы на циклах Прагма for приписывает циклы потокам Есть несколько способов сделать это… Между прочим, что делается в приведенном примере? void func() { int a[N], sum = 0; #pragma omp parallel for for (int i = 0; i < N; i++) { sum += a[i]; } } #pragma omp parallel for Распараллеливание на уровне данных! 12 Упражнение 3: Parallel For Восстановите один основной цикл from .. to Превратите общую область в конструкцию «parallel for» Скомпилируйте и запустите Объясните результат 13 Правила разделения переменных Неявное правило 1: Все переменные, определенные вне omp parallel, являются глобальными для всех потоков Неявное правило 2: Все переменные, определенные внутри omp parallel, являются локальными для каждого потока Неявное исключение : В прагме omp for, счетчик цикла всегда локален для каждого потока Явное правило 1: Переменные, приведенные в shared(), являются глобальными для всех потоков Явное правило 2: Переменные, приведенные в private(), являются локальными для каждого потока 14 Какие переменные локальные, а какие глобальные? void func() { int a, i; #pragma omp parallel for \ shared(c) private(d, e) for (i = 0; i < N; i++) { int b, c, d, e; a = a + b; c = c + d * e; } } 15 Упражнение 4: области действия переменных С помощью указанных выше правил установите области действия переменных в основном цикле Скомпилируйте и запустите Объясните результат 16 Проблема синхронизации Команды процессора Код C mov eax, [sum] add eax, 1 mov [sum], eax sum++; ветвь 1 такт ветвь 1 исполняет eax сумма s ветвь 2 eax ветвь 1 исполняет s s s add eax, 1 s+1 s s+1 mov [sum], eax s+1 s+1 s+1 s+1 s+1 t+0 mov eax, [sum] t+1 t+2 t+3 Не то, что мы ожидали! 17 mov eax, [sum] add eax, 1 mov [sum], eax Прагмы синхронизации #pragma omp single – исполняет следующую команду только с помощью одного (случайного) потока #pragma omp barrier – удерживает потоки в этом месте, пока все потоки не дойдут дотуда #pragma omp atomic – атомарно исполняет следующую операцию доступа к памяти (т.е. без прерывания от других ветвей) #pragma omp critical [имя потока] – позволяет только одному потоку перейти к исполнению следующей команды int a[N], sum = 0; #pragma omp parallel for for (int i = 0; i < N; i++) { #pragma omp critical sum += a[i]; // one thread at a time } 18 Упражнение 5: синхронизация Для решения нашей проблемы синхронизации используйте нужную прагму синхронизации Скомпилируйте и запустите 19 Упражнение 6: профилирование Включите в компиляторе профилирование OpenMP™ /Qopenmp_profile Скомпилируйте снова Создайте проект Intel® Thread Profiler для PrimeHT.exe; примите все настройки по умолчанию Запустите Intel® VTune™ Performance Analyzer New Project | Threading Toolkit | Thread Analyzer Wizard; проверьте: Number of Threads = 2 Запустите сессию профилирования Посмотрите результат в видах Summary, Threads, Regions 20 omp for schedule: схемы schedule определяет, как шаги цикла приписываются разным потокам Компромисс между двумя противоположными целями: – Наилучший баланс загрузки потоков – Минимальное дополнительное время, потраченное на обработку цикла schedule(static) Один поток schedule(guided, f) schedule(dynamic, c) C N/2 N f 21 Упражнение 7: планирование Усовершенствуйте схему планирования Скомпилируйте и перепрофилируйте Добейтесь оптимальной загрузки потоков при минимальных дополнительных затратах на обработку цикла 22 Сведение Можно ли сделать лучше, чем синхронизировать все доступы к одному общему накопителю? Альтернатива: – Частный накопитель в каждом потоке – Для получения окончательного значения все частные накопители суммируются (сводятся к одному) в конце Операции сведения: +, *, -, &, ^, |, &&, || int a[N], sum = 0; #pragma omp parallel for reduction(+: sum) for (int i = 0; i < N; i++) { sum += a[i]; // no synchronization needed } 23 Упражнение 8: сведение Используйте прагму «reduction», чтобы избавиться от синхронизации и связанных с ней дополнительных задержек Скомпилируйте и спрофилируйте Подготовьте непрофилированную версию и проведите окончательные замеры Поздравляем! 24 Прагмы OpenMP™ на заметку Основная прагма, порождает группу потоков – omp parallel Прагмы, разделяющие задачу (можно объединять с прагмой parallel) – omp sections – omp for Клаузулы для прагм, разделяющий задачу – private, shared, reduction – область действия переменных – schedule – управление планированием Прагмы синхронизации – omp critical [имя потока] – omp barrier 25 Решение #pragma omp parallel for private(cand, max_div, div) \ reduction(+: counter, count31) \ schedule(guided, 10) for (cand = from; cand <= to; cand += 2) { prime = true; max_div = ((long)sqrt((double)cand)) + 1; ... Все что требуется для эффективного распараллеливания – добавить одну строчку в исходный код! 26 Что еще есть в OpenMP™? Другие способы определения областей действия переменных и их инициализации Более сложные прагмы синхронизации OpenMP™ API и переменные окружения – Контроль количества потоков – Ручная низкоуровневая синхронизация… Модель «очереди задач» для разделения задания – Расширение, специфичное для Intel и пока не стандартизованное Совместимость с Win32* и P-потоками www.openmp.org 27 «Очередь» для разделения задачи Для более сложных интерактивных моделей, не укладывающихся в рамки обычных циклов struct Node { int data; Node* next; }; Node* head; for (Node* p = head; p != NULL; p = p->next) { process(p->data); } Node* p; #pragma intel omp taskq shared(p) for (p = head; p != NULL; p = p->next) //only 1 thrd { #pragma intel omp task process(p->data); // queue task to be executed } // on any available thread 28 Итоги и выводы Технология Hyper-Threading повышает производительность процессора при очень низких затратах Технология HT доступна сегодня на массовых настольных ПК Для извлечения преимуществ технологии HT, разбивайте на потоки Ваше приложение! Используйте OpenMP™ для легкого поэтапного распараллеливания Вашего приложения! Для достижения максимальной производительности используйте Intel Threading Tools 29 Полезные ресурсы developer.intel.com/software/products/ compilers/ www.openmp.org Руководство Intel® Compiler User Guide 30 Спасибо за внимание! Пожалуйста, не забудьте developer.intel.com вернуть заполненные анкеты 31 Дополнительные материалы 32 Использование распараллеливания Уровень распараллел ивания Где используется Технология Команды Гиперконвейерные, сложные исполнительные устройства, предсказание ветвлений Микроарх. Intel Использование NetBurst® (гиперконвейерная, суперскалярная, спекулятивная) Данные SIMD MMX, SSE, SSE2 Область действия Задача, поток Несколько процессоров SMP Цена 33 Проблема Опции Intel® Compiler для многопоточности и OpenMP™ Автоматическое распараллеливание –/Qparallel Поддержка OpenMP™ –/Qopenmp –/Qopenmp_report{0|1|2} 34 Ключевые термины Многопроцессорность (MP) – аппаратная технология для повышения производительности за счет увеличения числа процессоров Технология Hyper-Threading (HT) – аппаратная технология для повышения производительности за счет более оптимального использования ресурсов процессора Многопоточность (MT) – программная технология для повышения функциональности и производительности ПО за счет использования нескольких (логических) процессоров 35 HT - технология, никакой мистики Несколько процессоров Арх. сост. Кэш-память Проц. Блок исполнения команд Арх. сост. Кэш-память Проц. Блок исполнения команд Hyper-Threading Арх. сост. Арх. сост. Кэш-память Проц. Блок исполнения команд Технология HT повышает производительность процессора благодаря лучшему использованию ресурсов 36 Технология HT: что внутри Буферы потоковых команд Instruction TLB Указатель следующей команды Return Stack Predictor Trace Cache Next IP Trace Cache Fill Buffers Таблицы псевдонимов регистров Технология HT повышает производительность процессора при минимальных затратах 37 HT: использование преимуществ HT прозрачна для ОС и приложений – ПО просто «видит» несколько процессоров Способы использования ПО для извлечения преимуществ от технологии HT: – Многопоточность – в пределах одного приложения – Многозадачность – среди нескольких приложений Поддержка со стороны ОС увеличивает преимущества технологии HT: – тонкое планирование с учетом логических процессоров – остановка логических процессоров в пустом цикле – внедрена в: Windows* XP, Linux* 2.4.x Для использования преимуществ технологии HT разбивайте Ваше приложение на несколько потоков! 38 Разбивайте Ваше приложение на несколько потоков Что? Стратегия многопоточности Как? Внедрение многопоточности 39 Распараллеливание задачи Разделите всю задачу на несколько несвязанных друг с другом задач Исполняйте эти задачи одновременно (отдельными потоками) Данные Поток сжатия Данные Data 40 Поток шифрования Данные Data Распараллеливание данных Разделите данные на несколько несвязанных друг с другом наборов Назначьте эти наборы одновременно исполняемым потокам Поток A … Поток N 41 Внедрение многопоточности API / Библиотека – Win32* API – P-потоки – MPI Языки программирования – Java* – C# Расширение языков программирования – OpenMP™ 42