МЕТОД И АППАРАТНЫЕ СРЕДСТВА БАРЬЕРНОЙ СИНХРОНИЗАЦИИ ОДНОКРИСТАЛЬНЫХ МАТРИЧНЫХ МУЛЬТИКОМПЬЮТЕРОВ НА

advertisement
На правах рукописи
Бредихин Руслан Владимирович
МЕТОД И АППАРАТНЫЕ СРЕДСТВА БАРЬЕРНОЙ СИНХРОНИЗАЦИИ
ОДНОКРИСТАЛЬНЫХ МАТРИЧНЫХ МУЛЬТИКОМПЬЮТЕРОВ НА
ОСНОВЕ ВИРТУАЛЬНО-МНОГОСЛОЙНОЙ КОНВЕЙЕРНОЙ
КООРДИНИРУЮЩЕЙ СРЕДЫ
05.13.05 – Элементы и устройства вычислительной техники
и систем управления
АВТОРЕФЕРАТ
диссертации на соискание ученой степени
кандидата технических наук
Курск – 2014
2
Работа выполнена в Юго-Западном государственном университете
Научный руководитель:
доктор технических наук, профессор
Зотов Игорь Валерьевич
Официальные оппоненты:
Подвальный Семён Леонидович
доктор технических наук, профессор
Заслуженный деятель науки РФ
заведующий
кафедрой
автоматизированных
и
вычислительных
систем,
Федеральное
государственное
бюджетное
образовательное
учреждение
высшего
профессионального
образования
«Воронежский
государственный
технический университет».
Минайлов Виктор Викторович
кандидат
технических
наук
заместитель директора по учебнопроизводственной работе, Областное
бюджетное
образовательное
учреждение
среднего
профессионального
образования
«Курский
государственный
политехнический колледж».
Ведущая организация:
Белгородский
технологический
В.Г. Шухова
государственный
университет им.
Защита состоится 19 декабря 2014 г. в 14:00 на заседании диссертационного совета
Д 212.105.02 при Юго-Западном государственном университете по адресу: 305040,
Курск, ул. 50 лет Октября, 94 (конференц-зал).
С диссертацией можно ознакомиться в библиотеке ЮЗГУ и на официальном
сайте университета swsu.ru.
3
Автореферат разослан «___»____________2014 г.
Ученый секретарь совета Д 212.105.02
Титенко
______________ Евгений Анатольевич
4
ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ
Актуальность работы. Межпроцессорные взаимодействия являются одним из
критических факторов, сдерживающих рост производительности параллельных
вычислительных систем. Подобные взаимодействия весьма разнообразны по
характеру и охватывают широкий спектр действий: от простейших попарных обменов
скалярными данными до весьма сложных распределенных коллективных операций.
К числу важнейших коммуникационных процедур, выполняемых в ходе
межпроцессорного взаимодействия в системах различных архитектурных классов,
относится барьерная синхронизация. Барьерная синхронизация является не только
одним из часто встречающихся видов межпроцессорного взаимодействия, но и
считается базовой коммуникационной операцией параллельных программ,
разрабатываемых в соответствии с современными стандартами параллельного
программирования.
Практика показывает, что барьерная синхронизация значительно снижает
степень параллелизма программ и, следовательно, производительность
вычислительных систем, из-за необходимости ожидания процессами завершения
синхронизации. Учитывая невозможность исключения барьеров из большинства
параллельных программ, основные усилия исследователей и разработчиков в
настоящее время направлены на минимизацию времени, затрачиваемого в среднем на
один барьер (т.н. среднего времени барьерной синхронизации).
Вопросами организации межпроцессорного взаимодействия в параллельных
системах занимались многие отечественные и зарубежные ученые, в частности, А.В.
Каляев, И.В. Каляев, В.В. Воеводин, Вл.В. Воеводин, А.В. Корнеев, И.И. Левин, А.П.
Типикин, И.В. Зотов, E.D. Brooks, D.K. Panda, J. Wu, M. O’Keefe, W.E. Cohen и др. За
последние три десятилетия было разработано широкое многообразие методов,
процедур и средств барьерной синхронизации, используемых на различных уровнях
параллелизма и ориентированных на параллельные вычислительные системы разных
архитектурных классов. Для систем рассматриваемого класса наиболее перспективны
аппаратно-ориентированные методы распределенной барьерной синхронизации,
обладающие наилучшими скоростными характеристиками и адаптированные к СБИСреализации. Однако известные аппаратно-ориентированные методы характеризуются
недостаточной гибкостью, накладывая жесткие ограничения на конфигурацию
барьерных групп и/или количество барьеров в приложении, которые вступают в
противоречие с действующими стандартами параллельного программирования (в
частности, MPI 3.0) и не позволяют эффективно использовать эти методы на практике.
Исходя из вышеизложенного, существует объективная необходимость поиска
путей устранения ограничений на конфигурацию барьерных групп и количество
барьеров в выполняемых параллельных программах при реализации барьерной
синхронизации на аппаратном уровне без ухудшения скоростных характеристик
аппаратных средств.
Научно-технической задачей диссертации является создание метода и
аппаратных средств барьерной синхронизации для однокристальных матричных
мультикомпьютеров, позволяющих исключить ограничения на конфигурацию
барьерных групп и максимальное число барьеров в выполняемых программах при
заданных ограничениях на среднее время барьерной синхронизации.
5
Объект исследования: аппаратные средства барьерной синхронизации в
составе однокристальных матричных мультикомпьютеров (ОММК).
Предмет исследования: методы, процедуры и схемы устройств барьерной
синхронизации параллельных процессов в ОММК.
Работа выполнена при поддержке Минобрнауки РФ в рамках гранта
Президента РФ МД-2218.2011.8, а также в соответствии с планом НИР ЮЗГУ в 20092014 гг.
Целью диссертационной работы является повышение гибкости аппаратных
средств барьерной синхронизации однокристальных матричных мультикомпьютеров
в части исключения ограничений на конфигурацию барьерных групп и число барьеров
в выполняемых программах при заданном ограничении на время барьерной
синхронизации.
Для достижения поставленной цели необходимо решение следующих частных
задач:
1. Провести сравнительный анализ существующих методов, процедур и
устройств барьерной синхронизации с целью обоснования выбранного направления
исследований.
2. Создать аппаратно-ориентированный метод распределенной барьерной
синхронизации для однокристальных матричных мультикомпьютеров, инвариантный
к конфигурации барьерных групп и позволяющий исключить ограничения на число
барьеров в параллельных программах при условии выполнения ограничений на
среднее время барьерной синхронизации.
3. Разработать структурную и функциональную схемы узлового устройства
(ячейки) барьерной синхронизации в составе координирующей среды матричного
мультикомпьютера. Оценить аппаратную сложность и гибкость предложенного
технического решения.
4. Провести
экспериментальные
исследования
функционирования
разработанного устройства в составе координирующей среды матричного
мультикомпьютера с целью исследования зависимостей среднего времени
синхронизации от числа существующих барьерных групп и числа модулей
мультикомпьютера.
Результаты, выносимые на защиту, и их научная новизна:
1. Аппаратно-ориентированный
метод
распределенной
барьерной
синхронизации для однокристальных матричных мультикомпьютеров, отличающийся
тем, что синхронизация обеспечивается параллельно-конвейерным распространением
значений двоичных индикаторных функций барьеров в многослойной
координирующей среде, на каждый канал (одноразрядный слой) которой отображено
несколько виртуальных каналов, причем каждому из них соответствует один или
несколько попарно непараллельных барьеров программы, позволяющий устранить
ограничения на конфигурацию барьерных групп и число барьеров в параллельных
программах при соответствии среднего времени синхронизации заданному
ограничению.
2. Логическая конфигурация слоя координирующей среды мультикомпьютера,
новизна которой заключается в использовании двух инвертирующих цепей обратной
связи в двух угловых ячейках среды, имеющих соответственно минимальные и
максимальные координаты во всех измерениях, и позволяющая организовать
6
устойчивое распространение значений двоичных функций, отражающих условия
завершения синхронизации и активизации барьерных групп.
3. Структурно-функциональная организация узлового устройства (ячейки)
барьерной синхронизации в составе координирующей среды матричного
мультикомпьютера, отличающаяся наличием блоков коммутации виртуальных
каналов, блоков отображения барьеров на виртуальные каналы, схем конвейерного
переключения виртуальных каналов, позволяющая реализовать синхронизацию
произвольных барьерных групп, в том числе формируемых динамически в ходе
выполнения параллельной программы, а также в условиях динамического порождения
и уничтожения параллельных процессов в соответствии со стандартом параллельного
программирования MPI 3.0.
Достоверность результатов диссертации обеспечивается корректным и
обоснованным применением положений и методов математической логики, теорий:
множеств и графов, вероятностей и математической статистики, систем и сетей
массового обслуживания, проектирования устройств ЭВМ и систем, параллельных
вычислений, а также подтверждается совпадением теоретических выводов с
результатами имитационного моделирования.
Соответствие паспорту специальности. Содержание диссертации
соответствует п.1 и п.2 паспорта специальности 05.13.05 «Элементы и устройства
вычислительной техники и систем управления», поскольку в ней разработаны
принципы функционирования устройств барьерной синхронизации в составе
матричных мультикомпьютеров произвольной размерности, отличающихся
повышенной гибкостью в части инвариантности к конфигурации барьерных групп, а
также выполнен теоретический анализ и проведено экспериментальное исследование
функционирования разработанных устройств в составе координирующей среды,
позволившие обосновать их соответствие действующим ограничениям по аппаратной
сложности и времени синхронизации.
Практическая значимость работы:
1. Созданный метод позволяет эффективно использовать аппаратные средства
барьерной синхронизации на практике и внедрять их в производство перспективных
СБИС-мультикомпьютеров за счет исключения ограничений на конфигурацию
барьерных групп и число барьеров в выполняемых программах, вступающих в
противоречие с требованиями действующих стандартов параллельного
программирования (в частности, MPI 3.0).
2. Разработанная
структурно-функциональная
организация
устройства
барьерной синхронизации и координирующей среды на его основе применимы как к
двумерным матричным структурам мультикомпьютеров, так и к многомерным
вариантам структур (гиперкуб) без внесения принципиальных схемных изменений.
Это позволяет распространить предложенный подход на крупномасштабные («не
СБИС») мультикомпьютерные системы, которые, как правило, обладают трехмерной
топологической структурой.
Практическое использование результатов работы. Основные научные
результаты и выводы диссертационной работы внедрены в ЗАО «Открытые
технологии 98» (г. Москва), в ООО «НПЦ «Иннотех» (г. Курск), а также используются
в учебном процессе на кафедре вычислительной техники ЮЗГУ в рамках дисциплин
7
«Вычислительные системы повышенной надежности», «Отказоустойчивые
многопроцессорные платформы», в курсовом и дипломном проектировании.
Апробация работы. Основные положения и результаты диссертационной
работы были заслушаны и получили одобрение на Международной научнотехнической конференции «Распознавание – 2013» (г. Курск, 2013 г.), на I
Региональной научно-технической конференции «Информационные системы и
технологии» (г. Курск, 2012 г.), а также на научных семинарах кафедры
вычислительной техники ЮЗГУ (ранее КурскГТУ) с 2009 по 2014 г.
Публикации по теме диссертации. Результаты диссертационной работы
отражены в 10 публикациях, в числе которых 5 статей, опубликованных в научных
изданиях из Перечня ведущих рецензируемых научных журналов и изданий, а также
1 свидетельство о регистрации программы для ЭВМ.
Личный вклад соискателя. Все выносимые на защиту научные результаты
получены соискателем лично. В опубликованных в соавторстве работах личный вклад
соискателя сводится к следующему: в [1,5,6,7] разработаны основные положения и
этапы аппаратно-ориентированного метода барьерной синхронизации на основе
использования виртуально-многослойной координирующей среды; в [2,8,9]
синтезированы функциональные схемы основных блоков, входящих в состав ячейки
координирующей среды; в [3,4,10] исследовано функционирование разработанной
ячейки виртуально-многослойной координирующей среды в составе матричного
мультикомпьютера.
Объем и структура работы. Диссертационная работа состоит из введения,
четырех разделов, заключения, списка литературы и приложений. Работа содержит
141 страницу текста (с учетом приложений) и поясняется 30 рисунками и 5 таблицами;
список литературы включает 106 наименований.
Области возможного использования. Результаты диссертационной работы
могут найти применение при создании перспективных матричных СБИСмультикомпьютеров, подобных однокристальным системам TILE-Gx, а также при
построении крупномасштабных мультикомпьютеров (аналогичных выпускаемых
фирмами Cray, IBM, HP), объединяющих тысячи – сотни тысяч идентичных
процессорных узлов многомерной матричной коммуникационной средой, и
локальных сетей ЭВМ, организованных в матричные структуры.
СОДЕРЖАНИЕ РАБОТЫ
Во введении обоснована актуальность, сформулированы цель, задачи работы,
научная новизна и практическая ценность результатов, перечислены положения,
выносимые на защиту.
В первом разделе рассмотрены особенности архитектуры ОММК на примере
ряда современных СБИС-систем, координационные процессы, протекающие в
ОММК, и в частности, барьерная синхронизация как одна из стандартных и наиболее
распространенных форм коллективного координационного межпроцессорного
взаимодействия в мультикомпьютерах, дана постановка задачи обеспечения
барьерной синхронизации в ОММК, представлен аналитический обзор методов,
процедур и средств барьерной синхронизации с акцентом на распределенные
аппаратные решения, отмечены их ограничения.
За последние годы был разработан широкий спектр методов, способов и средств
барьерной синхронизации, используемых на различных уровнях параллелизма и
8
ориентированных на параллельные вычислительные системы разных архитектурных
классов. В зависимости от уровня реализации существующие решения можно
разделить на три класса: программные, гибридные (программно-аппаратные) и
аппаратные.
Программные решения полностью базируются на использовании стандартного
коммуникационного оборудования и протоколов и обычно представляются в виде
набора специализированных системных утилит. Будучи весьма гибкими,
масштабируемыми и простыми, программно реализованные процедуры барьерной
синхронизации, как правило, на 1-3 порядка медленнее по сравнению аппаратно
реализованными процедурами и поэтому не нашли применения в мультикомпьютерах.
Гибридный подход к барьерной синхронизации предполагает введение
незначительных расширений в структуру стандартных коммуникационных
аппаратных средств (например, барьерных регистров и логических схем), которые не
меняют архитектуры коммуникационной среды вычислительной системы.
Аппаратные решения, в противоположность гибридным, предусматривают введение
отдельной управляющей коммуникационной сети, логически отображенной на
стандартную (базовую) коммуникационную среду системы. Эта управляющая сеть
может иметь такую же топологию, что и базовая среда, но может и отличаться от неё
по топологии.
Многие известные методы барьерной синхронизации, ориентированные на
матричные мультикомпьютеры рассматриваемого класса, предполагают гибридную
реализацию. Гибридные решения, как правило, базируются на стандартных
коммуникационных протоколах, определяющих функционирование типовых
коммуникационных сетей, и используют специализированные аппаратные средства на
уровне отдельных узловых маршрутизаторов. Они имеют распределенный характер и
топологически согласованы с вычислительной системой, что позволяет достичь
высокой масштабируемости и гибкости среды барьерной синхронизации.
Недостатками гибридного подхода являются: большие временные затраты на
формирование и удаление барьерных групп; значительный слабо прогнозируемый
поток служебных сообщений (который стремительно возрастает с увеличением числа
барьеров в программе и числа участников барьерных групп и ограничивает реальную
пропускную способность коммуникационной сети); сложность гарантировать
отсутствие блокировок и дисбаланса в коммуникационной сети.
Методы барьерной синхронизации, ориентированные на аппаратную
реализацию, не предполагают выдачи дополнительных служебных сообщений в
базовую коммуникационную сеть мультикомпьютера, поскольку управляющие
межпроцессорные взаимодействия осуществляются через отдельную барьерную сеть
(которая, как правило, многократно проще базовой сети). Для поддержки барьерной
синхронизации на уровне каждого модуля вводятся специальные логические схемы и
регистры, подключенные к барьерной сети. Различия между аппаратными решениями
определяются главным образом топологией барьерной сети, а также логическими
функциями объединения барьерных сигналов. В их основе может лежать сеть с
шинной, кольцевой, матричной или древовидной топологией либо их комбинация.
Аппаратные методы и средства барьерной синхронизации уже нашли
применение в первых коммерческих мультикомпьютерах (Cray T3D, Thinking Machines CM-5, Fujitsu AP1000). Однако ввиду наличия жестких ограничений на
9
конфигурацию барьерных групп и/или количество барьеров в параллельных
программах их эффективное применение в современных и перспективных системах, в
т.ч. ОММК, в соответствии со стандартом MPI практически невозможно. Таким
образом, существует необходимость проведения дальнейших исследований и
разработки методов и аппаратных средств, обеспечивающих повышение гибкости
среды синхронизации в части исключения ограничений на конфигурацию барьерных
групп и число барьеров в выполняемых программах при сохранении ее высоких
скоростных характеристик.
Во втором разделе описан разработанный аппаратно-ориентированный метод
распределенной барьерной синхронизации в ОММК на основе использования
виртуально-многослойной координирующей среды (ВМКС), дано формализованное
представление процесса синхронизации в соответствии с разработанным методом.
Доказана инвариантность метода к конфигурации барьерных групп и числу попарно
параллельных барьеров в выполняемых программах.
Виртуально-многослойная координирующая среда представляет собой сеть из
однотипных ячеек, называемых барьерными модулями. Каждый барьерный модуль
соответствует «своему» процессорному модулю мультикомпьютера и решает
следующие основные задачи: 1) хранение данных об отображении барьеров, входящих
в реализуемые параллельные программы, на ВМКС; 2) фиксация признаков
завершения параллельных процессов соответствующим ему процессорным модулем;
3) управление распространением двоичных сигналов, отражающих состояние всех
выполняемых мультикомпьютером барьеров (завершен / не завершен); 4) обеспечение
запуска данного процессорного модуля при завершении ожидаемого барьера.
Барьерные модули имеют секционированную физическую организацию. Все
секции идентичны и функционируют параллельно. В любой момент времени секция
способна работать лишь с одним барьером, но при этом последовательно
выполняющиеся барьеры могут назначаться на одну и ту же секцию. Совокупность
секций всех барьерных модулей с соответствующими связями образует
одноразрядный физический слой (канал) ВМКС. На каждый физический слой
назначается множество виртуальных слоев, каждый из которых по своим
возможностям идентичен физическому слою. В результате на каждую секцию каждого
барьерного модуля отображаются виртуальные секции, входящие в соответствующие
виртуальные слои. Виртуальная секция при этом способна работать лишь с одним
барьером одновременно. Это же справедливо и для виртуального слоя в целом. Однако
физический слой при такой организации координирующей среды способен
одновременно работать с несколькими барьерами, в том числе и параллельными. С
другой стороны, в пределах всей координирующей среды в одном физическом слое
активны сразу несколько виртуальных слоев. Их активность обеспечивается
конвейерным переключением виртуальных секций в физических барьерных модулях.
Тактовая синхронизация этого процесса обеспечивается путем параллельного
распространения «волн» тактовых импульсов от одного углового модуля ОММК через
всю матрицу к другому угловому модулю и одновременно в обратном направлении
(например, от левого верхнего к правому нижнему и обратно, если речь идет о
двумерной матричной топологии).
Структура мультикомпьютера представляется в виде графа H  M ,U  , где
M – множество вершин, соответствующее множеству процессорных модулей, а U –
10
множество дуг, отражающее связи между модулями. Каждому модулю поставим в
соответствие порядковый номер вида ( x1 , x2 , , xd ) , xi  1, N i , где N i – число модулей
в i-м измерении, i  1, d . Модуль с порядковым номером ( x1 , x2 , , xd ) будем условно
обозначать как m( x1 , x2 , , xd ) .
Пусть мультикомпьютер выполняет некоторое множество параллельных
программ   { u } . В каждой программе  u   имеется множество ветвей
(участков) Du , которые находятся в отношениях параллельности, альтернативы либо
предшествования (следования). Формально состояние ветви Bp  Du задается
индикаторной функцией  p (t ) такой, что:  p (t )  1 , если ветвь B p в момент t активна
(т.е. выполняется некоторым модулем m( x1 , x2 ,
, xd ) ),  p (t )  0 в противном случае.
Пусть Vu – множество барьеров программы u . Обозначим через J ( a s )
множество ветвей, сходящихся в барьере as Vu . Определим для каждого барьера
as Vu
индикаторную функцию Z s (t )  {0,1} , удовлетворяющую следующим
условиям: Z s (t )  0 , если хотя бы одна ветвь Bs  J ( as ) в момент t активна, Z s (t )  1
иначе, полагая Z s (0)  0 . Ясно, что Z s  t  
  p (t ) .
B pJ  as 
Синхронизация ветвей J ( a s ) считается обеспеченной, если в некоторый момент
t  , (t   0)  (t   ) , выполняется условие синхронизации:
(1)
Z s (t )  0  1,
где запись 0  1 (1  0 ) означает переход значения функции из 0 в 1 (из 1 в 0).
Учитывая возможность циклического выполнения барьеров, необходимо, чтобы
после достижения условия синхронизации выполнялось следующее условие
восстановления:
(2)
t , (t   t )  (t   ) : Z s (t )  1  0 .
Временные интервалы формирования условий (1) и (2) называются
соответственно фазой синхронизации и фазой восстановления.
Каждому процессорному модулю m( x1 , x2 , , xd ) сопоставляется двоичный
вектор ( x1 , x2 , , xd ) , устанавливающий соответствие между модулями и барьерами
данной программы. Назовем ( x1 , x2 , , xd ) вектором соответствия:
( x1 , x2 ,
, xd )

( x1 , x2 , , xd )
 y1
( x , x2 , , xd )
, y2 1
,.., yn( x p1 , x2 ,
, xd )
,
где n – число физических слоев (разрядность) координирующей среды, а p – число
виртуальных слоев в каждом физическом слое (глубина виртуализации ВМКС),
причем ys( x1 , x2 , , xd )  0 , если за модулем m( x1 , x2 , , xd ) закреплена ветвь программы,
завершающаяся барьером a s , в противном случае ys( x1 , x2 , , xd )  1 (в этом случае модуль
m( x1 , x2 , , xd ) не должен оказывать влияния на процесс синхронизации ветвей,
сходящихся в барьере a s ).
11
Пусть B p  J  a s  – некоторая ветвь, назначенная на модуль m( x1 , x2 ,
Тогда состояние модуля m( x1 , x2 ,
следующим образом:
Zs t  
, xd ) по отношению к барьеру a s представляется

m ( x1 , x2 , , xd )M
где
 t   ys( x ,x ,
, xd ) .
  p (t ) .
zs( x1 , x2 ,
, xd )
t  ,
(3)
согласно формуле (3) условие
синхронизации (1) будет обеспечено в момент t  завершения последней ещё не
завершенной ветви множества J  as  , назначенной на некоторый модуль
zs( x1 , x2 ,
, xd )
1
2
, xd )
Тогда
 

m( x1, x2 , , xd ) : zs( x1 , x2 , , xd )  t   0  1.
Таким образом, для обеспечения синхронизации в ОММК необходимо
вычисление множества индикаторных функций Z s (t ) для всех барьеров по текущим
значениям признаков
z
( x1 , x2 , . xd )
s
 t 
и оперативная рассылка «уведомлений» о
наступлении события Z s  t   0  1 всем модулям, ожидающим завершение барьера
as .
Топология физического слоя ВМКС определяется по следующим правилам.
Пусть K l – физический слой координирующей среды, l  1, n , и Cl – множество его
ячеек. Ячейку слоя K l , соответствующую модулю m( x1 , x2 , , xd ) , условно
обозначим как cl ( x1 , x2 , , xd ) . Введем на множестве ячеек Cl координирующей
среды сети синхронизации H l и восстановления H l соответственно. Вершины,
соответствующие ячейкам cl ( x1 , x2 , , xd ) и cl ( x1 , x2 ,
дугами, если и только если соответственно:
, xd ) , свяжем в сетях H l и H l
i  j, i  1, d :  xi  xi    x j  x j  1
x j  2, N j
i  j, i  1, d :  xi  xi    x j  x j  1
x j  2, N j
;
.
Сети H l и H l определяют порядок распространения условий (1) и (2) в слое K l
соответственно. На рис. 1 в качестве иллюстрации представлены сети H l и H l для
двумерного матричного мультикомпьютера.
12
a)
б)
cl (1,1)
cl (2,1)
cl (3,1)
cl ( N1 ,1)
cl (1,1)
cl (2,1)
cl (3,1)
cl ( N1 ,1)
cl (1, 2)
cl (2, 2)
cl (3, 2)
cl ( N1 , 2)
cl (1, 2)
cl (2, 2)
cl (3, 2)
cl ( N1 , 2)
cl (1,3)
cl (2,3)
cl (3,3)
cl ( N1 ,3)
cl (1,3)
cl (2,3)
cl (3,3)
cl ( N1 ,3)
cl (1, N 2 )
cl (2, N 2 )
cl (3, N 2 )
cl ( N1 , N 2 )
cl (1, N 2 )
cl (2, N 2 )
cl (3, N 2 )
cl ( N1 , N 2 )
Рис. 1. Сети синхронизации (а) и восстановления (б) слоя K l двумерного ОММК
cl ( x1, x2 ,
Логика функционирования ячеек
определяется выражением
Z s( x1 , x2 , , xd )  t   zs( x1 , x2 , , xd )  t  
Z s( x11,x2 ,
, xd )
 t   Z s( x ,x 1,
1
, xd )
2
t  
, xd ) в фазе синхронизации
 Z s( x1 , x2 ,
, xd 1)
t 
,
(4)
где Z s( x1 , x2 , , xd )  t  – значение индикаторной функции, снимаемое с прямого выхода
ячейки cl ( x1 , x2 , , xd ) , s – номер барьера, соответствующего слою K l , причем если
i 1,2,
, d  : xi  0 , то предполагается Z s( x , x
1
2
, xd )
 t   1 (значение с прямого выхода
«несуществующей» ячейки всегда равно 1).
Логика функционирования ячеек cl ( x1 , x2 ,
определяется формулой
Z s( x1 , x2 ,
где Z s( x1 , x2 ,
, xd )
, xd )
t 
ячейки cl ( x1 , x2 ,
 t   Z s( x 1,x ,
1
2
, xd )
 t   Z s( x ,x 1,
1
2
, xd )
t  
, xd ) в фазе восстановления
 Z s( x1 , x2 ,
, xd 1)
t  ,
(5)
– значение индикаторной функции, снимаемое с инверсного выхода
, xd ) , причем если i 1,2,
, d  : xi  N i  1, то предполагается
Z s( x1 , x2 , xd )  t   0 (значение с инверсного выхода «несуществующей» ячейки всегда
равно 0).
Для связывания сетей синхронизации и восстановления в единый слой K l и
обеспечения реентерабельности процесса синхронизации предполагается:
 t   Z s( N ,N , ,N )  t  ;
,1)
 t   zs(1,1, ,1)  t   Z s(1,1, ,1)  t  .
Z s( N1 ,N 2 ,
,N d )
1
2
d
(6)
Z s(1,1,
(7)
Формулы (4)-(7) позволяют синтезировать логическую конфигурацию
физического слоя координирующей среды для ОММК произвольной размерности. Ее
устойчивое начальное состояние обеспечивается при наличии хотя бы одного
нулевого значения zs( x1 , x2 , , xd )  t  .
13
Топология и логика функционирования виртуальных слоев координирующей
среды определяются следующим образом.
Пусть K l  K l1 , K l2 ,.., K lp  – множество виртуальных слоев, размещенных в
физическом слое K l . Ячейке cl ( x1 , x2 ,
множество виртуальных ячеек
ячеек kl ( x1, x2 ,
c ( x , x ,
i
l
1
, xd ) слоя K l поставим в соответствие

, xd ) , i  1, p , и пару коммутирующих
2
, xd ) , kl ( x1, x2 , , xd ) .
На множестве ячеек Cl слоя K l вводятся виртуальные сети синхронизации H l и
восстановления H l соответственно. В сети H l дугами связываются все вершины,
соответствующие ячейкам множества
c ( x , x ,
i
l
1
2

, xd ) , по входу с вершиной
kl ( x1, x2 , , xd ) и по выходу – с вершиной kl ( x1, x2 , , xd ) . Также в сети H l
связываются пары вершин kl ( x1, x2 ,
, xd ) и kl ( x1, x2 , , xd ) , если и только если:
i  j, i  1, d :  xi  xi    x j  x j  1
x j 1, N j 1
.
Аналогично в сети H l дугами соединяются все вершины, соответствующие

ячейкам множества cli ( x1 , x2 ,
выходу – с вершиной kl ( x1, x2 ,

, xd ) , по входу с вершиной kl ( x1, x2 ,
, xd ) и по
, xd ) . Также в сети H l соединяются пары вершин
kl ( x1, x2 , , xd ) и kl ( x1, x2 , , xd ) , если и только если:
i  j, i  1, d :  xi  xi    x j  x j  1
x j  2, N j
.
Сети H l и H l определяют порядок включения (активизации) виртуальных
слоев для распространения условий (1) и (2) в слое K l соответственно. На рис. 2 в
качестве иллюстрации представлены сети H l и H l для двумерного ОММК. Жирным
выделен один из виртуальных слоев. Логическая конфигурация виртуальных слоев
аналогична представленной выше для физического слоя и в общем виде описывается
формулами (4)-(7).
14
a)
б)
kl ( N1 , N 2 )
clp ( N1 , N 2 )
kl ( N1 , N 2 )
cl1 ( N1 , N 2 )
kl ( N1 , N 2 )
cl1 ( N1 , N 2 )
clp ( N1 , N 2 )
kl ( N1 , N 2 )
Рис. 2. Виртуальные сети синхронизации (а) и восстановления (б) слоя K l
двумерного мультикомпьютера
Порядок активизации виртуальных слоев в отдельных ячейках определяется
следующим образом.
Множество ячеек Cl слоя K l разбивается на максимальные по включению
подмножества Cl0 , C l1 , Cl2 , …, Clq , Clq 1 таким образом, чтобы в подмножество Cl j ,
j  1, q , вошли все ячейки, которые находятся на расстоянии j от вершины cl (1,1, ,1) ,
и принимается Cl0  cl (1,1,
,1) , Clq1  cl ( N1, N 2 , , N d ). Аналогично множество
ячеек Cl слоя K l разбивается на максимальные по включению подмножества Cl0 , C l1 ,
Cl2 , …, Clq , Clq 1 таким образом, чтобы в подмножество Cl j , j  1, q , вошли все ячейки,
которые находятся на расстоянии j от вершины cl ( N1 , N 2 , , N d ) , и принимается
Clq1  cl (1,1, ,1), Cl0  cl ( N1, N 2 , , N d ) . Подмножества Cl j и Cl j называются
соответственно прямыми и обратными фронтами.
Описанные правила формирования прямых и
проиллюстрированы на рис. 3 на примере двумерного ОММК.
обратных
фронтов
15
Cl0
cl (1,1)
cl (2,1)
cl (3,1)
Cl2
Cl3
cl (1, 2)
cl (2, 2)
cl (3, 2)
cl (1,3)
cl (2,3)
cl (3,3)
Cl1
Cl3
Cl2
Cl1
cl ( N1 , N 2  2)
cl ( N1 , N 2  1)
Cl0
cl ( N1  2, N 2 ) cl ( N1  1, N 2 ) cl ( N1 , N 2 )
Рис. 3. Порядок формирования прямых и обратных фронтов
для двумерного ОММК
Пусть для фронта Cl j в текущий момент времени активным будет виртуальный
слой K lr , r 1,2,
, p. Тогда для фронта Cl j 1 активным считается слой Klr 1 , если
r  p , и слой K l1 , если r  p . Для фронта Cl j 1 , таким образом, активным будет слой
Klr 1 при r  1 и слой K lp при r  1.
Аналогично определяется активность
виртуальных слоев и для обратных
фронтов. Отметим, что в пределах
одного фронта (прямого или обратного)
во всех ячейках активен один и тот же
виртуальный слой.
Описанный порядок активизации
виртуальных слоев иллюстрируется на
примере
среды
синхронизации
двумерного ОММК в конфигурации
4  4 при p  5 (см. рис. 4). Активные
виртуальные ячейки и связи выделены
жирными линиями. Из рисунка следует,
что в каждой физической ячейке
происходит
последовательное
циклическое
переключение
виртуальных слоев, причем в пределах
Рис. 4. Порядок активизации виртуальных одного
фронта
переключения
слоев координирующей среды
осуществляются синхронно. В то же
двумерного ОММК
время ячейки фронта с меньшим
порядковым номером переключаются с
запаздыванием относительно текущего фронта, а ячейки фронта с большим
порядковым номером, наоборот, – с опережением. Величина запаздывания /
опережения (в тактах) пропорциональна разности номеров фронтов. Аналогично
происходит активизация виртуальных слоев в сети восстановления.
16
С учетом особенностей разработанного механизма виртуализации
координирующей среды текущее состояние произвольного модуля m( x1 , x2 , , xd ) по
отношению к барьеру a s определяется в следующем виде:
zs( x1 , x2 ,
, xd )
t  
 y s( x1 , x2 ,
где rj 1, 2,
, xd )
  rj  rj   k (t ),
(8)
, p – номер активного виртуального слоя для фронта Cl j , содержащего
ячейку cl ( x1 , x2 ,
, xd ) ; rj 1,2,
, p – номер виртуального слоя, на который
назначен барьер a s ;  k (t ) отражает состояние ветви Bk  J  as  , выполняемой
модулем m( x1 , x2 , , xd ) . Согласно формуле (8) zs( x1 , x2 , , xd )  t   1 , если активен
виртуальный слой, на который назначен s-й барьер, при этом модуль m( x1 , x2 , , xd )
Во
лн
а
та
кт
ов
ы
х
им
пу
ль
со
в
уже не выполняет ветвь Bk  J  as  либо данный модуль вообще не является
участником s-й барьерной группы. Иными словами, состояние ветви Bk учитывается
только при совпадении номеров двух виртуальных слоев – активного для ячейки
cl ( x1 , x2 , , xd ) и соответствующего барьеру a s .
С
целью
обеспечения
cl (1,1)
согласованной
работы
ячеек
координирующей среды с учетом
виртуализации физических слоев
разработан
соответствующий
механизм
их
тактовой
синхронизации, основанный на
известном методе тактирования
волнами
импульсов
(DCWclocking).
Опуская
формализованное представление
указанного механизма, поясним
его
сущность
графической
иллюстрацией на примере сети
синхронизации
двумерного
cl ( N1 , N 2 )
ОММК (рис. 5). Для упрощения на
данном рисунке отдельные ячейки
отображены квадратами, а связи
Рис. 5. Порядок распространения тактовых
между ними условно не показаны.
импульсов в координирующей среде
Подобный порядок передачи
двумерного мультикомпьютера
тактовых импульсов ячейкам
координирующей среды позволяет организовать высокоскоростное конвейерное
переключение виртуальных слоев. При достаточно высокой частоте следования
тактовых импульсов и, соответственно, при большом числе волн, покрывающих
матрицу ОММК, один и тот же виртуальный слой может быть одновременно активен
в ячейках нескольких фронтов.
Доказано, что разработанный метод распределенной барьерной синхронизации,
основанный на использовании виртуально-многослойной координирующей среды,
17
инвариантен к конфигурации барьерных групп и в частности, к их мощности и
размещению в ОММК, которые существенны для известных аппаратных методов
барьерной синхронизации.
В третьем разделе осуществлен синтез структурных и функциональных схем
основных блоков, входящих в состав ячейки координирующей среды,
рассматриваются особенности ее функционирования во взаимодействии с другими
аналогичными ячейками. Проведена оценка аппаратной сложности ячейки и гибкости
разработанных аппаратных средств.
Функциональная схема разработанной ячейки изображена на рис. 6, где
жирными линиями выделены блоки элементов и шины, латинскими буквами
обозначены входы и выходы ячейки. Дополнительно входы и выходы размечены
наименованиями переменных и функций, которые на них подаются или с них
снимаются. Через   x1 , x2 , , xd  и   x1 , x2 , , xd  на рис. 6 обозначены
координатные признаки текущего модуля,   x1 , x2 , , xd  – признак активизации
текущего модуля, CW1 и CW1 – волны тактовых импульсов в сетях синхронизации и
( x1 , x2 , , xd )
( x1 , x2 , , xd )
восстановления соответственно, Fcur
и Vcur
– номера текущих физического
и виртуального слоев соответственно, Vmax – максимальный номер используемого
виртуального слоя, R0 – сигнал системного сброса.
Значения признаков   x1 , x2 ,
  x1 , x2 ,
, xd  определяются выражениями:
1, если x1  x2   xd  1;
, xd   
0 для всех остальных модулей,
1, если  x1  N1    x2  N 2     xd  N d  ;
, xd   
0 для всех остальных модулей.
Назначение элементов, блоков, входов и выходов ячейки, а также особенности
ее функционирования в составе координирующей среды ОММК подробно
рассмотрены в диссертационной работе.
Аппаратная сложность E 0 разработанной ячейки зависит от числа физических
слоев n, глубины их виртуализации p, а также связана с размерностью
мультикомпьютера d:
E0  3 log2 n   n  2   2 log2 p   4 p  15  p  23n  2   2n  d  7   20 .
(9)
Единицей изменения величины E 0 является эквивалентный вентиль (ЭВ) –
двухвходовый вентиль, реализующий любую булеву функцию двух переменных из
множества {И, ИЛИ, И-НЕ, ИЛИ-НЕ}.
В табл. 1 представлены значения аппаратной сложности E координирующей
среды двумерного матричного мультикомпьютера ( d  2 ), полученные на основе
формулы (9): E  N1 N 2 E0 . Значения выражены в ЭВ и получены в предположении,
что N1  N 2 .
  x1 , x2 ,
18
Z s( x1 1, x2 , , xd )
Z s( x1 , x2 1, , xd )
1)
Z s( x1 , x2 , , xd B.1
A.1
A.2
A.d
n+1
n
n
&
n
B.2
z
Z
Z
2.1
n+1
D
“1”
С
R0
, xd 
E.1
, xd 
TT
C
D
1
18
n
n
D
C
R
D
C
R
D
C
R
RG
1.1.1
n
RG
1.1.2
n
19
n
MX
9
n
1
RG
1.1.p
n
n
n
7.3
J.d
7.1
R
E.2
1
n
F.2
n
( x1 , x2 , , xd 1)
s
F.d
22.1
n+1
DX
22.2
1
2.2
21
n+1
n
n
D
C
R
D
C
R
D
C
R
RG
1.2.1
n
RG
1.2.2
n
n
n
&
12
S
T
20
n
n
7.2
n
L.1
1.6
n
5.2
y
D
( x1 , x2 , , xd )
s
D
RG
1.4
R
CT
+1
30
&
DC
R
C
D

1
17
DC
5.1
&
31
29
14.1
Z
CW1
n
n
1
15
==
8.1
RG
&
DC
V
D
P.d
D
RG
Монтажное ИЛИ
CT
==
&
6.2
14.2
1.3
R
1.5
+1
R
4.2
P.1
&
28
5.3
6.1
8.2
R
n
L.d
( x1 , x2 , , xd )
s
P.2
n
4.1
C
C
L.2
n
RG
N.1
N.2
1
16
n
C
I
n
R
D
( x1 , x2 , , xd )
cur
, xd 
K
22.d
F
Vmax
  x1 , x2 ,
1
24
1
MX
3.2
RG
1.2.p
& n
11
1
( x1 , x2 , , xd )
cur
G
H
J.1
&
10
23
F.1
, xd )
J.2
S
T
n+1
( x1 1, x2 , , xd )
s
( x1 , x2 1, , xd )
s
M
Z s( x1 , x2 ,
3.1
R
&
Z
DX
n
 p (t )
  x1 , x2 ,
n
13
( x1,x2 , ,xd )
s
B.d
  x1 , x2 ,
n+1
&
n
S
26
1
25
Q.1
Q.2
27
8.p
N.d
CW1
O
Q.d
Рис. 6. Функциональная схема ячейки многослойной координирующей среды
с виртуализацией физических слоев
Анализ данных, сведенных в табл. 1, показывает, что координирующая среда на
основе разработанной ячейки во всех практически значимых случаях реализуется на
одной микросхеме. При этом аппаратная сложность отдельной ячейки остается в
пределах 30 тысяч ЭВ, что на два-три порядка ниже логической емкости современных
микросхем.
Таблица 1.
N1  N 2
n, p
4
8
16
32
64
128
4, 4
9792
39168
156672
626688
2506752
10027008
8, 8
31872
127488
509952
2039808
8159232
32636928
16, 16
112192
448768
1795072
7180288
28721152 114884608
32, 32
416384
1665536
6662144 26648576 106594304 426377216
В табл. 2 содержатся результаты сравнительной оценки гибкости разработанных
аппаратных средств. В качестве характеристик гибкости выбраны инвариантность к
конфигурации барьерных групп, масштабируемость координирующей среды и
расширяемость на случай d-мерной матрицы. Из табл. 2 видно, что по совокупности
19
характеристик гибкости предложенный подход превосходит лучшие известные
аналоги (методы, отмеченные символом *, относятся к подклассу гибридных).
Таблица 2.
Наименование
метода
или
решения
Инвариантность
конфигурации
барьерных групп
к
Древовидная
Не
обеспечивается
барьерная сеть (допускаются
только
CM-5
барьерные
группы
мощностью
степени
двойки).
Распределенный Не
обеспечивается
аппаратный
(барьерные
группы
барьер Delgado- должны размещаться в
Kofuji
прямоугольных
сплошных
областях
матрицы).
MDBS-сеть
Частичная
(синхронизируемые
процессы должны быть
размещены в соседних
процессорах).
Метод
Полная.
многоадресных
пакетов Panda*
Барьерное
Полная.
дерево BTM*
Синхронизатор
DVBSS
Полная.
Предлагаемый
подход
Полная.
Масштабируемость
Расширяемость на
случай
d-мерной
матрицы
Плохая (при добавлении новых
процессоров в систему нужна
полная перестройка барьерной
среды).
Плохая.
согласуется
матричной
топологией.
Плохо
с
Средняя (жесткое ограничение Средняя. Применим
на
число
параллельно только к двумерным
выполняемых барьеров).
матрицам.
Хорошая (ограничено число Средняя. Применима
барьеров в системе).
только к двумерным
матрицам.
Средняя (длина сообщения
сильно зависит от мощности
барьерных групп).
Хорошая (ограничено число
барьерных регистров).
Хорошая.
ограничений.
Нет
Средняя. Применимо
только к двумерным
матрицам.
Средняя (наличие физических Хорошая.
Нет
обратных
связей
между ограничений.
угловыми модулями матрицы
усложняет
расширение
системы).
Хорошая (ограничено число Хорошая.
Нет
физических
слоев ограничений.
координирующей среды).
Четвертый раздел посвящен исследованию функционирования разработанной
ячейки виртуально-многослойной координирующей среды в составе ОММК с целью
оценки среднего времени, затрачиваемого на один барьерный эпизод (среднего
времени синхронизации).
Оценка среднего времени синхронизации t выполнялась на основе
имитационного моделирования. Моделирование проводилось только для двумерного
ОММК, поскольку реализация СБИС-систем более высокой размерности на данном
этапе затруднительна. Исследования осуществлялись в предположении, что N1  N 2 ,
а количество синхронизируемых и активизируемых ветвей для каждого барьера
одинаково. Число синхронизируемых / активизируемых ветвей при этом выбиралось
из диапазона от 2 до N  N1 N 2 , а их распределение между модулями
мультикомпьютера варьировалось равновероятно. Время распространения значений
индикаторных функций через ячейку, а также моменты завершения ветвей множеств
J  as  определялись согласно усеченному нормальному распределению. Каждое
20
значение величины t рассчитывалось путем усреднения по 500 итерациям, что
обеспечило достаточную точность с учетом методической погрешности
имитационного моделирования.
Моделирование позволило подтвердить, что среднее время синхронизации t
слабо зависит от разрядности координирующей среды n, поскольку физические слои
практически не оказывают влияния друг на друга. График зависимости величины t
от глубины виртуализации координирующей среды p приведен на рис. 7. Зависимость
соответствует мультикомпьютеру
с организацией 8×8 и получена в
предположении, что задержка
одного ЭВ составляет в среднем 1
нс, а время обмена данными между
процессорным модулем и ячейкой
не превышает 150 нс (определено
экспериментально).
Анализ этой зависимости
показывает,
что
она
с
достоверностью прогнозирования
не менее 0,98 близка к линейной.
Таким
образом,
для
всех
практически
достижимых
значений
p
среднее
время
синхронизации не превышает 2030 мкс. В то же время при малых
значениях p (9 и меньше) оно не превосходит 10 мкс. Указанные значения соизмеримы
с оценками времени синхронизации, полученными при аналогичных допущениях для
известных аппаратных и гибридных методов барьерной синхронизации.
На рис. 8 представлены графики зависимости среднего времени синхронизации
t от числа модулей в составе мультикомпьютера N, полученные при различных
значениях p. Из рис. 8 следует, что для
максимально возможных на текущий
момент конфигураций ОММК (10×10 –
система TILE-Gx100) значения t не
превышают 20÷25 мкс при любых
практически обоснованных значениях p.
В заключении сформулированы
основные
результаты
и
выводы
диссертации.
В приложениях приведен листинг
программного модуля имитационного
моделирования, а также представлены
акты
о
внедрении
результатов
диссертации на предприятиях и в
учебный процесс.
21
ОСНОВНЫЕ РЕЗУЛЬТАТЫ И ВЫВОДЫ РАБОТЫ
Диссертационная работа посвящена решению научно-технической задачи,
заключающейся в разработке метода и аппаратных средств барьерной синхронизации для
однокристальных
матричных
мультикомпьютеров,
позволяющих
исключить
ограничения на конфигурацию барьерных групп и максимальное число барьеров в
выполняемых программах при заданных ограничениях на среднее время барьерной
синхронизации, существенная для создания СБИС-систем с гибкой высокоскоростной
подсистемой барьерной синхронизации.
В ходе решения этой задачи получены следующие основные результаты:
1. Создан аппаратно-ориентированный метод распределенной барьерной
синхронизации для однокристальных матричных мультикомпьютеров, отличающийся
параллельно-конвейерной организацией распространения значений двоичных
индикаторных функций барьеров в многослойной координирующей среде, на каждый
канал (одноразрядный слой) которой отображено несколько виртуальных каналов, в
каждом из которых может выполняться синхронизация нескольких попарно
непараллельных барьеров.
2. Доказано, что разработанный метод барьерной синхронизации инвариантен к
конфигурации барьерных групп и в частности, к их мощности и размещению в ОММК,
применим в случаях динамического порождения и уничтожения параллельных
процессов, регламентируемых стандартом параллельного программирования MPI 3.0, а
также позволяет исключить требования к числу попарно параллельных барьеров в
выполняемых программах.
3. Разработана структурно-функциональная организация узлового устройства
(ячейки) барьерной синхронизации в составе координирующей среды матричного
мультикомпьютера, отличающаяся использованием логической конфигурации
отдельного канала (слоя) с двумя инвертирующими цепями обратной связи в двух
угловых ячейках среды, имеющих соответственно минимальные и максимальные
координаты во всех измерениях, содержащая новые блоки коммутации виртуальных
каналов, отображения барьеров на виртуальные каналы, конвейерного переключения
виртуальных каналов и позволяющая реализовать синхронизацию произвольных
барьерных групп, в том числе формируемых динамически в ходе выполнения
параллельной программы, а также в условиях динамического порождения и уничтожения
параллельных процессов.
4. Выполнена аналитическая оценка аппаратной сложности разработанной ячейки
и координирующей среды на ее основе, которая позволила установить, что в большинстве
практически значимых случаев координирующая среда в целом содержит не более 2 млн.
эквивалентных вентилей и следовательно, может быть полностью реализована на одной
микросхеме (и следовательно, интегрирована в ОММК на этапе производства).
5. Установлено, что предложенный подход и разработанные аппаратные средства
барьерной синхронизации по совокупности основных характеристик гибкости
(зависимость от конфигурации барьерных групп, масштабируемость координирующей
среды и расширяемость на случай d-мерной матрицы) превосходят лучшие известные
аналоги и соответствуют требованиям действующих стандартов параллельного
программирования мультикомпьютеров (в частности, MPI 3.0).
6. Выполнено имитационное моделирование функционирования разработанной
ячейки в составе координирующей среды мультикомпьютера, в результате которого были
получены экспериментальные зависимости среднего времени синхронизации от глубины
виртуализации координирующей среды и числа процессоров в составе ОММК.
22
Полученные зависимости позволили установить, что при всех практически достижимых
и обоснованных на текущий момент значениях варьируемых параметров среднее время
синхронизации соответствует имеющимся ограничениям (20÷30 мкс) и не превышает
значения аналогичного показателя известных аппаратных методов барьерной
синхронизации.
СПИСОК ПУБЛИКАЦИЙ ПО ТЕМЕ ДИССЕРТАЦИИ
Статьи по перечню ведущих рецензируемых научных журналов и изданий
1. Зотов, И.В. Аппаратная реализация барьерной синхронизации в матричных
мультикомпьютерах [Текст] / Зотов И.В., Бурмака А.А., Бредихин Р.В., Сухочев Ю.О. // Информационноизмерительные и управляющие системы. 2013. №8. С. 41-45.
2. Бредихин, Р.В. Об организации встроенного аппаратного взаимоконтроля в логических
мультиконтроллерах [Текст] / Бредихин Р.В., Ньян Лин, Зотов И.В. // Изв. Вузов. Приборостроение. 2013.
Т.56, №6. С. 44-49.
3. Зотов, И.В. Принципы организации встроенного аппаратного межмодульного взаимоконтроля
в матричных логических мультиконтроллерах [Текст] / Зотов И.В., Бредихин Р.В., Лисицин Л.А., Ньян
Лин // Известия ЮЗГУ. Серия «Управление, вычислительная техника, информатика. Медицинское
приборостроение». 2013. №1. С. 202-208.
4. Зотов, И.В. Аппаратно-ориентированные методы управления межпроцессорной координацией
в параллельных системах с распределенной памятью [Текст] / Зотов И.В., Бобынцев Д.О., Бредихин Р.В.,
Ньян Лин // Известия ЮЗГУ. Серия «Управление, вычислительная техника, информатика. Медицинское
приборостроение». 2013. №1. С. 43-48.
5. Бредихин, Р.В. Распределенная процедура циклической барьерной синхронизации для
однокристальных матричных мультикомпьютеров [Текст] / Бредихин Р.В., Зотов И.В. // Известия ЮЗГУ.
Серия Управление, вычислительная техника, информатика. Медицинское приборостроение. №2, часть 1,
2012. С. 48-54.
Статья в международном рецензируемом научном издании
6. Bredikhin, R.V. A distributed parallel pipelined hardware-level barrier synchronization method for
mesh-connected multicomputers / Igor V. Zotov, Ruslan V. Bredikhin, Evgeni A. Titenko // International
Review on Computers and Software (I.RE.CO.S.), Vol.8, No 9, September 2013. PP. 2254-2261.
Материалы конференций
7. Бредихин, Р.В. Распределенная координирующая среда матричного мультиконтроллера с
многослойными виртуальными каналами [Текст] / Бредихин Р.В., Леонов М.Е., Зотов И.В. // Материалы
докладов I Региональной научно-технической конференции «Информационные системы и технологии»,
16-19 октября 2012 г., Курск: ЮЗГУ. С. 197-199.
8. Макаров, Д.И. Модель ячейки координирующей среды мультиконтроллера с
интегрированными средствами аппаратного контроля модулей [Текст] / Макаров Д.И., Бредихин Р.В.,
Зотов И.В. // Материалы докладов I Региональной научно-технической конференции «Информационные
системы и технологии», 16-19 октября 2012 г., Курск: ЮЗГУ. С. 56-59.
9. Бредихин, Р.В. Организация барьерной синхронизации в матричных мультикомпьютерах на
основе виртуально-многослойной конвейерной координирующей среды [Текст] / Бредихин Р.В., Зотов
И.В., Сухочев Ю.О. // Материалы Международной научно-технической конференции «Оптикоэлектронные приборы и устройства в системах распознавания образов, обработки изображений и
символьной информации», Курск, 18-20 мая 2013 г. – Курск: ЮЗГУ, 2013. C. 232-235
Свидетельство о государственной регистрации программы для ЭВМ
10. Свидетельство об официальной регистрации программы для ЭВМ №2011612774 / Бредихин
Р.В. и др. заявл. 14.02.2011; рег. 06.04.2011.
23
Подписано в печать 17.10.2014 г. Формат 6084 1/16.
Печ. л. 1,0. Тираж 100 экз. Заказ _________.
Юго-Западный государственный университет.
Издательско-полиграфический центр
Юго-Западного государственного университета.
305040, г. Курск, ул. 50 лет Октября, 94.
Download