Загрузил Maksimka

Основы теории передачи информации

Реклама
Тема 1. Введение. Основные определения и терминология
Рисунок 1 - Примеры первичных (а, в) и вторичных (б, г) сигналов
Динамический диапазон сигнала Dс
𝑷𝒄𝒎𝒂𝒙
𝑫𝒄 = 𝟏𝟎 𝒍𝒈 (
(дБ))
𝑷𝒄𝒎𝒊𝒏
Объем сигнала:
𝑉𝑐 = 𝑇𝑐 ⋅ 𝐷𝑐 ⋅ 𝛥𝐹𝑐
Первичные сигналы – это функции времени x(t).
• Непрерывные по уровню и по времени (а);
• Непрерывные по уровню и дискретные по времени (б);
• Дискретные по уровню и непрерывные по времени (в);
• Дискретные по уровню и по времени (г).
Структурная схема канала связи
Структурная схема канала связи для передачи дискретных сообщений
Основные характеристики систем передачи информации
Информационно – технические:
 достоверность - характеризует степень соответствия принятых
сообщений переданным;
 помехоустойчивость - способность системы передачи информации
противостоять вредному действию помех на передачу сообщений;
 скорость передачи информации - число символов дискретного
сообщения, передаваемых в единицу времени;
 задержка - промежуток времени между подачей сообщения от
источника на вход передающего устройства и выдачей
восстановленного сообщения получателю приемным устройством;
 диапазон частот;
Конструктивно – эксплуатационные:
 объем; масса аппаратуры; КПД; мобильность; надежность; стоимость;
Классификация систем передачи информации
• Одноканальные • Многоканальные • Симплексные системы связи •
Дуплексные системы связи • Системы односторонней связи • Системы
двусторонней связи • Системы передачи дискретных сообщений •
Системы передачи непрерывных сообщений • Телефонные системы
передачи информации • Телеграфные системы передачи информации
•Телевизионные системы передачи информации • Телеметрические
системы передачи информации
• Системы передачи данных
•
Ионосферные системы • Тропосферные системы • Метеорные
системы • Космические системы
Тема 2. Дискретизация непрерывных сообщений
Структурная схема канала связи для передачи дискретных сообщений
Дискретизация непрерывных сообщений
Дискретизация сообщений по времени.
Дискретизация сигналов - преобразование функций непрерывных по
времени переменных в функции дискретных по времени переменных, по
которым исходные непрерывные функции могут быть восстановлены с
заданной точностью.
Отсчёты - мгновенные значения непрерывной функции (сигнала) x(t).
В общем случае процессы дискретного представления должны
описываться выражениями:
При линейных процессах представления и восстановления можно
записать:
Регулярное представление, если шаг дискретизации Tд = ti -ti-1
постоянный. В противном случае - нерегулярное.
Процедура дискретизации - произведение дискретизируемой функции
(сигнала) x(t) на последовательность импульсов дискретизации fд (t).
Задача представления сигналов регулярными отсчётами сводится к:
Особенно важно найти минимальную частоту Fд, при которой еще
имеется принципиальная возможность восстановления непрерывного
сигнала с заданной погрешностью.
Переход к спектрам сигналов: Дискретизация - произведение
дискретизируемой функции на последовательность импульсов
дискретизации: 𝑥 (𝑡)𝑓Д (𝑡). → В спектральной области произведение
функций времени соответствует свертке их спектров.
Спектр периодической последовательности импульсов дискретизации линейчатый
Для модели сигнала с ограниченным спектром решение задач
дискретизации и восстановления содержится в теореме Котельникова.
Любую непрерывную функцию со спектром, ограниченным полосой
частот от нуля до Fв, можно однозначно определить
последовательностью ее мгновенных значений, взятых через
интервалы Tд ≤ 1/(2 Fв) по формуле:
∞
x ′ (t) = ∑ x(iTд )
i=∞
sin⁡[2πFв (t − iTд )]
2πFв (t − iTд )
Этот ряд называется рядом Котельникова. Базисные функции:
φi (t) =
sin[(2πFв (t − iTд )]
2πFв (t − iTд )
образуют ортогональную на бесконечном интервале систему функций.
Дискретизация конечного по времени сигнала.
Дан сигнал x(t) с ограниченным спектром, для которого все отсчёты в
точках kΔ, лежащих за пределами заданного интервала времени
длительностью Т, равны нулю. → Тогда ряд Котельникова вырождается в
конечную сумму, число членов которой n равно: n ≈ Т /Δ = 2FвT, → База
сигнала - число отсчётных точек, умещающихся на интервале Т в котором
сигнал отличен от нуля. → Сигнал длительностью Т, спектр которого не
содержит частот выше Fв полностью определяется заданием 2FвT его
отсчётов.
Базисные функции: φi (t) =
sin[(2πFв (t−iTд )]
2πFв (t−iTд )
Процедура восстановления непрерывной функции по ее отсчётам.
Непрерывный сигнал восстанавливается, если на вход идеального фильтра
нижних частот с полосой пропускания 0... Fв подать последовательность
дельта-функций δ(t—iTд), i=.., —1, 0, 1,..., умноженных на коэффициенты
х(iTд).
Восстановление непрерывной функции по ее отсчётам.
Адаптивная дискретизация непрерывных сообщений
Существенные отсчеты - отсчеты позволяющие восстановить
непрерывное сообщение на приемной стороне с заданной точностью.
При адаптивной дискретизации отсчеты передаются в случайные
моменты. Поэтому необходим механизм синхронизации.
Тема 3. Основы теории информации
Теория информации - раздел математической теории связи.
Цель кодера источника - представление информации в наиболее
компактной форме.
Цель кодера канала – обработка информации с целью защиты
сообщений от помех при передаче по каналу связи.
Понятие информация ассоциируется с наличием по крайней мере двух
взаимодействующих систем X и Y, одна из которых Y является
наблюдаемой системой (приемником), а вторая X—источником
информации.
Любая система описывается совокупностью физических величин, которые
могут зависеть от параметров.
Состояния системы — это значения физических величин или
параметров, которые ее описывают.
Сообщение - информация, подлежащая передаче и выраженная в
определённой форме (текст, изображение, цифрового потока данных и т.д.)
Сообщение — это состояние системы.
Передача сообщений – передача состояний системы.
Система случайным образом с некоторой вероятностью может оказаться в
том или другом состоянии (передатчик приходит в состояние, которое
соответствует передаваемому символу).
Множество состояний систем X и Y - множество случайных событий.
Множества Х и Y статистически зависимы (состояние одного из них
влияет на вероятность состояния другого).
𝑃(𝑦𝑗 |𝑥𝑖 )
(𝑥𝑖 ∈ 𝑋, 𝑦𝑖 ∈ 𝑌, 𝑖 = 1. . . 𝑚𝑥 , 𝑗 = 1. . . 𝑚𝑦 )
Множества Х и Y с заданным на них двумерным распределением
вероятности представляют собой модель двух взаимодействующих
систем. Эта модель лежит в основе построения статистической теории
информации.
Состояние источника сообщений отображает сигнал.
В общем случае состояние источника (передаваемое сообщение)
изменяется во времени, поэтому сигнал – случайная функция времени.
До получения сведений о состоянии передающей системы имеется
априорная неопределенность ее состояния.
Процесс передачи информации позволяет снять эту неопределенность.
«Информация – послание, которое уменьшает неопределённость»
Поэтому количество информации можно определить как меру снятой
неопределенности, которая растет с ростом числа состояний системы.
Аксиома 1. Количество информации, необходимое для снятия
неопределенности состояния системы, представляет собой монотонно
возрастающую функцию числа состояний системы.
Аксиома 2. Неопределенность состояния сложной системы, состоящей из
двух подсистем, равна сумме неопределенностей подсистем. X=(X1+X2).
𝐼(𝑚1)⁡- количество информации необходимое для снятия
неопределенности первой подсистемы
𝐼(𝑚2 ) - количество информации необходимое для снятия
неопределенности второй подсистемы
𝑚1 - число состояний первой подсистемы
𝑚2 - число состояний первой подсистемы
𝑚1𝑚2 −⁡ число состояний сложной системы
𝐼(𝑚1𝑚2 ) = 𝐼(𝑚1 ) + 𝐼(𝑚2 )
количество информации необходимое для снятия неопределенности
сложной подсистемы.
Единственным решением полученного функционального уравнения
является логарифмическая функция:
𝐼(𝑚) = 𝐾 𝑙𝑜𝑔𝑎 ( 𝑚)
Основание логарифма а определяет единицу измерения количества
информации.
1. Источник без памяти
Пусть передаются символы: 𝑥𝑖 , 𝑝(𝑥𝑖 ) 𝑥𝑗 , 𝑝(𝑥𝑗 )
Вероятность совместной передачи символов:
𝑝(𝑥𝑖 , 𝑥𝑗 ) = 𝑝(𝑥𝑖 )𝑝(𝑥𝑗 )𝐼(𝑥𝑖 , 𝑥𝑗 ) = 𝐼(𝑥𝑖 ) + 𝐼(𝑥𝑗 )𝐼(𝑥𝑖 ) = 𝑘 𝑙𝑜𝑔𝑎 ( 𝑝(𝑥𝑖 ))
𝐼(𝑥𝑖 ) = − 𝑙𝑜𝑔𝑎 ( 𝑝(𝑥𝑖 )) - собственная информация, переносимая символом
• Неотрицательность: 𝐼(𝑥𝑖 ) ≥ 0
• Монотонность: 𝑝(𝑥𝑖 ) ≥ 𝑝(𝑥𝑗 )𝐼(𝑥𝑖 ) ≤ 𝐼(𝑥𝑗 )
• Аддитивность: 𝐼(𝑥1, . . . 𝑥𝑛 ) = ∑𝑛𝑖=1 𝐼(𝑥𝑖 ) ⁡𝑥𝑖⁡ - независимые!
Каково среднее количество информации передаваемой источником Х,
приходящееся на один символ?
Свойства энтропии:
𝑝(𝑥1 ) = 𝑝(𝑥2 ) =. . . . = 𝑝(𝑥𝑚 ) =
1
𝑚
- все символы равновероятны
𝑚
1
1
𝐻(𝑋) = − ∑ 𝑙𝑜𝑔( ) = 𝑙𝑜𝑔( 𝑚) = 𝑚𝑎𝑥
𝑚
𝑚
𝑖=1
𝑙𝑜𝑔( 𝑚) − информационная⁡емкость⁡алфавита⁡источника
2. Источник с памятью
Формула Байеса: 𝑝(𝑥𝑖 , 𝑦𝑗 ) = 𝑝(𝑥𝑖 )𝑝(𝑦𝑗 |𝑥𝑖 ) = 𝑝(𝑦𝑗 )𝑝(𝑥𝑖 |𝑦𝑗 )
𝑘
Совместная энтропия: 𝐻(𝑋, 𝑌) = − ∑𝑚
𝑖 ∑𝑗 𝑝(𝑥𝑖 , 𝑦𝑗 ) 𝑙𝑜𝑔( 𝑝(𝑥𝑖 , 𝑦𝑗 )) =
𝑚
𝑘
= − ∑ ∑ 𝑝(𝑥𝑖 )𝑝(𝑦𝑗 |𝑥𝑖 ) 𝑙𝑜𝑔( 𝑝(𝑥𝑖 )𝑝(𝑦𝑗 |𝑥𝑖 )) =
𝑚
𝑖
𝑘
𝑗
= − ∑ ∑ 𝑝(𝑥𝑖 )𝑝(𝑦𝑗 |𝑥𝑖 )[𝑙𝑜𝑔( 𝑝(𝑥𝑖 )) + 𝑙𝑜𝑔( 𝑝(𝑦𝑗 |𝑥𝑖 ))] =
𝑖
𝑗
𝑚
𝑘
𝑚
𝑘
= − ∑ 𝑝(𝑥𝑖 ) 𝑙𝑜𝑔( 𝑝(𝑥𝑖 )) ∑ 𝑝(𝑦𝑗 |𝑥𝑖 ) − ∑ 𝑝(𝑥𝑖 ) ∑ 𝑝(𝑦𝑗 |𝑥𝑖 ) 𝑙𝑜𝑔( 𝑝(𝑦𝑗 |𝑥𝑖 )) =
𝑖
𝑗
𝑖
𝑗
=⁡∑𝑘𝑗 𝑝(𝑦𝑗 |𝑥𝑖 ) = 1
𝑚
𝑚
𝑘
= − ∑ 𝑝(𝑥𝑖 ) 𝑙𝑜𝑔( 𝑝(𝑥𝑖 )) − ∑ 𝑝(𝑥𝑖 ) ∑ 𝑝(𝑦𝑗 |𝑥𝑖 ) 𝑙𝑜𝑔( 𝑝(𝑦𝑗 |𝑥𝑖 )) =
𝑖
𝑖
𝑗
Условная энтропия источника Y при условии передачи источником X
𝑚
𝑚
𝑘
𝐻(𝑌|𝑋) = − ∑ 𝑝(𝑥𝑖 )𝐻(𝑌|𝑥𝑖 ) = − ∑ ∑ 𝑝(𝑥𝑖 , 𝑦𝑗 ) 𝑙𝑜𝑔( 𝑦𝑗 |𝑥𝑖 )
𝑖
Свойства совместной энтропии:
Статистически независимы:
Полностью статистически зависимы:
𝑖
𝑗
Совместная информация: I(X,Y)=H(X)-H(X|Y) I(X,Y)=H(Y)-H(Y|X)
I(X,Y)=H(X)+H(Y)-H(X,Y)
H(X|Y) – это потери информации в канале связи. H(Y|X) - это информация о
помехах.
Свойства энтропии:
• Энтропия источника тем больше, чем больше размер его алфавита
• Энтропия максимальная если символы равновероятны и статистически
независимы
• Энтропия источника неравновероятных символов всегда меньше
максимальной
• При наличии статистических связей энтропия источника уменьшается
Избыточность источника:
𝜌и = 1 −
𝐻(𝑋)
𝐻(𝑋)𝑚𝑎𝑥
𝐻(𝑋)
𝑙𝑜𝑔(𝑚)
Рассмотрим алфавит букв русского языка: а, б, в, ……я. ⁡𝒎 = 𝟐𝟓 = 𝟑𝟐
Если бы все буквы имели одинаковую вероятность, то:
H(X)max = log 2 (32) = 5 бит/букву
Если учесть различную вероятность появления букв, то:
𝐻 (𝑋) = 4.39 бит/букву
С учетом корреляции двух (после «п» чаще встречается «а» и почти никогда
«ю» и т.д.) и трех букв энтропия соответственно уменьшится до:
𝐻 (𝑋) =
3.52 бит
⁡⁡⁡⁡⁡⁡⁡⁡⁡𝐻(𝑋) = 3.05 бит/букву
букву
Если учесть корреляцию восьми символов, то: 𝐻 (𝑋) = 2.0 бит/букву
2
Избыточность русского литературного текста: 𝜌и = 1 − = 0.6
5
Избыточность источников музыки, изображени: 𝜌и =0.9…0.95
Тема 4. Основы теории экономного кодирования
Цель кодера источника - представление информации в наиболее
компактной форме.
Кодирование - преобразование алфавита сообщения X {xi}, (i = 1,2…m) в
алфавит кодовых символов R {yj}, (j = 1,2…k).
Цели кодирования:
• сокращение объема информации и повышения скорости ее передачи
или сокращения полосы частот, требуемых для передачи. Это
экономное, кодирование (сжатие данных).
• уменьшение количества ошибок при передаче по каналу с помехами.
Помехоустойчивое кодирование.
• преобразование из одних систем счисления в другие (из десятичной в
двоичную, восьмеричную и т. п., преобразование буквенного алфавита
в цифровой и т. д.).
• засекречивание передаваемой информации. При этом элементарным
сообщениям xi из алфавита X {xi} ставятся в соответствие
последовательности, к примеру, цифр или букв из специальных
кодовых таблиц, известных лишь отправителю и получателю
информации.
Способы задания кодов:
- кодовые таблицы, ставящие в соответствие сообщениям
соответствующие им коды.
- кодовое дерево.
Равномерные коды - каждая буква из алфавита источника кодируется
одинаковым числом символов
Неравномерные коды - каждая буква из алфавита источника
кодируется различным числом символов.
Неоднозначное декодирование неравномерных кодов:
АББА = 1001
ЖА = 1001
АЕА = 1001
ГД = 1001
Неравномерные коды:
-приводимые. Не могут на практике применяться без специальных
разделяющих символов.
-неприводимые. Могут однозначное декодироваться. Для этого
необходимо, чтобы всем буквам алфавита соответствовали лишь
вершины кодового дерева.
Однозначное декодирование неравномерных кодов:
Декодирование неравномерных кодов гораздо сложнее, чем
равномерных. Зачем используют неравномерные коды?
Основные информационные характеристики источника с таким
алфавитом:
• Энтропия источника: 𝐻(𝑋) = − ∑𝑚
𝑖=1 𝑝(𝑥𝑖 ) 𝑙𝑜𝑔2 ( 𝑝(𝑥𝑖 )) = 𝑙𝑜𝑔2 ( 8) = 3
• Избыточность источника: 𝜌и = 1 −
𝐻(𝑋)
𝐻(𝑋)𝑚𝑎𝑥
1
8
• Среднее число разрядов в символе: 𝑛 = ∑𝑚
𝑖=1 𝑛𝑖 𝑝(𝑥𝑖 ) = 3 ∑𝑖=1 = 3
8
• Избыточность кода: 𝜌к = 1 −
𝐻(𝑋)
𝑛
=0
Статистическое кодирование - размер кодовых комбинаций согласован с
вероятностью выпадения различных букв.
Более вероятные буквы - более короткий код, менее вероятные - более
длинный.
Статистический код (для источника без памяти):
Кодирование по методу Шеннона - Фано:
• символы из алфавита сообщения записывают в порядке убывания их
вероятностей;
• разбивают на две примерно равные по сумме вероятностей группы;
• одной из них (в группе может быть любое число символов, в том числе
– один) присваивают символ “1”, другой - “0”;
•
каждую из этих групп снова разбивают (если это возможно) на две
части и каждой из частей присваивают “1” и “0” и т.д.
Для любого однозначно декодируемого кода среднее число разрядов в
двоичном кодовом слове всегда не меньше энтропии источника
сообщений: 𝑛 ≥ 𝐻(𝑋)
Невозможно построить однозначно декодируемый код, для которого
выполнялось бы неравенство: 𝑛 < 𝐻(𝑋)
Алгоритм Хаффмана:
1. Выписываем в ряд все символы алфавита в порядке возрастания или
убывания вероятности их появления в тексте.
2. Последовательно объединяем два символа с наименьшими
вероятностями появления в новый составной символ, вероятность
появления которого полагаем равной сумме вероятностей
составляющих его символов.
3. Строим дерево, каждый узел которого имеет суммарную вероятность
всех узлов, находящихся ниже него.
4. Прослеживаем путь к каждому листу дерева, помечая направление к
каждому узлу (например, направо - 1, налево - 0). Полученная
последовательность дает кодовое слово, соответствующее каждому
символу.
Сжатие данных:
Цель сжатия данных - обеспечить компактное представление данных,
вырабатываемых источником, для их более экономного сохранения и
передачи по каналам связи.
Данные источника → Кодер → Сжатые данные → Декодер →
Восстановленные данные
• системы сжатия без потерь информации (неразрушающее сжатие).
Декодер восстанавливает данные источника абсолютно точно;
• системы сжатия с потерями информации (разрушающее сжатие).
Разрушающий кодер характеризуется величиной искажений:
𝐷 = (1/𝑛) ∑(𝑥𝑖∗ − 𝑥𝑖 )2
Коды с памятью.
Словарные методы кодирования.
Метод Лемпела-Зива-Уэлча (Lempel-Ziv-Welch). Фразы в сжимаемом
тексте заменяются указателем на то место, где они в этом тексте уже ранее
появлялись. LZW-сжатие.
Принципы работы LZW-кодера и декодера.
Последовательно считываем символы входного потока (строку) и
проверяем, есть ли в уже созданной нами таблице такая строка.
Если строка есть, то считываем следующий символ, а если такой строки
нет, - заносим в выходной поток код для предыдущей найденной строки,
заносим ее в таблицу и начинаем поиск снова.
Сжатие с потерей информации
Стандарт кодирования изображений JPEG (Joint Photographers Experts
Group)
1. Разбиение изображения на блоки размером 8х8 пикселов.
2. Применение к каждому из блоков дискретного косинусного
преобразования DCT.
3. Округление коэффициентов DCT в соответствии с заданной матрицей
весовых коэффициентов.
4. Преобразование матрицы округленных коэффициентов DCT в
линейную последовательность путем их зигзагообразного чтения.
5. Кодирование повторений для сокращения числа нулевых компонент.
6. Статистическое кодирование результата кодом Хаффмана или
арифметическим кодом.
Тема 5. Основы помехоустойчивого кодирования. Блочные
коды.
Цель кодера канала – обработка информации с целью защиты
сообщений от помех при передаче по каналу связи.
Экономное кодирование – представить подлежащие передаче данные в
максимально компактной и, по возможности, неискаженной форме.
Помехоустойчивое кодирование - представить подлежащие передаче
данные так, чтобы уменьшить количество ошибок, возникающих при
передаче информации по каналу с помехами.
Свойства всех схем помехоустойчивого кодирования:
1. Использование избыточности. Закодированные последовательности
всегда содержат дополнительные, или избыточные, символы.
Количество символов в кодовой последовательности Y всегда больше,
чем необходимо для однозначного представления любого сообщения λi
из алфавита.
2. Свойство усреднения, означающее, что избыточные символы зависят
от нескольких информационных символов, то есть информация,
содержащаяся в кодовой последовательности X, перераспределяется
также и на избыточные символы.
Существует два больших класса корректирующих кодов:
• сверточные
•
блочные;
Кодер для блочных кодов делит непрерывную информационную
последовательность X на блоки-сообщения длиной k символов.
Кодер канала преобразует блоки-сообщения X в более длинные двоичные
последовательности Y, состоящие из n символов и называемые кодовыми
словами.
Символы (n-k), добавляемые к каждому блоку сообщения кодером,
называются избыточными. Они не несут никакой дополнительной
информации, и их функция состоит в обеспечении возможности
обнаруживать (или исправлять) ошибки, возникающие в процессе
передачи.
Блочный код - код "без памяти" означает, что каждый блок из n символов
зависит только от соответствующего информационного блока из k
символов и не зависит от других блоков.
Кодер для свёрточных кодов работает с информационной
последовательностью без разбиения ее на независимые блоки. В каждый
момент времени кодер из небольшого текущего блока информационных
символов размером в b символов (блока-сообщения) образует блок,
состоящий из v кодовых символов (кодовый блок), причем v > b. При этом
кодовый v-символьный блок зависит не только от b-символьного блока
сообщения, присутствующего на входе кодера в настоящий момент, но и
от предшествующих m блоков-сообщений. В этом и состоит наличие
памяти в кодере.
Линейные блочные коды
Блочный код длиной n символов, состоящий из 2n кодовых слов,
называется линейным (n, k)-кодом при условии, что все его 2k исходных
слов образуют k-мерное подпространство векторного пространства n
последовательностей двоичного поля GF (2).
Полем называется множество математических объектов, которые можно
складывать, вычитать, умножать и делить.
Определенные таким образом операции сложения и умножения называются
сложением по модулю 2 ( mod2 ) и умножением по модулю 2
Из равенства 1+1 = 0 следует, что -1 = 1 и, соответственно,1+1=1-1, а из
равенства 1⋅1=1 − что 1:1=1.
Алфавит из двух символов 0 и 1 вместе со сложением и умножением по mod2
называется полем из двух элементов и обозначается как GF (2)
Двоичный код является линейным, если сумма по модулю 2 двух кодовых
слов также является кодовым словом этого кода.
К полю GF (2) применимы все методы линейной алгебры, в том числе
матричные операции.
Систематический код содержит неизменную информационную часть длиной
k символов и избыточную (проверочную) длиной n – k символов.
Блочный код, обладающий свойствами линейности и систематичности,
называется линейным блочным систематическим (n, k)-кодом.
Код с проверкой на четность
Самым простым линейным блочным кодом является (n, n-1) код, например,
код (4,3), построенный с помощью одной проверки на четность:
𝑈 = (𝑚0 , 𝑚1, 𝑚2, 𝑚0 + 𝑚1 + 𝑚2 )
где mi - символы информационной последовательности, принимающие
значения 0 и 1, а суммирование производится по модулю 2 (mod2)
Пусть информационная последовательность источника имеет вид: 𝑚 =
(1,0,1)
Тогда соответствующая ей кодовая последовательность: 𝑈 =
(𝑈0 , 𝑈1 , 𝑈2 , 𝑈3 ) = (1,0,1,0) 𝑈3 = 𝑚0 + 𝑚1 + 𝑚2
Если число единиц в последовательности m четно, то результатом
суммирования будет 0, если нечетно — 1, то есть проверочный символ
дополняет кодовую последовательность таким образом, чтобы количество
единиц в ней было четным.
Если при передаче рассматриваемого (4,3)-кода произошла одна ошибка,
причем неважно, в какой его позиции, то общее число единиц в принятой
последовательности r уже не будет четным.
Признаком отсутствия ошибки в принятой последовательности может
служить четность числа единиц. Такие коды и называются кодами с
проверкой на четность.
Схема кодирования:
Декодирующее устройство:
Итеративный код
Пусть нужно передать девять информационных символов m = ( m0 , m1 , ...,
m8 )
Этот код, называемый итеративным, используя различные проверки на
четность (по строкам и по столбцам), способен не только обнаруживать, но
и исправлять ошибки (если известны координаты ошибки, то ее
исправление состоит просто в замене символа на противоположный: если 0,
то на 1, если1 – то на 0).
Для того, чтобы код стал исправлять однократную ошибку, понадобилось к
девяти информационным символам добавить еще семь проверочных.
Процесс получения линейного блочного кода
Формальные правила, по которому осуществляется кодирование, то есть
преобразование информационной последовательности в кодовое слово
1. Табличный способ.
При больших k размер кодовой таблицы становится большим.
2. Система проверочных уравнений
Определяет правило, по которому символы информационной
последовательности преобразуются в кодовые символы.
𝑈0
𝑈1
𝑈2
𝑈3
= 𝑚0
= 𝑚1
= 𝑚2
= 𝑚0 + 𝑚1 + 𝑚2
3. Порождающая матрица.
Линейный блочный систематический (n, k) - код полностью определяется
матрицей G размером k ∗ n с двоичными матричными элементами. При этом
каждое кодовое слово является линейной комбинацией строк матрицы G, а
каждая линейная комбинация строк G - кодовым словом.
Пусть m = (m0, m1, . . ., mk -1) будет тем блоком-сообщением, который
необходимо закодировать с использованием данного кода.
Тогда кодовое слово: 𝑈 = 𝑚 ∗ 𝐺
k крайних левых символов кодового слова совпадает с символами кодируемой
информационной последовательности, а остальные (n - к) символов являются
линейными комбинациями символов информационной последовательности.
Определенный таким образом код называется линейным блочным
систематическим (n,k)-кодом, а задающая его матрица G называется
порождающей матрицей кода.
Дана информационная последовательность: 𝑚 = (𝑚0, 𝑚1, 𝑚2 , 𝑚3 )
Порождающая матрица: 𝐺(7,4)
1000110
0100011
=|
|
0010111
0001101
в соответствии с приведенным выше определением строки матрицы G сами
являются кодовыми словами данного кода, а все остальные кодовые слова линейными комбинациями строк порождающей матрицы.
Блок- схема кодирования:
Проверочная матрица
Линейный систематический блочный код может быть определен также с
использованием проверочной матрицы H, обладающей следующим
свойством:
- если некоторая посл-ть U является кодовым словом, то: 𝑈 ∗ 𝐻 𝑇 = 0
Проверочная матрица H ортогональна любой кодовой последовательности
данного кода и имеет размерность (n-k)∗ n
Для рассматриваемого (7,4)-кода Хемминга проверочная матрица H имеет
1011|100
вид: 𝐻(7,4) = |1110|010|
0111|001
Проверочная матрица позволяет легко определить, является ли принятая
последовательность кодовым словом данного кода.
Пусть принята последовательность: 𝑐 = (1011001)
1011|100 𝑇
𝑐 ∗ 𝐻 𝑇 = (1011001) |1110|010| = (110) ≠ 0
0111|001
Пусть принята последовательность: 𝑑 = (0010111)
1011|100 𝑇
𝑑 ∗ 𝐻 𝑇 = (0010111) |1110|010| = (000) = 0
0111|001
Дуальные коды
• каждая из матриц G и Н может рассматриваться как базис некоторого
линейного пространства
• каждое из этих пространств является подпространством векторного
пространства, состоящего из всех наборов двоичных символов длиной
n
𝐻 ∗ 𝐺 𝑇 = 0⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡𝐺 ∗ 𝐻 𝑇 = 0
Можно "поменять ролями" эти две матрицы и использовать Н как
порождающую матрицу, а G как проверочную матрицу некоторого другого
кода.
Коды, связанные таким образом, называются дуальными друг другу, т.е.,
задав каким-либо образом линейный блочный код, мы автоматически задаем
и второй, дуальный ему код.
Дуальные коды обычно имеют исправляющую способность, одинаковую с
исходными, но большую, чем у них, избыточность.
Код Хемминга имеет избыточность 7/4 и при этом позволяет исправлять одну
ошибку в кодовом слове из 7 символов, дуальный ему код также исправляет
одну ошибку на 7 символов, но уже имеет избыточность 7/3
Тема 6. Декодирование блочных кодов.
Синдром и обнаружение ошибок
Определение понятия ошибки и методы описания ошибок.
𝑈 = (𝑈0 , 𝑈1 , . . . . 𝑈𝑛 ) кодовое слово, переданное по каналу с помехами
𝑟 = (𝑟0, 𝑟1, . . . . 𝑟𝑛 ) принятая последовательность
Вектор U может отличаться от вектора r. 𝑈 = (0,0,0,1,0,0,0)
⁡𝑟 = (0,0,0,0,0,0,0) 𝑈 = (0,0,1,1,1,1,1)
𝑟 = (1,0,1,1,1,1,1)
Для описания ошибок используют вектор ошибки, обычно обозначаемый
как e и представляющий собой двоичную последовательность длиной n с
единицами в тех позициях, в которых произошли ошибки.
𝑒 = (0,0,0,1,0,0,0) однократная ошибка в четвертой позиции
𝑒 = (1,1,0,0,0,0,0)
двойная ошибка в первой и второй позициях
При передаче кодового слова U по каналу с ошибками принятая
последовательность r имеет вид: 𝑟 = 𝑈 + 𝑒
Например:
Чтобы проверить, является ли принятый вектор кодовым словом, декодер
вычисляет (n, k)-последовательность, определяемую следующим образом:
𝑆 = (𝑆0 , 𝑆1 , . . . . 𝑆𝑛−𝑘−1) = 𝑟 ∗ 𝐻 𝑇
При этом r является кодовым словом тогда, и только тогда, когда S = (00..0),
и не является кодовым словом данного кода, если S ≠ 0. Следовательно, S
можно использовать для обнаружения ошибок, ненулевое значение S служит
признаком наличия ошибок в принятой последовательности.
Вектор S называется синдромом принятого вектора r.
С помощью синдрома можно проверить только принадлежность кодового
слова к данному коду!!! Если же переданное кодовое слово U под влиянием
помех превратилось в другое действительное кодовое слово V этого же кода,
то: 𝑆 = 𝑉 ∗ 𝐻 𝑇 = 0. Декодер ошибки не обнаружит.
Для линейного блочного систематического (7,4)-кода Хемминга синдром
определяется следующим образом: пусть принят вектор
𝑟 = (𝑟0 , 𝑟1, 𝑟2, 𝑟3, 𝑟4, 𝑟5, 𝑟6)
Схема для вычисления синдрома (7,4) кода Хэмминга:
Синдромное декодирование линейных блочных кодов.
Можно ли использовать синдром принятого вектора не только для
обнаружения, но и для исправления ошибок?
𝑈 = (𝑈0 , 𝑈1 , . . . . 𝑈𝑛 ) кодовое слово, переданное по каналу с помехами
𝑒 = (𝑒0 , 𝑒1, . . . . 𝑒𝑛 ) вектор ошибки
𝑟 = (𝑟0, 𝑟1, . . . . 𝑟𝑛 ) принятая последовательность
𝑟=𝑈+𝑒
Синдром: 𝑆 = 𝑟 ∗ 𝐻 𝑇 = (𝑈 + 𝑒) ∗ 𝐻 𝑇 = 𝑈 ∗ 𝐻 𝑇 + 𝑒 ∗ 𝐻 𝑇 = 0 + 𝑒 ∗ 𝐻 𝑇 = 𝑒 ∗
𝐻𝑇
Таким образом, синдром принятой последовательности r зависит только от
ошибки, имеющей место в этой последовательности, и совершенно не
зависит от переданного кодового слова.
Задача декодера, используя эту зависимость, определить элементы вектора
ошибок.
Найдя их можно восстановить кодовое слово как: 𝑈 ∗ = 𝑟 + 𝑒
Найдем синдром для всех возможных одиночных ошибок в
последовательности из семи символов:
1011100 𝑇
𝑒 ∗ 𝐻 𝑇 = (0000000) |1110010| = (000)
0111001
1011100 𝑇
𝑒0 ∗ 𝐻 𝑇 = (1000000) |1110010| = (110)
0111001
1011100 𝑇
𝑒1 ∗ 𝐻 𝑇 = (0100000) |1110010| = (011)
0111001
1011100 𝑇
𝑒2 ∗ 𝐻 𝑇 = (0010000) |1110010| = (111)
0111001
1011100 𝑇
𝑒3 ∗ 𝐻 𝑇 = (0001000) |1110010| = (101)
0111001
1011100 𝑇
𝑒4 ∗ 𝐻 𝑇 = (0000100) |1110010| = (100)
0111001
1011100 𝑇
𝑒5 ∗ 𝐻 𝑇 = (0000010) |1110010| = (010)
0111001
1011100 𝑇
𝑒4 ∗ 𝐻 𝑇 = (0000001) |1110010| = (001)
0111001
Существует однозначное соответствие между расположением ошибки
(одиночной) в кодовом слове и его синдромом.
𝑆 = (110) ошибка в нулевом разряде
𝑆 = (011) ошибка в первом разряде
𝑆 = (111) ошибка во втором разряде
𝑆 = (101) ошибка в третьем разряде
𝑆 = (100) ошибка в четвертом разряде
𝑆 = (010) ошибка в пятом разряде
𝑆 = (001) ошибка в шестом разряде
Если место ошибки определено, то устранить ее уже не представляет
никакого труда.
Полная декодирующая схема для (7,4) - кода Хемминга, использующая
синдром вектора r не только для обнаружения, но и для исправления ошибок.
1011100 𝑇
Двойные ошибки: 𝑆 = (0100010) |1110010| = (001)
0111001
Однако синдром S = (001) соответствует также и одиночной ошибке в
седьмой позиции (e6). Следовательно, декодер не только не исправит
ошибок в позициях, в которых они произошли, но и внесет ошибку в ту
позицию, где ее не было. Таким образом, (7,4)-код не обеспечивает
исправления двойных ошибок, а также ошибок большей кратности.
Это обусловлено свойствами самого кода.
Метод максимального правдоподобия. Мажоритарное декодирование
линейных блочных кодов.
Идея: Пусть m – состоит из одного символа m0 = 0 или 1, а кодовое слово
U = (m0, m0, m0), то есть (000), если m0 = 0, или (111), если m0 = 1.
Пусть передано кодовое слово U = (111) и принята последовательность
r = (010).
Какая последовательность передавалась, U = (000) или U = (111)?
Скорее всего, передавалось U = (111), иначе ошибка должна была бы исказить
два символа, чтобы U = (000) превратилось в r = (011).
Такое правило принятия решения – решение по большинству –
мажоритарное.
Мажоритарное декодирование для (7,4)-кода Хемминга
𝑈0 = 𝑚0
𝑈1 = 𝑚1
𝑈2 = 𝑚2
𝑈3 = 𝑚3
𝑈4 = 𝑚0 + 𝑚2 + 𝑚3
𝑈5 = 𝑚0 + 𝑚1 + 𝑚2
𝑈6 = 𝑚1 + 𝑚2 + 𝑚3
𝑈 = (𝑈0 , 𝑈1, 𝑈2 , 𝑈3 , 𝑈4 , 𝑈5 , 𝑈6 )
Принятый вектор:
𝑟 = (𝑟0 , 𝑟1, 𝑟2, 𝑟3, 𝑟4, 𝑟5, 𝑟6)
Необходимо определить m.
Поскольку невозможно быть абсолютно уверенными в правильности
декодирования, мы можем говорить лишь об оценке информационной
последовательности m*
Если ошибок нет, то: 𝑟 = 𝑈; mi + mi = 0 ( т. е. 1+1 = 0 и 0+0 = 0)
Эти уравнения будут иметь одинаковые решения только при отсутствии
ошибок в принятой последовательности r, то есть при r = U. В противном
случае решения будут разными.
В выражениях для mi* каждый из элементов принятой последовательности ri
присутствует не более двух раз (то есть не более чем в двух уравнениях из
пяти).
Если считать, что в принятой последовательности возможна только
одиночная ошибка (а с ошибкой большей кратности этот код не справляется),
то ошибочными будут решения не более чем двух уравнений из пяти для
каждого из элементов mi*, остальные три уравнения дадут правильное
решение.
Тогда правильный ответ может быть получен по "большинству голосов", или
мажоритарно.
Устройство, которое принимает решение по "большинству", называется
мажоритарный селектор.
Вес и расстояние Хемминга. Способность кодов обнаруживать и
исправлять ошибки.
Чем определяется способность блочного кода обнаруживать и исправлять
ошибки, возникшие при передаче?
𝑈 = (𝑈0 , 𝑈1 , . . . . 𝑈𝑛 ), двоичная последовательность длиной n.
Число единиц (ненулевых компонент) в этой последовательности называется
весом Хемминга вектора U и обозначается w(U).
Например, для U = (1001011) w(U)= 4, для U = (1111111) w(U)= 7
𝑉 = (𝑉0 , 𝑉1 , . . . . 𝑉𝑛 ) двоичная последовательность длиной n.
Число разрядов, в которых эти последовательности различаются, называется
расстоянием Хемминга между U и V и обозначается d (U, V).
Например, если U = (100101), а V = (0100011), то d (U, V) = 3.
Задав линейный код, то есть определив все его кодовые слова, можно
вычислить расстояние между всеми возможными парами кодовых слов.
Минимальное из них называется минимальным кодовым расстоянием
кода и обозначается dmin.
Минимальное кодовое расстояние для рассматриваемого нами в примерах
(7,4)-кода равно трем: dmin(7,4) = 3.
Способы определения минимального кодового расстояния.
1. записать все кодовые слова (7,4)-кода Хемминга (всего 16 слов),
вычислить расстояния между их всеми парами и взять наименьшее значение.
2. Доказано, что расстояние между нулевым кодовым словом и одним из
кодовых слов, входящих в порождающую матрицу (строки порождающей
матрицы линейного блочного кода сами являются кодовыми словами, по
определению), равно dmin.
Но расстояние от любого кодового слова до нулевого равно весу Хемминга
этого слова. Тогда dmin равно минимальному весу Хемминга для всех строк
порождающей матрицы кода
Обнаружение ошибок
При передаче кодового слова по каналу связи в нем произошла одиночная
ошибка.
Расстояние Хемминга между переданным словом U и принятым вектором r
будет равно единице.
Ошибка будет обнаружена т.к. при этом кодовое слово U не перешло в
другое (а при dmin > 1 и при одиночной ошибке это невозможно).
Если блочный код имеет минимальное расстояние dmin, то он может
обнаруживать любые сочетания ошибок при их числе, меньшем или равном
dmin - 1, поскольку никакое сочетание ошибок при их числе, меньшем, чем
dmin - 1, не может перевести одно кодовое слово в другое.
Синдромное декодирование.
• Принятая последовательность не является кодовым словом ( тогда
синдром не равен нулю), ошибка есть.
• Принятая последовательность является кодовым словом (синдром
равен нулю), то …
Но тем ли кодовым словом, которое передавалось?
Или же переданное кодовое слово перешло в другое кодовое слово
данного кода: 𝑟 = 𝑈 + 𝑒 = 𝑉⁡сумма переданного кодового слова U и
вектора ошибки е даст новоет кодовое слово V, в этом случае ошибка
обнаружена быть не может!
Из определения линейного кода следует, что если сумма кодового слова
U и некоторого вектора е есть кодовое слово, то вектор е также
представляет собой кодовое слово.
Следовательно, необнаруживаемые ошибки будут возникать тогда,
когда сочетания ошибок будут образовывать кодовые слова.
Если линейный блочный код используется для исправления ошибок. Чем
определяются его возможности по исправлению?
U и V представляют пару кодовых слов кода с кодовым расстоянием d ,
равным минимальному — dmin для данного кода.
1. Предположим, передано кодовое слово U, в канале произошла одиночная
ошибка и принят вектор а (не принадлежащий коду).
По методу максимального правдоподобия в качестве оценки U* нужно
выбрать ближайшее к а кодовое словом.
Таковым в данном случае будет U, следовательно, ошибка будет устранена.
2. Произошло две ошибки и принят вектор b.
При декодировании по методу максимального правдоподобия будет выбрано
ближайшее к b кодовое слово, и им будет V.
Произойдет ошибка декодирования.
Продолжив рассуждения для dmin = 4, dmin = 5 и т.д., можно установить, что
ошибки будут устранены, если их кратность l не превышает величины:
 d 1 
l  INT  min

 2 
Так, (7,4)-код имеет dmin = 3 и, следовательно, позволяет исправлять лишь
одиночные ошибки: 𝑙 = 𝐼𝑁𝑇 (
𝑑𝑚𝑖𝑛
2
() (
3−1
2
))
Возможности линейных блочных кодов по обнаружению и исправлению
ошибок определяются их минимальным кодовым расстоянием.
Чем больше dmin, тем большее число ошибок в принятой
последовательности можно исправить.
Тема 7. Полиномиальные коды
Удобный и широко используемый способ представления того же кодового
слова состоит в том, что элементы U0, U1, ...,Un-1 являются коэффициентами
многочлена от X: 𝑼(𝒙) = 𝑼𝟎 + 𝑼𝟏 ∗ 𝒙 + 𝑼𝟐 ∗ 𝒙𝟐 +. . . +𝑼𝒏−𝟏 𝒙𝒏−𝟏
Полиномиальный код - множество всех многочленов степени, не большей
n -1, содержащих в качестве общего множителя некоторый фиксированный
многочлен g(x).
Многочлен g(x) называется порождающим многочленом кода.
Степени переменной х используются только для обозначения места
соответствующей компоненты кодового вектора в регистре сдвига и никакой
иной смысловой нагрузки не несут.
𝑖
Операция суммирования: 𝑓(𝑥) + 𝑔(𝑥) = ∑𝑛−1
𝑖=0 (𝑓𝑖 + 𝑔𝑖 ) ∗ 𝑥
Сложению двоичных полиномов соответствует сложение по mod2
коэффициентов при одинаковых степенях х
𝑖
𝑖
Операция произведения: 𝑓(𝑥) ∗ 𝑔(𝑥) = ∑𝑛−1
𝑖=0 (∑𝑗=0(𝑓𝑖 ∗ 𝑔𝑖−𝑗 )) ∗ 𝑥
Правило перемножения степенных функций, однако получаемые
коэффициенты при данной степени Х складываются по модулю 2
Теорема о делении полиномов: для каждой пары полиномов c(х) и d(x), d(x) ≠
0 существует единственная пара полиномов q(x) — частное и ρ(х) — остаток,
такие, что: 𝑐(𝑥) = 𝑞(𝑥) ∗ 𝑑(𝑥) + 𝑝(𝑥), где степень остатка ρ(х) меньше
степени делителя d(x).
Деление полиномов производится по правилам деления степенных функций,
при этом операция вычитания заменяется суммированием по mod2.
Линейный (n,k)-код называется циклическим, если в результате
циклического сдвига кодового слова получается другое кодовое слово
данного кода.
Если U = ( U0, U1, ...Un- 1 ) является кодовым словом, то и V = ( Un- 1, U0,
U1, ...Un- 2 ), полученное циклическим сдвигом U, является кодовым словом
данного кода.
Преимущества:
1. Операции кодирования и вычисления синдрома для них выполняются
очень просто с использованием сдвиговых регистров.
2. Этим кодам присуща алгебраическая структура, и можно найти
простые и эффективные способы их декодирования.
Основные свойства циклических кодов:
1. В циклическом (n,k)-коде каждый ненулевой полином должен иметь
степень, по крайней мере (n-k), но не более n-1.
2. Существует только один кодовый полином g(x) степени (n-k):
𝑔(𝑥 ) = 1 + 𝑔1 ∗ 𝑥 + 𝑔2 ∗ 𝑥 2 +. . . 𝑔1 ∗ 𝑥 𝑛−𝑘−1 + 𝑥 𝑛−𝑘 ⁡⁡⁡⁡⁡⁡- порождающий
полином кода
3. Каждый кодовый полином U(x) является кратным g(x):
𝑈(𝑥) = 𝑚(𝑥) ∗ 𝑔(𝑥)
Кодирование с использованием циклических кодов
Дана информационная последовательность:
𝑚 = (𝑚0 , 𝑚1, 𝑚2, . . . . . 𝑚𝑘−1)
𝑥 𝑛−𝑘 ∗ 𝑚 = 𝑚0 ∗ 𝑥 𝑛−𝑘 + 𝑚1 ∗ 𝑥 𝑛−𝑘 + 𝑚2 ∗ 𝑥 𝑛−𝑘 , . . . . . 𝑚𝑘−1 ∗ 𝑥 𝑛−𝑘
Воспользуемся теоремой о делении полиномов:
𝑥 𝑛−𝑘 ∗ 𝑚 = 𝑞(𝑥) ∗ 𝑔(𝑥) + 𝑝(𝑥)
где q(x) и ρ(x) — частное и остаток от деления полинома xn-k ⋅ m(x) на
порождающий полином g(x).
Поскольку степень g(x) равна (n-k), то степень остатка p(x) должна быть (n-k1) или меньше, а сам полином p(x) будет иметь вид:
𝑝(𝑥) = 𝑝0 + 𝑝1 ∗ 𝑥 + 𝑝2 ∗ 𝑥 2+. . . +𝑝𝑛−𝑘−1 ∗ 𝑥 𝑛−𝑘−1
данное выражение можно переписать следующим образом:
𝑝(𝑥) + 𝑥 𝑛−𝑘 ∗ 𝑚 = 𝑞(𝑥) ∗ 𝑔(𝑥)
полином ρ(x)+xn-k ⋅ m(x) является кратным g(x) и имеет степень n-1 или
меньшую. Следовательно, полином ρ(x)+xn-k ⋅ m(x) – это кодовый полином,
соответствующий кодируемой информационной последовательности m(x).
Раскрыв последнее выражение, получим:
𝑝(𝑥) + 𝑚(𝑥) ∗ 𝑥 𝑛−𝑘 = 𝑝0 + 𝑝1 ∗ 𝑥 + 𝑝2 ∗ 𝑥 2 +. . . +𝑝𝑛−𝑘−1 ∗ 𝑥 𝑛−𝑘−1 +
+𝑚0 ∗ 𝑥 𝑛−𝑘 + 𝑚1 ∗ 𝑥 𝑛−𝑘+1+. . . +𝑚𝑘−1 ∗ 𝑥 𝑛−1
что соответствует кодовому слову:
Таким образом, кодовое слово состоит из неизменной информационной части
m, перед которой расположено (n-k) проверочных символов. Проверочные
символы являются коэффициентами полинома ρ(x), то есть остатка от
деления m(x) ⋅ xn-k на порождающий полином g(x).
Умножению некоторого двоичного полинома на xn-k соответствует сдвиг
двоичной последовательности m = (m0, m1 ... mk-1) на n-k разрядов вправо.
Пример:
Порождающий полиномом g(x) = 1 + x + x3
Информационной последовательности m = (0111) - соответствует полином
m (x)=x+ x2 + x3
Умножим: 𝑚(𝑥) ∗ 𝑥 𝑛−𝑘 = 𝑚(𝑥) ∗ 𝑥 3 = (𝑥 + 𝑥 2 + 𝑥 3 ) ∗ 𝑥 3 = 𝑥 4 + 𝑥 5 + 𝑥 6
Разделим на порождающий полином:
𝑥6 + 𝑥5 + 𝑥4
| 𝑥3 + 𝑥 + 1
𝑥6 + 0 + 𝑥4 + 𝑥3
| 𝑥3 + 𝑥2 + 1
𝑥5 + 0 + 𝑥3
𝑥5 + 0 + 𝑥3 + 𝑥2
𝑥 2 = 𝑝(𝑥)
Таким образом, кодовый полином, соответствующий информационной
последовательности m = (0111), будет иметь следующий вид:
𝑈(𝑥) = 0 ∗ 𝑥 0 + 0 ∗ 𝑥 1 + 1 ∗ 𝑥 2 + 0 ∗ 𝑥 3 + 1 ∗ 𝑥 4 + 1 ∗ 𝑥 5 + 1 ∗ 𝑥 6
соответствующее кодовое слово U = (0010111)
Итак, циклический (n, k)-код k-разрядной информационной
последовательности
m = (m0, m1 ... mk-1) получают следующим образом:
• информационную последовательность m умножают на xn-k, то есть
сдвигают вправо на n-k разрядов;
• полином полученной последовательности делят на порождающий
полином кода g(x);
• полученный остаток от деления m(x) ⋅ xn-k на g(x) прибавляют к m(x) ⋅
xn-k, то есть записывают в младших n-k разрядах кода.
Важным свойством циклического (n,k)-кода, является то, что его
порождающий полином делит без остатка двучлен xn +1, то есть:
𝑥 𝑛 + 1 = 𝑔(𝑥) ∗ ℎ(𝑥) + 0
Полином h(x) — частное от деления xn +1 на g(x) – называется проверочным
полиномом.
Поскольку h(x) однозначно связан с g(x), он также определяет код.
Следовательно, с помощью проверочного полинома h(x) тоже можно
производить кодирование.
Вычисление синдрома и исправление ошибок в циклических кодах:
Пусть U(x) и r(х) - полиномы, соответствующие переданному кодовому слову
и принятой последовательности.
Разделив r(x) на g(x), получим: 𝑟(𝑥) = 𝑞(𝑥) ∗ 𝑔(𝑥) + 𝑠(𝑥)
- q(x) — частное от деления, s(x) — остаток от деления.
Если r(x) является кодовым полиномом, то он делится на g(x) без остатка, то
есть s(x) = 0
Следовательно, s(x) ≠ 0 является условием наличия ошибки в принятой
последовательности, то есть синдромом принятой последовательности.
Синдром s(x) имеет в общем случае вид:
𝑠(𝑥) = 𝑠0 + 𝑠1 ∗ 𝑥 + 𝑠2 ∗ 𝑥 2 +. . . +𝑠𝑛−𝑘−1 ∗ 𝑥 𝑛−𝑘−1
Синдромный многочлен S(x) однозначно связан с многочленом ошибки e(x),
а значит, с его помощью можно не только обнаруживать, но и локализовать
ошибку в принятой последовательности.
Пусть полином вектора ошибки: 𝑒(𝑥) = 𝑒0 + 𝑒1 ∗ 𝑥 + 𝑒2 ∗ 𝑥 2 +. . . +𝑠𝑛−1 ∗
𝑥 𝑛−1
Тогда полином принятой последовательности: 𝑟(𝑥) = 𝑈(𝑥) + 𝑒(𝑥)
Преобразуем это выражение с учетом того, что: 𝑟(𝑥) = 𝑞(𝑥) ∗ 𝑔(𝑥) + 𝑠(𝑥)
𝑈(𝑥) = 𝑚(𝑥) ∗ 𝑔(𝑥)
𝑒(𝑥) = [𝑚(𝑥) + 𝑞(𝑥)] ∗ 𝑔(𝑥) + 𝑠(𝑥) = 𝑓(𝑥) ∗ 𝑔(𝑥) + 𝑠(𝑥)
синдромный полином s(x) есть остаток от деления полинома ошибки e(x) на
порождающий полином g(x). Отсюда следует, что по синдрому s(x) можно
однозначно определить вектор ошибки e(x), а следовательно, исправить эту
ошибку.
Тема 8. Сверточные коды
При использовании сверточных кодов поток данных разбивается на гораздо
меньшие блоки длиной k0 символов (в частном случае k0=1), которые
называются кадрами информационных символов.
Кадры информационных символов кодируются кадрами кодовых символов
длиной n0 символов.
Кодирование кадра информационных символов в кадр кодового слова
производится с учетом предшествующих m кадров информационных
символов.
Процедура кодирования связывает между собой последовательные кадры
кодовых слов.
Передаваемая последовательность становится полубесконечным кодовым
словом
Декодирование сверточных кодов производится методами, близкими к
методам максимального правдоподобия, причем в этом случае они
реализуются достаточно просто.
Основными характеристиками сверточных кодов являются величины:
- k0 – размер кадра информационных символов;
- n0 – размер кадра кодовых символов;
- m – длина памяти кода;
- k = (m+1) * k0 – информационная длина слова;
- n = (m+1) * n0 – кодовая длина блока.
Кодовая длина блока - это длина кодовой последовательности, на которой
сохраняется влияние одного кадра информационных символов.
Скорость R = k/n, которая характеризует степень избыточности кода,
вводимой для обеспечения исправляющих свойств кода.
Систематическим сверточным кодом является такой код, для которого в
выходной последовательности кодовых символов содержится без изменения
породившая его последовательность информационных символов.
Коды Л.М.Финка
Кодер систематического сверточного кода (8,4)
Кодер несистематического сверточного кода (6,3)
Возможны различные способы описания сверточных кодов, например, с
помощью порождающей матрицы.
В силу бесконечности кодируемой последовательности и порождающая
матрица будет иметь бесконечные размеры. Она будет состоять из
бесконечного числа матриц G для обычного блочного кода, расположенных
вдоль главной диагонали полубесконечной матрицы. Вся остальная ее часть
заполняется нулями.
Более удобным способом описания сверточного кода является его задание с
помощью импульсной переходной характеристики эквивалентного фильтра
или соответствующего ей порождающего полинома.
Импульсная переходная характеристика фильтра (ИПХ) есть реакция на
единичное воздействие вида
δ = (10000.....
Еще одна форма задания сверточных кодов – это использование
порождающих полиномов, однозначно связанных с ИПХ эквивалентного
фильтра.
Кодовая последовательность U - результат свертки входной информационной
последовательности m с импульсной переходной характеристикой H
Иногда удобнее рассматривать полный порождающий полином сверточного
кода g(x) как совокупность нескольких многочленов меньших степеней,
соответствующих ячейкам выходного регистра кодера.
Код Вайнера-Эша - (12,9) : k0 = 3, n0 = 4, k = 9, n = 12, R = ¾
Это – систематический код, в котором к трем информационным символам
добавляется один проверочный, зависящий от значений информационных
символов не только текущего кадра, но и двух предшествующих кадров. При
этом влияние одного кадра информационных символов распространяется на
12 символов кодовой последовательности, то есть кодовая длина блока для
этого кода n = 12.
Декодирование
Синдромное декодирование сверточных кодов
Предположим, что принята полубесконечная последовательность r,
состоящая из кодового слова U и вектора ошибки e: 𝑟 = 𝑈 + 𝑒
Cиндром принятой последовательности: 𝑆 = 𝑟 ∗ 𝐻 = 𝑒 ∗ 𝐻
Из-за бесконечной длины принятой последовательности синдром также будет
иметь бесконечную длину и его прямое вычисление не имеет смысла.
• Влияние одного информационного кадра распространяется всего на
несколько кодовых кадров.
• Декодер может просматривать не весь синдром, а вычислять его
компоненты по мере поступления кадров кодовой последовательности,
исправлять текущие ошибки и сбрасывать те компоненты синдрома,
которые вычислены давно.
• Для исправления ошибок при этом декодер должен содержать таблицу
сегментов синдромов и сегментов конфигураций ошибок, образующих
данные конфигурации синдрома. Если декодер находит в таблице
полученный сегмент синдрома, он исправляет начальный сегмент
кодового слова.
Схема декодера для сверточного (12,9)-кода Вайнера-Эша
Исправление ошибок с помощью данного декодера производится на
сегментах из трех кодовых кадров - n = 12.
Все возможные конфигурации ошибок в первых трех кадрах и
соответствующие им первые три бита синдрома:
Кодовое дерево
Начиная с четвертого ребра значения выходных символов кодера
повторяются. Одинаковые же узлы могут быть объединены, и тогда начиная с
некоторого сечения размер кодового дерева перестанет увеличиваться.
Выходная кодовая последовательность в определенный момент перестает
зависеть от значений входных символов, введенных в кодер ранее.
Действительно, когда третий входной символ вводится в кодер, первый
входной символ покидает сдвиговый регистр и не сможет в дальнейшем
оказывать влияния на выходные символы кодера.
С учетом этого неограниченное кодовое дерево переходит в ограниченную
решетчатую диаграмму (кодовое дерево со сливающимися узлами)
Решетчатая диаграмма
Очередные символы входной последовательности определяют направление
движения из узлов решетки: если 0, то идем по верхнему ребру, если 1 - по
нижнему ребру.
Входная последовательность m = (01100…… кодируется как U =
(00110110110000… ,
последовательность
m = (110100000… - как U = (1101001000… .
Декодирование сверточных кодов.
Наилучшей схемой декодирования корректирующих кодов, является
декодирование методом максимального правдоподобия.
Декодер определяет набор условных вероятностей Р(r/Ui), соответствующих
всем возможным кодовым векторам Ui , и решение принимает в пользу
кодового слова, соответствующего максимальному Р(r/Ui).
Для двоичного симметричного канала без памяти декодер максимального
правдоподобия сводится к декодеру минимального Хеммингова расстояния.
Декодер вычисляет расстояние Хемминга между принятой
последовательностью r и всеми возможными кодовыми векторами Ui и
выносит решение в пользу того вектора, который оказывается ближе к
принятому.
В общем случае такой декодер оказывается очень сложным и при больших
размерах кодов n и k практически нереализуемым. Однако характерная
структура сверточных кодов (повторяемость структуры за пределами окна
длиной n) позволяет создать вполне приемлемый по сложности декодер
максимального правдоподобия.
Декодер Витерби
В данном случае, несмотря на наличие в принятом фрагменте двух ошибок,
его декодирование произошло без ошибки и в качестве ответа будет принята
переданная нулевая последовательность.
На практике обычно не ждут слияния путей, а устанавливают
фиксированную глубину декодирования, которую выбирают в диапазоне n < b
≤ n + l , где l - число исправляемых данным кодом ошибок.
Алгоритмы поиска по решетке
Последовательное декодирование
Для большой кодовой длины блока n декодер Витерби становится
нереализуемо сложным.
Была разработана стратегия, игнорирующая пути поиска по решетке, как
только они становятся маловероятными.
Однако решение о том, чтобы окончательно отбросить данный путь, не
принимается. Время от времени декодер возвращается назад и продолжает
оставленный путь.
Эти стратегии известны под названием стратегии последовательного
декодирования.
Последовательный декодер, просмотрев первый кадр, переходит в очередной
узел решетки с наименьшей на данный момент расходимостью.
Из этого узла он анализирует следующий кадр, выбирая ребро, ближайшее к
данному кадру, и переходит в следующий узел и так далее.
Если декодер продолжит следовать по неправильному пути, то очень скоро
обнаружит, что происходит слишком много ошибок, и расходимость пути
начнет быстро нарастать. Но это будут ошибки декодера, а не канала!
Декодер возвращается на несколько кадров назад и начинает исследовать
другие пути, пока не найдет наиболее правдоподобный. Затем он будет
следовать вдоль этого нового пути.
Для реализации декодера необходимо знать среднюю вероятность появления
ошибок в канале связи Pош. Пока он следует по правильному пути,
вероятное число ошибок в первых l кадрах (это будет мерой расходимости
пути за l кадров) примерно равно:
𝑑𝑙 = 𝑃ош 𝑛0 𝑙
Если же ошибок становится намного больше, то декодер принимает решение,
что он на ложном пути, и возвращается на несколько кадров назад.
Последовательное декодирование. Декодер Фано.
Декодер Фано гораздо проще в реализации, нежели декодер Витерби, и почти
не уступает ему в вероятности ошибочного декодирования.
Но он обладает и серьезным недостатком. Если вероятность ошибок в канале
велика, то возрастает и вероятность принятия неправильных решений при
переходе из одного узла решетки в другой, а следовательно, возрастает число
возвратов к предыдущим узлам, что требует затрат времени.
Каскадные коды
Для систем, в которых требуются очень мощные коды обычно используют
каскадирование двух или более простых кодов.
Каскадные коды были впервые предложены Форни в качестве метода
практической реализации кода с большой длиной блока и высокой
корректирующей способностью.
Эта цель достигается введением нескольких уровней кодирования, обычно –
двух.
Длина каскадного кода получается равной N1 = N·n двоичных символов, где
N - длина внешнего кода, а n - длина внутреннего кода.
Информационная длина кода составляет K1 = K · k двоичных символов, а
скорость кода R1 = R · r.
Несмотря на то, что общая длина кода получается большой и,
соответственно, значительно возрастает его исправляющая способность, его
декодирование может выполняться с помощью двух декодеров, рассчитанных
на длины составляющих его кодов n и N.
Это позволяет многократно снизить сложность декодера в сравнении с тем,
если бы такая исправляющая способность достигалась одноуровневым
кодированием.
Обычно внешнее кодирование выполняется блочными кодами, а внутреннее –
более приспособленными для побитовой передачи по радиоканалу
сверточными кодами.
Еще одна проблема - кодирование для каналов, в которых ошибки возникают
не независимо, а пакетами.
Все рассмотренные ранее методы кодирования и примеры расчета их
эффективности относились к каналам без памяти, то есть к каналам, в
которых вероятность ошибки постоянна и не зависит от времени.
На практике же свойства каналов связи таковы, что ошибки обычно
группируются так называемыми пакетами. При постоянной некоторой
средней вероятности ошибок на большом интервале времени значение Pош
на отдельных коротких интервалах может значительно превышать среднее
значение - Pош ср.
Если для исправления таких ошибок использовать традиционные методы
кодирования-декодирования, это потребует применения сложных кодов с
большой исправляющей способностью и, соответственно, большой
избыточностью.
Одно из возможных решений в таких случаях может состоять в
использовании достаточно простого кода, рассчитанного на исправление
одиночных ошибок, вместе с парой устройств, выполняющих перемежение
закодированных символов перед их передачей в канал и восстановление
(деперемежение) после приема.
Кодирование с перемежением
Еще одна проблема - кодирование для каналов, в которых ошибки возникают
не независимо, а пакетами.
Все рассмотренные ранее методы кодирования и примеры расчета их
эффективности относились к каналам без памяти, то есть к каналам, в
которых вероятность ошибки постоянна и не зависит от времени.
На практике же свойства каналов связи таковы, что ошибки обычно
группируются так называемыми пакетами. При постоянной некоторой
средней вероятности ошибок на большом интервале времени значение Pош
на отдельных коротких интервалах может значительно превышать среднее
значение - Pош ср.
Если для исправления таких ошибок использовать традиционные методы
кодирования-декодирования, это потребует применения сложных кодов с
большой исправляющей способностью и, соответственно, большой
избыточностью.
Одно из возможных решений в таких случаях может состоять в
использовании достаточно простого кода, рассчитанного на исправление
одиночных ошибок, вместе с парой устройств, выполняющих перемежение
закодированных символов перед их передачей в канал и восстановление
(деперемежение) после приема.
При такой обработке кодовой и принятой последовательностей ошибки на
входе декодера распределяются более равномерно.
Устройство перемежения в этой схеме переупорядочивает(переставляет)
символы передаваемой последовательности некоторым детерминированным
образом. С помощью устройства восстановления производится обратная
перестановка, восстанавливающая исходный порядок следования символов.
• Периодическое перемежение. Проще, но при изменении характера
помех может оказаться неустойчивым.
• Псевдослучайное перемежение. Обладает при нестационарных
ошибках гораздо большей устойчивостью.
При периодическом перемежении функция перестановок периодична с
некоторым периодом. Перемежение может быть:
•
блочным - перестановки выполняются над блоком данных
фиксированного размера
• сверточным, когда процедура выполняется над непрерывной
последовательностью.
Кодовые символы записываются в матрицу, имеющую N строк и M столбцов
построчно, а читаются из нее по столбцам. На приемной стороне операция
выполняется в обратном порядке: запись производится по столбцам, а чтение
- по строкам.
При таком перемежении достигается следующее:
- любой пакет ошибок длиной m ≤ M переходит на выходе устройства
восстановления в одиночные ошибки, каждая пара которых разделена не
менее чем N символами.
Недостаток: любая периодическая с периодом M одиночная ошибка
превращается в пакет, но вероятность такого преобразования очень мала, хотя
и существует.
При псевдослучайном перемежении блоки из L символов записываются в
память с произвольной выборкой (ЗУПВ), а затем считываются из нее
псевдослучайным образом.
Порядок перестановок, одинаковый для устройств перемежения и
восстановления, можно записать в ПЗУ и использовать его для адресации
ЗУПВ.
Как и для периодического перемежения, существует вероятность того, что
ошибки будут следовать таким образом (синхронно с перемежением),что
одиночные ошибки будут группироваться в пакеты. Но такая вероятность
чрезвычайно мала (если, конечно, это не организованная помеха и противник
не знает порядка перемежения).
Случайное же совпадение порядка следования перестановок при
перемежении и импульсов помехи при достаточной длине L практически
невероятно.
Тема 9. Цифровая модуляция
Мгновенные значения частоты и фазы сигнала: 𝛷 (𝑡) = 𝜔0 𝑡 + 𝜙
𝜔(𝑡) =
𝑑
𝛷(𝑡)
𝑑𝑡
𝑠(𝑡) = 𝑎(𝑡) 𝑐𝑜𝑠( 𝛷(𝑡)) = 𝑎(𝑡) 𝑐𝑜𝑠( 𝜔0 𝑡 + 𝜙(𝑡))
Комплексный сигнал:
𝑧(𝑡) = 𝑎(𝑡) 𝑐𝑜𝑠( 𝜔0 𝑡 + 𝜙(𝑡)) + 𝑗𝑎(𝑡) 𝑠𝑖𝑛( 𝜔0 𝑡 + 𝜙(𝑡))
𝑧(𝑡) = 𝑎(𝑡) 𝑒𝑥𝑝( 𝑗(𝜔0 𝑡 + 𝜙(𝑡)) = 𝑎(𝑡) 𝑒𝑥𝑝( 𝑗𝜙(𝑡)) 𝑒𝑥𝑝( 𝑗𝜔0 𝑡)
𝑧𝑚 (𝑡) = 𝑎(𝑡) 𝑒𝑥𝑝( 𝑗𝜙(𝑡)) = 𝑎(𝑡) 𝑐𝑜𝑠( 𝜙(𝑡)) + 𝑗𝑎(𝑡) 𝑠𝑖𝑛( 𝜙(𝑡))
𝐼(𝑡) = 𝑎(𝑡) 𝑐𝑜𝑠( 𝜙(𝑡))⁡синфазная составляющая
𝑄(𝑡) = 𝑎(𝑡) 𝑠𝑖𝑛( 𝜙(𝑡))⁡квадратурная составляющая
𝑠(𝑡) = 𝑅𝑒[𝑧(𝑡)] = 𝐼(𝑡) 𝑐𝑜𝑠( 𝜔0 𝑡) − 𝑄(𝑡) 𝑠𝑖𝑛( 𝜔0 𝑡)
Универсальный квадратурный модулятор
Универсальный квадратурный модулятор с фазовращателем
Цифровая модуляция - манипуляция
Амплитудная манипуляция ASK (amplitude shift keying)
Частотная манипуляция FSK (frequency shift keying)
Частотная манипуляция без разрыва фазы (CPFSK continuous phase FSK)
Сигнальное созвездие - полное множество модулированных сигналов,
изображенных на квадратурной диаграмме в виде точек.
Векторная диаграмма BPSK сигнала
Двоичная фазовая манипуляция (BPSK).
Относительная (дифференциальная) двоичная фазовая манипуляция (DBPSK)
Кодируется не сам бит информации, а его изменение
Структура системы передачи данных с использованием DBPSK
Дифференциальный кодер
Квадратурная фазовая манипуляция (QPSK quadrature phase shift keying )
Как одним импульсом закодировать сразу два символа?
информационный поток «1100101101100001».
Структурная схема QPSK модулятора
Траектории движения вектора комплексной огибающей QPSK сигнала при
различных параметрах формирующего фильтра
Тема 10. Оптимизация устройств и систем приема информации
Задача приёма сигналов - наилучшее воспроизведении информации,
заключенной в сигнале, искаженном помехами.
По заранее известным характеристикам:
• передаваемого сигнала;
• канала связи;
• помех;
зная их функциональное взаимодействие необходимо получить оптимальное
приемное устройство, наилучшим образом воспроизводящее переданное
сообщение.
Оптимальным называют приемник, для которого вызванные помехами
искажения сообщения минимальны.
При приеме решают две задачи:
- задача обнаружения сигнала
- задача различения сигналов на фоне помех
Модели радиосигналов.
1. Сигнал с полностью известными параметрами (индекс 0):
𝐴(𝑡) = 𝐴0 (𝑡 − 𝜏0 )𝑐𝑜𝑠[𝜔0 𝑡 + 𝛹(𝑡 − 𝜏0 ) + 𝜑0 ] при t[0,T]
2. Сигнал с полностью известными параметрами (индекс 0):
𝐴(𝑡, 𝜑) = 𝐴0 (𝑡 − 𝜏0 )𝑐𝑜𝑠[𝜔0 𝑡 + 𝛹(𝑡 − 𝜏0 ) + 𝜑] при t[0,T]
где ϕ – начальная фаза – случайная величина, равномерно распределенная на
интервале (-π, π).
3. Сигнал со случайной амплитудой и начальной фазой:
𝐴(𝑡, 𝐴, 𝜑) = 𝐴(𝑡)𝑐𝑜𝑠 [𝜔0 𝑡 + 𝛹 (𝑡 − 𝜏0 ) + 𝜑]
величины A и ϕ статистически независимы. A распределена по закону
Рэлея.
4. В качестве помехи при анализе используются гауссовский и белый
шум.
• Математическое ожидание;
• Дисперсия;
• Корреляционная функция.
Для стационарных процессов:
mx (t) = mx = const;
Dx (t) = Dx = const;
R x (t1 , t 2 ) = R x (t1 − t 2).
Вероятностные характеристики обнаружения сигнала.
Принятие решения о наличии или отсутствии сигнала. Введем
обозначения:
• Условная вероятность правильного обнаружения сигнала: 𝐷 = 𝑃(𝐴1∗ /𝐴1)
Сигнал передавался и решение принято, что сигнал есть.
̂ = 𝑃(𝐴∗2 /𝐴1)
• Условная вероятность пропуска сигнала: 𝐷
Сигнал передавался, а решение при приёме принято, что сигнала нет.
̂=1
Эти условия взаимоисключающие, поэтому 𝐷 + 𝐷
• Условная вероятность ложной тревоги: 𝐹 = 𝑃(𝐴1∗ /𝐴2 )
Сигнал не передавался, а решение принято, что сигнал есть.
• Условная вероятность правильного необнаружения: 𝐹̂ = 𝑃(𝐴∗2 /𝐴2 )
Сигнал не передавался и решение принято, что сигнала нет.
Эти условия взаимоисключающие, поэтому 𝐹 + 𝐹̂ = 1
Критерии оптимального обнаружения и различения сигналов.
Качество приёма оценивается вероятностью правильного приёма
символов.
Потенциальная помехоустойчивость - максимум этой вероятности
Идеальный приёмник - устройство, обеспечивающее этот максимум.
Для обнаружения и различения сигналов необходимо:
– определить критерии оптимального приёма;
– определить алгоритм преобразования смеси сигнал + шум и по нему
определить структуру приёмника.
Различение сигналов в приемном устройстве обычно осуществляют путем
установления некоторого "порога" на выходе приемника, фактически
играющего роль "границы подпространств" сигналов S1 и S2
Различные критерии приема дискретных сигналов фактически
отличаются способом установления величины порога.
Сигналы вместе с помехами описываются функциями плотности
вероятности W(x/S1) и W(x/S2)
C-функция потерь (риск потребителя). (C>0).
P – априорные вероятности появления сигналов S1, S2
Вероятность правильного обнаружения сигнала S2:
∞
𝐷 = ∫ 𝐶21𝑃2 𝑤 (𝑥⁄𝑆 ) 𝑑𝑥
2
𝑥0
Вероятность правильного обнаружения сигнала S1 (необнаружения S2):
𝑥0
𝐹̂ = ∫ 𝐶12𝑃1𝑤 (𝑥⁄𝑆 ) 𝑑𝑥
1
−∞
Вероятность ложной тревоги:
∞
𝐹 = ∫ 𝐶12𝑃1𝑤(𝑥⁄𝑆 )𝑑𝑥
1
𝑥0
Вероятность пропуска сигнала:
𝑥0
̂ = ∫ 𝐶21𝑃2 𝑤 (𝑥 ⁄𝑆2)𝑑𝑥
𝐷
−∞
̂ = 𝑅𝐹 – средний риск
𝐹+𝐷
̂ = 𝑅𝐹 – средний риск будет минимальным, когда минимальна
𝐹+𝐷
суммарная площадь под кривыми.
Это будет в том случае, если величина х0 соответствует точке пересечения
кривых. Следовательно, условием минимального среднего риска является
такой порог х0, при котором наступает равенство ординат приведенных
кривых, т. е.
𝐶12𝑃1𝑤 (𝑥⁄𝑆 ) = 𝐶21 𝑃2𝑤 (𝑥 ⁄𝑆2 )
1
𝑤 (𝑥⁄𝑆 ) 𝐶21𝑃2
1
=
𝑤 (𝑥 ⁄𝑆2 ) 𝐶12𝑃1
отношение правдоподобия:
𝜆(𝑥) =
𝑤 (𝑥⁄𝑆 )
1
𝑤(𝑥 ⁄𝑆2 )
функция правдоподобия: w (x⁄S )
i
пороговое отношение правдоподобия: 𝜆0 =
𝐶21 𝑃2
𝐶12 𝑃1
Критерий Байеса (критерий минимума среднего риска).
Наилучшая система - обеспечивает наименьший средний риск.
Критерий максимума правдоподобия
получается из критерия минимального среднего риска, если принять, что
C12 = 1/P1, C21 = 1/P2
Для двоичных символов:
𝜆1,0
𝑤(𝑥⁄1)
= 𝑥
𝑤( ⁄0)
Критерий идеального наблюдателя. (максимум апостериорной
вероятности)
Если C12 = C21 =1, то минимизируется средняя вероятность ошибки
∞
𝑥0
𝑃𝐹 = 𝑃1 ∫ 𝑊(𝑥/𝑆1)𝑑𝑥 + 𝑃2 ∫ 𝑊(𝑥/𝑆2 )𝑑𝑥
𝑥0
−∞
Если вероятности символов «1» и «0» равны Р1 = P2 = 0,5. совпадает с
критерием максимума правдоподобия.
Отношение правдоподобия для двоичных символов
Критерий Неймана–Пирсона.
Если имеется необходимость фиксирования (задания) одной из условных
вероятностей. Например, задается вероятность ложной тревоги F.
Затем определяется x0. При полученном x0 определяется D ‒ вероятность
правильного обнаружения при заданном уровне сигнала.
Корреляционный или когерентный приём – это приём сигналов с
определённой фазой.
Пусть на интервале [0 ,T] наблюдается смесь детерминированного сигнала
x(t) и гауссовского белого шума n(t).
Решения о наличии сигнала в смеси при анализе отношения правдоподобия:
𝜆1,0
𝑤(𝑥⁄1)
= 𝑥
𝑤( ⁄0)
Если смесь сигнал + шум определены по времени, то имеется возможность
накопления сигнала за период T.
- корреляционный интеграл.
Его значение сравнивается с пороговым уровнем zn :
если z(T )> zn – сигнал в смеси есть,
если z(T )< zn – сигнала в смеси нет.
При корреляционном приёме необходима чёткая временная привязка работы
устройств передачи и приёма. Это возможно в радиосистемах передачи
информации, где осуществляется тактовая синхронизация.
Корреляционный приемник.
Метод максимального правдоподобия (метод максимума апостериорной
вероятности)
Мягкий декодер
Приемник не принимает решений относительно того, какой из символов ri ( 0
или 1) в данный момент принят, то есть он отдает декодеру весь принятый
сигнал S(t) и предоставляет право принимать решения самому декодеру.
Какое кодовое слово содержится в принятом сигнале, мы не знаем. Известна
только априорная вероятность передачи l–го кодового слова - Pl.
• Оптимальный декодер должен учитывать всю имеющуюся
информацию об используемом коде, канале связи и помехах,
действующих в этом канале.
• Оптимальный декодер должен выбирать в качестве решения кодовое
слово U* , которое максимизирует апостериорную вероятность.
Апостериорная вероятность будет максимальна, если минимальна величина
(для дискретизированного сигнала): 𝑑 = ∑𝑖 ∑𝑘(𝑆𝑖 − 𝑈𝑘𝑖 )2
Сумма квадратов разностей между отсчетами принятого сигнала Si и
символами k-го кодового слова называется невязкой, или евклидовым
расстоянием между этим кодовым словом и принятым сигналом.
Таким образом, оптимальный декодер должен вычислить евклидовы
расстояния между принятым сигналом S и всеми возможными кодовыми
словами Uk данного кода и принять решение в пользу кодового слова Ul ,
минимизирующего d , то есть наиболее похожего на принятый сигнал.
Рассмотренный оптимальный декодер является мягким декодером,
поскольку он выносит решения непосредственно на основе принятого
сигнала.
Жесткий декодер
Жесткое декодирование - в приемнике сначала принимается решение
относительно значения символов принятой последовательности, а уже
затем – относительно значения кодового слова.
Оптимальный декодер (жесткий декодер максимального правдоподобия)
должен вычислить расстояния: 𝑑𝑘∗ = ∑𝑖(𝑟𝑙 − 𝑈𝑘 )2
между принятой последовательностью r и всеми возможными кодовыми
словами Uk данного кода и принять решение в пользу кодового слова, в
минимальной степени отличающегося от принятой последовательности.
Качество мягкого декодирования несколько выше. Однако реализация
жесткого декодера является гораздо более простой.
Тема 11. Многоканальные радиосистемы передачи информации
Методы уплотнения тракта связи
Тракт связи по способности передавать информацию можно охарактеризовать
некоторым объёмом:
Vтр  FтрTтр Dтр
Fтр - полоса частот тракта связи
Tтр - время использования тракта связи
Dтр - динамический диапазон тракта связи
Передаваемый по тракту связи сигнал также имеет три измерения , его также
можно охарактеризовать некоторым объёмом:
Vс  FсTс Dс
Fс - полоса частот, занимаемая сигналом
Tс - время, когда сигнал отличен от нуля
Dс - динамический диапазон сигнала
Для передачи сигнала по тракту связи с допустимыми искажениями
необходимо выполнить условие: 𝑉тр ≥ 𝑉с Если
𝑉тр ≫ 𝑉с то возможно
уплотнение тракта связи «n» каналами передачи информации.
В зависимости от того, какой из параметров тракта связи делится по
отдельным каналам, различают методы:
• частотного уплотнения;
•
временного уплотнения;
•
уплотнения по форме сигнала.
Указанные методы уплотнения тракта связи являются линейными.
При использовании линейных методов операция уплотнения каналов сводится
к суммированию канальных сигналов.
Разделение сигналов на приёмной стороне осуществляется «n» линейными
избирательными устройствами (по числу каналов).
Иn – источники сообщений
КМn – канальные модуляторы
М – модулятор передатчика
ГЛНФ – генератор линейно независимых функций
ГВК – генератор вспомогательных колебаний
ЛИУn – линейно избирательные устройства
ГН – генератор несущего ВЧ колебания
КДМ-n – канальные демодуляторы
Генератор линейно независимых функций (ГЛНФ) выполняет функцию
формирования линейно независимых колебаний (поднесущих).
Уплотнение
ГЛНФ
Частотное
уплотнение
сетка гармонических колебаний, разнесённых
соответствующим образом по частоте;
Временное
уплотнение
импульсные
последовательности,
соответствующим образом по времени;
Уплотнение
форме
по
разнесённые
функции, ортогональные по форме
Радиосистемы с импульсно-кодовой модуляцией и разделением каналов
по времени
И - канальные источники;
ДК - устройства канальной дискретизации;
РИК – распределитель импульсов каналов (дискретизация по времени);
Кд – кодер;
ЗГ – задающий генератор:
ФХИ - формирователь хронизирующих импульсов;
Отсчёты канальных сигналов сдвинуты во времени на канальный интервал:
Tk = Ti / n; Ti – период повторения канальных импульсов (определяется
теоремой Котельникова), n – число каналов.
После устройств канальной дискретизации амплитудно-модулированные
импульсные последовательности каналов объединяются в сумматоре, образуя
групповой сигнал.
Кодирование группового сигнала осуществляется в кодере Кд, где в
соответствии со значением амплитуды импульсов в точках отсчёта
формируется m-разрядная кодовая группа.
Управление кодером производится импульсами, вырабатываемыми в
формирователе хронизирующих импульсов ФХИ. Длительность
хронизирующих импульсов - длительность кодового слова плюс защитный
интервал между каналами.
ФХИ формирует также сигналы цикловой синхронизации (СЦС). Во
втором сумматоре объединяются в единую двоичную последовательность
групповой сигнал с импульсно-кодовой модуляцией и СЦС.
Структура цикла n-канальной системы с ИКМ для случая пятиразрядной
кодовой группы
В канале цикловой синхронизации формируется кодовое слово, отличное от
оперативных каналов. Один из канальных интервалов отводится для передачи
синхросигнала.
ПЕР - передатчик: вторая ступень модуляции (на несущем ВЧ колебании),
сформированной многоканальной импульсной последовательностью.
Модуляция может быть амплитудной, частотной.
ПР - приёмник (демодулирование); РГ - устройство регенерации
(восстановление);
УР - устройство разделения (разделение кодовых комбинаций каналов
цикловой синхронизации и информационных каналов).
ЗГ - задающий генератор тракта приёма (управляется синхросигналами,
вырабатывает управляющие импульсы для декодера ДКд и распределителя
импульсов каналов РИК.
Приемник отличает кодовое слово канала синхронизации от кодовых слов
оперативных каналов и выделяет его, что обеспечивает синхронную работу
распределителей канальных импульсов трактов передачи и приёма.
ДКд - преобразование канальные кодовых групп в квантованные
многоуровневые импульсы. Подаются управляющие импульсы с ЗГ, их
временное положение и длительность совпадают с кодовой канальной
группой.
С декодера снимаются импульсные последовательности, распределённые по
времени. Число последовательностей равно числу каналов.
КС - канальные селекторы ( разделение каналов по времени).
ФНЧ - восстановление непрерывных сообщений в каналах.
Полоса частот группового тракта ИКМ-ВРК системы определяется тактовой
частотой: 𝐹𝑚 = (𝑁 + 𝐾) ⋅ 𝑚/𝑇𝑖
где N – число оперативных каналов;
K – число каналов, отводимых для передачи синхросигналов, а также для
служебных и управляющих сигналов;
m – число разрядов в кодовых группах.
Цифровые системы с ИКМ обеспечивают высокую помехоустойчивость за
счёт регенерации импульсов.
Эффективность передачи повышается за счёт:
- квантования с неравномерным шагом;
- предсказания;
- создания избыточного кода.
В радиосистеме ИКМ с разделением каналов по частоте сообщения
отдельных источников сообщения не подвергаются дискретизации,
квантованию и кодированию.
Эти операции производятся над групповым сигналом системы с частотным
разделением каналов. Частота дискретизации в этом случае определяется
шириной полосы частот группового сигнала: 𝐹𝑖 ≥ 2𝐹макс.гр.
Количество разрядов m в кодовом слове выбирается аналогично, как и в
системе ИКМ с временным разделением каналов, в соответствии с
допустимой мощностью шумов квантования.
В системе ИКМ с частотным разделением каналов цикл передачи состоит из
одной кодовой группы, в которой количество символов в n раз меньше, чем в
системе ИКМ с временным разделением каналов. Количество кодовых групп
в последовательности будет в n раз больше.
Полоса частот, занимаемая спектром сигналов ИКМ-ВРК и ИКМ-ЧРК
одинакова.
И - канальные источники; КМ – канальные модуляторы, ГПЧ – генератор
поднесущих частот, Ф- канальные фильтры, ГН – генератор несущей частоты,
М – модулятор группового сигнала.
ДмД – демодулятор группового сигнала, КДМ – канальные демодуляторы, П
–приемники канальных сообщений.
Частотное разделение каналов
Отсутствие искажений достигается линейностью амплитудной
характеристики группового тракта, а также постоянством АЧХ и
линейностью ФЧХ тракта связи.
При линейных искажениях сохраняется ортогональность канальных
сигналов при их объединении в групповой сигнал, дополнительных гармоник
не возникает, и отсутствует взаимное влияние между каналами вследствие
линейных искажений.
Нелинейные искажения, обусловленные отклонением амплитудной
характеристики группового тракта от линейной, определяют появление
дополнительных гармонических составляющих и, как следствие, появление
межканальных помех.
Многоканальные радиосистемы с разделением канальных сигналов по
форме
Условие уплотнения тракта связи – ортогональность (независимость)
канальных сигналов.
Системы с разделением по времени или по частоте - ортогональные
канальные сигналы.
Имеется возможность получить ортогональные канальные сигналы при
перекрытии и во времени, и по спектру за счёт особой формы поднесущих
сигналов.
Полиномы Чебышева, функции Уолша, Хаара и другие образуют системы
ортогональных функций.
Использование в качестве поднесущих ансамблей ортогональных функций
позволяет создавать многоканальные системы с разделением каналов по
форме.
Главный фактор при выборе ансамбля ортогональных сигналов - простота
технической реализации аппаратуры уплотнения и разделения каналов.
Пример: использование в качестве поднесущих в системах уплотнения
каналов по форме функций Уолша с упорядочением Уолша-Паули. Все
функции Уолша выражаются через функции Радемахера.
Функции Радемахера - меандровые функции. Они имеют временные
диаграммы двоичного счётчика. Например, для n = 8 функция Радемахера
иллюстрирует работу трёхразрядного двоичного счётчика
Функции Уолша 𝑊𝑚 (𝜃), упорядоченные по Паули, получаются
перемножением функций Радемахера:
𝑊0 (𝜃) = 𝑊000 (𝜃) = 1
𝑊1 (𝜃) = 𝑊001 (𝜃) = 𝑅1(𝜃)
𝑊2 (𝜃) = 𝑊010 (𝜃) = 𝑅2 (𝜃)
𝑊3 (𝜃) = 𝑊011 (𝜃) = 𝑅1 (𝜃) ⋅ 𝑅2 (𝜃)
𝑊4(𝜃) = 𝑊100 (𝜃) = 𝑅3 (𝜃)
𝑊5 (𝜃) = 𝑊101 (𝜃) = 𝑅1 ⋅ 𝑅3(𝜃)
𝑊6 (𝜃) = 𝑊110 (𝜃) = 𝑅2 (𝜃) ⋅ 𝑅3 (𝜃)
𝑊7 (𝜃) = 𝑊111 (𝜃) = 𝑅1(𝜃) ⋅ 𝑅2(𝜃) ⋅ 𝑅3(𝜃)
Функции Уолша
Если сопоставить значению функции Уолша, равному +1, логический нуль
«0», а значению функции Уолша, равному –1, логическую единицу «1», то
операции умножения функций Родемахера будет соответствовать операция
сложения по модулю 2.
Таким образом, функции Уолша могут формироваться устройством,
состоящим из двоичного счётчика для получения функций Радемахера и
комбинационной схемы, состоящей из сумматоров по mod 2.
Канальные сигналы 𝑌𝑗 ⁡получатся модуляцией поднесущей соответствующего
канала сигналом передаваемой по каналу информации.
Наиболее просто осуществляется амплитудная модуляция ( модулирующий
сигнал 𝑋𝑗 перемножается с соответствующей, выбранной для данного канала
функцией Уолша, называемой в данном случае адресом 𝐴𝑗 (𝜃)
𝑌𝑗 = 𝑋𝑗 ⋅ 𝐴𝑗 (𝜃)
В случае представления сообщений двоичной последовательностью
символов значение каждого символа умножается поочерёдно на
соответствующую функцию Уолша, выбранную для данного канала.
Вследствие того, что модулированный канальный сигнал получится
умножением (сложением по mod 2) двоичных последовательностей
информационного сигнала, состоящего из единиц и нулей, на функцию
Уолша (адрес данного канала), канальный сигнал будет совпадать с функцией
Уолша при передаче символа «0» и противоположен при передаче символа
«1»
отрицательному значению функции Уолша соответствует символ «1» сигнала
адреса, а положительному значению – символ «0».
Групповой сигнал можно получить из канальных как линейным,
так и нелинейным способами.
Простейший способ линейного сложения (уплотнения) состоит в
алгебраическом сложении канальных сигналов. Групповой сигнал при этом
получается многоуровневым, что затрудняет разделение каналов на приёме.
Двухуровневый групповой сигнал получается в случае нелинейного
сложения (уплотнения). Среди нелинейных сложений существует способ
мажоритарного сложения, при котором значение группового сигнала
определяется знаком алгебраической суммы канальных сигналов.
По правилу мажоритарности
если большинство символов канальных сигналов в данный момент времени
имеют значение «1» в рассматриваемый момент (отрезок) времени
если большинство символов канальных сигналов в данный момент времени
имеют значение «0» в рассматриваемый момент (отрезок) времени
значение символа группового сигнала 𝑌гр = 1
значение символа группового сигнала 𝑌гр = 0
Если решение на выходе мажоритарного элемента принимается по
большинству однотипных канальных символов, действующих одновременно,
следовательно, количество каналов в системе должно быть нечётным.
При смещении функций Уолша относительно друг друга их ортогональность
теряется.
Поэтому совместно с групповым сигналом необходимо передавать
синхросигнал, по которому на приёме должны восстанавливаться функции
Уолша, синфазные передающим. Они на приёме являются адресами для
«распознавания» канальных сигналов при их разделении.
Структура передающей части системы уплотнения каналов по форме
ИС – канальные источники, Ген. др. – генераторы канальных адресов
Структура приемной части системы уплотнения каналов по форме
Разделение канальных сигналов в приемнике осуществляется путём
вычисления коэффициента корреляции в каждом канале между принятым
групповым сигналом и восстановленной функцией Уолша (адреса) данного
𝑇
канала: 𝜏𝑖 = ∫0 𝑌гр. (𝑡, 𝑥) ⋅ 𝐴𝑖 (𝑡) 𝑑𝑡
Для решения о принятом сигнале коэффициент корреляции сравнивают с
пороговым уровнем.
При мажоритарном уплотнении каналов оценка принятого символа
определяется знаком коэффициента корреляции. Если коэффициент
корреляции остаётся меньше нуля, принимается решение о приёме символа
«1», если больше нуля, принимается решение о приёме символа «0».
Приём группового сигнала и разделение канальных сигналов
При действии помех в канале связи возможны искажения группового сигнала.
При этом изменяются коэффициенты корреляции на выходе корреляторов
приёмного устройства. Распознавание символов будет верным до тех пор,
пока не изменится знак коэффициента корреляции. Следовательно, система
уплотнения тракта связи по форме с использованием в качестве поднесущих
функции Уолша обладает некоторым запасом по помехоустойчивости.
Тема 12. Системы синхронизации РСПИ
Системы синхронизации в РТСПИ должна определять следующие
параметры синхросигнала:
Фазу ВЧ несущего колебания - фазовая синхронизация (ФС)
Временные границы принимаемых посылок - тактовая синхронизация (ТС)
Моменты, соответствующие началу кодовых слов - цикловая синхронизация
(ЦС)
Моменты, соответствующие началу и концу групповых сигналов в
многоканальной СПИ - кадровая синхронизация (КС)
Начало и конец передаваемого сообщения
В большинстве случаев сигналы ТС ,КС и ЦС связаны между собой
(синхронны).
Частота повторения кодовых слов – есть тактовая частота fт, деленная на
число разрядов в кодовом слове n : 𝑓ц = 𝑓т /𝑛
Частота повторения кадров – есть частота повторения кодовых слов, деленная
на kсл – число кодовых слов в кадре: 𝑓к = 𝑓ц /𝑘сл
Все устройства синхронизации можно разделить на два принципиально
различных типа:
для синхронизации отсчетов времени (ФС, ТС) – с их помощью
формируются временные шкалы
Работают непрерывно
Отслеживают изменение фазы входного колебания
для устранения неоднозначности отсчетов времени при определении начала
слова, кадра, сообщения
Работают периодически
Сводятся к периодическому, иногда однократному фазированию
Последовательность работы систем синхронизации при когерентном приеме:
Сначала Фазовая синхронизация Затем Тактовая синхронизация Затем
Цикловая синхронизация Затем Кадровая синхронизация
Качество работы устройств синхронизации определяется степенью
соответствия фазы входного колебания фазе колебания местного генератора
В качестве оценки погрешности синхронизации используют величину
вероятности попадания фазы колебания местного генератора в область
допустимых значений Δφ. Эта область называется областью синхронизма.
Для заданной области синхронизма вводят показатели качества устройства
синхронизации:
время достижения синхронизма Тс
вероятность срыва синхронизма
время поддержания синхронизма при пропадании сигнала на входе
вероятность ложного синхронизма.
Возможны два основных режима работы устройств синхронизации:
1. В спектре принимаемого сигнала содержится составляющая требуемой
частоты и фазы
Обработка сводится к фильтрации
2. В спектре принимаемого сигнала отсутствует составляющая требуемой
частоты и фазы
Необходимы нелинейные преобразования входного сигнала.
Полученным сигналом, в котором содержится составляющая требуемой
частоты и фазы синхронизируется местный управляемый генератор
Устройства синхронизации могут быть:
разомкнутые – синхроколебание фильтруется полосовым фильтром
замкнутые – на базе систем фазовой автоподстройки частоты (ФАПЧ)
ВП – входной преобразователь, УГ – управляемый генератор, ФД – фазовый
детектор
ФНЧ – фильтр низкой частоты
Система ФАПЧ – основной элемент устройств синхронизации отсчетов
времени
режим захвата режим слежения
Характеристики системы ФАПЧ:
шумовая полоса Fш
полоса удержания Fу– максимальное изменение частоты входного сигнала,
при котором ФАПЧ работоспособна
полоса захвата Fз – максимальная расстройка между частотой входного
сигнала и частотой УГ, при которой ФАПЧ входит в режим синхронизации
время ввода в синхронизм – длительность переходного процесса
При математическом моделировании используется линеаризованная модель
системы ФАПЧ
Уменьшение шумовой полосы ФАПЧ приводит к:
уменьшению полосы захвата
увеличению времени ввода в синхронизм
Данные противоречия могут быть устранены за счет:
Дополнительной поисковой процедуры путем свипирования частоты
управляемого генератора
Процедуры адаптации. На этапе ввода в синхронизм расширяется полоса
пропускания ФАПЧ. После ввода в синхронизм устанавливается ее
оптимальное значение
Тактовая синхронизация
Тактовая синхронизация демодулятора приемника относительно потока
поступающих посылок необходима для оптимального приема дискретных
сигналов.
При случайном характере передаваемых символов спектр сигнала не
содержит тактовой частоты.
Информацию о тактовой частоте можно выделить из сигнала, в котором
модулирующие посылки меняют свое значение, т.к. сигнал, модулированный
посылкой одного знака информации о тактовой частоте не несет.
Для предотвращения длительных посылок одного знака используют
устройства рандомизации.
Пример демодулятора двоичных ЧМ сигналов
При отсутствии шумов
сформированные импульсы
имеют временной сдвиг Tc/2
относительно тактовых
импульсов посылок
Под действием шумов их временное
положение меняется. При гауссовском
распределении шума с дисперсией
флуктуации фазы сформированных
импульсов будут иметь дисперсию
Последовательности
сформированных и
опорных импульсов
сравнивают на временном
(фазовом) дискриминаторе.
Опорный генератор
управляется так, чтобы
свести это рассогласование к минимуму.
Устройства тактовой синхронизации с дискретным управлением
ВД – входной дискриминатор
УДЧ - управляемый делитель частоты
ЗГ – задающий генератор
Принцип работы основан на смещении фазы сигнала, формируемого
управляемым делителем частоты при добавлении или исключении одного
импульса. В реверсивном счетчике подсчитывается разность числа
импульсов с входов 1 и 2. Если она превышает емкость счетчика, то на
соответствующем выходе формируется команда для управляемого делителя
частоты, которая приводит с смещению фазы опорного сигнала в требуемую
сторону.
Емкость реверсивного счетчика определяет помехоустойчивость устройств
тактовой синхронизации.
Устройства цикловой синхронизации предназначены для определения начала
кодовых слов.
Цикловая синхронизация обеспечивается:
с помощью специальных синхросигналов
с помощью избыточности кодовых слов
Цикловая синхронизация реализуется за счет снижения скорости передачи
информации
Наиболее просто ЦС реализуется при передачи односимвольного
синхросигнала в начале каждого кодового слова или группы кодовых слов.
Таким синхросигналом может служить например, заданное число единиц.
Счетчик Сч из тактовых импульсов с
частотой fт формирует импульсы с
частотой fц. Они вместе с
регенерированными импульсами
посылок поступают на входы схем
сравнения СС. Результаты сравнения
поступают на реверсивный счетчик
РСч. Счетчик импульсов интервала
анализа СчИИА определяет временной интервал, через который результат
РСч сравнивается в решающей схеме РС. Если синхросимвол не обнаружен,
пропускается один тактовый импульс. До обнаружения – режим поиска,
далее режим синхронизации.
Устройства цикловой синхронизации, построенные на избыточности
помехоустойчивых кодов следят за появлением ошибочных комбинаций.
Устанавливается пороговое значение, основанное на известной вероятности
ошибок. При превышении данного порога принимается решение об
отсутствии синхронизации и система переводится в режим поиска путем
сдвига (пропуска) тактовых импульсов.
Задачи при реализации устройств ЦС:
быстрое обеспечение синхронизма
высокая помехоустойчивость
минимальный объем синхроинформации
простота реализации
КС используется в многоканальных РСПИ с временным уплотнением
При наличии цикловой синхронизации для синхронизации кадров можно
использовать одно определенное кодовое слово, которое должно отличаться
от всех кодовых комбинаций.
При отсутствии цикловой синхронизации, под кадровое синхрослово
должна выделяться значительная часть кадра. Это обусловлено тем, что
нарушение синхронизма по кадрам влечет потерю информации во всех
каналах системы.
Для выделения кадрового синхрослова в приемнике используется
дискретный согласованный фильтр.
Предъявляются жесткие требования к структуре и периодичности повторения
кадрового синхрослова.
При безизбыточном кодировании единственным отличием кадрового
синхрослова от информационного может быть лишь частота его появления.
В качестве синхросигнала также может быть использована пара слов, второе
из которых инвертировано.
Требуется минимальное значение вероятности ложного появления кадрового
синхрослова.
Эта вероятность определяется:
длиной (числом разрядов) кадрового синхрослова
структурой кадрового синхрослова
числом информационных посылок в передаваемом сообщении.
Скачать