Лекция 5. Основные параметры сигналов

advertisement
РАДИОТЕХНИЧЕСКИЙ ИНСТИТУТ
РТФ
Радиотехнический институт УГТУ – УПИ
Инновационная образовательная
программа
Основы построения
телекоммуникационных
систем и сетей:
краткий курс лекций
Автор курса лекций:
Удинцев Владимир Николаевич, канд. техн.
кафедры ТСС УГТУ-УПИ
Екатеринбург
наук, доцент
2008
2
Основы построения
телекоммуникационных
систем и сетей:
краткий курс лекций
лекция 5
Основные параметры сигналов и
каналов для их передачи
Цели лекции:



Знакомство с основными параметрами
аналоговых и цифровых сигналов;
Изучение
информационных
свойств
сообщений и сигналов;
Знакомство с основными понятиями и
терминами, применяемыми в системах
передачи дискретных сообщений.
4
Основные термины




Ширина полосы
[Гц] – часть спектра сигнала, которую
необходимо передать по каналу связи для высококачественного
восстановления принятого сигнала.
Эффективная полоса частот сигнала [Гц] (условная
полоса реализации) – ограниченная сверху полоса частот,
необходимая для высококачественного восстановления исходного
сигнала (на практике обычно ограничиваются полосой частот,
содержащей не менее 90% спектра мощности исходного сигнала).
Средняя мощность [дБм] сигнала определяется усреднением
мгновенных мощностей за некоторый промежуток времени
(например, один час, одну минуту и т.п.).
Динамический диапазон [дБ] сигнала определяется как
отношение его максимальной к его минимально возможной
мощности.
5
Основные термины






Единица количества информации
– это количество информации,
которое снимает неопределенность наступления одного из двух
равновероятных событий.
Энтропия – мера неопределённости поведения источника сообщений,
количественно равна среднему количеству информации, приходящемуся на
одно сообщение.
Избыточность сообщения – мера возможного сокращения объема
сообщения без потери содержащейся в нем информации.
Производительность источника – среднее количество информации,
выдаваемое источником за единицу времени.
Эффективная скорость передачи – скорость выдачи информации
на выходе приемника.
Пропускная способность канала связи – наибольшее теоретически
достижимое количество информации, которое может быть передано по
каналу за единицу времени.
6
Основные параметры
аналоговых сигналов



Для непрерывных (аналоговых) сигналов основными параметрами
являются ширина занимаемой ими полосы частот (спектр), средняя
мощность и динамический диапазон.
Ширина полосы (Гц) – это основная часть спектра сигнала, которую
необходимо передать для высококачественного восстановления принятого
сигнала: ΔF = fв – fн (эффективная полоса частот).
Средняя мощность (дБм) сигнала определяется усреднением
мгновенных мощностей за некоторый промежуток времени (например, один
час, одну минуту и т.п.). Для индивидуального сигнала под средней
мощностью за время Т понимается мощность
T
1
2
PT 
u
(t )dt

TR 0
где R – сопротивление нагрузки, на которой определяется мощность
сигнала. При Т → ∞ определяется долговременная средняя мощность,
при Т = 1 часу – среднечасовая, а при Т = 1 минуте – среднеминутная
мощность индивидуального сигнала.
7
Основные параметры
аналоговых сигналов

Динамический диапазон сигнала определяется как отношение
его максимальной к минимально возможной мощности (или
отношение максимального к минимальному напряжению). Иногда за
минимально возможную мощность принимают мощность шумов
аппаратуры. Например, принято считать типичным динамическим
диапазоном для речи величину в 40 дБ, высококачественной музыки
– 90 дБ, телевизионных видеосигналов – 50 дБ.
s1(t)
D=Uмакс/Uмин
0
t
8
Основные параметры
дискретных сообщений



Основными информационными характеристиками дискретных сообщений
являются количество информации в сообщении, энтропия и
производительность источника сообщений. Для дискретных
сигналов важнейший информационный параметр – скорость передачи
информации с помощью этого сигнала. Остальные характеристики схожи
с аналоговыми сигналами.
В теории передачи дискретных сообщений всегда рассматривают системы
событий, когда при каждом испытании наступает одно и только одно из
всех возможных событий (полные системы событий). Таким образом, на
приемной стороне при передаче дискретных сообщений заранее
известны набор возможных сообщений и вероятность появления
каждого из них.
Чем менее вероятно появление сообщения, тем больше в нем содержится
информации, т.е. количество информации, содержащееся в сообщении,
может быть количественно оценено по вероятности его поступления.
Например, если имеется два независимых сообщения а1 и а2 и первое
имеет вероятность появления р(а1) = 1, то это сообщение заранее
известно получателю и вообще не содержит информации.
9
Единица количества
информации


Восьмиразрядным двоичным кодом (m = 2, n = 8) может быть передано 256
различных сообщений, т.е. количество информации в каждом сообщении в
этом случае равно N = 256.
Чем больше число событий, тем большее количество информации
содержится в каждом из них. Американский инженер Р. Хартли предложил
за меру информации принять не саму величину N, а ее логарифм:
I = log N = n log m = log 1/р = - log p .

Информация будет измеряться в двоичных единицах, если выбрать основание логарифма равным двум. Поэтому принято количество информации на одно сообщение ai в двоичном исчислении определять выражением:
I(ai) = log2 [1/ p(ai)] = - log2 p(ai).
При N = 2 получим I = log N = log2 2 = 1. Такая единица количества
информации получила название двоичной единицы информации (дв.
ед.) или бита. Т.е. единица количества информации – это
количество информации, которое снимает неопределенность наступления одного из двух равновероятных событий.
10
Энтропия
За количественную меру оценки неопределенности конечной
системы в целом (Н) при неравновероятных событиях принимают
среднее значение неопределенности появления каждого из
возможных сообщений:
N
H   ( p1 log p1 p2 log p2... pN log pN )   pi log pi
i 1
Полученная величина называется энтропией.
В случае
равновероятных событий энтропия превращается в меру Хартли,
т.е. является более общей мерой информации. Поскольку
полученная информация равна снятой неопределенности, то
энтропия количественно равна среднему количеству
информации, приходящемуся на одно сообщение. Энтропию
конечной системы А обозначают через Н(А):
k
Н ( А)    p(ai ) log2 p(ai )
i 1
11
Энтропия


Это выражение известно как формула Шеннона для энтропии источника
дискретных сообщений, где k – количество символов в алфавите,
используемом для передачи сообщения. Энтропия равна нулю, если
источником всегда выдается одно и то же сообщение с вероятностью
появления равной единице, т. е. полностью отсутствует неопределенность
в появлении сообщений. Энтропия будет максимальна, если все сообщения
появляются независимо и с одинаковой вероятностью. Таким образом,
энтропия – это мера неопределённости поведения источника
сообщений, т.е. свойство источника сообщений, характеризующее степень
разнообразия его возможных состояний.
При неизменном объёме информации (I), приходящемся на одно
сообщение, уменьшение энтропии (Н) относительно ее максимально
возможного при данном алфавите значения (Нмакс) вызывает необходимость
увеличения количества символов,
приходящихся в среднем на одно
сообщение, с числа m до m + kизб. (Здесь kизб – число избыточных
символов.) Причем, поскольку объем информации неизменен, то
I = m Нмакс = (m + kизб ) Н.
12
Избыточность

Мера возможного сокращения объема сообщения без потери
содержащейся в нем информации называется избыточностью
сообщения. Количественно избыточность может быть оценена как
отношение числа избыточных битов в сообщении к общему их числу:
Кизб = kизб /(m + kизб )= 1 – Н /Нмакс.

Сокращение объема сообщения, например, вследствие использования
статистических
связей
его
элементов,
характеризуется
коэффициентом сжатия равному отношению количества бит,
передаваемых до сжатия, к количеству бит, передаваемых после сжатия:
Ксж = (m + kизб )/ m = Нмакс /Н.

Избыточность увеличивает время передачи сообщения, но играет и
положительную роль, облегчая правильную расшифровку (прочтение)
сообщений при искажении отдельных его элементов (символов) помехами.
13
Производительность
источника

Среднее количество информации, выдаваемое источником за единицу
времени, называется производительностью источника:
Н′(А) = H(A)/T (бит/с),

где Т – среднее время появления (передачи) одного символа (тактовый
интервал).
Для систем передачи дискретных сообщений вводят аналогичную
характеристику – скорость передачи информации:
R = Н(А)/Т.


Верность передачи характеризуется коэффициентом ошибок по элементам
равным отношению числа неправильно принятых элементов (числа
ошибок noш) к общему числу переданных элементов (nпер) за один и тот же
интервал времени:
Кош = noш / nпер .
Иногда, для оценки верности передачи, используют также коэффициент
ошибок по кодовым комбинациям: отношение числа ошибочно принятых
к общему числу переданных кодовых комбинаций и понятие эффективной
скорости передачи, равной скорости выдачи информации на выходе
приемника, поскольку часть кодовых комбинаций отбрасывается
приемником или бракуется:
Rэфф = R ∙(1 – Kош комб).
14
Cкорость передачи
информации

Канал ЦСП характеризуется скоростью телеграфирования В
(скоростью манипуляции или модуляции) – числом единичных
элементов (ЕЭ) сигнала передаваемых в единицу времени, измеряемой в
Бодах, и скоростью передачи информации R, измеряемой в битах в
секунду. Скорость передачи информации в таком канале определяется как
Rk ≤ B∙I,
где I – количество информации в одном ЕЭ.
В более общем случае, когда информация передается параллельно и
используются сигнально-кодовые конструкции (ССК) с основанием
канального кода m > 2, скорость передачи информации определяется
числом информационных бит, передаваемых за 1 с:
n
1
R   log 2 mi
i 1 Ti
где n – число параллельных каналов; Ti – единичный интервал для i того канала, с; mi – число значащих позиций ССК (основание канального
кода) в i – том канале.
15
Пропускная способность
дискретного канала

Под пропускной способностью канала связи понимается
наибольшее теоретически достижимое количество информации,
которое может быть передано по каналу за единицу времени:
С = vx log2 m.
Здесь vx = 1/ Ti – средняя скорость передачи ЕЭ по каналу;
m – число значащих позиций ССК (основание канального кода).

Пропускная способность канала зависит от скорости манипуляции,
полосы пропускания канала, характера и интенсивности помех,
определяющих верность передачи. При передаче в канале без
помех пропускная способность будет численно равна
скорости передачи информации. При наличии помех
повышение достовер-ности может быть достигнуто применением
помехозащищенного кодирования, либо путем повторной передачи
искаженных сооб-щений, т.е. введением избыточности. Это
приводит к снижению ско-рости передачи информации и снижению
пропускной способности канала связи.
16
Частная условная энтропия

Если передается ансамбль Х и принимается ансамбль Х* дискретных
сообщений, то о том, что передано сообщение хi, мы узнаем по тому, что
принято сообщение x*i. При отсутствии помех между ними имеется
однозначное соответствие, т. е. х1 → х1*; х2 → х2*; х3 → х3*; …; хn → хn*.
При наличии помех это соответствие нарушается, и, после приема одного
из возможных сообщений xj*, остается неопределенность, какое конкретно
сообщение из всех возможных (х1; х2; х3; … ; хj; … ; хn) было передано.
Эта неопределенность количественно может быть определена как
частная условная энтропия:
n
H ( x x*j )   p( x x*j )log p( xi x*j )
i 1

Частная условная энтропия отличается от энтропии Н(х) лишь заменой
безусловных вероятностей р(хi) условными р(хi / хi*), которые учитывают,
что хi* уже известно.
17
Условная энтропия

Если усреднить частную условную энтропию по всем возможным
значениям, то получим величину, называемую условной энтропией
Н(х/х*), характеризующую среднюю неопределенность того, какое
сообщение было передано, оставшуюся после приема этого сообщения. В
отсутствии помех эта неопределенность равна нулю. Для вычисления
условной энтропии нужно каждое значение частной условной энтропии
умножить на безусловную вероятность р(хj*) появления принятого
сообщения и сложить эти произведения:
n
H ( x / x*)   p( x j *) H ( x / x j *)

j 1
Среднее количество информации, приходящееся на одно сообщение Ix
равно разности энтропии Н(х), характеризующей начальную неопределенность, и условной энтропии Н(х/х*), характеризующей остаточную неопределенность:
Ix = H(x) – Н(х/х*),
т. е. полученная информация равна снятой неопределенности.
18
Пропускная способность
дискретного канала с помехами

В соответствии с этим пропускная способность дискретного канала с
помехами Сп определяется как:
Сп = vx Ix = vx [H(x) – Н(х/х*)].

Для двоичного кода в канале ("двоичного канала") vx представляет собой
скорость манипуляции. В отсутствии помех Н(х/х*) = 0, поэтому пропускная
способность двоичного канала С будет равна скорости манипуляции Вмакс.
Если скорость поступления сообщений в канале с помехами не превышает
Сп, то, введя соответствующую избыточность кода (применив тот или иной
помехозащищенный код, устраняющий ошибки), можно обеспечить практически безошибочную передачу информации. Для симметричного двоичного
канала (канала, в котором вероятности р искажения символов "1" и "0"
равны), это выражение примет вид
Сп = Вмакс [1 + p log2 p + (1 – p) log2 (1 – p)].
При вероятности искажения символов р = 0,5 пропускная способность
такого канала равна нулю. Даже не имея канала связи и пытаясь отгадать
значение передаваемого бита, мы, при большом их числе, получим в 50 %
случаев правильный результат. При р = 1, как и при р = 0 (в этом случае
каждый бит замещается обратным и достаточно его инвертировать для
правильного приема), пропускная способность максимальна.
19
Пропускная способность
двоичного канала с помехами

Отношение пропускных способностей Сп/С
характеризует использование пропускной
способности
двоичного
канала
и
называется
относительной
скоростью
информации.

передачи
Если информационный параметр сигнала
– амплитуда, то, чем меньше ее
изменение, тем меньшая амплитуда
помехи
может
исказить
полезную
информацию
(привести
к
ошибке).
Поэтому понятно стремление перевести
все системы связи на двоичные цифровые
системы передачи, ведь при передаче
двоичных символов "0" и "1" возможно
получить максимальное их различие по
информационным параметрам сигнала
(максимальное кодовое расстояние),
например, по амплитуде, фазе, частоте и
т. п.
20
Предельно возможная
пропускная способность

Количество информации, содержащееся в элементарном дискретном
сигнале, передаваемом по дискретному каналу связи, растет с
увеличением числа состояний (основания канального кода), которое этот
сигнал может принять. С этой точки зрения применение двоичных
цифровых систем передачи невыгодно, но увеличение числа значащих
позиций ССК (основания канального кода) ограничивается воздействием
помех и погрешностями аппаратуры. Так, если выбрана оптимальная ССК,
согласованная с характеристиками канала, то при этом достигается его
максимальная пропускная способность:
Смакс = ΔFк log2(1 + Pc/Pп),
здесь ΔFк – ширина полосы пропускания канала;
сигнала и помех соответственно.

Pc и Pп – мощности
Эта формула справедлива для систем связи с наличием в канале флюктуационных помех с
равномерным спектром и характеризует предельную пропускную способность такого
канала. Напомним, что мгновенное значение напряжения флюктуационной помехи является
непрерывной случайной величиной с плотностью вероятности, описываемой нормальным
законом распределения, а ее спектр значительно шире спектра сигнала и, поэтому, может
рассматриваться как равномерный. При наличии помех другого вида существенно усложняется
выбор необходимого для достижения предельной пропускной способности оптимального
кодирования и оптимальных сигнально-кодовых конструкций для его реализации.
21
Контрольные вопросы







Что такое "двоичная единица информации"?
Что такое "мера количества информации"?
Как
определить
количество
информации,
содержащееся в сообщении?
Дайте определение производительности источника
сообщений и скорости передачи информации.
Что такое "эффективная скорость передачи"?
Почему двоичные сигналы обладают большей
помехоустойчивостью, чем аналоговые?
Что такое "пропускная способность" канала передачи?
От каких факторов она зависит?
22
Информационное обеспечение
лекции
Список литературы

Атабеков, Г.И. Основы теории цепей : учебник для вузов /
Г.И. Атабеков. – 2-е изд., испр. – СПб. : Лань, 2006. – 432 с.

Телекоммуникационные системы и сети: Учебное пособие. В 3
томах. Том 1 - Современные технологии / Б. И. Крук, В. Н.
Попантонопуло, В. П. Шувалов; под ред. профессора В. П.
Шувалова. – Изд. 3-е, испр. и доп. – М.: Горячая линияТелеком, 2003. – 647 с.: ил.

Гаранин М.В. и др. Системы и сети передачи информации:
Учеб. пособие для вузов. – М.: Радио и связь, 2001. – 336
с.:ил.

Новиков, Ю.Н. Электротехника и электроника. Теория цепей
и сигналов, методы анализа : учебное пособие /
Ю.Н. Новиков. – СПб. : Питер, 2005. – 384 с.
23
Конец фильма
Спасибо за внимание!
Download