а также энтропию и

реклама
Министерство образования Российской Федерации
Федеральное государственное автономное образовательное учреждение высшего образования
«СЕВАСТОПОЛЬСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕ»
Кафедра информатики и управления в технических системах
ИССЛЕДОВАНИЕ ИСТОЧНИКА СООБЩЕНИЙ. ЭНТРОПИЯ
ИСТОЧНИКА. КАНАЛЬНАЯ МАТРИЦА
Методические указания к лабораторным работам по дисциплине
«Теория информация и кодирования»
Севастополь
2015
УДК 519.7
Исчисление количества информации: Методические указания к лабораторным
работам / Сост.: В.В. Альчаков. ‒ Севастополь.: СевГУ, 2015. ‒ 16с.
Рассмотрены основные методы расчета энтропии источника сообщений.
Исследуются свойства канальной матрицы. Даны общие рекомендации по
решения практических задач. Приведены варианты заданий к курсовой работе по
дисциплине «Теория информации и кодирования».
Методические указания предназначены для студентов специальности
27.03.04 ‒ «Управление в технических системах».
Методические указания рассмотрены на заседании кафедры технической
кибернетики СГТУ № ___ от « ___ » _____________________ 2015 г. Одобрено
методической комиссией института Информационных технологий и управления
в технических системах.
Рецензенты:
В.А. Крамарь, докт. техн. наук, проф. каф. ИУТС СевГУ
В.А. Карапетьян, канд. техн. наук, доц. каф. ИУТС СевГУ
Составитель:
В.В. Альчаков, канд. техн. наук, доц. каф. ИУТС СевГУ
© СГТУ, 2014
Методические указания составлены в соответствии с рабочей
программой дисциплины «Теория информации и кодирования»
учебного плана специальности 27.03.04 ‒ «Управление в технических
системах».
1 ОБЩИЕ ПОЛОЖЕНИЯ
...
2 ЗАДАНИЕ НА РАБОТУ
Исследовать канальную матрицу источника сообщений,
осуществляющего передачу четырех символов алфавита. Исследовать
методы расчета энтропии сообщений.
 
1. Построить канальную матрицу P b , описывающую источник
a
сообщения со стороны входа.
2. Построить матрицу Pa, b  .
3. Найти вероятности P bi  .
4. Построить канальную матрицу P a , описывающую источник
b
сообщений со стороны выхода.
b 
a
5. Найти частные условные энтропии H  j  и H  i  .
 b1 
 a1 
6. Найти полные условные энтропии H B и H A .
A
B
7. Найти энтропию объединения H  A, B .
8. Найти количество информации на выходе канала связи I  A, B  ,
а также энтропию H  A и H B  .
 
 
 
3 ХОД РАБОТЫ
 
3.1 Построить канальную матрицу P b , описывающую
a
источник сообщения со стороны входа
Исходя из условия задания, источник сообщений состоит из
четырех символов. Следовательно, размерность матрицы равна 4×4.
Элементы, расположенные на главной диагонали, определяют
вероятность правильного приема. Все остальные ‒ вероятность
ложного приема. Начинать заполнение матрицы нужно именно с
вероятностей, которые определяют ложный прием. При этом на
соответствующих позициях должны быть вписаны вероятности,
соответствующие вероятностям букв, образующих ФИО студента.
Пример заполнения матрицы представлен ниже.
Шаг 1. Заполняются ячейки, соответствующие неверному
приему. Заполняются слева направо, сверху вниз. Вероятности
правильного приема заполняются нулями.
b
P b1  P b2  P 3  P b4 
 a1 
 a1 
 a1 
 a1 
b
b
b
b
P 1  P 2  P 3  P 4 
a2 
 a2 
 a2  ‒ Общий вид
 a2 
Pb  
a
b
P b1  P b2  P 3  P b4 
 a3 
 a3 
 a3 
 a3 
b
P b1  P b2  P 3  P b4 
 a4 
 a4 
 a4 
 a4 
канальной матрицы, характеризующей источник сообщений со
стороны входа.
 
0
P  А P  Л  P  Ь 
PЧ 
0
P  А P  К 
Pb 
a PО  PВ 
0
PВ 
P А PС  PИ 
0
 
Шаг 2. Вместо буквенных обозначений вписываются численные
значения вероятностей для букв русского алфавита.
0
0,062 0,035 0,014
0,012
0
0,062 0,028
Pb 
a
0,09 0,038
0
0,038
0,062 0,045 0,062
0
 
Шаг 3. Для определения диагональных элементов необходимо
воспользоваться свойством канальной матрицы, описывающей со
стороны входа. Сумма элементов в каждой строке такой матрицы
равна 1.
0,889
0,012
Pb 
a
0,09
0,062
 
0,062
0,898
0,038
0,045
0,035
0,062
0,834
0,062
0,014
0,028
0,038
0,831
3.2 Построить матрицу Pa, b 
При построении матрицы Pa, b  необходимо прежде всего
выбрать вероятности появления символов Pa1  Pa2  P a3  Pa4 .
Выбор значений вероятностей определяется условием
4
 Pai   1 .
i 1
Например, Pa1   0,1; Pa2   0,2 ; Pa3   0,3 ; Pa4   0,4 .
Элементы матрицы Pa, b  могут быть вычислены с помощью
соотношения
b

P j 
ai 
P ai , b j   
Pai 
Pai , b j  
(3.1)
Pa1 , b1  Pa1 , b2  Pa1 , b3  Pa1 , b4 
Pa2 , b1  Pa2 , b2  Pa2 , b3  Pa2 , b4 
Pa3 , b1 
Pa4 , b1 
Pa3 , b2 
Pa4 , b2 
Pa3 , b3 
Pa4 , b3 
Pa3 , b4 
Pa4 , b4 
(3.2)
0,0889 0,0062
0,0024 0,1796
P ai , b j  
0,027 0,0114
0,0248 0,018
Матрица
(3.2)
обладает
0,0035
0,0124
0,2502
0,0248
0,0014
0,0056
0,0114
0,3324
замечательным
свойством
 Pai , b j   Pai . Проверим это свойство
4
j 1
Pa1    P a1 , b j  Pa1 , b1   Pa1 , b2   Pa1 , b3   Pa1 , b4  
4
j 1
 0,0889  0,0062  0,0035  0,0014  0,1
Аналогичные проверки необходимо выполнить для Pa2  P a3 
Pa4 .
3.3 Найти вероятности P bi 
Для вычисления вероятностей P bi  необходимо воспользоваться
другим замечательным свойством матрицы Pai , b j , а именно
 Pai , b j   Pb j 
4
i 1
В результате расчётов получим
Pb1   0,1431;
Pb2   0,2152 ;
Pb3   0,2909 ;
Pb4   0,3508.
Следует также проверить свойство
 Pb j   1.
4
j 1
 b ,
3.4 Построить канальную матрицу P a
описывающую
источник сообщения со стороны выхода
Для расчета канальной
воспользуемся соотношением
матрицы
a
 Pai , b j 
P i  
Pb j 
 bj 
P a1 
 b1 
a
P 2 
b1 
Pa  
b
a
P 3 
 b1 
P a4 
 b1 
канальной матрицы,
стороны выхода.
 
P a1  P a1 
 b2 
 b3 
a
a
P 2  P 2 
 b2 
 b3 
a
a
P 3  P 3 
 b2 
 b3 
P a4  P a4 
 b2 
 b3 
характеризующей
со
стороны
выхода
(3.3)
P a1 
 b4 
a
P 2 
 b4  ‒ Общий вид
a
P 3 
 b4 
P a4 
 b4 
источник сообщений со
В результате вычислений получим
0,6212
0,0168
Pa 
b 0,1887
0,1733
 
0,0288
0,8346
0,0530
0,0836
0,0120
0,0426
0,8601
0,0853
0,0040
0,0160
0,0325
0,9475
Далее необходимо проверить, чтобы сумма элементов по
столбцам полученной канальной матрицы равнялась 1.
Для
4
 P
i 1
ai
первого
столбца
  0,6212  0,0168  0,1887  0,1733  1. Условие выполняется.
b1 
Аналогичные
проверки
нужно
сделать
для
4
 P
ai
i 1
4
a
 P i b3  ,
i 1
4
 P
ai
i 1

b2  ,

b4  .
b 
a
3.5 Найти частные условные энтропии H  j  и H  i 
 b1 
 a1 
Неопределенность отправителя о правильности получения
информации можно выразить частной условной энтропией вида
4
 b 
bj 
b 
H
   P j   log P j   .

a1 
 a1 
  a1  
j 1 
Аналогично неопределенность получателя о том, что он получил
правильный символ, выражается частной условной энтропией вида
a
a
a
H  i    P i   log P i   .
b1 
 b1 
  b1  
i 1 
4
Подставляя численные значения для вероятностей, получим
  b1 
 P b1    P b2   log P b2    
P

log


 a 
  a 
  a  
  a1 

1
1 
  1 
 
bj 
H
 


a
1


 P b3   log P b3    P b4   log P b4   
 a 
  a 
  a  
  a1 

1 
1
1  
 
 
 бит 
 0,65512 
.
симв


Аналогично
4
 бит 
ai 
a
a

H
  P i   log P i    0,68261 
.

b
b
 b1 




1
1
симв




i 1
 A и H A B
3.6 Найти полные условные энтропии H B
Полная условная энтропия (или общая условная энтропия)
характеризует неопределенность получателя в правильности приема
любого из переданных символов. Для ее оценки используются
соотношения
 A   Pa  P b a   log P b a  
H B
4
4
i
i 1
j
j
i
j 1

i

 B    Pb  P a b   log P a b  
H A
4
4
j
j 1
i
i 1
i
j

j

Подставляя численные значения для вероятностей, получим
бит 
 бит 
 A  0,8225  симв
 , H A B   0,74225 
.

 симв 
HB
3.7 Найти энтропию объединения H  A, B 
Энтропия объединения должна быть рассчитана с помощью трех
соотношений
H  A, B     Pai , b j  logPai , b j ;
4
4
i 1 j 1
 A, где H  A   Pa  logPa  ;
H  A, B   H  A  H B
4
i 1
i
i
 B, где H B    Pb  logPb .
H  A, B   H B   H A
4
j 1
i
j
Подставив численные значения параметров получим
 бит 
H  A, B     Pai , b j  logPai , b j   2,6689 

 симв 
i 1 j 1
4
4
 бит 
H  A  1,8464 

 симв 
бит 
 A  2,6689  симв


H  A, B   H  A  H B
 бит 
H B   1,9267 

 симв 
бит 
 B   2,6689  симв


H  A, B   H B   H A
Полученные значения для H  A, B  должны совпадать с точностью
до второго знака.
3.8 Найти количество информации на выходе канала связи
I  A, B  , а также энтропию H  A и H B 
Количество информации на выходе канала связи может быть
найдено тремя различными способами
I  A, B   H  A  H B   H  A, B   1,8464  1,9267  2,6689  1,1042 бит
I  A, B   H  A  H A  1,8464  0,74225  1,1042 бит
B
I  A, B   H B   H B  1,9267  0,8225  1,1042 бит
A
 
 
Если предыдущие вычисления сделаны верно, то результаты по
всем трем формулам должны приблизительно совпадать.
Приложение 1
Исходный код m-файла для решения задания в пакете Matlab
Скачать