ТЕОРИЯ ВЕРОЯТНОСТЕЙ, МАТЕМАТИЧЕСКАЯ СТАТИСТИКА И

advertisement
ФЕДЕРАЛЬНОЕ АГЕНТСТВО СВЯЗИ РФ
ГОУ ВПО «ПОВОЛЖСКАЯ ГОСУДАРСТВЕННАЯ
АКАДЕМИЯ ТЕЛЕКОММУНИКАЦИЙ
И ИНФОРМАТИКИ»
В.Н. ТАРАСОВ, Н.Ф. БАХАРЕВА
ТЕОРИЯ ВЕРОЯТНОСТЕЙ,
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
И СЛУЧАЙНЫЕ ПРОЦЕССЫ
ИЗДАНИЕ ВТОРОЕ,
ПЕРЕРАБОТАННОЕ
Рекомендуется ГОУ ВПО МГТУ
им. Н.Э. Баумана к использованию
в образовательных учреждениях,
реализующих
образовательные
программы
ВПО
по
специальностям
направления
«Информатика и вычислительная
техника».
Самара 2008
ББК 22.17я73
Т 19
УДК 519.2(075.8)
Рецензенты:
Заведующий
кафедрой
информационных
систем
и
технологий Самарского государственного аэрокосмического
университета, заслуженный работник высшей школы РФ,
Академик международной академии информатизации, д.т.н.,
профессор С.А. Прохоров;
д.ф.-м.н., профессор кафедры «Высшая математика»
МГТУ им. Н.Э.Баумана А.В. Филиновский.
Тарасов В.Н., Бахарева Н.Ф.
T 19 Теория вероятностей, математическая статистика и
случайные процессы.– Оренбург:ИПК ОГУ, 2008 –
280 с.
ISBN 5-7410-0415-6
Учебное пособие предназначено для студентов
специальностей направления 230100 – Информатика и
вычислительная техника.
ББК 22.17я73
ISBN 5-7410-0415-6
©Тарасов В.Н., Бахарева Н.Ф.
СОДЕРЖАНИЕ
1
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
1.13
1.14
1.15
2
2.1
2.2
2.3
2.4
2.4.1
2.4.2
2.4.3
2.5
2.5.1
2.5.2
2.5.3
2.5.4
2.5.5
Введение
Основные понятия теории вероятностей
Испытания и события
Классическое определение вероятности
Статистическое определение вероятности
Геометрические вероятности
События и действия над ними
Аксиоматическое определение вероятности
Основные теоремы теории вероятностей
Формула полной вероятности
Формула Бейеса
Повторение испытаний. Формула Бернулли
Локальная формула Муавра−Лапласа
Интегральная формула Муавра−Лапласа
Формула Пуассона
Простейший поток событий
Задание №1 на самостоятельную работу. Решение типовых задач
Одномерные случайные величины. Законы распределения вероятностей случайных величин
Случайные величины
Функция распределения вероятностей случайной
величины
Плотность распределения вероятностей непрерывной случайной величины
Примеры дискретных распределений вероятностей
Биномиальное распределение
Распределение Пуассона
Геометрическое распределение
Примеры непрерывных распределений
Закон равномерного распределения вероятностей
Нормальный закон распределения
Экспоненциальный закон распределения
Распределение Вейбулла
Гамма – распределение
7
9
9
10
10
11
12
14
15
18
19
20
21
21
23
23
25
31
31
32
34
37
37
38
38
39
39
41
43
45
46
3
2.6
3
3.1
3.2
3.3
3.4
4
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
5
5.1
5.2
5.3
5.4
5.5
5.6
6
6.1
6.2
6.3
6.4
4
Задание №2 на самостоятельную работу. Решение типовых задач
Числовые характеристики случайных величин
Математическое ожидание случайной величины
Свойства математического ожидания
Дисперсия случайной величины. Моменты высших порядков
Задание №3 на самостоятельную работу
Многомерные случайные величины
Многомерная случайная величина. Совместная
функция распределения
Дискретные двумерные случайные величины
Непрерывные двумерные случайные величины
Условные законы распределения компонент двумерной случайной величины
Условные числовые характеристики
Зависимые и независимые случайные величины
Числовые характеристики двумерной случайной
величины. Ковариация и коэффициент корреляции
Многомерное нормальное распределение
Задание №4 на самостоятельную работу
Функции от случайных величин. Числовые характеристики и законы распределения
Примеры функциональной зависимости между
случайными величинами
Функции от одномерной случайной величины
Функции от случайного векторного аргумента
Математическое ожидание функции от случайной величины
Дисперсия функции от случайной величины
Задание №5 на самостоятельную работу
Предельные теоремы теории вероятностей
Закон больших чисел и центральная предельная
теорема
Неравенство Чебышева
Закон больших чисел (теорема Чебышева)
Обобщенная теорема Чебышева. Теоремы Маркова и Бернулли
47
51
51
54
56
62
65
65
66
68
69
71
74
75
80
81
87
87
88
90
92
94
95
100
100
100
102
103
6.5
Понятие о
теореме Ляпунова. Формулировка
центральной предельной теоремы
6.6
Задание № 6 на самостоятельную работу
7
Элементы математической статистики
7.1
Основные задачи математической статистики
7.2
Статистическая совокупность и статистическая
функция распределения
7.3
Гистограммы
7.4
Числовые характеристики статистического распределения
7.5
Критерии согласия
7.6
Статистические оценки для неизвестных параметров распределения
7.7
Оценки для математического ожидания и дисперсии
7.8
Доверительный интервал и доверительная вероятность
7.9
Связь между доверительным интервалом и проверкой гипотез о среднем значении
7.10 Оценка неизвестной вероятности по частоте
7.11 Точечные оценки для числовых характеристик
многомерных случайных величин
7.12 Задание №7 на самостоятельную работу
8
Основные понятия теории случайных процессов
8.1
Определение случайного процесса. Классификация случайных процессов
8.2
Законы распределения и основные характеристики случайных процессов
8.3
Канонические разложения случайных процессов
8.4
Характеристики стационарных случайных процессов
8.5
Спектральное разложение стационарного случайного процесса
8.6
Классификация и определение марковских процессов
8.6.1 Дискретный марковский процесс
8.6.2 Непрерывный марковский процесс. Уравнение
Фоккера – Планка – Колмогорова
106
108
114
114
115
118
120
126
137
140
142
148
152
155
160
164
166
169
180
183
195
201
203
208
5
8.6.3 Диффузионное приближение систем массового
обслуживания
8.6.4 Обобщенная двумерная диффузионная модель
систем массового обслуживания типа GI/G/1/∞ с
бесконечной очередью и GI/G/1/m с конечной
очередью и потерями
9
Моделирование случайных величин, процессов и
потоков событий
9.1
Генерирование и статистический анализ псевдослучайных чисел
9.2
Моделирование непрерывных случайных величин
9.3
Задание №8 на самостоятельную работу
9.4
Содержание отчёта
9.5
Аппроксимация законов распределения
9.5.1 Задача сглаживания статистических рядов. Теоретические основы лабораторной работы
9.5.2 Задание №9 на самостоятельную работу
9.5.3 Содержание отчёта
9.6
Аппроксимация корреляционных функций и
спектральных плотностей ортогональными функциями Лагерра
9.6.1 Теоретические основы лабораторной работы
9.6.2 Задание №10 на самостоятельную работу
9.6.3 Содержание отчёта
Список использованной литературы
Приложение
6
216
220
230
230
232
239
239
246
246
251
252
258
258
267
267
271
272
ВВЕДЕНИЕ
1. Предмет теории вероятностей. Теория вероятностей
есть математическая наука, изучающая закономерности в
массовых однородных случайных явлениях (событиях).
Случайное явление – это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по иному. В качестве примера
рассмотрим стрельбу из орудия, установленного под заданным углом Θ 0 к горизонту, начальной скоростью V 0 и баллистическим коэффициентом снаряда С. Используя эти параметры можно определить теоретическую траекторию
снаряда. При многократном повторении этого опыта фактически получится пучок траекторий за счет совокупного
влияния многих случайных факторов, таких как: отклонение веса заряда снаряда от номинала, ошибки установки
ствола в заданное положение, метеорологические условия и
т.д.
Такие случайные отклонения неизбежно сопутствуют
любому закономерному явлению. Методы теории вероятностей по природе приспособлены для исследования массовых случайных явлений и дают возможность предсказать
средний суммарный результат массы однородных случайных явлений. При этом они не дают возможность предсказать исход отдельного случайного явления.
Практика показывает, что, наблюдая в совокупности
массы однородных случайных явлений, можно обнаружить
в них определенные закономерности (свойство устойчивости). Например, при многократном бросании монеты частота появления герба (отношение числа выпавших гербов к
общему числу бросаний) приближается к определенному
числу 1/2.
Методы теории вероятностей широко применяются в
различных областях науки и техники, таких как: теория надежности, теория массового обслуживания, теоретическая
физика, теория связи и во многих других теоретических и
прикладных науках.
В этом учебном пособии многие вопросы теории вероятностей, статистики и случайных процессов рассмотрены
7
с точки зрения вероятностного и статистического моделирования.
2. Краткая историческая справка. Систематическое
исследование задач, связанных с массовыми случайными
явлениями можно найти в начале XVII века у знаменитого
физика Галилея. Он анализировал ошибки физических измерений, рассматривал их как случайные и оценивал их вероятности.
Однако первые работы, в которых зарождались основные понятия теории вероятностей, представляли собой попытки создания теории азартных игр (Кардано, Гюйгенс,
Паскаль, Ферма и др. в XVI- XVII вв.). Само слово азарт
(фр. «le hasard») означает случай.
Следующий этап развития теории вероятностей связан с
именем Я.Бернулли (1654-1705), которому принадлежит доказательство так называемого закона больших чисел, установление связи между вероятностью события и частотой
его появления.
Дальнейшее развитие теории вероятностей связано с
именами Муавра (1667-1754), Лапласа (1749-1827), Гаусса
(1777-1855), Пуассона (1781-1840) и др. Стройной математической наукой теория вероятностей стала с работами
П.Л.Чебышева (1821-1894) и его учеников А.А. Маркова
(1856-1922) и А.М. Ляпунова (1857-1918) – ученых Петербургской математической школы. Дальнейшее развитие
теории вероятностей и математической статистики связано
с именами русских математиков (С.Н. Бернштейн, В.И. Романовский, А.Н. Колмогоров, А.Я. Хинчин, Б.В. Гнеденко,
Н.В. Смирнов и др.). Из зарубежных математиков в области
случайных процессов особо следует выделить Н. Винера,
В. Феллера, Д. Дуба, а в теории вероятностей и математической статистике – Р.Фишера, Ю. Неймана, Г. Крамера,
Э.Пирсона и др.
8
1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
1.1 Испытания и события
Случайным событием называют всякий факт, который
может произойти или не произойти при проведении конкретного опыта при осуществлении некоторого комплекса
условий (обозначим А, В, С, … ). Таким образом, событие
будем рассматривать как испытание.
Вероятность события – численная мера объективной
возможности наступления события.
Предположим, что в результате эксперимента может наступить одно и только одно событие из n равновозможных
событий. Под равновозможностью событий понимают тот
случай, когда можно принять гипотезу о том, что в заданных условиях определенные исходы опыта возможны в
равной мере. Тогда полагают, что вероятность каждого из
этих событий равна 1/n.
Например, вероятность выпадения герба при бросании
монеты 1/2, а одной из граней игральной кости - 1/6.
Каждое из n равновозможных событий называют элементарными исходами и обозначаются ω 1 , ω 2 , . . . , ω n .
Случайное событие А связано с наступлением какоголибо элементарного события ω i из пространства элементарных событий Ω={ω 1 , ω 2 , ..., ω n }, т. е. при некотором
значении ω событие А наступает, а при некоторых не наступает.
Элементарные исходы ω , при которых событие А наступает, называются элементарными исходами, благоприятствующими событию А.
Пример 1.1. Событие А состоит в выпадении четного
числа очков при бросании игральной кости. Пространство
элементарных событий Ω={1,2,3,4,5,6}. Событию А можно
сопоставить таблицу:
ω1 ω2 ω3 ω4 ω5 ω6
0
1
0
1
0
1
,
9
где 1 - благоприятствующий исход; 0 - не благоприятствующий исход, тогда событию А благоприятствуют исходы
(2,4,6).
Данные n равновозможных события определяют 2 n различных случайных
событий. Именно столько, сколько
можно составить функций с двумя возможными значениями
при n возможных значениях аргумента.
Индикатор события
1, ω благоприятствуют событию А,
I A (ω) = 
0, ω неблагоприятствуют событию А.
1.2 Классическое определение вероятности
Вероятностью события А называют отношение числа m
благоприятствующих исходов к общему числу n равновозm
можных событий, образующих полную группу Р(А)=
или
n
n
P( A) = (1 / n) ⋅ ∑ I A (ωi ) .
i =1
Отдельно выделим достоверное событие Ω , которому
благоприятствуют все элементарные события и P( Ω )=1; невозможное событие Ø: Р (Ø)=0.
Для случайных событий 0< Р (A)<1.
Пример 1.2. Брошены 2 игральные кости. Найти вероятность того, что сумма полученных очков равна 4.
Решение. Пространство элементарных событий Ω ={(1,
1), (1,2), …, (6,6)}.
Всего исходов − n=6 · 6=36 .Число благоприятствующих
исходов m=3. Благоприятствующие исходы – {(1,3), (3,1),
(2,2)}.
Вероятность события - P(A)=3/36=1/12.
1.3 Статистическое определение вероятности
Число равновозможных исходов конечно, поэтому классическое определение ограничено. К тому же результат испытаний не всегда можно представить в виде совокупности
10
элементарных событий. Поэтому вводят понятие статистической вероятности.
Частотой события А называют отношение числа m испытаний, в которых событие А появилось, к общему числу
n проведенных испытаний. Аналогично, используя индикатор события ν i =l, если в i-м испытании событие А произошло и ν i =0, если событие А не произошло, определим
частоту
р * =(l/n)·(ν 1 +ν 2 +. . .+ ν n )- частота события А в n испытаниях.
Если допустить, что опыты проводились в одинаковых
условиях и число испытаний велико и р * →р при
n →∞, где р-const, то событие А обладает вероятностью
равной (р=Р(А)), где р * - статистическая вероятность. Коротко этот факт записывают как р * →
р.
p
Пример 1.3. Пусть завод выпускает массовую продукцию. Если изделия, выпущенные заводом и поступившие в
продажу, выходят из строя в течение года, то требуется его
заменить. Сколько требуется запасных изделий, если в течение года продается N изделий ?
Решение. Обозначим событие А - отказ изделия.
1. Предположим, что событие обладает некоторой вероятностью р; отношение m вышедших из строя изделий к общему числу N есть частота события А при N испытаниях
р * =m/N. Если N − велико, то частота приблизительно совпадает с вероятностью р. Тогда р * ≈ р, отсюда m ≈ Nр.
2. Пусть р неизвестная величина, тогда надо поставить
n опытов (испытание n изделий в течение года); и пусть
среди них в k случаях изделие отказало. Отсюда р * =k/n, и
если n - велико, тогда р * ≈ р, m ≈ n·р * .
1.4 Геометрические вероятности
Выше было отмечено, что классическое определение неприменимо в случае бесконечного числа исходов. Чтобы
преодолеть этот недостаток, вводят вероятности попадания
точки в область (отрезок, часть плоскости и.д.). Рассмотрим геометрические вероятности на примере.
11
Пример 1.4. Пусть на плоскости начерчены две концентрические окружности, радиусы которых r=5 см, R=10
см соответственно. Найти вероятность того, что точка,
брошенная наудачу в большой круг, попадет в кольцо.
Решение. Площадь кольца S k =π(R 2 −r 2 )=π(10 2 −5 2 )=75π
(см 2 ). Площадь большого круга S=πR 2 =100π (см 2 ). Искомая вероятность P(A)=S k /S=0,75.
Геометрические вероятности могут сводиться к отношениям длин отрезков, площадей, объемов.
1.5 События и действия над ними
В каждой вероятностной задаче задается некоторое
множество Ω элементов или точек ω (Ω − пространство событий, ω − элементарные события). Ω − конечное множество точек в классическом определении вероятности, но в
ряде задач Ω − бесконечное множество.
Для такого случайного события, как отказ физического
элемента любой системы пространство Ω={ω≥0}, где ω −
момент отказа.
Должно быть задано пространство Ω и любое событие,
отождествленное с некоторым подмножеством A ⊂ Ω, тогда
событие будет интерпретироваться как попадание элементарного события ω в множество А.
В виду такого тесного соответствия между событием и
множеством они обозначаются одними и теми же символами. Над событиями можно проводить те же операции что и
над множествами. Пусть А α некоторое событие (α∈I) и заданное множество − часть простого события Ω.
1. Объединение событий U А α − событие, состоящее в
α
n
наступлении хотя бы одного из событий А α ( ∑ Ai ).
i =1
2. Пересечение событий I А α − событие, состоящее в
α
том, что произойдут все события (A 1 ·A 2 ·. . .·A n ).
Достоверное событие Ω={ ω ∈ Ω }.
Невозможное событие Ø={ ω ∈ Ø }.
12
3. Разность событий А\В − событие, состоящее в том,
что происходит А, но не происходит В (А−В).
A =Ω\A − дополнение к событию А ( противоположное
событию А).
Р( A )=1-Р(A).
Установим соответствие между событиями и логическими высказываниями, используя символ ⊂ принадлежности. Запись A⊂B означает, что любой элемент А входит в
множество В (A − частный случай В или из А следует В).
Действия над событиями.
1. A U А=А
10. Если A ⊂ B, то В=А U (B\A)
2. А ∩ А=А
11. А \ В=А B
12. A U В=A U (В\A)
3. A U A = Ω
13. A U (В U С)=(A U В) U С
4. A ∩ A =Ø
14. A∩(В∩С)=(A∩В)∩С
5. A U Ω = Ω
15. A∩(В U С)=(A∩В) U (A∩С)
6. A ∩ Ω =A
7. A U Ø=A
16. A U (В∩С)=(A U В)∩(A U С)
8. А ∩ Ø=Ø
17. U Aα = I Aα
9. Если A ⊂ B и B ⊂ C, то A ⊂ C
α
α
18. I Aα = U Aα
α
α
При небольшом числе событий (3-5) все эти операции
можно анализировать с помощью диаграмм Эйлера - Венна.
A1 A 2
A1
A1
A2
A1 A 2
A2
A1A 2
A1A 2
Рис. 1.1
Два события A и В называются несовместными, если А ∩ В=Ø,
т.е. они не могут наступить одновременно; А и A − несовместны.
События Аα (α ∈ I) называются несовместными, если несовместны два события Аα и Аβ, где α≠β; α, β ∈ I.
13
События Аα образуют полную группу, если их объединение по
всем α есть достоверное событие Ω ( U Аα=Ω и Аα∩Аβ=Ø ), т. е. в
α
данном опыте произойдет одно и только одно из событий Аα. Сумма вероятностей событий, удовлетворяющих этим условиям равна
1.
1.6 Аксиоматическое определение вероятности
Пусть дано произвольное множество Ω={ω} элементарных событий. Пусть определена некоторая система Q подмножеств
Ω−называемых случайными событиями и для каждого события А ∈
Q определяется некоторая числовая функция P(A).
Множество Q должно обладать следующими свойствами (σ −
алгебра):
1. Ω ∈ Q;
2. если А ∈ Q, то A ∈ Q;
3. если А α ∈ Q, то U А α ∈ Q; ∩ А α ∈ Q.
α
Числовая функция P(A) определенная для всех событий,
входящих в Q, удовлетворяет следующим условиям (аксиомам):
1. Р(A)≥ 0, A∈Q – аксиома неотрицательности;
2. P(Ω)=1 – аксиома нормированности;
3. P( U А α )= ∑ P(А α ) – расширенная аксиома сложения
α
α
(А α – несовместные события).
Тройку {Ω,Q, P}называют вероятностным пространством.
Два события А и В независимы, если Р(A·В)=Р(A)·Р(В),
в противном случае события называют зависимыми.
Пример 1.5. Пусть событие А - выпадение герба у первой монеты; В - выпадение герба у второй монеты. Тогда
вероятности Р(A)=Р(В)=1/2, Р(A·В)=1/4,
P(A·B)=P(A)·P(B). Отсюда следует, что А и В - независимые события.
С другой стороны, если A и В независимы, то независимы A , В; А, B ; A , B .
События А 1 , А 2 , ..., А n независимы в совокупности, если для любой подгруппы Ai1 ,...,Aik выполнено соотношение
14
P( Ai1 ⋅ ⋅ ⋅ Aik ) = P (Ai1 )⋅ ⋅ ⋅ P (Aik ).
Пример 1.6. Пусть на ЭВМ решается некоторая задача.
Обозначим события:
А − правильное решение задачи;
A 1 − отсутствие ошибок в программе;
А 2 − отсутствие ошибок в исходных данных;
А 3 − правильный ввод информации в ЭВМ;
A 4 − отсутствие сбоев при решении задачи;
A 5 − отсутствие сбоев у принтера.
Приняв гипотезу о независимости этих событий можно
найти вероятность события A: P(A)=P(A 1 )·…·Р(A 5 ) .
Пусть A и В случайные события и Р(A)>0. Тогда отношение Р(A·В)/Р(В) называют условной вероятностью события А при условии, что произошло событие В ( обозначается Р(A/В) ).
1. 7 Основные теоремы теории вероятностей
Теорема 1. Сложение вероятностей.
Вероятность суммы двух несовместных событий равна
сумме вероятностей этих событий.
Р(A+В)=Р(A)+Р(В), где А и В − несовместные события.
Доказательство. Пусть n - общее число возможных элементарных исходов, а m 1 −число исходов, благоприятствующих событию А; m 2 − число исходов, благоприятствующих событию В. Тогда P(A)=m 1 /n, P(B)=m 2 /n.
Так как события А и В − несовместные, то нет таких исходов, благоприятствующих наступлению A и В вместе.
Следовательно, событию (А+В) благоприятствуют (m 1 +m 2 )
исходов и вероятность
Р(А+В)=(m 1 +m 2 ) /n=P(A)+P(В).
Замечание. Теорема 1 повторяет аксиому 3. Тем не менее мы ее здесь доказали с использованием схемы случаев.
Следствие 1. Вероятность появления одного из нескольких попарно несовместных событий равна сумме вероятностей этих событий
Р(А 1 +...+A n )= Р(А 1 )+…+ Р(A n ).
Следствие 2. Вероятность суммы n событий, образующих полную группу несовместных событий, равна 1. Сумма
15
этих событий есть достоверное событие.
Противоположными событиями называют два несовместных события, образующих полную группу и обозначают как А и A .
Следствие 3. Сумма вероятностей противоположных
событий равна 1, т.е. Р(A)+Р( A )=1.
Теорема 2. Умножение вероятностей.
Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие произошло, т.е.
Р(А·В)=Р(А)·Р(В/А).
Доказательство. Пусть n − общее число возможных элементарных исходов;
m − число исходов, благоприятствующих событию А;
k − число исходов, благоприятствующих событию В.
Так как А и В могут быть совместными, то существуют
исходы, благоприятствующие и А и В вместе. Пусть число
таких исходов равно l. Тогда
Р(А·В) = l/n, Р(А)=m/n.
Вычислим условную вероятность события В при условии, что событие А произошло. Если А произошло, то из
ранее возможных n исходов остаются возможными только
те m, которые благоприятствуют А, а из них l исходов благоприятствуют В. Тогда
Р(В/А)= l/m и Р(А)·Р(В/А) =(m/n)·(l/m)=l/n=P(А·В).
Следствие 1. Если событие А не зависит от события В,
то и В не зависит от А, т.е. Р(A/В)=Р(A) или Р(В/A)=Р(В).
Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий: Р(A·В)=Р(A)·Р(В).
Следствие 3. Если события А 1 ,А 2 , . . . , A n –зависимые,
то
Р(А 1 ·А 2 ·...·A n ) =Р(A 1 )·Р(A 2 /A 1 )·Р(A 3 /A 1 A 2 )·...
Р(А n /А 1 А 2 ...A n ).
Если события A 1 , А 2 , . . ., A n – независимые, то
Р(А 1 ·А 2 ·...·A n )=Р(A 1 )·Р(A 2 )·Р(A 3 )·...·Р (А n ).
16
Пример 1.7. Прибор, работающий в течении времени t,
состоит из трех узлов, каждый из которых, не зависимо
один от другого, в течении этого времени может выйти из
строя. Отказ хотя бы одного узла приводит к отказу прибора в целом. За время t надежность (вероятность безотказной работы) первого узла равна 0,8, второго – 0,9, третьего
– 0,7. Найти надежность прибора в целом.
Решение. Обозначим через А − надежность прибора в
целом, а A i − надежность i-го узла (i=1,2,3). Тогда
А=А 1 ·А 2 ·А 3 и
Р(А) =P(A 1 )·P(A 2 )·P(A 3 )=0,8·0,9·0,7=0,504.
Теорема 3. Сложение вероятностей совместных событий.
Эта теорема устанавливает связь между теоремой 1 и
теоремой 2.
Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без
вероятности их совместного появления.
Доказательство. Для наступления события А достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: A·В, A· B .
Аналогично для В: А·В, A ·В. Тогда вероятности событий А и В соответственно равны: Р(А)=Р(А·В)+Р(А· B ),
Р(В)=Р(A·В)+Р( A ·В).
Для наступления хотя бы одного из событий А или В
достаточно, чтобы произошло одно из трех попарно несовместных событий: А·В, A· B , A ·В. Следовательно,
Р(A+В)=Р(А·В)+Р(A· B )+Р( A ·В).
Подставив первые два равенства в последнее равенство,
получим
Р(A+В)=Р(A)+Р(В)−Р(A·В).
Следствие. Методом математической индукции данную
теорему можно обобщить на случай суммы n событий:
Р(А 1 + А 2 +. . .+A n )=1−Р( A1 · A2 ·…· An )=l−q 1 ·q 2 ·…·q n ,
где P( Ai )=q i =1−p i .
Пример 1.8. Чтобы вывести самолет из строя при разрыве снаряда на некотором расстоянии R от самолета, необходимо поразить осколками либо оба двигателя, либо
кабину летчика. При разрыве снаряда на расстоянии R от
17
самолета вероятность поражения осколками каждого из
двигателей равна 0,2, а кабины летчика – 0,3. Найти вероятность поражения самолета при разрыве снаряда на расстоянии R, если агрегаты выходят из строя независимо.
Решение. Ведем события: С − поражение самолета;
L − поражение кабины летчика;
D 1 − поражение первого двигателя;
D 2 − поражение второго двигателя. Тогда
С=D 1 D 2 +L P(C)=P(L)+P(D 1 D 2 )−P(L·D 1 ·D 2 )=
=0,3+0,2·0,2−0,3·0,2·0,2=0,328.
Пример 1.9. В электрическую сеть последовательно
включены три элемента, работающие независимо один от
другого. Вероятности отказов этих элементов соответственно равны 0,1; 0,15; 0,2. Найти вероятность того, что тока в цепи не будет.
Решение. Обозначим через A событие, что тока в цепи
нет. Тогда
Р(A)=1−(1−0,1)(1−0,15) (1−0,2)=0,388.
1.8 Формула полной вероятности
Предположим, что некоторое событие А может наступить лишь при условии появления одного из несовместных
событий В 1 , В 2 , …, В n , образующих полную группу. Известны вероятности этих событий Р(В i ) и условные вероятности
Р(А/В i ). Как найти вероятность события А?
Теорема. Вероятность события A, которое может наступить только при условии появления одного из несовместных событий В 1 , ...,В n , образующих полную группу, равна
сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А.
n
P(A)= ∑ P(B i )P(A/ B i ).
i =1
Доказательство. Появление события А означает появление одного из несовместных событий В 1 ·А, В 2 ·А, ..., В n ·А,
т.е. А=В 1 А+В 2 А+…+В n А. По теореме сложения вероятностей Р(A)=Р(В 1 A)+...+Р(В n A). По теореме умножения вероятностей зависимых событий
P(B 1 A)=P(B 1 )·P(A/B 1 ), ..., Р(В n A)=Р(В n )·Р(A/В n ).
18
n
Отсюда получим P(A)= ∑ P(B i )P(A/ B i ).
i =1
Пример 1.10. Имеется два ящика деталей. Вероятность
того, что деталь из первого ящика стандартная, равна 0,8 и,
что деталь из второго ящика стандартная, равна 0,9. Найти
вероятность того, что взятая наудачу деталь из наудачу выбранного ящика стандартная.
Решение. Обозначим события:
А − взятая деталь стандартная;
B 1 − деталь взята из первого ящика;
В 2 − деталь взята из второго ящика.
P(A/B 1 ) − вероятность того, что из первого ящика будет
взята стандартная деталь; Р(A/В 2 ) − вероятность того, что
из второго ящика будет взята стандартная деталь;
Р(В 1 )=Р(В 2 )=0,5;
P(A/B 1 )=0,8;
P(A/B 2 )=0,9. Тогда искомая вероятность
Р(A)=Р(В 1 )·Р(A/В 1 )+Р(В 2 )·Р(A/В 2 )=0,5·0,8+0,5·0,9=0,85.
1.9 Формула Бейеса
В формуле полной вероятности несовместные события
В i образуют полную группу и эти события называют гипотезами, поскольку заранее неизвестно, какое из них наступит.
Предположим, что произведен опыт, в результате которого появилось событие А. Поставим следующую задачу:
как изменятся в связи с наступлением события А вероятности гипотез В i . Событие А зависит от каждого из событий
B 1 ,...,B n . Задача состоит в определении условных вероятностей
Р(В 1 /А), ..., Р(В n /А).
Найдем P(B i /A)( i = 1, n ) по теореме умножения. Откуда
имеем
P(AB i )=P(A)·P(B i /A)=P(B i )·P(A/B i ) ( i = 1, n ).
Отсюда условные вероятности
P ( Bi ) ⋅ P ( A / Bi )
P(B i /A)=
.
P ( A)
19
Выражая Р(А) с помощью формулы полной вероятности,
получим
P( B ) ⋅ P ( A / Bi )
P(B i /A)= n i
.
∑ P( Bi ) ⋅ P( A / Bi )
i =1
Формула Бейеса позволяет переоценить вероятности
гипотез после того, как произошло событие А.
Пример 1.11. Детали, изготовленные в цехе, поступают
для проверки их на стандартность к одному из двух контролеров. Вероятность того, что деталь попадет к первому
контролеру равна 0,6, ко второму − 0,4. Вероятность того,
что деталь будет признана стандартной первым контролером равна 0,94, вторым − 0,98. Деталь при проверке признана стандартной. Найти вероятность того, что эту деталь
проверил первый контролер.
Решение. А − деталь признана стандартной;
B 1 − деталь проверил первый контролер;
В 2 − деталь проверил второй контролер.
Вероятности гипотез: P(B 1 )=0,6; Р(В 2 )=0,4;
0, 6 ⋅ 0, 94
P(B 1 /A)=
≈ 0,59.
0, 6 ⋅ 0, 94 + 0, 4 ⋅ 0, 98
1.10 Повторение испытаний. Формула Бернулли
Пусть проводятся несколько испытаний , причем вероят ность появления события А в каждом испытании постоянна
и равна р и не зависит от исходов других испытаний . Сле довательно , вероятность ненаступления события А в каж дом испытании также постоянна и равна q=l−p .
Поставим задачу вычисления вероятности того , что в n
испытаниях событие А наступит ровно k раз и не наступит
(n−k) раз . Например , если А появилось три раза в четырех
испытаниях , то можно составить следующие сложные со бытия : ААА A , АА A А , А A АA , A ААА .
Искомую вероятность обозначим Р n ( k ) .
Вероятность одного сложного события , состоящего в
том , что в n испытаниях событие А наступит k раз и не на ступит ( n−k ) раз , по теореме умножения вероятностей ,
20
равна p k q n-k . Таких сложных событий всего C n k . Тогда
P n (k)=C n k p k q n -k .
Следствие. Вероятность того, что в n испытаниях событие наступит:
а) менее k раз−Р n (0)+Р n (1) + ... +P n (k−l);
б) не менее k раз −P n (k)+P n (k+1)+...+Р n (n);
в) более k раз −P n (k+l)+P n (k+2)+...+Р n (n);
г) не более k раз−P n (0)+P n (l)+...+P n (k).
1.11 Локальная формула Муавра−Лапласа
При больших значениях n использование формулы Бернулли затруднительно, и поэтому в таких случаях пользуются приближенной формулой Муавра − Лапласа.
Если вероятность р наступления события А в n испытаниях постоянна и отлична от нуля и единицы (0<р<1), то
вероятность появления события А в n испытаниях ровно k
раз приблизительно равна значению функции
2
1
1
k − np
у=
φ( x) при х=
, где функция φ( x) =
⋅ e− x / 2 npq
npq
2π
табулированная функция. Как видно из выражения, функция φ(х) четная. Таким образом,
1
P n (k) ≈
ϕ ( x) .
npq
Формула тем точнее, чем больше число испытаний n.
Пример 1.12. Вероятность поражения мишени стрелком
при одном выстреле равна 0,75. Найти вероятность того,
что при 10 выстрелах стрелок поразит мишень 8 раз.
Решение. В данном случае n=10; k=8; p=0,75; q=0,25;
8 − 10 ⋅ 0, 75
x=
= 0, 36 ; φ(0,36)≈0,3739;
10 ⋅ 0, 75 ⋅ 0, 25
1
P10 (8) ≈
⋅ 0, 3739 = 0, 273 .
10 ⋅ 0, 75 ⋅ 0, 25
Для сравнения найдем эту вероятность по формуле Бер8
нулли: Р 10 (8)= C10
·0,75 8 ·0,25 2 =0,282.
21
1.12 Интегральная формула Муавра−Лапласа
Пусть проводится n испытаний, в каждом из которых
вероятность появления некоторого события А равна р
(0<р<1). Как вычислить вероятность P n (k 1 ,k 2 ) того, что событие А в n испытаниях появится от k 1 до k 2 раз (не менее
k 1 и не более k 2 раз).
Теорема. Если вероятность p наступления события А в
каждом испытании постоянна и отлична от 0 и 1, то вероятность Р n (k 1 ,k 2 ) того, что событие появится от k 1 до k 2 раз,
приблизительно равна значению определенного интеграла
1 x ′′ − t 2 / 2
k − np
k − np
dt ,
где х'= 1
, х"= 2
.
∫e
npq
npq
2π x′
Введем функцию (интеграл) Лапласа:
1 x −t 2 / 2
⋅ ∫e
dt .
Ф 0 (х)=
2π 0
Таким образом,
1 x ′′ − t 2 / 2
1 x′ −t 2 / 2
P n ( k 1 , k 2 )≈
e
dt
−
dt =Ф 0 ( x ") − Ф 0 ( x ').
∫
∫e
2π 0
2π 0
Ф 0 (х) – нечетная функция. График функции Ф 0 (х) приведен на рис. 1.2
Ф0(х)
0,5
0
x
-0,5
Рис. 1.2
Пример 1.13. Вероятность того, что деталь не пройдет
проверку ОТК равна 0,2. Найти вероятность того, что среди
400 случайным образом отобранных деталей окажется непроверенных от 70 до 100.
Решение. В данном случае n =400, k 1 =70, k 2 =100, p =0,2,
q =0,8. Значения аргументов функции Лапласа:
22
70 − 400 ⋅ 0,2
100 − 400 ⋅ 0,2
≈ −1,25 , х" =
≈ 2,5 .
400 ⋅ 0,2 ⋅ 0,8
400 ⋅ 0,2 ⋅ 0,8
Ф 0 (1,25)=0,3944,
Ф 0 (2,5)=0,4938,
Р 400 (70, 100) ≈0,4938+0,3944=0,8882.
Следствие. Отклонение частоты события от постоянной
вероятности в n испытаниях выражается формулой:
Р (| m/n −p | ≤ ε) ≈ 2Ф 0 (ε n /( pq ) ).
1
1 x −t 2 / 2
Определение. Функцию Ф( х) = Ф 0 ( х) + =
dt
∫e
2
2π − ∞
называют функцией стандартного нормального (гауссова)
распределения.
1.13 Формула Пуассона
x′ =
Пусть n – число испытаний, р – вероятность наступления события в каждом из них (n·p=λ ). Тогда по формуле
Бернулли
n ⋅ ( n − 1) ⋅ ... ⋅ [ n − (k − 1)] k n-k
P n (k)=C n k ·p k ·q n-k =
·p ·q .
k!
λ k −λ
Предел этой вероятности lim P n (k)= ⋅ e , откуда
n→∞
k!
k
λ
P n (k) ≈ ⋅ e− λ . Последнее выражение носит название
k!
формулы Пуассона. Эта формула используется в тех случаях, когда число испытаний «велико», а вероятность наступления события А в каждом из них «мала», причем «мало»
также произведение λ=n·p.
Пример 1.14. Завод отправил на базу 5000 доброкачественных изделий. Вероятность того, что в пути изделие повредится равна 0,0002. Найти вероятность того, что на базу
прибудут 3 негодных изделия.
Решение. В этом случае k=3,
n=5000,
р=0,0002,
λ=n·р=1,
Р 5000 (3)≈(1/3!)·е -1 ≈0,06.
23
1.14 Простейший поток событий
Рассмотрим события, которые наступают в случайные
моменты времени. Потоком событий будем называть последовательность событий, которые наступают в случайные
моменты времени. Например: поступление вызовов на
пункт скорой помощи, последовательность отказов элементов какой-либо системы и т. д.
Основные свойства потока.
1. Стационарность. Она характеризуется тем, что вероятность появления k событий на любом промежутке времени t зависит только от числа k и от длительности t и не зависит от промежутка отсчета.
2. Отсутствие последействия означает, что вероятность
появления k событий на любом промежутке времени не зависит от того, появились или не появились события до рассматриваемого промежутка времени. Условная вероятность
появления k событий на любом промежутке времени t, вычисленная при любых предположениях о том, сколько событий произошло до рассматриваемого промежутка, равна
безусловной вероятности.
3. Ординарность характеризуется тем, что появление 2х и более событий на малом промежутке времени практически невозможно.
Простейшим (пуассоновским) потоком называется поток событий, обладающий этими тремя свойствами.
Интенсивностью потока λ называют среднее число событий, которые появляются в единицу времени. Если интенсивность потока λ известна, то вероятность появления k
событий за промежуток времени t определяется формулой
Пуассона:
(λt ) k ⋅ e− λt
P t (k)=
.
k!
Пример 1.15. Среднее число вызовов, поступивших в
АТС за 1 минуту, равно 2. Найти вероятность того, что за 5
минут поступит а) 2 вызова, б) не менее 2-х вызовов.
Решение. λ=2, t=5, k=2.
24
10 2 ⋅ e −10
а) Р 5 (2)=
≈0,00225.
2!
б) P 5 (k≥ 2)=l−P 5 (k<2)=l−(e -10 +10e -10 )≈0,999505 − практически достоверное событие.
1.15 Задание №1 на самостоятельную работу. Решение
типовых задач
1.1 Задумано двузначное число. Найти вероятность того, что задуманным числом окажется:
а) случайно названное двузначное число;
б) случайно названное двузначное число, цифры которого различны.
Ответ: а) Р=1/90, б) Р=1/81.
1.2 Брошены две игральные кости. Найти вероятности
следующих событий:
а) сумма выпавших очков равна 7;
б) сумма выпавших очков равна 8, а разность 4.
Ответ: а) Р=1/6, б) Р=1/18.
1.3 Куб, все грани которого окрашены, распилен на тысячу кубиков одинакового размера, которые затем тщательно перемешаны. Найти вероятность того, что наудачу
извлеченный кубик имеет окрашенных граней: а) одну; б)
две.
Ответ: а) Р=0,384; б) Р=0,096.
1.4. В пачке 20 карточек, помеченных номерами
101, 102, ..., 120 и произвольно расположенных. Наудачу извлечены две карточки. Найти вероятность того, что
извлечены карточки с номерами 101 и 120.
2
Ответ: Р=1/ C20
=1/190.
1.5 В ящике имеется 15 деталей, среди которых 10 окрашенных. Сборщик наудачу извлекает 3 детали. Найти вероятность того, что извлеченные детали окажутся окрашенными.
3
3
Ответ: P = C10
/C15
= 24 / 91 .
1.6 В конверте среди 100 фотокарточек находится 1 разыскиваемая. Из конверта наудачу извлечены 10 карточек.
25
Найти вероятность того, что среди них окажется нужная.
9
10
Ответ: P = C99
/C100
= 0 ,1 .
1.7 В ящике 100 деталей, из них 10 бракованных. Наудачу извлечены 4 детали. Найти вероятность того, что среди извлеченных деталей нет бракованных.
4
4
Ответ: P = C90
/C100
≈ 0 ,65 .
1.8 В партии из N деталей имеется n стандартных. Наудачу отобраны m деталей. Найти вероятность того, что среди отобранных деталей ровно k стандартных.
Ответ: P = Cnk ⋅ C Nm−−nk /C Nm .
1.9 В группе 12 студентов, среди которых 8 отличников.
По списку наудачу отобраны 9 студентов. Найти вероятность того, что среди них 5 отличников.
9
Ответ: P = C85C44 /C12
= 14 / 55 .
1.10 В «секретном» замке на общей оси 4 диска, каждый
из которых разделен на 5 секторов, на которых написаны
различные цифры. Замок открывается только в том случае,
если диски установлены так, что цифры на них составляют
определенное четырехзначное число. Найти вероятность
того, что при произвольной установке дисков замок будет
открыт.Ответ: Р=1/5 4 .
1.11 В сигнализатор поступают сигналы от двух устройств, причем поступление каждого из сигналов равновозможно в любой момент промежутка времени длительностью Т. Моменты поступления сигналов независимы один
от другого. Сигнализатор срабатывает, если разность между моментами поступления сигналов меньше t (t < T). Найти
вероятность того, что сигнализатор срабатывает за время Т,
если каждое из устройств пошлет по одному сигналу.
Ответ: P = t( 2T- t)/T 2 .
1.12 Задача о встрече. Два студента условились встретиться в определенном месте между 12 и 13 часами дня.
Пришедший первым ждет второго в течении 1/4 часа, после
чего уходит. Найти вероятность того, что встреча состоится, если каждый студент наудачу выбирает момент своего
прихода (в промежутке от 12 до 13 часов).
Ответ: Р=7/16.
26
1.13 В ящике 10 деталей, из которых 4 окрашены.
Сборщик наугад взял 3 детали. Найти вероятность того, что
хотя бы одна из взятых деталей окрашена.
3
Ответ: P = 1 − C63 /C10
= 5/ 6 .
1.14 Для сигнализации об аварии установлены два независимо работающих сигнализатора. Вероятность того, что
при аварии сигнализатор сработает, равна 0,95 для первого
сигнализатора и 0,9 для второго. Найти вероятность того,
что при аварии сработает только один сигнализатор.
Ответ: Р=0,14.
1.15 Два стрелка стреляют по мишени. Вероятность попадания в мишень при одном выстреле для первого стрелка
равна 0,7, а для второго 0,8. Найти вероятность того, что
при одном залпе в мишень попадает только один из стрелков.
Ответ: P=0,38.
1.16 Вероятность одного попадания в цель при одном
залпе из двух орудий равна 0,38. Найти вероятность поражения цели при одном выстреле первым из орудий, если
известно, что для второго орудия эта вероятность равна
0,8.
Ответ: P=0,7.
1.17 Отдел технического контроля проверяет изделия на
стандартность. Вероятность того, что изделие стандартно,
равно 0,9. Найти вероятность того, что из двух проверенных изделий только одно стандартное.
Ответ: P=0,18.
1.18 Из партии изделий товаровед отбирает изделия
высшего сорта. Вероятность того, что наудачу взятые изделия окажутся высшего сорта, равна 0,8. Найти вероятность
того, что из 3 произведенных изделий только 2 изделия
высшего сорта.
Ответ: P=0,384.
1.19 Вероятность того, что нужная сборщику деталь находится в первом, втором, третьем, четвертом ящике, соответственно равны 0,6; 0,7; 0,8; 0,9. Найти вероятность того,
что деталь содержится:
а) не более чем в 3 ящиках;
б) не менее чем в 2 ящиках.
27
Ответ: а) Р=0,6976,
б) Р=0,9572.
1.20 Среди 100 лотерейных билетов есть 5 выигрышных. Найти вероятность того, что 2 наудачу выбранные билета окажутся выигрышными.
Ответ: Р=(5/100)·(4/99)=1/495.
1.21 Студент знает 20 из 25 вопросов программы. Найти
вероятность того, что студент знает предложенные ему экзаменатором три вопроса.
Ответ: Р=(20/25)·(19/24)·(18/23)=57/115.
1.22 Для разрушения моста достаточно попадания 1
авиационной бомбы. Найти вероятность того, что мост будет разрушен, если на него сбросить 4 бомбы, вероятность
попадания которых соответственно равны: 0,3; 0,4; 0,6; 0,7.
Ответ: P=0,95.
1.23 В ящике содержится 12 деталей, изготовленных на
заводе № 1, 20 деталей на заводе №2 и 18 деталей на заводе
№3. Вероятность того, что деталь, изготовленная на заводе
№1, отличного качества, равна 0,9, для деталей, изготовленных на заводах №2 и №o3, эти вероятности соответственно равны 0,6 и 0,9. Найти вероятность того, что извлеченная наудачу деталь окажется отличного качества.
Ответ: P=0,78.
1.24 В первой урне содержится 10 шаров, из них 8 белых, во 2-й урне 20 шаров, из них 4 белых. Из каждой урны
наудачу извлекли по одному шару, а затем из двух шаров
наудачу взят один шар. Найти вероятность того, что взят
белый шар.
Ответ: P=0,5.
1.25 В каждой из трех урн содержится 6 черных и 4 белых шара. Из первой урны наудачу извлечен один шар и
переложен во вторую урну, после чего из второй урны наудачу извлечен один шар и переложен в третью урну. Найти
вероятность того, что шар, наудачу извлеченный из третьей
урны, окажется белым.
Ответ: P=0,4.
1.26 Два автомата производят одинаковые детали, которые поступают на общий конвейер. Производительность
первого автомата вдвое больше производительности второго. Первый автомат производит в среднем 60% деталей от28
личного качества, а второй – 84%. Наудачу взятая с конвейера деталь оказалась отличного качества. Найти вероятность того, что эта деталь произведена первым автоматом.
Ответ: Р=10/17.
1.27 В пирамиде 10 винтовок, из которых 4 снабжены
оптическим прицелом. Вероятность того, что стрелок поразит цель из винтовки с оптическим прицелом, равна 0,95;
для винтовки без оптического прицела - 0,8. Стрелок поразил мишень из наудачу взятой винтовки. Что вероятнее:
стрелок стрелял из винтовки с оптическим прицелом или
без него?
Ответ: Вероятнее, что винтовка была без оптического
прицела (вероятность того, что винтовка была без оптического прицела, равна 24/43, с оптическим прицелом –
19/43).
1.28 Число грузовых автомашин, проезжающих по шоссе, на котором стоит бензоколонка, относится к числу легковых машин, проезжающих по тому же шоссе, как 3:2. Вероятность того, что будет заправляться грузовая машина,
равна 0,1; для легковых машин эта вероятность равна 0,2. К
бензоколонке подъехала для заправки машина. Найти вероятность того, что это грузовая машина.
Ответ: P=3/7.
1.29 В больницу поступают в среднем 50% больных с
заболеванием К, 30% − с заболеванием L, 20% − с заболеванием М. Вероятность излечения болезней соответственно
равны 0,7; 0,8; 0,9. Больной поступивший в больницу, был
выписан здоровым. Найти вероятность того, что этот больной страдал заболеванием К.
Ответ: Р=5/11.
1.30 Два равносильных противника играют в шахматы.
Что вероятнее: а) выиграть одну партию из двух или две
партии из четырех? б) выиграть не менее двух партий из
четырех или не менее трех партий из пяти? Ничьи во внимание не принимаются.
Ответ: а) Вероятнее выиграть одну партию из двух:
Р 2 (1)=1/2; Р 4 (2)=3/8; б) вероятнее выиграть не менее двух
партий из четырех:
Р 4 (2)+Р 4 (3)+Р 4 (4)=1−[Р 4 (0)+Р 4 (1)]=11/16;
29
Р 5 (3)+ Р 5 (4)+ Р 5 (5)=8/16.
1.31 Монету бросают 5 раз. Найти вероятность того, что
«герб» выпадет:
а) менее двух раз;
б) не менее двух раз.
Ответ: а) Р=3/16, б) Р=13/16.
1.32 В семье 5 детей. Найти вероятность того, что среди
этих детей: а) 2 мальчика;б) более двух мальчиков.
Ответ: а) Р=10/32, б)Р=1/2.
1.33 Вероятность рождения мальчика равна 0,51. Найти
вероятность того, что среди 100 новорожденных окажется
50 мальчиков.
Ответ: Р 100 (50)≈0,0782.
1.34 Монета брошена 2N раз (N велико!). Найти вероятность того, что «герб» выпадет ровно N раз.
Ответ: P2 N ( N ) ≈ 0,5642 / N .
1.35 Монета брошена 2N раз. Найти вероятность того,
что «герб» выпадет на 2m раз больше, чем надпись.
Ответ: P2 N ( N + m) ≈ 2 / N
2/ N m .
1.36 Вероятность появления события в каждом из 2100
независимых испытаний равна 0,7. Найти вероятность того,
что событие появится: а) не менее 1470 и не более 1500
раз;
б) не менее 1470 раз.
Ответ:
а)Р 21 00 (1470,1500)≈0,4236,
б)
Р 2100 (1470,
2100)≈0,5.
1.37 Вероятность появления события в каждом из 21 независимых испытаний равна 0,7. Найти вероятность того,
что событие появится в большинстве испытаний.
Ответ: Р 21 (11,21)≈0,95945.
1.38 Монета брошена 2N раз (N велико!). Найти вероятность того, что число выпадшего «герба» будет заключено
между числами N − 2N / 2 и N + 2N / 2 .
Ответ: Р≈Ф(1)−Ф(−1)=2Ф(1)=0,6826.
1.39 Французский ученый Бюффон (XVIII в.) бросил
монету 4040 раз, причем «герб» появился 2048 раз. Найти
вероятность того, что при повторении опыта Бюффона относительная частота появления «герба» по абсолютной ве-
(
30
)
личине не более чем в опыте Бюффона.
Ответ: Р≈2Ф(0,877)=0,6196.
1.40 Отдел технического контроля проверяет 475 изделий на брак. Вероятность того, что изделие бракованное,
равна 0,05. Найти с вероятностью 0,95 границы, в которых
будет заключено число m бракованных изделий среди проверенных.
Ответ: 15≤m≤33.
31
2 ОДНОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ СЛУЧАЙНЫХ ВЕЛИЧИН
2.1 Случайные величины
Случайная величина − такая величина, которая в результате опыта принимает то или иное значение, неизвестное заранее и зависящее от случайных причин. Это значение называют возможным значением случайной величины.
Обозначение случайных величин: X, Y, Z и т.д. Обозначение возможных значений случайной величины X: x 1 , x 2 , x 3 ,
... .
Примеры:
1. Число очков при бросании игральной кости –случайная
величина, возможные значения которой 1, 2, 3, 4, 5, 6.
2. Число мальчиков среди 100 новорожденных − случайная
величина возможные значения которой 0, ..., 100.
3. Расстояние R, которое пролетит снаряд, есть случайная
величина, возможные значения которой принадлежат некоторому отрезку [a, b].
Дискретная случайная величина − величина, которая
принимает отдельные возможные значения из счетного
множества с определенными вероятностями. Возможные
значения дискретной случайной величины можно перечислить.
Для задания дискретной случайной величины необходимо перечислить все возможные значения и соответствующие их вероятности.
Непрерывной случайной величиной называется величина, возможные значения которой заполняют некоторый
промежуток (несчетное множество) и нельзя перечислить
все возможные значения этой случайной величины.
Законом распределения
вероятностей дискретной
случайной величины называют соответствие между возможными значениями этой величины и их вероятностями.
Этот закон задают в виде таблицы, которую называют рядом распределения
Ряд распределения будет иметь вид
32
X x1 x2 x3 … xn
P
p1 p2 p3 … pn
.
События (X=x 1 ), (Х=х 2 ),..., (Х=х n ) образуют полную
n
группу, т.е. ∑ pi = 1.
i =1
Пример 2.1. В лотерее 100 билетов . Разыгрывается 1
выигрышный по 50 руб и 10 выигрышных по 1 руб . Соста вить
закон
распределения
случайной
величины
X −стоимости возможного выигрыша по 1 билету .
X 50 1 0
Р 0,01 0,1 0,89
Для наглядности ряд распределения можно изобразить в
виде многоугольника распределения ( см . рис .2.1).
Рис . 2.1
Ряд распределения можно указать только для дискрет ной случайной величины , для непрерывной случайной ве личины такой характеристики нельзя построить , так как
нельзя перечислить все возможные значения непрерывной
случайной величины .
2.2 Функция распределения вероятностей случайной
величины
Отдельные возможные значения непрерывной случай ной величины не обладают отличными от нуля вероятно стями , по аналогии с тем , что отдельные точки тела не об ладают массой . Поэтому для количественной характери 33
стики любой случайной величины удобно воспользоваться
не вероятностью события (Х=х), а вероятностью события
(Х<х). Вероятность этого события Р(Х<х) есть функция F(x)
и она называется функцией распределения вероятностей
случайной величины F(x)= P(X<x).
Ее также называют интегральным законом или интегральной функцией распределения вероятностей. Данную функцию можно построить для любых случайных величин. Геометрически равенство F(x)=P(X<x) можно истолковать таким образом: функцию F(x) можно представить
как вероятность того, что случайная величина X примет на
числовой оси возможные значения левее точки х (рис.2.2).
Рис. 2.2.
Случайная величина X называется непрерывной, если
ее функция распределения есть непрерывная кусочнодифференцируемая функция с непрерывной производной.
Свойства функции распределения:
1. 0≤F(x)≤l;
2. F(x) - неубывающая, т .е. F(x 1 )≤F(х 2 ) если x 1 <х 2 ;
3. F (−∞) = lim F ( x) = 0, F (+∞) = lim F ( x) = 1;
x→−∞
x→+∞
4. Р(х 1 ≤х<х 2 )= F(x 2 )−F(х 1 );
5. F ( x) = F ( x − 0) = lim F ( y ) , т.е. F(x) – непрерывная
y → x −0
слева функция.
Докажем, например, свойство 4. Для определения вероятности Р[α≤х<β) попадания случайной величины Х в заданный промежуток [α, β) введем 3 события:
А−(Х<β);
B−(X<α);
C - (α≤X<β). Тогда A=B+C и Р(A)=Р(В)+Р(С) и
F(β)=F(α)+Р(α≤x<β).
β
Отсюда
Р(α≤x<β)=F(β)−F(α)= ∫ F'(x)dx.
α
Вероятность попадания случайной величины в проме34
жуток ∆х есть приращение функции распределения
P(x≤X<x+ ∆ x)=F(x+ ∆ x)−F(x)→0 при ∆ х→0.
Таким образом, вероятность того, что непрерывная величина примет некоторое определенное значение, равна 0.
Пример 2.2. Построить функцию распределения для
дискретной случайной величины Х, заданной рядом распределения
X 1 4 8
P 0,3 0,1 0,6
При
х<1
F(x)=0;
1≤х<4
F(x)=0,3;
4≤х<8
F(x)=0,4;
х≥8
F(x)=l.
F(x)
1
0,4
0,3
0
1
8
4
x
Рис. 2.3
2.3 Плотность распределения вероятностей непрерывной случайной величины
Кроме функции распределения, непрерывную случайную величину можно задать с помощью так называемой
функции плотности распределения вероятностей. Эту
функцию называют дифференциальной функцией или
дифференциальным законом распределения вероятностей.
Плотностью
распределения
называют
функцию
f(x)=F'(x). Таким образом, для описания дискретной случайной величины эта функция неприменима. Вероятность
попадания случайной величины на заданный участок можβ
но представить как Р(α≤x<β)= ∫ f ( x)dx .
α
35
Свойства плотности распределения:
1. f(x) ≥0;
∞
2. ∫ f ( x )dx =l;
−∞
x2
3. P( x1 ≤ X < x2 ) = ∫ f ( x)dx ;
x1
4. Р ( Х = х )=0.
Вероятностный смысл функции плотности f(x):
F ( x + ∆x ) − F ( x )
f(x)= lim
.
∆x →0
∆x
Отсюда следует , что
P(x ≤ X<x+ ∆ x) ≈ f( х ) ∆х .
Вероятность того , что случайная величина X примет
значение , принадлежащее интервалу [х , х + ∆х ), приблизи тельно равна произведению функции плотности на длину
этого промежутка .
P( x ≤ X < x + ∆ x )
P( x ′ ≤ X < x ′ + ∆ x )
x′ x′ + ∆ x
x + ∆x
Рис. 2.4
Пример 2.3 . Задана плотность распределения вероятно стей случайной величины X:
x < 0;
0,

f ( x) = 2 x, 0 ≤ x < 1;
0,
x ≥ 1.

Найти вероятность того , что случайная величина X примет
значение из интервала (0,5; 1).
1
1
0,5
0,5
Решение . Р (0,5<X<1)= ∫ 2xdx = x 2
36
=1 − 0,25=0,75.
Нахождение функции
функции плотности:
распределения
по
известной
x
F ( x) = ∫ f ( x ) dx .
−∞
На практике иногда встречаются случайные величины ,
которые нельзя отнести ни к дискретным , ни к непрерыв ным случайным величинам , как показывает следующий
пример .
Пример 2.4. На перекрестке стоит автоматический све тофор , в котором τ 1 =1 мин . горит зеленый свет , τ 2 = 0,5 мин .
– красный , снова 1 мин . – зеленый , 0,5 мин . – красный и т . д .
В случайный момент времени , не связанный с работой све тофора , к перекрестку подъезжает автомобиль .
Покажем , что случайная величина Х – время ожидания у
перекрестка не является ни дискретной , ни непрерывной .
Обозначим τ = τ 1 + τ 2 =1,5 мин . цикл работы светофора . С
одной стороны , с вероятностью τ 1 / τ =2/3 автомобиль про едет перекресток не останавливаясь , т . е . Х принимает зна чение ноль с вероятностью 2/3 > 0. Поэтому Х не может
быть непрерывной случайной величиной . С другой сторо ны , на второй 0,5 – минутной части цикла время ожидания
Х может принять любое значение от 0 до 0,5. Значит , Х не
может быть также дискретной случайной величиной . Таким
образом , здесь Х представляет « смесь » дискретной и не прерывной случайных величин .
Построим график функции распределения вероятностей
случайной величины Х . При х≤ 0 F ( х )=0. Если 0 <х≤ 0,5, то
событие ( Х < х ) происходит в том случае , когда автомобиль
либо попадает на первую часть цикла работы светофора
( зеленый свет ), либо подъедет к светофору при красном
свете , но до включения зеленого света остается время ,
меньшее х . Тогда по определению геометрической вероят ности
τ + x x +1
F ( x) = P ( X < x ) = 1
=
.
τ
1,5
Поскольку автомобиль в любом случае проведет у пере крестка не более 0,5 мин ., то F ( х )=1, х> 0,5.
Таким образом ,
37
0,
x ≤ 0;

 x +1
F ( x) = 
, 0 < x ≤ 0, 5;
1
,
5

1,
x > 0, 5.
График функции F(х) приведен на рисунке 2.5
Рис. 2.5
2.4 Примеры дискретных распределений вероятностей
2.4.1 Биномиальное распределение
Пусть производится n испытаний, в каждом из которых
некоторое событие А может появиться либо не появиться.
Вероятность наступления события А во всех испытаниях
постоянна и равна р, тогда вероятность не появления этого
события q=l−p. В качестве дискретной случайной величины
X рассмотрим число появления события A в n испытаниях.
Возможные значения x 1 =0, x 2 =l, …, x n+1 = n, а их вероятности определяются по формуле Бернулли:
P n (k)=C n k ·p k ·q n-k , k=0, …, n.
Биноминальным называется распределение вероятностей, определенное по формуле Бернулли, т. к. правую
часть формулы Бернулли можно рассматривать как общий
член разложения бинома Ньютона
(p+q) n =C n n ·p n +C n n-1 ·p n -1 ·q+…+C n 0 ·q n .
Ряд распределения в этом случае выглядит таким образом:
X
P
38
n n-1
... k
n
n -1
p np q . . . C n k ·p k ·q n-k
... 0
. . . qn
.
2.4.2 Распределение Пуассона
Рассмотрим те же условия задачи что и в предыдущем
пункте, но значение n велико, вероятность р мала. Это
случай «массовых», но «редких» событий. В этом случае
вероятность
λ k ⋅ e −λ
P n (k)≈
, где λ= n·р.
k!
Тогда ряд распределения имеет, вид:
X
р
0
e -λ
1
2
… k
2 -λ
-λ
λе /1! λ е /2! … λ k ·e -λ /k!
…
…
Такое распределение вероятностей случайной величины
называют распределением Пуассона.
2.4.3 Геометрическое распределение
Пусть производятся n испытаний, в каждом из которых
вероятность появления события А равна р (0<р<1). Вероятность непоявления события q=l−p. Испытания заканчиваются, как только появится событие А. Следовательно, если
событие А появилось в k-м испытании, то в предшествующих (k−1) испытаниях оно не появилось. Введем дискретную случайную величину Х − число испытаний, которые
нужно провести до первого появления события А. Возможные значения Х: x 1 =l, x 2 =2, ... . По формуле умножения вероятностей независимых событий, вероятность того, что
число испытаний равно k
P(X=k)=q k -1 ·p.
Полагая в этой формуле k=l, 2, ... получим геометрическую
прогрессию с первым членом р и со знаменателем q: p, pq,
pq 2 , ..., pq k -1 . Такое распределение вероятностей называется
геометрическим.
Ряд распределения Х:
X
P
1
р
2
…k
p·q … p·q k -1
39
Пример 2.5. Из орудия производится стрельба по цели
до первого попадания. Вероятность попадания при одном
выстреле 0,6. Найти вероятность того, что попадание произойдет при третьем выстреле.
Решение. По условию р=0,6; q=0,4; k=3.
Тогда P(X=3)=0,4 2 ·0,6=0,096.
2.5 Примеры непрерывных распределений
2.5.1 Закон равномерного распределения вероятностей
Распределение вероятностей называется равномерным,
если на интервале, которому принадлежат возможные значения случайной величины, плотность распределения сохраняет постоянное значение. Функция плотности равномерного распределения f(х) имеет вид:
x < a;
0 ,

f ( x) = 1/ (b − a) , a ≤ x ≤ b;
0 ,
х > b.

Отсюда следует, что функция распределения
х < a;
0 ,
 х − a
F ( x) = 
, а ≤ х ≤ b;
b
−
а

х > b.
1,
Графики плотности f(х) и функции распределения F(х)
приведены на рис. 2.6 а) и 2.6 б).
а)
б)
1
в−а
Рис.2.6
40
Вероятность попадания равномерно распределенной
случайной величины в интервал (α, β):
Р(α<х<β)=(β−α)/(b−а).
Пример 2.6. Шкала измерительного прибора проградуирована в некоторых единицах. Ошибку при округлении
отсчета до ближайшего целого деления можно рассматривать как случайную величину X, которая может принимать
с постоянной плотностью вероятности любое значение между двумя соседними целыми делениями. Таким образом, X
распределена по равномерному закону с функцией плотности:
x < a;
0 ,

f ( x) = 1/ (b − а) , а ≤ х ≤ b;
0 ,
х > b.

Пример 2.7. Случайная величина Х, равномерно распределенная в интервале [0,1] имеет плотность распределения
1, 0 ≤ x ≤ 1;
f ( x) = 
0 , в противном случае.
x
x
0
0
Тогда функция распределения F ( x) = ∫ f ( y )dy = ∫ 1dy = x .
Графики функций f(x) и F(x) приведены на рис. 2.7 а) и
2.7 б).
Рис.2.7
Вероятность попадания такой случайной величины Х в
интервал 0≤х<х+∆х≤1
41
x + ∆x
P( x ≤ X < x + ∆x) = ∫ f ( y )dy = F ( x + ∆x) − F ( x) = ( x + ∆x) − x = ∆x .
x
Отсюда следует, что случайная величина Х, равномерно
распределенная в интервале [0, 1] с одинаковой вероятностью попадет в любой интервал длиной ∆х∈[0, 1]. Поэтому
такая величина Х имеет огромное значение в имитационном
моделировании, т.к. она служит основой генерирования на
компьютерах любых случайных величин, потоков событий
и случайных процессов.
2.5.2 Нормальный закон распределения
Случайная величина X называется распределенной по
нормальному закону, если ее плотность распределения
имеет вид:
2
2
1
φ m,σ ( x) =
⋅ e − ( x − m) / (2σ ) .
σ 2π
Нормальное распределение зависит от двух параметров:
m, называемого математическим ожиданием или средним
значением, и σ, называемого средним квадратическим
отклонением. Этот закон распределения называют еще
предельным или законом Гаусса.
Функция нормального распределения имеет следующий
вид:
x −
( x − m) 2
1
2
∫ e 2 σ dx .
σ 2π − ∞
Общим называется нормальное распределение с параметрами m, σ, где −∞<m<+∞- математическое ожидание,
σ>0 − среднее квадратическое отклонение.
Стандартным нормальным распределением называется распределение с параметрами m =0, σ=1.
Путем линейной замены общее нормальное распределение можно привести к стандартному нормальному распределению.
Плотность стандартного распределения записывается в
2
1
виде: φ( x) =
⋅ e− x / 2 , а функция распределения:
2π
Φ m, σ ( x ) =
42
x
2
Φ 0 (x)= 1 ∫ e −t / 2 dt .
2π −∞
Эти функции были использованы ранее в локальной и интегральной формулах Муавра – Лапласа (см. п.1.10, 1.11). На
рис. 2.8 а) и 2.8 б) приведены графики функций φ m, σ (х) и
Φ m,σ ( x ) для различных значений m и σ.
а)
б)
Рис. 2.8
Таким образом, относительно функции плотности нормального распределения можно утверждать следующее:
l) функция φ m, σ (х) определена и непрерывна на всей числовой оси (−∞;+∞);
2) область значений функции у∈[0, 1/(σ 2π )];
3) lim ϕ m, σ ( x) = 0 ;
x → ±∞
4) ymax
x =m
= 1 /(σ 2 π ) ;
5) график функции симметричен относительно прямой
х =m ;
6) точки перегиба: х 1 = m -σ , х 2 = m +σ.
Вероятность попадания в заданный интервал нормально
распределенной случайной величины:
β
P (α<Х<β)=Φ m,σ (β)−Φ m,σ (α) = ∫ φm,σ ( x)dx =1/(σ 2π )=
α
1 ( β −m) / σ − y 2 / 2
dx =
dy .
= ∫e
∫ e
2
π
α
(α −m ) / σ
Проводя замену у =( х− m)/ σ, получим
β
−( x − m )2 /( 2σ 2 )
43
β −m
α − m 
Р(α<Х<β)= Φ 0 
(2.1)
 − Φ0 
.
σ
σ




Из этой формулы можно определить вероятность отклонения случайной величины от математического ожидания:
Р(Х-m<δ)=2Ф 0 (δ/σ).
(2.2)
Правило трех сигма.
Преобразуем формулу (2.2). Для этого обозначим δ=σt.
Тогда
Р( |X−m|<σt)=2Ф 0 (t).
Положим t=3 , тогда Р(|Х−m|<3σ)=2Ф 0 (3)=0,9973.
Если случайная величина X распределена по нормальному закону, то абсолютная величина ее отклонения от математического ожидания m не превосходит утроенного значения среднего квадратического отклонения, и вероятность
этого отклонения близка к 1, а вероятность противоположного события составляет 0,0027.
Таким образом, можно считать практически достоверным событие, что возможные значения случайной величины, распределенной по нормальному закону, попадут в интервал (m−3σ, m+3σ) (см. рис.2.10).
Рис. 2.10
2.5.3 Экспоненциальный закон распределения
Случайная величина X называется распределенной по
экспоненциальному (показательному) закону, если ее
функция плотности имеет вид:
x < 0;
0,
f ( x ) =  − λx
, x ≥ 0,
λe
44
где λ>0−параметр экспоненциального распределения.
Тогда функция распределения будет иметь вид:
x < 0;
0,
F ( x) = 
−λx
, x ≥ 0.
1 − e
Графики функции плотности распределения f(x)
функции распределения F(x) приведены на рис.2.11.
а)
и
б)
Рис.2.11
Вероятность попадания показательно распределенной
случайной величины в заданный интервал определяется по
формуле:
P(α<X<β)=F(β)−F(α)=e -λ α − e -λβ .
(2.3)
Экспоненциальный закон распределения занимает важное место в теории массового обслуживания, теории надежности и других областях. Например, функция
R(t)=1−F(t)=e -λt называется показательным законом надежности.
Пример 2.8. Случайная величина Т – время работы радиолампы – имеет показательное распределение. Найти вероятность того, что время работы лампы будет не меньше
600 часов, если среднее время работы лампы 400 часов.
Решение. Р(Т≥600)=1−Р(Т<600)=
=1−( е (1/4 00)·0 −e -(1/4 00)600 )=е -1,5 ≈0,2231.
2.5.4 Распределение Вейбулла
Случайная величина X распределена по закону Вейбулла с параметрами α>0, β>0, если ее плотность распределения имеет вид:
45
αβ − α x α −1e − ( x / β ) α , x ≥ 0;
f ( x) = 
0,
x < 0.
Параметр α называется параметром формы, а β −
масштабным параметром распределения.
Тогда функция распределения Вейбулла будет иметь
следующий вид:
1 − e − ( x / β ) α , x ≥ 0;
F ( x) = 
0,
x < 0.
Графики функций плотности и распределения Вейбулла
при β=1 приведены на рис.2.12 а) и 2.12 б).
Считается, что распределению Вейбулла подчиняются
времена безотказной работы многих технических устройств
и времена выполнения задач. При α=1 распределение Вейбулла переходит в экспоненциальное распределение, а при
α=2 –в так называемое распределение Релея.
а)
б)
f(x)
1,2
1,0
α=3
0,8
α=2
0,6
α=1
0,4
α=1/2
0,2
0
1
2
3
4
5
x
Рис. 2.12
2.5.5 Гамма – распределение
Другим распределением, также достаточно хорошо описывающим времена безотказной работы различных технических устройств, и времена выполнения каких-либо задач,
является гамма-распределение с плотностью
46
β − α x α −1e − x / β
,

f ( x) = 
Γ (α )
0,

x ≥ 0;
x < 0,
∞
где Г(α) – гамма-функция, Γ ( z ) = ∫ t z −1e−t dt для любого веще0
ственного числа z>0.
Для вычислений полезно знать следующие свойства функции Г(z):
1. Г(z+1)=z·Г(z), для любого z>0;
2. Г(k+1)=k!, для любого неотрицательного целого числа
k;
3. Г(k+1/2)= π ⋅1 ⋅ 3 ⋅ 5 ⋅ ... ⋅ (2k − 1) / 2k , для любого положительного целого числа k, Γ (1 / 2) = π .
Как и в случае с распределение Вейбулла, α>0 – параметр формы, β>0 – масштабный параметр.
Если α – положительное целое число, тогда функция
распределения имеет вид:
n −1( x / β ) j

−x /β
, x ≥ 0;
∑
1 − e
F ( x) = 
j!
j =0
0,
x < 0.

В случае, если 0<α<1, то конечной формы функции распределения не существует, имеются лишь ее приближения.
Замечания.
1. При α=1, гамма-распределение, как и распределение
Вейбулла переходит в экспоненциальное распределение.
2. Для положительного целого числа r (α=r), гаммараспределение переходит в распределение Эрланга порядка r, которое широко используется в теории массового
обслуживания.
3. Гамма−распределение при α=k/2, β=2 представляет не
что иное, как распределение χ 2 (хи – квадрат) с k степенями
свободы, роль которого трудно переоценить в математической статистике. Наконец, на рис. 2.13 приведены графики
функций плотности f(x) и распределения F(x) при различных значениях параметра α при β=1.
47
а)
б)
F(x)
1,0 α=1/2
0,8
α=3
α=2
α=1
0,6
0,4
0,2
0
1
2
3
4
5
x
Рис.2.13
2.6 Задание №2 на самостоятельную работу. Решение
типовых задач
2.1 Из партии в 10 деталей, среди которых две бракованные, наудачу выбирают три детали. Найдите закон распределения числа бракованных деталей среди выбранных.
Постройте функцию распределения.
Ответ:
x ≤ 0;
0,
7 / 15, x ∈ (0,1];
C2i C83−i

=
=
P( X = i) =
,
i
0
,
1
,
2
;
F
(
x
)

3
C10
14 / 15, x ∈ (1,2];
1,
x > 2.
2.2 Вероятность приема самолетом радиосигнала при
каждой передаче равна 0,7. Найдите ряд распределения и
функцию распределения числа X принятых сигналов при
шестикратной передаче.
Ответ: Ряд распределения и функцию распределения
случайной величины X легко построить, зная, что
P( X = i) = C6i (0,7)i (0,3)6−i , i = 0,6.
2.3 В течение часа на станцию скорой помощи поступает случайное число X вызовов, распределенное по закону
Пуассона с параметром λ=5. Найдите вероятность того, что
в течение часа поступит:
а) ровно два вызова;
48
б) не более двух вызовов;
в) не менее двух вызовов.
Ответ:а) Р(Х=2) = 5 2 е -5 /2!≈0,086;
б) Р(Х ≤ 2)=(5 0 /0! + 5 1 /1! +5 2 /2!)е -5 ≈0,127;
в) Р(Х≥2)=1−Р(Х<2)=1−(5 0 /0!+5 1 /1!)e - 5≈0,96.
2.4 Число вызовов, поступающих на АТС (автоматическая телефонная станция) каждую минуту, распределено по
закону Пуассона с параметром λ=1,5. Найдите вероятность
того, что за минуту поступит:
а) ровно три вызова;
б) хотя бы один вызов;
в) менее пяти вызовов.
Ответ: а) 0,12551; 6)0,77687; в) 0,98143.
2.5 По цели производят серию независимых выстрелов
до первого попадания. Даны вероятность р попадания в
цель при одном выстреле и запас патронов n. Найдите ряд
распределения и функцию распределения числа X израсходованных патронов.
 pqi −1, i = 0, n − 1 (q = 1 − p);
Ответ: P( X = i) = 
q n−1, i = n.
2.6 Летательный аппарат, по которому ведется стрельба, состоит из двух различных по уязвимости частей. Аппарат выходит из строя при одном попадании в первую
часть или трех попаданиях во вторую. Стрельба ведется до
поражения летательного аппарата.
Постройте ряд распределения и функцию распределения
числа попаданий X в летательный аппарат, которое понадобится для его поражения, если каждый попавший в аппарат
снаряд с вероятностью 0,3 поражает первую часть и с вероятностью 0,7 − вторую.
Ответ: Р(Х=1) = 0,3; Р(Х=2)=0,21; Р(Х=3)=0,49.
2.7 Непрерывная случайная величина X распределена по
экспоненциальному закону с параметром λ=0,2. Найдите
вероятность попадания этой случайной величины в интервал (0,2).
Ответ: 1−е -0,4 ≈0,33.
2.8 Длительность времени X безотказной работы элемента имеет экспоненциальное распределение с парамет49
ром λ=0,02 ч -1 . Вычислите вероятность того, что за время
t =100ч элемент: а) выйдет из строя; б) будет исправно работать.
Ответ: а) 1−е -2 ≈0,865; б) е -2 ≈0,135.
2.9 Случайная величина X имеет нормальное распределение с параметрами m=2 и σ=1. Определите вероятность
попадания случайной величины в интервал (1, 5).
Ответ: 0,83999.
2.10 Случайная величина X распределена по нормальному закону с параметрами m=4 и σ=1. Определите вероятность попадания случайной величины X в интервал
(6,
8).
Ответ: 0,0227.
2.11 Случайная величина Х подчинена нормальному закону распределения с m=0. Вероятность попадания случайной величины в интервал (−0,3; 0,3) равна 0,5. Найдите
среднее квадратическое отклонение σ.
Ответ: σ=0,44.
2.12 Измерительный прибор имеет систематическую погрешность 5 м. Случайные погрешности подчиняются нормальному закону со средним квадратическим отклонением,
равным 10 м. Какова вероятность того, что погрешность
измерения не превзойдет по абсолютному значению 5 м ?
Ответ: 0,3413.
2.13 Измерение дальности до объекта сопровождается
случайными погрешностями, подчиняющимися нормальному закону со средним квадратическим отклонением, равным 50 м. Систематическая погрешность отсутствует. Найдите:
а)вероятность измерения дальности с погрешностью, не
превосходящей по абсолютному значению 100 м;
б)вероятность того, что измеренная дальность не превзойдет истинной.
Ответ: а) 0,9545; б) 0,5.
2.14 Высотомер имеет случайную и систематическую
погрешности. Систематическая погрешность равна 20 м.
Случайная погрешность распределена по нормальному закону. Какую среднюю квадратическую погрешность дол50
жен иметь прибор, чтобы с вероятностью 0,9452 погрешность измерения высоты была меньше 10 м?
Ответ: 50 м.
2.15 Время X (в часах) безотказной работы электрической лампочки имеет распределение Вейбулла с параметрами α=0,5 и β=50. Определите вероятность того, что лампочка проработает не менее 10000 ч.
1/ 2
− ( 0 , 02⋅10000 )
Ответ: Р(Х > 10000) = e
≈ 0,14 .
2.16 Время X (в месяцах) безотказной работы некоторой
системы, состоящей из одного основного и двух резервных
элементов, имеет гамма-распределение с параметрами α=3
и β=20. Найдите вероятность того, что система проработает
не менее 5 лет.
Ответ: Р(Х > 60) =е -3 (1+3=3 2 /2)≈0,42.
51
3 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ
ВЕЛИЧИН
Вероятности любых событий, связанных с каждой случайной величиной, полностью могут быть определены ее
законом распределения. Причем законом распределения
вероятностей для дискретной случайной величины является
ряд распределения, или же функция распределения. Непрерывная случайная величина полностью может быть описана
функцией распределения или плотностью распределения.
Закон распределения полностью характеризует случайную величину, т.е. является ее полной характеристикой.
Однако часто на практике этот закон распределения бывает
неизвестен, или нет необходимости его указывать. Тогда
ограничиваются меньшими сведениями. Для этого используют числовые характеристики случайной величины (неслучайные числа).
3.1 Математическое ожидание случайной величины
Определение. Математическим ожиданием (средним
значением) дискретной случайной величины Х называют
сумму произведений возможных значений х i на их вероятности p i :
M(X)= ∑ xi pi .
i
При этом, если множество возможных значений Х счет∞
но, предполагается, что ∑ | xi | pi < +∞ , т.е. ряд должен схоi =1
диться абсолютно. Аналогичная формула существует в теоретической механике. Пусть на прямой расположена систеn
ма n материальных точек с массами р i ( ∑ pi = 1 ) и пусть х i –
i =1
координата i-й точки. Тогда центр масс системы имеет коn
ординату X = ∑ xi pi .
i =1
Пример 3.1. Математическое ожидание случайной величины Х, распределенной по биноминальному закону
(схема Бернулли) будет равно
52
n
n
k =0
k =0
n
M ( X ) = ∑ kPn (k ) = ∑ kCnk p k q n−k = ∑ k
k =0
n!
p k q n−k =
k!(n − k )!
n−1
(n − 1)!
k −1 n−k
j
j n−1− j
= np ∑ Pn−1( j ) = np .
= ∑ np
p q = np ∑ Cn−1 p q
(k − 1)!(n − k )!
k =1
j =0
j =0
Пример 3.2. Найдем математическое ожидание случайной величины Х, имеющей геометрическое распределение:
∞
∞
∞
1
)′ =
M ( X ) = ∑ kpq k = pq ∑ kq k −1 = pq( ∑ q k )′q = pq (
1
−
q
k =0
k =0
k =0
pq
pq q
=
=
= .
(1 − q ) 2 p 2 p
Пример 3.3. Пусть случайная величина Х имеет распределение Пуассона. Тогда
∞
∞ λ k −1
∞ λj
λk −λ
−λ
M (X ) = ∑ k e = λ ∑
e = λ ∑ e − λ = λe λ e − λ = λ .
k!
k =0
k =1( k − 1)!
j = 0 j!
Связь математического ожидания со средним арифметическим наблюденных значений случайной величины.
Пусть производится N независимых испытаний, в которых случайная величина X приняла m 1 раз значение x 1 , m 2
раз−значение х 2 ,…, m n раз значение x n (m 1 +m 2 +…+m n =N).
Найдем среднее арифметическое этих значений
m x + m2 x2 + ... + mn xn
X= 11
.
N
Отношение m i /N для всех i есть частота события (Х=x i ).
При достаточно большом N отношение m i /N приблизительно равно вероятности этого события р i . Тогда получим, что
X ≈М(X), следовательно, среднее арифметическое наблюденных значений случайной величины Х при увеличении
числа опытов будет приближаться к ее математическому
ожиданию М(Х).
Указанная выше связь между средним арифметическим
и математическим ожиданием составляет одну из форм закона больших чисел.
Для непрерывной случайной величины Х математическим ожиданием (средним значением) называют интеграл
n
n−1
53
+∞
М(х)= ∫ x·f(x)dx , где f(x)−функция плотности распределе−∞
ния. Для существования математического ожидания несобственный интеграл должен сходиться абсолютно.
Пример 3.4. Найдем математическое ожидание равномерно распределенной на отрезке [а, b] случайной величины Х
+∞
в
1 1 2
x
b+а
⋅ (b − а 2 ) =
,
M ( X ) = ∫ xf ( x)dx = ∫
dx =
−
−
2
2
b
a
b
a
−∞
a
т.е. М(Х) совпадает с серединой отрезка [а, b].
Пример 3.5 Найдем математическое ожидание нормально распределенной случайной величины Х
+∞
1 +∞ − ( x − m ) 2 / 2σ 2
M ( X ) = ∫ xφ m, σ ( x)dx =
dx .
∫ xe
σ 2π − ∞
−∞
Делая замену переменной у=(х−m)/σ, получаем
+∞ σy
+∞ 1
2
2
M ( x) = ∫
e − y / 2 dy + m ∫
e − y / 2 dy =
− ∞ 2π
− ∞ 2π
+∞
+∞
σ
− y2 / 2
=
dy + m ∫ φ( y )dy .
∫ ye
2π − ∞
−∞
Первый интеграл равен нулю в силу нечетности подынтегральной функции, а второй равен единице как интеграл
от стандартной нормальной плотности. Тогда М(Х)=m, т.е.
параметр m имеет смысл математического ожидания случайной величины Х.
Пример 3.6. Найдем математическое ожидание экспоненциально распределенной случайной величины Х
∞
∞
0
0
M ( X ) = ∫ xf ( x)dx = λ ∫ xe−λx dx .
Интегрируя по частям, получим М(Х)=1/λ.
Пример 3.7. Математическое ожидание случайной величины Х, распределенной по закону Вейбулла может быть
найдено путем замены переменной в подынтегральной
функции у=(х/β) α . Опуская несложные выкладки и используя определение гамма – функции, запишем
β 1
M (X ) = Γ( ).
α α
Пример 3.8. Математическое ожидание случайной ве54
личины Х, имеющей гамма – распределение, задается выражением М(Х)=α·β.
3.2 Свойства математического ожидания
1. М(С)=С, где C=const.
Для этого рассмотрим случайную величину Х как постоянную, которая принимает одно возможное значение С с
вероятностью 1, тогда М(С)=С·1=С.
2. М(С·Х)=СМ(Х). Пусть случайная величина Х задана
рядом распределения
X x1 х2 … хn
.
P p1 р2 … рn
Тогда СХ будет иметь ряд распределения
CX Сх 1 Сх 2 … Сx n
.
P p1 р2 … рn
Отсюда по определению математического ожидания получим М(С·Х)=C·М(Х).
Замечание. Прежде чем перейти к следующему свойству, укажем, что две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. В противном случае случайные величины зависимы. Более строгое определение независимости будет дано в
п. 4.6.
3. М(Х·Y)=М(Х)·М(Y), где X,Y - независимые случайные
величины. Пусть случайные величины Х и Y заданы рядами
распределения
X
P
x1 х2
p1 р2
и
Y
P
y1 y2
q1 q2
.
Тогда ряд распределения для ХY имеет вид
XY x 1 y 1 x 1 y 2 x 2 y 1 x 2 y 2
.
P p1q1 p1q2 p2q1 p2q2
М(ХY)= x 1 y 1 р 1 q 1 + x 1 y 2 р 1 q 2 + x 2 y 1 р 2 q 1 + x 2 y 2 р 2 q 2 =
55
=y 1 q 1 (x 1 р 1 + x 2 р 2 )+y 2 q 2 (x 1 р 1 +
4. M(X+Y)=M(X)+M(Y).
Пусть случайные величины Х и Y
пределения
X x1 х2
Y y1
и
P p1 р2
P q1
x 2 р 2 )=М(Х)М(Y).
заданы рядами расy2
q2
.
Составим все возможные значения величины Х+Y. Тогда
X+Y x 1 +y 1 x 1 +y 2 x 2 +y 1 x 2 +y 2
P
p 1 +q 1 p 1 +q 2 p 2 +q 1 p 2 +q 2
р 11
р 12
p 21
р 22
М(Х+Y)=x 1 (р 1 1 +р 12 )+
+x 2 (р 21 +р 22 )+y 1 (р 11 +р 21 )+
+y 2 (р 12 +р 22 ).
Докажем, что р 11 +р 12 =р 1 . Событие, состоящее в том, что Х
примет значение х 1 (вероятность этого события равна р 1 ),
влечет за собой событие, которое состоит в том, что Х+Y
примет значение x 1 +y 1 или x 1 +y 2 (вероятность этого события р 11 +р 1 2 ), и обратно. Отсюда следует, что р 11 +р 12 =р 1 .
Аналогично доказываются равенства р 2 1 +р 22 =р 2 , р 11 +р 21 =q 1 ,
р 12 +р 22 = q 2 , откуда и следует свойство 4.
Замечание. Характеристикой, альтернативной математическому ожиданию, является медиана (квантиль уровня
1/2) х 0, 5 случайной величины Х, определяемая как наименьшее значение х, при котором F(x)≥0,5. Если же Х – непрерывная случайная велиf(x)
чина, тогда F(x 0,5 )=0,5(см.
Площадь
Площадь
рис.3.1). Медиана может
равна 0,5
равна 0,5
быть лучшей мерой стремления к центру распределения, чем среднее, когда возx0,5
x
0
можные значения Х очень
большие или очень маленьРис. 3.1
кие.
Пример 3.9. Рассмотрим дискретную случайную величину Х с рядом распределения
Математическое ожидание и меХ 1 2 3 4 5
.
P 0,2 0,2 0,2 0,2 0,2 диана равны: М(Х)=х 0 ,5 =3.
56
Рассмотрим другую случайную величину Y с рядом распределения
М(Y)=22, у 0,5 =3. Этот пример поY 1 2 3 4 100
.
казывает, что изменение распредеP 0,2 0,2 0,2 0,2 0,2
ления не влияет на значение медианы.
3.3 Дисперсия случайной величины. Моменты высших порядков
Математическое ожидание не полностью характеризует
случайную величину. Например, возьмем две случайные
величины Х и Y, заданные законами распределения
X -0,01 0,001
и
P 0,5 0,5
Y -100 100
.
P 0,5
0,5
Очевидно, что М(Х)=M(Y)=0.Таким образом, хотя математические ожидания одинаковые, но возможные значения этих случайных величин по-разному рассеяны вокруг
среднего. Поэтому, чтобы оценить разброс возможных значений вокруг математического ожидания, вводят такую
числовую характеристику как дисперсия.
Введем понятие отклонения случайной величины от ее
математического ожидания как разность между случайной
o
величиной и ее математическим ожиданием X =Х−М(Х).
o
Таким образом, X − центрированная случайная величина, и
o
ее математическое ожидание М( X )=0.
Определение. Дисперсией случайной величины X называется математическое ожидание квадрата отклонения случайной величины
D(X)=M[X−M(X)] 2 .
(3.1)
Для дискретной случайной величины эту формулу можно
записать в виде:
D(X)=(x 1 −M(X)) 2 ·р 1 +(х 2 −М(Х)) 2 ·р 2 +...+(х n −М(Х)) 2 ·р n .
(3.2)
Для практических вычислений существует более удоб57
ная формула
D(X)=M(X 2 )−[M(X)] 2 .
Формула (3.3) следует из формулы (3.1).
Для непрерывной случайной величины
(3.3)
+∞
D(X)= ∫ [x−M(X)] 2 ·f(x)dx.
(3.4)
−∞
Более удобная формула для вычисления дисперсии следует из формулы (3.4)
+∞
D(X)= ∫ x 2 ·f(x)dx−[M(X)] 2 .
(3.5)
−∞
Свойства дисперсии:
1. D(C)=0, где С=const.
2. D(CX)=C 2 D(X).
3. D(X±Y)=D(X)+D(Y), если X и Y – независимые случайные величины.
Все эти свойства легко доказываются с использованием
определения дисперсии и свойств математического ожидания.
Определение. Средним квадратическим отклонением
случайной величины Х называют квадратный корень из
дисперсии
σ( X ) = D( X ).
Эта мера рассеяния возможных значений случайной величины вокруг ее математического ожидания имеет размерность самой случайной величины. В формулах для определения дисперсии случайной величины присутствует
выражение М(Х 2 ) – математическое ожидание квадрата
случайной величины:
m2 = M ( X 2 ) = ∑ xi2 pi для дискретной случайной величины
i
Х и
+∞
m2 = M ( X ) = ∫ x 2 f ( x)dx для непрерывной случайной
2
−∞
величины Х.
Эту величину называют вторым начальным моментом
распределения случайной величины. Так как дисперсия
D(Х) по определению является вторым моментом центриo
рованной случайной величины X = X − M ( X ) , то дисперсию
иногда называют вторым центральным моментом распределения случайной величины.
58
Определение. Начальным моментом k-того порядка
m k случайной величины Х называют математическое ожидание k-й степени Х:
mk = M ( X k ) = ∑ xik pi , если Х – дискретная случайная веi
личина, и
+∞
mk = M ( X k ) = ∫ x k f ( x)dx , если Х – непрерывная случай−∞
ная величина.
Определение. Центральным моментом k-го порядка
o
m k случайной величины Х называют математическое ожидание k-й степени центрированной случайной величины
o
X = X − M (X ):
o
m k = M [ X − M ( X )]k = ∑ [ xi − M ( X )]k pi , если Х – дискретная
i
случайная величина , и
o
+∞
m k = M [ X − M ( X )] = ∫ [ x − M ( X )]k f ( x)dx , если Х – непре k
−∞
рывная случайная величина .
Замечание. Начальный момент первого порядка совпа дает с математическим ожиданием , центральный момент
первого порядка равен нулю , центральный момент второго
порядка является дисперсией .
Рассмотрим еще некоторые , часто применяемые на
практике числовые характеристики случайных величин .
Случайную величину Х называют симметрично распре деленной относительно математического ожидания , если
Р [ Х < М ( Х ) −х ]= Р [ Х > М ( Х )+ х ] для любого х . Отсюда следует ,
что непрерывная случайная величина Х является симмет ричной тогда и только тогда , когда график ее плотности
распределения симметричен относительно прямой х = М ( Х )
( см . нормальное распределение ).
При анализе эмпирических ( статистических ) распреде лений часто возникает задача количественной оценки сте пени их различия от нормального .
Определение. Асимметрией А S случайной величины Х
o
называют отношение третьего центрального момента m 3 к
59
кубу среднего квадратического отклонения σ:
o
As = m 3 / σ 3 .
Для нормального распределения А S =0.
Определение. Эксцессом Е k случайной величины Х наo
зывают отношение четвертого центрального момента m 4 к
квадрату дисперсии за вычетом числа 3:
o
E k = ( m 4 / σ 4 ) − 3.
o
Для нормального распределения величина ( m 4 /σ 4 )=3,
следовательно Е k =0.
Смысл эксцесса пояснен на рис.3.2. Он используется
для оценки большего и меньшего подъема кривой распределения по сравнению с нормальной кривой.
Рис. 3.2
Определение. Модой дискретной случайной величины
Х называют такое значение х i , при котором для вероятностей выполняются неравенства
р i-1 <p i
и
p i+1 <p i .
Определение. Модой непрерывной случайной величины Х называют точку максимума х max (локального) плотности распределения f(x).
Как для дискретных так и непрерывных случайных величин различают унимодальные (имеющие одну моду),
бимодальные (имеющие две моды) и мультимодальные
(имеющие несколько мод) распределения вероятностей.
После определения моды поясним смысл асимметрии.
60
Если «длинная часть» кривой плотности расположена правее моды х max , то асимметрия положительна (рис.3.3 а), если слева – отрицательна (рис.3.3 б).
а)
б)
Рис. 3.3
Рассмотрим примеры определения дисперсии случайных
величин, распределенных по различным законам, перечисленным в разделе 2.
Пример 3.10. Пусть Х – число появлений события А в
испытаниях по схеме Бернулли. Найдем дисперсию Х.
Общее число появлений события (число успехов) в n
испытаниях равно сумме появлений события в отдельных
испытаниях: Х=Х 1 +Х 2 +…+Х n , где Х 1 −число наступлений события в первом испытании, Х 2 −во втором и т.д. Так как
Х 1 ,Х 2 ,…,Х n взаимно независимы, то
D(X)=D(X 1 )+D(X 2 )+…+D(X n ) (свойство 3 дисперсии).
Дисперсия каждого слагаемого равна:
D(X i )=[0−M(X i )] 2 q+[1−M(X i )] 2 p=(−p) 2 q+(1−p) 2 p=
=pq(p+q)=pq.
Учитывая каждое слагаемое, окончательно получим
D(X)=npq.
Пример 3.11. Найдем дисперсию случайной величины
Х, распределенной по закону Пуассона. Для этого определим 2-й начальный момент:
k
∞
∞
∞
λ k −1 − λ
λm −λ
2
2 λ
−λ
M (X ) = ∑ k
e =λ ∑ k
e = λ ∑ (m + 1) e =
k!
m!
k =0
k =1 ( k − 1)!
m=0
λm −λ ∞ λm −λ
= λ( ∑ m
e + ∑
e ) = λ[ M ( X ) + 1] = λ 2 + λ.
m!
m=0
m = 0 m!
∞
61
Учитывая, что М(Х)=λ, получим
D(X)=λ 2 + λ−λ 2 =λ.
Пример 3.12. Дисперсия равномерно распределенной на
отрезке [a, b] случайной величины Х определяется формулой
b
b+а 1
b+а 3
b+а 3
1
D( X ) = ∫ ( x −
dх =
)
[(b −
) − (а −
) ]=
2 b+а
3(b − а)
2
2
а
(b − а)3 (b − а) 2
=
=
.
12(b − а)
12
Пример 3.13. Дисперсия нормально распределенной с
параметрами m и σ случайной величины Х имеет вид
( x − m) 2
( x − m)
2
e 2σ dx.
−∞
− ∞ σ 2π
Сделав замену переменной z=(x−m)/σ, получим
2
2
+∞ z 2
−z
−z
2
2
D( X ) = σ ∫
e
dz. Полагая u = z / 2 π , dv = ze 2 dz и
− ∞ 2π
интегрируя по частям, получим D(X)=σ 2 .
Пример 3.14. Определим дисперсию и среднее квадратическое отклонение экспоненциально распределенной
случайной величины Х.
∞
∞
1
D( X ) = ∫ x 2 f ( x)dx − [ M ( X ) 2 ] = λ ∫ x 2 e − λx dx − 2 . Интегрируя по
λ
0
0
+∞
+∞
D( X ) = ∫ ( x − m) 2 φ m, σ ( x)dx = ∫
2
−
∞
частям, получим λ ∫ x 2 e − λx dx = 2 / λ 2 . Следовательно D(X)=1/λ 2 .
0
Тогда σ(X)=1/λ. Отсюда следует, что математическое ожидание и среднее квадратическое отклонение экспоненциального распределения равны между собой.
Пример 3.15. Дисперсия случайной величины Х, имеющей распределение Вейбулла, задается формулой:
β2 
2
1 
D( X ) = 2 Γ ( ) − [ Γ ( )]2 .
α 
α
α 
Пример 3.16. Дисперсия случайной величины Х, имеющей гамма-распределение задается формулой:
D(Х)=αβ 2 .
Справедливость последних двух формул проверить са62
мостоятельно.
3.4 Задание №3 на самостоятельную работу
3.1 Найти математическое ожидание случайной величины Z, если известны математические ожидания Х и Y:
а) Z=X+2Y, M(X)=5, M(Y)=3; б) Z =3X+4Y, M(X)=2,
M(Y)=6.
Ответ: а) М(Z)=11, б) М(Z)=30.
3.2 В партии из 10 деталей содержится три нестандартных. Наудачу отобраны две детали. Найти математическое
ожидание дискретной случайной величины Х–числа нестандартных деталей среди двух отобранных.
Ответ: М(Х)=3/5.
3.3 Найти дисперсию дискретной случайной величины Х
– числа появлений события А в пяти независимых испытаниях, если вероятность появления событий А в каждом испытании равна 0,2.
Ответ: D(X)=0,8.
3.4 Найдите математическое ожидание, дисперсию и
среднее квадратичное отклонение дискретной случайной
величины X, ряд распределения которой представлен в таблице ниже
X 1 2 3
Р 0,3 0,2 0,5
0 1
Ответ: М(Х)=2,2, D(X)=0,76, σ(Х)≈0,87.
3.5 Вероятность того, что при трех выстрелах стрелок
попадет в цель хотя бы один раз, равна 0,992. Найдите математическое ожидание и дисперсию числа X попаданий
при двадцати выстрелах. Ответ: M(X)=16, D(X)=3,2.
3.6 Время X безотказной работы станка имеет экспоненциальное распределение. Известно, что вероятность отказа станка за 5 ч равна 0,39347. Найдите математическое
ожидание, дисперсию и среднее квадратичное отклонение
63
времени безотказной работы станка.
Ответ: M(X) = 10 ч, D(X) = 100 ч 2 , σ = 10 ч.
3.7 Найдите математическое ожидание, дисперсию,
среднее квадратичное отклонение, асимметрию, эксцесс,
медиану и моду случайной величины X, имеющей плотность распределения f(х) = е -|x -3 |/2 .
Ответ: M(X) = 3, D(X) = 2, σ(Х) = 2 , А S = 0, E k = 3,
x 0,5 =3, x max = 3.
3.8 Непрерывная случайная величина Х имеет плотность
распределения
0, x ∉ (a,b);

f ( x) =  2
b+а
4
−
х
−
, х ∈ (а,b) ,
 b − а (b − а) 2
2

причем а и в неизвестны, но b>а, а М(Х)=5 и D(Х)=6. Найти
a и b.
Ответ: а=−1, b=11.
3.9 Случайная величина Х задана плотностью распределения f(x)=0,5х в интервале (0,2); вне этого интервала
f(x)=0. Найти начальные и центральные моменты первого,
второго, третьего и четвертого порядков.
o
o
Ответ: m 1 =4/3, m 2 =2, m 3 =3,2, m 4 =16/3, m1 = 0 , m 2 = 2 / 9 ,
o
o
m3 = −8 / 135 , m 4 = 16 / 135 .
3.10 Каждый из 25 студентов группы выучил 80% экзаменационных билетов. Найдите среднее число студентов,
сдавших экзамен.
Ответ: 20.
3.11 Площадь круга вычисляют по измеренному диаметру круга X, используя формулу S=πX 2 /4. Считая, что измеренный диаметр круга X распределен равномерно на отрезке
[а,b], найдите математическое ожидание и дисперсию случайной величины S.
Ответ:M(S)=π(а 2 +аb+b 2 )/12,
D(S)=π 2 (b−а) 2 (4а 2 +7ab+4b 2 )/720.
3.12 Плотность распределения непрерывной случайной
величины Х имеет вид
64
0, x ∉ (−1, 1);
f ( x) = 
2
3(1 − x )/4, х ∈ (−1, 1).
Найдите начальные и центральные моменты первого, второго, третьего и четвертого порядка, а также асимметрию и
эксцесс случайной величины X.
o
0
o
Ответ: m1 = m 1 = 0 , m2 = m 2 = D( X ) = 1 / 5 , m3 = m3 = 0 ,
o
m4 = m 4 = 3 / 35 , A S =0, E k =−6/7.
65
4. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
До сих пор мы рассматривали одномерные случайные
величины. В прикладных задачах обычно приходится рассматривать величины, возможные значения которых определяются двумя, тремя и более числами.
Пример 4.1. Станок – автомат штампует стальные
плитки. Если контролируемыми размерами являются длина
Х и ширина Y, то имеем двумерную случайную величину
(Х, Y); если же контролируется и высота, то имеем трехмерную величину(X, Y, Z).
В этом разделе будут обобщены ранее изложенные результаты на совокупность из нескольких случайных величин, заданных на одном и том же вероятном пространстве.
4.1 Многомерная случайная величина. Совместная
функция распределения
Определение. Совокупность случайных величин
Х 1 =Х 1 (ω), …, Х n =Х n (ω), заданных на одном и том же вероятностном пространстве, называют многомерной (nмерной) случайной величиной или n-мерным случайным
вектором.
Пример 4.2. При испытании прибора на надежность совокупность внешних воздействий в некоторый момент времени можно описать случайным вектором (X, Y, Z,…).
Пусть Х – температура окружающей среды, Y – атмосферное давление, Z – амплитуда вибрации платформы, на которой установлен прибор и т.д. Размерность этого вектора
зависит от количества учитываемых факторов и может
быть достаточно большой. Свойства многомерных случайных векторов мы будем рассматривать на примере двумерного случайного вектора или же системы двух случайных
величин.
Определение. Совместной функцией распределения
вероятностей n−мерного случайного вектора (Х 1 ,…, Х n ) называют функцию, значение которой в точке (х 1 , …, х n )∈R n
равно вероятности совместного осуществления событий
(Х 1 <х 1 ), …, (Х n <х n ), т.е.
66
F(х 1 ,…,х n )=P(Х 1 <х 1 , …, Х n <х n ).
При n=2 будем говорить о двумерной функции распределения
F(х, у)=P(Х<х, Y<y).
Геометрически эту функцию можно истолковать как вероятность попадания случайной точки в бесконечный квадрант с вершиной в точке (х, у) (рис.4.1.).
y
(x,y)
x
Рис.4.1
Свойства функции распределения.
1. 0≤F(х,у)≤1.
2. Функция F(х,у) неубывающая по обоим аргументам.
3. F(x, −∞)=F(−∞, y)=F(−∞,−∞)=0.
4. F(x,+∞)=F 1 (x)−функция распределения компоненты X.
5. F(+∞,y)=F 2 (y)−функция распределения компоненты Y.
6. F(+∞, +∞)=l.
7.Р(а 1 ≤Х≤b 1 ,а 1 ≤Y≤b 1 )=F(b 1 ,b 2 )−F(b 1 ,а 2 )−F(а 1 ,b 2 )+F(а 1 ,а 2 ).
Перечисленные свойства аналогичны свойствам функции распределения одномерной величины Х. Докажем например, свойство 3.
События (Х 1 <−∞) и (Х 2 <−∞) являются невозможными, а
пересечение невозможного события с любым событием
есть также невозможное событие, вероятность которого
равна нулю. Следовательно, утверждение 3 справедливо.
4.2 Дискретные двумерные случайные величины
Определение. Двумерную случайную величину (Х, Y)
называют дискретной, если ее компоненты Х и Y являются
дискретными случайными величинами.
Пусть случайная величина Х принимает возможные значения х 1 ,…,х n , а Y − у 1 ,…, у m . Тогда координаты двумерно67
го случайного вектора (Х, Y) – пары значений (x i ,y j ), i = 1, n ,
j = 1, m.
Распределение величины (Х,Y) удобно задавать в виде
таблицы с двумя входами (табл.4.1)
Табл. 4.1
В этой таблице на пересечеY
X
нии строки «х i » и столбца «у j »
y1 y2
… ym Px
x 1 р 11 р 12 … р 1m p x1 ставится вероятность совместx 2 р 21 р 22 … р 2m p x2 ного осуществления события
(Х=х i , Y=у j ) т.е.
… … …
… … …
р ij =P(Х=х i , Y=у j ). В столбце
x n р n1 р n2 … р nm p x n «Р х » проставляются вероятности
p xi =р i1 +р i2 +…+р im .
Py py py … py
1
2
m
С другой стороны p xi =P(Х=х i ).
Таким образом, первый и последний столбцы таблицы
дают ряд распределения случайной величины Х. Аналогично, в последней строке «Р у » помещены значения
p y i =р 1j +р 2 j +…+р mj , а первая и последняя строки дают ряд
распределения случайной величины Y.
Используя табл. 4.1 нетрудно определить совместную
функцию распределения F(х,у).
Пример 4.3. В соответствии со схемой Бернулли с вероятностью успеха р и вероятностью q=1−p проводятся два
испытания. Составим таблицу распределения двумерной
случайной величины (Х 1 ,Х 2 ), где Х i , i=1,2 – число успехов в
i-м испытании. Возможные значения Х 1 и Х 2 : 0 или 1. Очевидно, что вероятности:
Р(Х 1 =0, Х 2 =0)=q 2 , Р(Х 1 =1, Х 2 =0)=рq,
Р(Х 1 =0, Х 2 =1)=qр, Р(Х 1 =1, Х 2 =1)=р 2 .
Табл. 4.2
F (x 1 ,x 2 )=0 при х 1 ≤0 или х 2 ≤0;
Х2
Х1 0
1
F (x 1 ,x 2 )=q 2 при 0<х 1 ≤0 и 0<х 2 ≤1;
Px1
F (x 1 ,x 2 )=q 2 +qp=q при 0<х 1 ≤1 и х 2 >1;
0
q 2 qp q
F (x 1 ,x 2 )= q 2 +qp=q при х 1 >1 и 0<х 2 ≤1;
1
pq p 2 p
F (x 1 ,x 2 )=1 при х 1 >1 и х 2 >1.
p
Px 2 q
Функция F(х 1 ,х 2 ) в данном случае за68
дает ступенчатую поверхность в трехмерном пространстве.
4.3 Непрерывные двумерные случайные величины
Определение. Непрерывной двумерной случайной
величиной (Х,Y) называют такую величину, совместную
функцию распределения которой можно представить в виде
сходящегося несобственного интеграла
x
y
F ( x, y ) = ∫ ∫ f ( x, y )dxdy.
−∞ −∞
Плотность совместного распределения вероятностей
есть вторая смешанная производная от совместной функции распределения
∂ 2 F ( x, y )
.
f(x,y)=
∂x∂y
Геометрически эту функцию можно представить как некоторую поверхность, которую называют поверхностью
распределения вероятностей.
Вероятность попадания случайной точки в любую область можно определить как двойной интеграл по этой области от функции плотности, т.е.
P((X,Y)∈D) = ∫∫ f(x, у) dx dy.
D
Свойства функции совместной плотности распределения:
1) функция f(х,у) неотрицательная;
+∞ +∞
2) ∫ ∫ f ( x, y )dxdy = 1 ;
−∞ −∞
3) функции плотности компонент:
dF1 ( x) ∞
f 1 (x)=
= ∫ f(x,y)dy −для компоненты Х;
dx
−∞
dF ( y ) ∞
f 2 (y)= 2
= ∫ f(x,y)dx − для компоненты Y.
dy
−∞
4) Р ( х<Х<х + ∆х , у< Y <у + ∆у ) ≈ f(x,y) ∆ x ∆ y;
5) P( Х = х , Y= у )=0.
Пример 4.4. Двумерная случайная величина (X,Y) зада на плотностью совместного распределения
69
1 /(6 π), x 2 / 9 + y 2 / 4 ≤ 1;
f ( x, y ) = 
0,
x 2 / 9 + y 2 / 4 > 1.
Найти плотности распределения компонент X и Y.
Решение. Плотность распределения компоненты Х
2
2
1 2 1− x / 9
2 2 1− x / 9 2
f1 ( x) =
9 − x2 .
∫ dy =
∫ dy =
6 π − 2 1− x 2 / 9 6 π
9π
0
Окончательно,
2 9 − x 2 /(9 π),
x ≤ 3;
f1 ( x) = 
x > 3.
0,
Аналогично найдем плотность распределения компоненты Y:
 4 − y 2 /( 2 π),
y ≤ 2;
f 2 ( y) = 
y > 2.
0,
Предлагаем самостоятельно убедиться в том, что функции f 1 (x) и f 2 (у) удовлетворяют условию нормировки.
4.4 Условные законы распределения компонент двумерной случайной величины
Рассмотрим вначале двумерную случайную величину
(X,Y) с дискретными компонентами с возможными значениями
х 1 , х 2 ,…,х n ; у 1 , у 2 , …, у m . Обозначим условную вероятность того, что Х примет, например, значение х 1 при
условии, что Y=у 1 , через р(х 1 |у 1 ).
Эта вероятность, как и в случае двух событий А и В, вообще говоря, не будет равна безусловной вероятности
р(х 1 ).
В общем случае условные вероятности компоненты Х
будем обозначать
p ( xi | y j ) (i = 1, n; j = 1, m) .
Определение. Условным распределением компоненты
Х при Y=y j называют совокупность условных вероятностей
р(х 1 |у j ), р(х 2 |у j ), …, р(х n |у j ), вычисленных в предположении,
что событие Y=y j уже наступило. Аналогично определяется
условное распределение компоненты Y.
70
В общем случае условные законы распределения компоненты Х определяются отношением
р(х i |у j )=р(х i ,у j )/р(у j ),
а компоненты
Y−р(у j |х i )=р(х i ,у j )/р(х i ).
Замечание. Сумма вероятностей условного распределения равна единице. Так
n
m
i =1
j =1
∑ p ( xi | y j ) = ∑ p ( y j | xi ) = 1.
Пример 4.5. Условное распределение числа Х 1 успехов
в первом испытании по схеме Бернулли (см. пример 4.3)
при условии, что число успехов во втором испытании Х 2 =j,
j=0,1, задано табл. 4.3.
Табл.4.3
Из этой таблицы следует, что, незавиХ2
Х1
0
1
Рх 1 симо от числа успехов во втором испытании, 0 или 1 успех в первом испыта0
q
q
q
нии происходит с одними и теми же ве1
p
p
p
роятностями р и q. Это очевидно, поРх 2 q
p
скольку испытания по схеме Бернулли
являются независимыми.
Пусть теперь (X,Y) – двумерная случайная величина с
непрерывными компонентами.
Определение. Условной плотностью f(x|у) распределения компоненты Х при данном значении Y=y называют
отношение плотности совместного распределения f(x,у)
двумерной величины (X,Y) к одномерной плотности распределения f 2 (y) компоненты Y:
f(x|у)= f(x,у)/ f 2 (y).
Аналогично определяется условная плотность компоненты Y при данном значении Х=х:
f(у|х)= f(x,у)/ f 1 (х).
Пример 4.6. Пусть случайные величины Х и Y представляют собой координаты падения частицы, случайным
образом брошенной в круг радиуса R с центром в начале
координат. Случайный вектор (Х,Y) имеет плотность распределения
1 /( πR 2 ),
f ( x, y ) = 
0,
x2 + y 2 ≤ R2 ;
x2 + y 2 > R2.
71
Найдем условную плотность распределения абсциссы Х
точки падения частицы при условии, что ордината Y приняла значение у. Для этого определим одномерную плотность распределения случайной величины Y:
2 R2 − y2
R2 − y2
+∞
1

, | y |≤ R;
f 2 ( y ) = ∫ f ( x, y )dx = ∫
dx =  πR 2
2
−∞
− R 2 − y 2 πR
0,
| y |> R.

При |y|≤R искомая условная плотность
1

2
2
,
|
x
|
≤
R
−
y
;
f ( x, y )  2 R 2 − y 2
f ( x | y) =
=
f 2 ( y) 
| x |> R 2 − y 2 .
0,
Таким образом, случайная величина Х при условии Y=у
равномерно распределена на отрезке [− R 2 − y 2 , R 2 − y 2 ] .
Замечание. Условные плотности, как и любая плотность распределения обладают следующими свойствами:
f ( x | y ) ≥ 0,
+∞
∫ f ( x | y )dx = 1;
−∞
f ( y | x) ≥ 0,
+∞
∫ f ( y | x)dy = 1.
−∞
4.5 Условные числовые характеристики
Рассмотрим двумерную случайную величину (Х,Y). В
соответствии с результатами п. 4.4 можно определить условные распределения компонент Х или Y при условии,
что другая компонента приняла определенное значение
(Х=х или Y=y). Поскольку условное распределение обладает всеми свойствами обычного (безусловного) распределения, то по нему можно определить математическое ожидание, дисперсию и другие числовые (условные) характеристики.
Определение. Условным математическим ожиданием
дискретной случайной величины Y при Х=х (х – определенное возможное значение Х) называют сумму произведений
возможных значений Y на их условные вероятности:
72
m
M (Y | X = x) = ∑ y j p ( y j | x).
j =1
Для непрерывных величин
+∞
M (Y | X = x) = ∫ yf ( y | x)dx ,
−∞
где f(y|x) – условная плотность случайной величины Y при
Х=х.
Условное математическое ожидание М(Y|X) есть функция от х:
M(Y|x)=h(x), которую называют функцией регрессии Y
на Х.
Линия регрессии графически изображает зависимость
«в среднем» случайной величины Y от значения х случайной величины Х.
Аналогично определяются условное математическое
ожидание случайной величины Х и функция регрессии Х на
Y:
M(X|y)=g(y).
Линия регрессии Х на Y графически изображает зависимость «в среднем» случайной величины Х от значения у
случайной величины Y.
Пример 4.7. Пусть Х 1 и Х 2 – числа успехов в первом и
во втором испытаниях по схеме Бернулли с вероятностью
успеха р. Найдем M(X 1 |x 2 ). Используя табл.4.3, получаем
M(X 1 |0)=0·q+1·p=p, M(X 1 |1)=0·q+1·p=p. Отсюда
M(X 1 |x 2 )≡p.
Пример 4.8. Пусть случайный вектор (Х,Y) имеет равномерное распределение в треугольнике с вершинами в
точках (0;0), (0;2), (1;0). Найдем условные математические
ожидания M(X|y), M(Y|x) и функции регрессии Х на Y, Y на
Х. Обозначим заданный треугольник как область D. Совместная плотность распределения
1, ( x, y ) ∈ D;
f ( x, y ) = 
0, ( x, y ) ∉ D.
Возможные значения Х и Y: х∈[0,1], у∈[0,2]. Найдем
условные математические ожидания:
1− y / 2
+∞
2 xdx 2 − y
M ( X | y ) = ∫ xf ( x | y )dx = ∫
=
,
2
−
y
4
−∞
0
73
+∞
2 (1− x )
ydy
= 1 − x.
2
(
1
−
x
)
−∞
0
Таким образом, условное математическое ожидание
2− y
,
M ( X | y) = g ( y) =
4
условное математическое ожидание
M(Y|x)=h(x)=1−х.
Графики линейной регрессии Х на Y и Y на Х приведены
на рис.4.2.
M (Y | x) = ∫ yf ( y | x)dx =
∫
Рис.4.2
Определение. Условной дисперсией D(X|Y) случайной
величины Х относительно случайной величины Y называют
случайную величину, заданную формулой
D(X|Y)=M([X−M(X|Y)] 2 |y).
Для двумерной дискретной случайной величины (Х,Y)
значение D(X|y j ) условной дисперсии Х при условии Y=y j
определяется формулой
n
D( X | y j ) = M ([ X − M ( X | y j )] | y j ) = ∑ [ xi − M ( X | y j )]2 pij ,
2
i =1
а для непрерывной двумерной случайной величины (Х,Y)
+∞
D( X | y ) = M ([ X − M ( X | y )]2 | y ) = ∫ [ x − M ( X | y )]2 f ( x | y )dx.
−∞
Замечание. Условная дисперсия D(X|Y) является функцией случайной величины Y, область определения которой
совпадает с множеством возможных значений случайной
величины Y.
Аналогично определяется условная дисперсия D(Y|X)
случайной величины Y относительно Х.
Определение. Корреляционными отношениями случайных величин Х и Y называют числа η X |Y и η Y |X , которые
74
задаются выражениями
η X |Y = 1 − M ( D( X | Y )) / D( X ) и
ηY | X = 1 − M ( D(Y | X )) / D(Y ).
Корреляционное отношение η X |Y для двумерной дискретной случайной величины (Х,Y) вычисляют по формуле
m
η X |Y = 1 − ( ∑ D( X | y j ) p y j ) / D( X ) ,
j =1
а для непрерывной величины (Х,Y) – по формуле
+∞
η X |Y = 1 − ( ∫ D( X | y ) f 2 ( y )dy ) / D( X ) .
−∞
Приведем без доказательства свойства корреляционного
отношения.
1. 0≤ η X |Y ≤1.
2. η X|Y =1 тогда и только тогда, когда случайная величина Х функционально зависит от Y.
3. η X|Y =0 тогда и только тогда, когда М(X|Y)≡с=М(Х),
т.е. линия регрессии Х на Y есть горизонтальная прямая.
4.6 Зависимые и независимые случайные величины
Определение. Случайные величины Х и Y называются
независимыми, если совместная функция распределения
F(х,у) является произведением одномерных функций распределения F 1 (х) и F 2 (у):
F(х,у)= F 1 (х)·F 2 (у).
В противном случае случайные величины называются
зависимыми.
Из этого определения следует, что для независимых
случайных величин Х и Y события (Х < х) и (Y < y) являются
независимыми. Отсюда же и следует аналогичное условие
относительно функции плотности совместного распределения:
f(х,у)= f 1 (х)·f 2 (у).
Пример 4.9. В схеме Бернулли с двумя испытаниями
(см. пример 4.2)
Р(Х 1 =0, Х 2 =0)=q 2 =P(Х 1 =0)·P(Х 2 =0),
Р(Х 1 =0, Х 2 =1)=qp=P(Х 1 =0)·P(Х 2 =1),
75
Р(Х 1 =1, Х 2 =0)=pq=P(Х 1 =1)·P(Х 2 =0),
Р(Х 1 =1, Х 2 =1)=p 2 =P(Х 1 =1)·P(Х 2 =1).
Таким образом, числа успехов Х 1 и Х 2 в первом и втором испытаниях представляют собой независимые случайные величины, чего и требовалось ожидать в силу определения схемы Бернулли. Так же можно убедиться в том, что
независимыми в совокупности являются случайные величины
Х 1 , …, Х n – числа успехов в 1-ом, 2-ом, …, n-м испытаниях по схеме Бернулли.
Пример 4.10. Рассмотрим двумерную случайную величину (Х,Y) с непрерывными компонентами, совместная
плотность распределения которой имеет вид
x ∈ [0, 1] и y ∈ [0, 1];
1,
f ( x, y ) = 
x ∉ [0, 1] или y ∉ [0, 1].
0,
Одномерные плотности распределения случайных величин Х и Y задаются формулой
x ∈ [0, 1];
1,
f1 ( x) = f 2 ( y ) = 
0, x ∉ [0, 1].
Очевидно, что в данном случае совместная плотность
распределения f(х,у) для всех х,у является произведением
одномерных плотностей f 1 (х), f 2 (у). Значит случайные величины Х и Y независимы.
4.7 Числовые характеристики двумерной случайной
величины. Ковариация и коэффициент корреляции
Для описания двумерной случайной величины, кроме
математических ожиданий и дисперсий компонент используют и другие характеристики как ковариация (корреляционный момент) и коэффициент корреляции.
Определение. Ковариацией cov(Х,Y) случайных величин Х и Y называют математическое ожидание произведения случайных величин
o
o
X = X − M ( X ) и Y = Y − M (Y ) :
o o
cov( X , Y ) = M ( X Y ) = M [( X − M ( X ))(Y − M (Y ))].
Запишем формулы, определяющие ковариацию. Для
дискретных случайных величин Х и Y
76
n m
cov( X , Y ) = ∑ ∑ ( xi −M ( X ))( y j − M (Y )) p( xi , y j ) ,
i =1 j =1
а для непрерывных случайных величин Х и Y
+∞ +∞
cov( X , Y ) = ∫ ∫ ( x −M ( X ))( y − M (Y )) f ( x, y )dxdy.
−∞ −∞
Определение ковариации позволяет записать выражение
для дисперсии суммы произвольных случайных величин и к
уже имеющимся свойствам дисперсии добавить еще одно:
D(X+Y)=D(X)+D(Y)+2cov(X,Y).
Действительно,
D(X+Y)=М((X+Y)−М(X+Y)) 2 =
=М(X−М(X)) 2 +2М((X−М(X))(Y−М(Y))+M(Y−М(Y)) 2 =
=D(X)+D(Y)+2cov(X,Y).
Ковариация служит для характеристики связи между
случайными величинами Х и Y. Для этого отметим основные свойства ковариации.
1. cov(X,X)=D(X).
2. cov(X,Y)=0 для независимых случайных величин Х и
Y.
3. cov(Х,Y)=M(X·Y)−M(X)·M(Y).
4. |cov(X,Y)|≤ D( X ) D(Y ).
Утверждение 1 следует из определения ковариации:
cov(Х,Х)=M(X−M(X)) 2 .
Если Х и Y – независимые случайные величины, то их
отклонения X−М(X) и Y−М(Y) также независимы. Пользуясь
свойствами математического ожидания, получим доказательство утверждения 2:
cov(X,Y)=М[(X−М(X))(Y−М(Y))]=
=М[X−М(X)]M[Y−М(Y)]=0.
Утверждение 3 следует из определения самой ковариации и раскрытия скобки в формуле, а также из свойств математического ожидания.
Для доказательства утверждения 4 введем в рассмотрение случайную величину Z 1 =σ y X−σ x Y и найдем ее дисперсию D(Z 1 )=M[Z 1 − mz 1 ] 2 . Выполнив выкладки, получим
D( Z1 ) = 2σ 2x σ 2y − 2σ x σ y ⋅ cov( X , Y ) .
Так как дисперсия неотрицательна, то получим
cov(X,Y)≤σ х σ у .
77
Введя случайную величину Z 2 =σ у X+σ х Y, аналогично
найдем
cov(X,Y)≥−σ х σ у .
Таким образом получили утверждение 4.
Существенным недостатком ковариации является то,
что ее размерность совпадает с произведением размерностей случайных величин и сравнение ковариации различных двумерных случайных величин становится затруднительным. Поэтому вводят безразмерную величину – коэффициент корреляции.
Определение. Коэффициентом корреляции ρ=ρ(Х,Y)
случайных величин Х и Y называют отношение ковариации
к произведению средних квадратических отклонений этих
величин:
ρ=cov(X,Y)/σ х σ у .
Так как для независимых случайных величин
cov(X,Y)=0, то и ρ(Х,Y)=0. Когда рассматривают n-мерный
случайный вектор (Х 1 ,…,Х n ), коэффициент корреляции обозначают как
ρ ij = cov( X i , X j ) /(σ X i σ X j ).
Коэффициент корреляции имеет следующие свойства.
1. |ρ(X,Y)|≤1.
2. Если случайные величины Х и Y являются независимыми, то ρ(Х,Y)=0.
3. ρ(Х,Х)=1.
4. |ρ(X,Y)|=1 тогда и только тогда, когда случайные величины Х и Y связаны линейной зависимостью.
5. |ρ|≤ η X |Y .
6. |ρ|= η X |Y тогда и только тогда, когда М(X|Y)≡М(Х), т.е.
линия регрессии Х на Y является прямой.
Коэффициент корреляции (ковариация) может не улавливать степень нелинейной функциональной зависимости.
Для этой цели используют корреляционное отношение.
Доказательства первых трех утверждений следуют из
свойств ковариации и самого определения коэффициента
корреляции. Доказательства остальных трех утверждений
провести самостоятельно.
Определение. Две случайные величины Х и Y называются коррелированными, если их ковариация или коэф78
фициент корреляции отличны от нуля; Х и Y называют некоррелированными, если их ковариация равна нулю.
При ρ>0 говорят о положительной коррелированности,
а при ρ<0 – об отрицательной.
Две коррелированные величины также и зависимы, что
следует из свойства ковариации. Обратное же утверждение
не всегда имеет место, т.е если две случайные величины Х
и Y зависимы, то они могут быть как коррелированными,
так и некоррелированными.
Другими словами, ковариация двух зависимых величин
может быть равна нулю, но может быть и не равна нулю.
Исключение составляют нормально распределенные случайные величины, так что из некоррелированности нормально распределенных величин вытекает их независимость.
Пример 4.11. Двумерная случайная величина (Х,Y) задана совместной плотностью распределения:
1 /(6 π), x 2 / 9 + y 2 / 4 ≤ 1;
f ( x, y ) = 
0,
x 2 / 9 + y 2 / 4 > 1.
Доказать, что Х и Y – зависимые некоррелированные
величины.
Решение. Одномерные функции плотности были найдены ранее (пример 4.4):
2
1
f1 ( x) =
9 − x 2 , f 2 ( y) =
4 − y 2 внутри заданного эл9π
2π
липса и f 1 (x)=f 2 (y)=0 вне его. Так как f(x,y)≠ f 1 (x)·f 2 (y), то Х
и Y − зависимые случайные величины. Найдем теперь ковариацию
+∞ +∞
cov( X , Y ) = ∫ ∫ ( x −M ( X ))( y − M (Y )) f ( x, y )dxdy.
−∞ −∞
Поскольку функция f 1 (x) симметрична относительно
оси оу, то М(Х) =0. Аналогично, М(Y)=0 в силу симметрии
f 2 (y) относительно оси 0х. Следовательно
2
2 1− x / 9
1 3 1− y / 4
cov( X , Y ) = ∫ ∫ xyf ( x, y )dxdy =
y(
∫
∫ xdx)dy.
6 π − 3 1 − y 2 / 4 − 2 1− x 2 / 9
−∞ −∞
+∞ +∞
2
Внутренний интеграл равен нулю в силу нечетности подынтегральной функции и симметричности пределов ин79
тегрирования относительно начала координат. Следовательно, cov(X,Y)=0, т.е. зависимые случайные величины Х и
Y некоррелированы.
Пример 4.12. Двумерная случайная величина (Х,Y) задана совместной плотностью распределения
24 xy, x ≥ 0, y ≥ 0 и x + y ≤ 1;
f ( x, y ) = 
в противном случае.
0,
Найдем одномерные плотности распределения:
1− x
f1 ( x) = ∫ 24 xydy = 12 xy 2 |10− x = 12 x(1 − x) 2
0
1− y
f 2 ( y ) = ∫ 24 xydx = 12 yx 2 |10− y = 12 y (1 − y ) 2
для 0 ≤ x ≤ 1;
для 0 ≤ y ≤ 1.
0
Поскольку
1 1
1
1 3 3 9
1 1
1
1
f ( ⋅ ) = 6, a f1 ( ) f 2 ( ) = ⋅ = , т.е. f ( ⋅ ) ≠ f1 ( ) ⋅ f 2 ( ), то
2 2
2
2 2 2 4
2 2
2
2
Х и Y не являются независимыми.
Найдем ковариацию cov(X,Y). Для этого определим
1 1− x
1
1− x
1
2
2
2
M ( XY ) = ∫ ∫ xyf ( x, y )dydx = ∫ x ( ∫ 24 y dy )dx = ∫ 8 x 2 (1 − x)3 dx = ,
15
0
0
0
0
0
1
1
2
M ( X ) = ∫ xf1 ( x)dx = ∫ 12 x 2 (1 − x) 2 dx = ,
5
0
0
1
1
2
M (Y ) = ∫ yf 2 ( y )dy = ∫ 12 y 2 (1 − y ) 2 dx = .
5
0
0
2 2 2
2
Отсюда
cov( X , Y ) = M ( XY ) − M ( X ) ⋅ M (Y ) = − ⋅ = − .
15 5 5
75
Определив также σ(Х)=σ(Y)=1/25, найдем коэффициент
корреляции
ρ = (−2 / 75) /(1 / 25) = − 2 . Таким образом, случайные величины
3
Х и Y зависимые и отрицательно коррелированные величины.
Рассмотрим теперь n- мерный случайный вектор
X = ( X 1 ,K , X n ) .
Определение. Матрицей ковариаций (ковариационной матрицей) случайного вектора X называют матрицу
Σ = (σ ij ) = (cov( X i , X j )) ,
80
состоящую из ковариаций случайных величин Х i и Х j .
Эта матрица симметрическая и неотрицательно определенная.
Определение. Корреляционной (нормированной ковариационной) матрицей случайного вектора X называют
матрицу
ρ=(ρ ij )=(ρ(Х i ,Х j )), состоящую из коэффициентов корреляции случайных величин Х i и Х j .
4.8 Многомерное нормальное распределение
Пусть координаты Х 1 и Х 2 случайного вектора
X = ( X 1 , X 2 ) являются случайными величинами, распределенными по нормальному закону с функциями плотности
( x − m1 ) 2
1
f1 ( x) = φ m1, σ1 ( x) =
exp(−
) и
2
2πσ1
2σ1
1
( x − m2 ) 2
f 2 ( x) = φ m 2, σ 2 ( x) =
exp(−
),
2 πσ 2
2σ 22
где m i и σ i >0, i = 1,2 математические ожидания и среднее
квадратические отклонения случайных величин Х 1 и Х 2 .
Если Х 1 и Х 2 являются независимыми случайными величинами, то согласно результатам п. 4.6
f(x 1 ,x 2 )=f 1 (x 1 )·f 2 (x 2 )
и в этом случае плотность двумерного нормального распределения имеет вид
1
( x1 − m1 ) 2 ( x2 − m2 ) 2
f ( x1 , x2 ) =
−
exp(−
).
(4.1)
( 2π ) 2 σ1σ 2
2σ12
2σ 22
В общем случае вектор X = ( X 1 , X 2 ) имеет двумерное
нормальное распределение, если его плотность распределения определяется формулой
1
− Q ( x1 − m1 , x 2 − m 2 )
1
f ( x1 , x2 ) =
e 2
,
(4.2)
2
2
( 2 π ) σ1σ 2 1 − ρ
где функция двух переменных
1
y12 2ρy1 y2 y22
Q( y1 , y2 ) =
( −
+ 2 ),
(4.3)
σ1σ 2
1 − ρ 2 σ12
σ2
y i =x i −m i , i=1,2, есть положительно определенная квадра81
тичная форма (т.е. Q(y 1 ,y 2 )>0 для любых (y 1 ,y 2 )≠(0,0)).
Здесь ρ – коэффициент корреляции случайных величин
Х1 и Х2.
Для дальнейшего обобщения используем матрицу ковариаций
 σ 11 σ 12 
 ,
∑ = 
σ
σ
 21
22 
2
где σ ii = σ i , i = 1,2, a σ12 = σ 21 = ρσ1σ 2 .
Если ввести вектор y = ( y1 , y2 ) , то квадратичную форму
(4.3) можно записать
Q(y ) = y ∑ −1 y T ,
−1
где Σ −обратная матрица, знак «т» − операция транспонирования. Тогда выражение (4.2) можно записать в виде
1
− ( x − m ) ∑ −1 ( x − m ) T
1
,
f ( x) =
e 2
1
2
( 2π ) (det ∑ ) 2
где det Σ - определитель матрицы Σ .
Теперь можно записать плотность нормального распределения для случайного вектора X = ( X 1 , K, X n ) произвольной размерности n>2:
1
− ( x − m ) ∑ −1 ( x − m ) T
1
.
f ( x) =
e 2
1
n
( 2 π ) (det ∑ ) 2
Замечание. Если компоненты двумерной случайной величины (Х 1 , Х 2 ), распределенной нормально, некоррелированы, то плотность распределения (4.2) переходит в (4.1).
Отсюда уже следует, что Х 1 и Х 2 независимы.
4.9 Задание №4 на самостоятельную работу
4.1 Задано распределение вероятностей дискретной
двумерной случайной величины:
X
26
30
41
50
2,3 0,05 0,12 0,08 0,04
2,7 0,09 0,30 0,11 0,21
Y
82
Найти законы распределения составляющих.
Ответ:
Х 26
30
41
50
Y 2,3 2,7
P 0,14 0,42 0,19 0,25
P 0,29 0,71
4.2 Задана функция распределения двумерной случайной величины
sin x ⋅ sin y при 0 ≤ x ≤ π / 2, 0 ≤ y ≤ π / 2,
F ( x, y ) = 
при x < 0 или y < 0.
0
Найти вероятность попадания случайной точки (X,Y) в
прямоугольник, ограниченный прямыми х=0, х=π/4, у=π/6,
у=π/3.
Ответ: Р=0,26.
4.3 Задана функция распределения двумерной случайной величины
( 1 − e − 4 x )( 1 − e − 2 y ) при х > 0 , y > 0;
F(x,y) = 
при х < 0 , y < 0.
0
Найти двумерную плотность вероятности системы
(X,Y).
Ответ: f(x,y)=8e −4x −2y при x>0, y>0; f(x,y)=0 при x<0
или y<0.
4.4 Задана двумерная плотность вероятности двумерной
случайной величины: f(x,y)=(1/2)·sin(x+y) в квадрате
0≤х≤π/2, 0≤y≤π/2; вне квадрата f(x,y)=0.
Найти функцию распределения системы (X, Y).
Ответ: F(x,y)=(1/2)[sinx+siny−sin(x+y)].
4.5 Задана дискретная двумерная случайная величина
(X,Y)
X
Y
3
6
10 0,25 0,1
14 0,15 0,05
18 0,32 0,13
Найти: а) условный закон распределения X при условии,
что Y=10; б) условный закон распределения Y при условии,
что Х=6.
83
Ответ:
а)
Х
3
6
Р(X|10) 5/7 2/7
б)
Y
10
14
18
Р(Y|6) 5/14 5/28 13/28
4.6 Плотность совместного распределения непрерывной
двумерной случайной величины f(x,y)=cosx·cosy в квадрате 0≤х≤π/2, 0≤y≤π/2; вне квадрата f(х,у)=0. Доказать, что
составляющие X и Y независимы.
Указание. Убедиться, что безусловные плотности распределения составляющих равны соответствующим условным плотностям.
4.7 Непрерывная двумерная случайная величина (X, Y)
распределена равномерно внутри прямоугольника с центром симметрии в начале координат и сторонами 2а и 2b,
параллельными координатным осям. Найти: а) двумерную
плотность вероятности системы; б) плотности распределения составляющих.
Ответ: a) f(x,y)=1/(4ab) внутри заданного прямоугольника; вне его f(x,y)=0; б) f 1 (x)=1/(2а) при |x|≤a, при |x|>a
f 1 (x)=0; при |y|≤b f 2 (y)=1/(2b), при |y|>b f 2 (y)=0.
4.8 Непрерывная двумерная случайная величина (X,Y)
распределена равномерно в квадрате с вершинами (0, 0), (0,
1), (1, 0) и (1,1). Найдите:
а) совместную плотность распределения;
б) совместную функцию распределения;
в) частные плотности распределения случайных величин X и Y;
г) вероятность попадания случайного вектора (X, Y) в
круг (х−1) 2 +(у−1) 2 ≤1/2;
д) проверьте, являются ли случайные величины X и Y
независимыми.
Ответ:
0 , x ∉ [0 ,1] или y ∉ [0 ,1];
a) f(x,y) = 
1, x ∈ [0 ,1] или y ∈ [0 ,1];
84
0, x ≤ 0 или y ≤ 0;
 xy, 0 < x ≤ 1 и 0 < y ≤ 1;

б) F ( x, y ) =  x, 0 < x ≤ 1 и y > 1;
 y, x > 1 и 0 < y ≤ 1;

1, x > 1 и y > 1;
0, x ∉ [0, 1];
0, y ∉ [0,1];
в) f1 ( x) = 
f 2 ( y) = 
1, x ∈ [0, 1];
1, y ∈ [0,1];
г) P=π/8; д) да, являются.
4.9 Непрерывная двумерная случайная величина (X, Y)
имеет совместную плотность распределения
C
f ( x, y ) =
.
1 + x2 + y2 + x2 y 2
Найдите:
а) постоянную С;
б) совместную функцию распределения;
в) частные плотности распределения случайных величин X и Y;
г) вероятность попадания случайного вектора (X, Y) в
треугольник с вершинами в точках (−1; 1), (1; 1) и (0; 0);
д) проверьте, являются ли случайные величины X и Y
независимыми.
1
1 1
1
Ответ: а) C=1/π; б) F ( x, y ) = ( arctgx + )( arctgy + ) ;
π
2 π
2
1
1
в) f1 ( x) =
,
f
(
y
)
=
;
2
π(1 + x 2 )
π(1 + y 2 )
1
г) P = ; д) да, являются.
16
4.10 Распределение вероятностей дискретной двумерной случайной величины (X, Y) задано в таблице. Проверьте, являются ли случайные величины X и Y независимыми.
Y
−1
1
3
X −3
−1 0,06 0,02 0,04 0,08
0 0,15 0,005 0,1 0,2
1 0,09 0,03 0,06 0,12
85
Ответ: да, являются.
4.11 Задана плотность совместного распределения двумерной случайной величины (X, Y)
36 x y e − ( x 2 + y 2 ) , ( x > 0, y > 0),
f ( x, y ) = 
0,
( x < 0 или y > 0).
Найти математические ожидания и дисперсии составляющих.
Ответ: M(X)=M(Y)= 3π / 6; D(X)=D(Y)=(4−π)/12.
4.12 Задана плотность совместного распределения непрерывной двумерной случайной величины (X, Y):
f(x,y)=2cosx·cosy в квадрате 0≤х≤π/4, 0≤y≤π/4; вне квадрата f(x,y) = 0. Найти математические ожидания составляющих.
Ответ: M(X)=M(Y)= (π + 4 − 4 2) / 4 .
4.13 Двумерный случайный вектор (X, Y) имеет нормальное распределение с плотностью распределения
3 − 4 x 2 − 2 xy − y 2
f ( x, y ) =
e
.
π
Найдите условную плотность распределения случайной
величины X при условии, что случайная величина Y приняла значение y, и условную плотность распределения случайной величины Y при условии, что случайная величина X
приняла значение х. Используя найденные условные плотности распределения, проверьте, являются ли случайные
величины X и Y независимыми.
2
2
2
1
Ответ: f ( x | y ) = e − ( 4 x + y ) / 4 , f ( y | x) = e − ( x + y ) .
π
π
Случайные величины X и Y являются зависимыми.
4.14 В условиях задачи 4.13 найдите условные математические ожидания М(Х|Y) и М(Y|Х), условные дисперсии
D(X|Y) и D(Y|X) и корреляционные отношения η X |Y и
ηY | X .Определите регрессии случайных величин X на Y и Y
на X и постройте линии регрессии.
Ответ:
M ( X | Y ) = −Y / 4, M (Y | X ) = − X , D( X | Y ) ≡ 1 / 8, D(Y | X ) ≡ 1 / 2,
g ( y ) = − y / 4, h( x) = − x, η x | y = η x | y = 1 / 2.
86
4.15 Изготавливаемые в цехе втулки сортируют по отклонению их внутреннего диаметра от номинального размера на четыре группы со значениями 0,01, 0,02, 0,03 и
0,04 мм и по овальности на четыре группы со значениями
0,002, 0,004, 0,006 и 0,008 мм. Совместное распределение
вероятностей отклонения диаметра Х 1 и овальности Х 2
представлено таблице.
Найдите математические ожидания, дисперсии, ковариацию, коэффициент корреляции, а также ковариационную и
корреляционную матрицы случайных величин Х 1 и Х 2 .
X2
0,002
0,004
0,006
0,008
0,01
0,01
0,03
0,04
0,02
Х1
0,02 0,03
0,02 0,04
0,24 0,15
0,10 0,08
0,04 0,03
0,04
0,4
0,06
0,08
0,02
Ответ: M(X 1 )=0,026 мм, M(X 2 )=0,005 мм,
D(X 1 )=81·10 -5 мм 2 , D(X 2 )=4·10 -6 мм 2 ,
cov(X 1 X 2 )=245·10 -5 мм 2 ,
 81 ⋅10− 5 254 ⋅10− 5 
ρ ≈ 0,41, ∑ = 
ρ =  1 0,41 .
−5
−6  ,
4 ⋅10 
 0,41 1 
 254 ⋅ 10
4.16 Совместная плотность распределения двумерной
непрерывной случайной величины (Х 1 , Х 2 ) имеет вид
x1 ≤ 0 или x2 ≤ 0 ;
0,
f ( x1 , x2 ) = 
− ( x1 2 + x 22 )
4
x
x
e
, x1 > 0 и x2 > 0.
 1 2
Найдите математические ожидания, дисперсии, ковариацию, коэффициент корреляции, а также ковариационную и корреляционную матрицы случайных величин Х 1 и
Х2.
Ответ: M ( X 1 ) = M ( X 2 ) = π / 2, D( X 1 ) = D( X 2 ) = (4 − π) / 4,
0
 , ρ =  1 0 .
cov( X 1 , X 2 ) = 0 , ρ = 0, ∑ = (4 − π) / 4
 0 1
0
(4 − π) / 4



4.17 Доказать, что если X и Y связаны линейной зависимостью Y=аХ+b, то абсолютная величина коэффициента
корреляции равна единице.
87
5 ФУНКЦИИ ОТ СЛУЧАЙНЫХ ВЕЛИЧИН. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ И ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
Если величина Х или величины Х 1 , …, Х n , через которые
выражается Y, являются случайными, то и Y также будет
случайной величиной. Таким образом вводится понятие
функции от случайной величины Х или от случайного вектора (Х 1 , …, Х n ).
5.1 Примеры функциональной зависимости между
случайными величинами
Пример 5.1. На плоскости задан отрезок длины l
(рис.5.1), вращающийся случайным образом так, что все
направления его одинаково вероятны. Отрезок проецируется на неподвижную ось АВ. Длина проекции отрезка равна
Y=l|cosα|, где угол α – случайная величина, распределенная
равномерно на отрезке [0, 2π].
Рис. 5.1
Приведенная формула задает функциональную зависимость
между значением угла α и длиной проекции отрезка (Y−
скалярная функция от скалярной случайной величины α).
Пример 5.2. Пусть Х и Y – измеренные (с погрешностями) длины катетов прямоугольного треугольника. Тогда
функциями от двух аргументов Х и Y будут:
L = X 2 + Y 2 −длина гипотенузы;
S=XY/2 – вычисленная площадь этого треугольника
(L и S – скалярные функции от двумерной случайной величины (Х ,Y)).
88
Пример 5.3. Предположим, что на плоскость в соответствии с некоторым вероятностным законом случайным образом бросают точку и измеряют ее полярные координаты
ρ и φ. Тогда формулы Х=ρcosφ и Y=ρsinφ перехода от полярных координат к декартовым Х и Y определяют векторную функцию от векторного аргумента.
5.2 Функции от одномерной случайной величины
Пусть на вероятностном пространстве (Ω, Q, P) задана
случайная величина Х=Х(ω). Рассмотрим действительную
функцию
у=Y(х)
действительного аргумента х (область определения которой
есть множество возможных значений случайной величины
Х).
Определение. Случайную величину Y, которая каждому
элементарному исходу ω ставит в соответствие число
Y(ω)=Y(X(ω)), называют функцией Y(Х) случайной величины Х.
1. Пусть аргумент Х – дискретная случайная величина,
заданная рядом распределения
Х
Р
х1 х2 … хn
.
р1 р2 … рn
Тогда случайная величина Y=Y(X) будет иметь ряд распределения
Y
Р
Y(х 1 ) Y(х 2 ) … Y(х n )
.
р1
р2
… рn
При этом, если среди возможных значений Y(х i ) есть
одинаковые, соответствующие столбцы нужно объединить
в один, приписав им суммарную вероятность.
Пример 5.4. Дискретная случайная величина задана рядом распределения
Х −2 2
3
.
Р 0,4 0,5 0,1
89
Найти распределение функции Y=Х 2 .
Решение. Вероятность возможного значения у 1 =4 равна
сумме вероятностей несовместных событий (Х=−2) и (Х=2),
т.е. 0,4+0,5=0,9. Вероятность возможного значения у 2 =9
равна 0,1. Тогда ряд распределения Y будет иметь вид
4
9
.
0,9 0,1
Y
Р
2. Пусть аргумент Х – непрерывная случайная величина.
Зная плотность распределения f(x) найти распределение
функции Y=Y(X). Доказано, что если Y(X) – дифференцируемая и монотонная функция, то плотность распределения
Y(X) случайной величины Y находится с помощью равенства
f(y)=f(ψ(y))|ψ′(y)|, где ψ(х)= Y -1 (у) – функция, обратная
к Y(х).
Пример 5.5. Пусть случайная величина Y получена из
случайной величины Х линейным преобразованием
Y=аX+b,
где а≠0 и b – неслучайные числа. Так как линейная функция является монотонной и учитывая, что
y −b
1
1
Y −1 ( y ) =
и
(Y −1 ( y ))′ = , получим f ( y ) =
f (b).
|a|
а
а
Пусть случайная величина Х распределена по нормальному закону с параметрами m x и σ х . Тогда случайная величина Y=аX+b имеет плотность распределения
( y − (amx + b)) 2
1
y −b
1
f ( y) =
φm ,σ (
)=
exp{−
}=
2
2
|a| x x а
2
(|
a
|
σ
)
2 π(| а | σ x )
x
= φ amx +b,|a|σ x ( y ) ,
т.е. распределена по нормальному закону с параметрами
m y =am x +b и σ у =|а|σ х .
Замечание. Если функция Y(х) является непрерывной
кусочно монотонной функцией с k интервалами монотонности, то плотность распределения величины Y(Х) задается
формулой
k
f ( y ) = ∑ f (ψ i ( y )) | ψ′i ( y ) |.
i =1
90
5.3 Функции от случайного векторного аргумента
Рассмотрим на вероятностном пространстве (Ω, Q, P)
двумерный случайный вектор X = ( X 1 , X 2 ) и числовую
функцию Y(х 1 ,х 2 ) числовых аргументов х 1 и х 2 .
Определение.
Случайную
величину
Y=Y(Х 1 ,
Х 2 )=Y(Х 1 (ω), Х 2 (ω)) называют скалярной функцией от двумерной случайной величины (двумерного случайного вектора) (Х 1 , Х 2 ).
1. Пусть Х 1 и Х 2 являются дискретными случайными величинами, с возможными значениями х 1 i и х 2i соответственно. Тогда функция Y(Х 1 , Х 2 ) является дискретной случайной величиной, принимающей значения Y(х 1i , х 2 i ) с вероятностью
р ij =Р(X 1 =x 1 i , X 2 =x 2 i ).
Пример 5.6. Пусть Y – случайная величина, равная
суммарному числу успехов в двух испытаниях по схеме
Бернулли, а х i – число успехов в i-ом испытании, i=1,2. Тогда
и
Y(х 1 ,х 2 )=х 1 +х 2 .
Y=Х 1 +Х 2
Так как возможные значения Х i только значения 0 или
1, то случайная величина Y может принимать четыре значения:
Y(0,0)=0+0=0, Y(1,0)=1+0=1, Y(0,1)=0+1=1, Y(1,1)=1+1=2
с вероятностями q 2 , pq, qp и р 2 соответственно.
Объединив одинаковые значения Y(1,0), Y(0,1) и суммируя их вероятности, получим ряд распределения случайной
величины Y (биномиальное распределение):
Y 0 1
2
.
2
Р y q 2pq р 2
2. Пусть Х 1 и Х 2 являются непрерывными случайными
величинами. Доказано, что если Х 1 и Х 2 независимы, а случайная величина Y является их суммой:
Y=Х 1 +Х 2 ,
то плотность распределения Y f(y) может быть найдена с
помощью равенства
91
+∞
f ( y ) = ∫ f1 ( x) ⋅ f 2 ( y − x)dx,
−∞
где f 1 , f 2 – плотности распределения аргументов,
а х 1 =х – переобозначение.
В этом случае говорят, что плотность распределения f(у)
случайной величины Y является сверткой (композицией)
плотностей распределения f 1 (x) и f 2 (x) компонент Х 1 и Х 2 .
Для обозначения свертки плотностей распределения используют символическую запись f 1 * f 2 .
Пример 5.7. Пусть Х 1 и Х 2 независимые случайные величины, распределенные по нормальному закону со средними значениями m 1 и m 2 и средними квадратичными отклонениями σ 1 и σ 2 . Найдем плотность распределения суммы Y=Х 1 +Х 2 . Воспользуемся формулой свертки
1
( y − m1 − m2 ) 2
f ( y ) = φ m1 , σ1 ∗ φ m 2 , σ 2 =
exp(−
)×
2 πσ1σ 2
2(σ12 + σ 22 )
σ12 + σ 22
σ12 m2 − σ 22 m1 + σ 22 y 2
× ∫ exp(−
(x −
) )dx.
2 2
2
2
2σ1 σ 2
σ1 + σ 2
−∞
Опуская выкладки, окончательно запишем
1
( y − m1 − m2 ) 2
f ( y) =
exp(−
) . Таким образом, слу2
2
2
2
2(σ1 + σ 2 )
2 π(σ1 + σ 2 )
+∞
чайная величина Y также распределена по нормальному закону с параметрами m 1 +m 2 и
σ12 + σ22 , т.е. композиция
плотностей нормальных законов является плотностью нормального закона распределения.
Замечание 1. Полученный результат справедлив для
суммы любого числа слагаемых, распределенных по нормальному закону, т.е. если Х 1 ,…, Х n − независимые нормально распределенные случайные величины со средними
m 1 ,…, m n и средними квадратическими отклонениями σ 1 ,
…, σ n , то их сумма Y= Х 1 + …+Х n также распределена нормально с параметрами m 1 +…+m n и σ12 + ... + σ2n .
Замечание 2. Доказано, что если случайные величины
Х 1 , …, Х n являются независимыми и имеют гамма − распределения с параметрами β и α i , i = 1, n , соответственно, то их
сумма Y= Х 1 + …+Х n имеет гамма – распределение с пара92
n
метрами β и ∑ α i , т.е. композиция гамма – распределений с
i =1
одинаковым параметром β и различными параметрами α i
является также гамма – распределением.
Поскольку распределения Эрланга и χ 2 являются частным случаем гамма – распределения, то композиция любого числа распределений Эрланга или χ 2 снова является распределением того же типа.
Замечание 3. Если Х 1 и Х 2 зависимые случайные величины, распределенные по нормальному закону, то сумма
Y=Х 1 +Х 2 также распределена по нормальному закону с параметрами (m 1 +m 2 ) и σ12 + σ22 + 2ρ12σ1σ2 , где ρ 1 2 - коэффициент корреляции величин Х 1 и Х 2 .
5.4. Математическое ожидание функции от случайной величины
Пусть Y=Y(Х) является функцией от случайной величины. Требуется, не находя закона распределения величины
Y, определить ее математическое ожидание М(Y(Х)).
Рассмотрим сначала случай, когда Х есть дискретная
случайная величина с рядом распределения
Х
Р
х1 х2 … хn
.
р1 р2 … рn
Тогда случайная величина Y принимает значения Y(x 1 ),
…,Y(x n ) с теми же вероятностями р i =P(X=x i ) и ее математическое ожидание определяется формулой
n
M (Y ) = M (Y ( X )) = ∑ Y ( xi ) pi .
i =1
Пример 5.8. Определим математическое ожидание выигрыша Y в «Спортлото 6 из 49» .
Число угаданных номеров Х имеет гипергеометрическое
распределение
6−i
6
P( X = i ) = C6i C43
/ C49
, i = 0,6.
Ряд распределения Х задан таблицей 5.1
Табл. 5.1
93
Х
Р
0
0,4360
1
0,4130
2
0,1324
3
0,0176
4
0,00097
5
1,8·10 - 5
6
7·10 - 8
Рассмотрим идеализированный вариант игры, когда не
угадав ни одного или угадав один или два номера мы проигрываем (с учетом стоимости билета) 0,3 р., угадав три
номера, получаем выигрыш 2,7 р., угадав четыре номера –
54,7 р., пять номеров – 699,7 р., и шесть номеров – 9999,7
р.
Распределение случайной величины Y приведено в
табл.5.2.
Табл. 5.2
−0,3
−0,3
−0,3
2,7
54,7
699,7
9999,7
Y
-5
7·10 - 8
Р 0,4360 0,4130 0,1324 0,0176 0,00097 1,8·10
Объединив столбцы с одинаковыми возможными значениями, получим окончательный ряд распределения случайной величины Y (табл.5.3).
Табл.5.3
−0,3
Y
Р 0,9814
2,7
0,0176
54,7
0,00097
699,7
1,8·10 - 5
9999,7
7·10 - 8
Тогда математическое ожидание функции выигрыша
М(Y(Х))=Y(0)P(X=0)+Y(1)P(X=1)+Y(2)P(X=2)+
+Y(3)P(X=3)+Y(4)P(X=4)+Y(5)P(X=5)+Y(6)P(X=6)≈
≈−0,3·0,9814+2,7·0,0176+54,7·0,00097+699,7·2·10 -5 +
+9999,7·7·10 -8 ≈−0,179.
Это означает, что играющий в среднем проигрывает
примерно 18 копеек.
Для непрерывной случайной величины Х, имеющей
плотность распределения f(x), математическое ожидание
случайной величины Y=Y(Х) можно найти по формуле
+∞
M (Y ( X )) = ∫ Y ( x) f ( x)dx ,
−∞
при условии, что интеграл сходится абсолютно.
Пример 5.9. Случайная величина Х имеет экспоненциальное распределение с параметром λ=3. Найдем математическое ожидание случайной величины Y=е Х .
94
3 −2x ∞ 3
M (Y ( X )) = ∫ e ⋅ 3 ⋅ e dx = − e | = .
2
2
0
0
Пример 5.10. Найдем математическое ожидание (среднее значение) длины проекции отрезка из примера 5.1
2π
dα 2l π / 2
2l
M (Y (α)) = M (l ⋅ | cos α |) = ∫ l | cos α |
=
∫ cos α dα = ≈ 0,637 ⋅ l .
2π π 0
π
0
Замечание. Аналогично может быть определено математическое ожидание функции от случайного векторного
аргумента. Запишем эти формулы для случая двух аргументов
M (Y ( X 1 , X 2 )) = ∑ ∑ Y ( x1i , x2 j ) pij −для дискретных ар+∞
−3x
x
i
j
+∞ +∞
гументов Х 1 ,Х 2 и
M (Y ( X 1 , X 2 )) = ∫ ∫ Y ( x1 , x2 ) f ( x1 , x2 )dx1dx2 −
−∞ −∞
для непрерывных аргументов Х 1 и Х 2 .
5.5 Дисперсия функции от случайной величины
Как видно из п. 5.4, математическое ожидание функции
любого числа случайных аргументов может быть найдено
без использования закона распределения функции. Аналогично могут быть найдены и другие числовые характеристики функции – моменты высших порядков. Здесь приведем формулы определения дисперсии функции одного и
двух аргументов.
Дисперсия функции одного случайного аргумента выражается формулой
+∞
D(Y ( X )) = ∫ [Y ( x) − M (Y ( x))]2 f ( x)dx,
−∞
где f(x) – плотность распределения величины Х.
Дисперсия функции двух случайных аргументов выражается формулой
+∞ +∞
D(Y ( X 1 , X 2 )) = ∫ ∫ [Y ( x1 , x2 ) − M (Y ( x1 , x2 ))]2 f ( x1 , x2 )dx1dx2 ,
−∞ −∞
где f(x 1 ,x 2 ) – плотность распределения случайного вектора.
5.6 Задание №5 на самостоятельную работу
95
5.1 Дискретная случайная величина X имеет ряд распределения, представленный в табл. 5.4. Найдите ряд распределения случайной величины Y, если:
a) Y = 10Х−1; б) Y =−Х 2 ; в) Y =2 х .
Табл.5.4
X −0,5 0
0,5 1
1,5
P 0,1 0,4 0,1 0,3 0,1
Ответ: ряд распределения случайной величины Y представлен:
а) в табл. 5.5; б) в табл. 5.6; в) в табл. 5.7.
Табл. 5.5
X −6 −1 4
9
14
P 0,1 0,4 0,1 0,3 0,1
Табл. 5.6
X −2,25 −1 −0,25 0
P
0,1 0,3 0,2 0,4
Табл. 5.7
X 1/ 2 1
2 2
2 2
P
0,1 0,4 0,1 0,3 0,1
5.2 Случайная величина X распределена равномерно в
интервале (0, 3). Найдите функцию распределения случайной величины У=X 2 +1.
Ответ:
y ≤ 1;
0,

F ( y ) =  y − 1 / 3, 1 ≤ y ≤ 10;
1,
y > 10.

5.3 Случайная величина X имеет экспоненциальное распределение с параметром λ. Найдите плотность распределения случайной величины Y, если:
а)Y=e -X ; б) Y=X 3 ; в) Y=1/X 2 ; г) Y= X .
Ответ:
y ≤ 0;
0,
y ∉ (0,1);
0,
а) f ( y ) =  λ −1
б) f ( y ) =  − λ 3 y
λ
y
,
y
∈
(
0
,
1
);
λe
/(33 y 2 ), y > 0;

96
y ≤ 0;
y ≤ 0;
0,
0,
в) f ( y ) =  − λ / y
г) f ( y ) = 
2 2
λe
2λye − λ y , y > 0.
/(3 y y ), y > 0;
5.4 Случайная величина X распределена по нормальному закону со средним значением m и дисперсией σ 2 . Найдите плотность распределения случайной величины Y, если:
а) Y=|X|; б) Y=arctgX; в) Y=X 2 ; г) Y=е Х (плотность логарифмически нормального, или логнормального, распределения).
Ответ:
y ≤ 0;
0,

а) f ( y ) =  e − ( y − m ) 2 /( 2 σ 2 ) + e − ( y + m ) 2 /( 2 σ 2 )
, y > 0;

2 πσ

y ∉ (− π / 2, π / 2);
0,

б) f ( y ) =  e − (tgy − m ) 2 /( 2σ 2 )
, y ∈ (− π / 2, π / 2);

2
2
2
π
σ
cos
y

y ≤ 0;
0,

2
2
2
2
в) f ( y ) =  e − ( y − m ) /( 2 σ ) + e − ( y + m ) /( 2σ )
, y > 0;

2 2 πyσ

y ≤ 0;
0,

г) f ( y ) =  e − (ln y − m ) 2 /( 2σ 2 )
, y > 0.

2
π
σ
y

5.5 Распределение двумерной случайной величины
(X 1 ,X 2 ) задается табл.5.8. Найдите ряд распределения случайной величины Y, если:
а) Y=X 1 −2X 2 −8; б)Y=(X 1 −12) 2 + X 22 −1; в)Y=(X 1 −12)/X 2 .
Табл.5.8
X2
1
2
X1
10
12
14
0,08 0,02 0,10
0,32 0,08 0,40
97
Ответ: ряд распределения случайной величины Y представлен:
а) в табл.5.9; б) в табл.5.10; в) в табл.5.11.
Табл.5.9
Y −2 0
2
4
Р 0,32 0,16 0,42 0,10
Табл.5.10
Y 0
3
4
7
Р 0,02 0,08 0,18 0,72
Табл.5.11
1
2
Y −2 −1 0
Р 0,08 0,32 0,10 0,40 0,10
5.6 Двумерная случайная величина (X 1 , Х 2 ) распределена равномерно в прямоугольнике с вершинами в точках
A 1 (0; 0), А 2 (0; 2), А 3 (3; 2) и А 4 (3;0). Найдите функцию распределения случайной величины Y, если: а) Y=Х 1 +Х 2 ; б)
Y=X 1 /X 2 .
y ≤ 0;
0,
 2
0 < y ≤ 2;
 y / 12,

Ответ: а) F ( y ) = ( y − 1) / 3,
2 < y ≤ 3;

2
[
12
−
(
5
−
y
)
] / 12, 3 < y ≤ 5

1,
y > 5;
y ≤ 0;
0,

б) F ( y ) =  y / 3,
0 < y ≤ 3 / 2;
1 − 3 /( 4 y ), y > 3 / 2.

5.7 Независимые случайные величины Х 1 и Х 2 имеют
распределение χ 2 с k и n степенями свободы соответственно. Найдите плотность распределения случайной величины
Y = nХ 1 (kХ 2 ) (плотность F-распределения, или распределения Фишера−Снедекора).
Ответ:
y ≤ 0;
0,

f ( y ) =  Γ( k +2 n ) k / 2 n / 2 k / 2 −1
(n + ky ) − ( k + n ) / 2 , y > 0.
 Γ ( k )Γ ( n ) k n y
 2 2
98
5.8 Независимые случайные величины Х 1 и Х 2 имеют
экспоненциальное распределение с параметрами λ 1 =1 и
λ 1 =2 соответственно. Воспользовавшись формулой свертки,
найдите плотность распределения случайной величины
Y=Х 1 +Х 2 .
Ответ:
y ≤ 0;
0,
f ( y) =  − y
−2 y
2(e − e ), y > 0.
5.9 Независимые случайные величины Х 1 и Х 2 имеют равномерное распределение на отрезках [0,1] и [0,2] соответственно. Воспользовавшись формулой свертки, найдите
плотность распределения случайной величины Y=Х 1 +Х 2 .
Ответ:
y ∉ (0,3);
0,
 y / 2,
0 < y ≤ 1;

f ( y) = 
1 < y ≤ 2;
1 / 2,
(3 − y ) / 2, 2 < y < 3.
5.10 Случайные величины Х 1 и Х 2 имеют математические ожидания M(X 1 )=−5, М(Х 2 )=2, дисперсии D(X 1 )=0,5,
D(X 2 )=0,4 и ковариацию cov(X 1 ,X 2 )=0,2. Найдите математическое ожидание и дисперсию случайной величины
Y=4Х 1 −5X 2 +25.
Ответ: М(Y)=−5, D(Y)=10.
5.11 Найдите математические ожидания, дисперсии и
ковариацию случайных величин Y 1 и Y 2 , где Y 1 =3X 1 –2X 2 ,
Y 2 =5Х 2 −X 1 , а случайные величины Х 1 и Х 2 имеют следующие числовые характеристики: M(X 1 )=−0,5, M(X 2 )=1,
D(X 1 )=3, D(X 2 )=2,9, cov(X 1 ,X 2 )=2.
Ответ: М(Y 1 )=−3,5, M(Y 2 )=5,5, D(Y 1 )=14,6, D(Y 2 )=50,5,
cov(Y 1 Y 2 )=−4.
5.12 Двумерный случайный вектор X имеет вектор
средних значений m X = (0,06, 0,08) и матрицу ковариаций
 0,2 0,3 
 . Найдите вектор средних значений и матри∑ X = 
0
,
3
0
,
5


цу ковариаций случайного вектора
Y = XB + c , где
99
 − 1 1 3
B = 
 , а c = (0; − 0,1; − 0, 2).
2
1
0


1, 0 1,1 1, 2 


Ответ: m Y = (0,10; 0, 04; − 0,02) , ∑ Y = 1,1 1, 3 1, 5  .
1, 2 1, 5 1, 8 


100
6 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
6.1 Закон больших чисел и центральная предельная
теорема
Математические законы теории вероятностей, рассмотренные в предыдущих разделах, получены абстрагированием реальных статистических закономерностей, свойственных массовым случайным явлениям. Наличие этих закономерностей связано именно с массовостью явлений.
Средний результат массы явлений обладает свойством
устойчивости, т.е. при очень большом числе случайных
явлений средний их результат практически перестает быть
случайным и может быть предсказан с большой степенью
определенности. Именно эта устойчивость средних и представляет собой физическое содержание «закона больших
чисел».
Под «законом больших чисел» в теории вероятностей
понимают ряд математических теорем, которые устанавливают факт и условия сходимости по вероятности тех или
иных случайных величин к постоянным, неслучайным величинам. Это позволяет предсказать результаты массовых
случайных явлений почти с полной определенностью.
Возможности таких предсказаний в области массовых
случайных явлений еще больше расширяются наличием
другой группы предельных теорем, касающихся уже не
предельных значений случайных величин, а предельных
законов распределений. Эта группа предельных теорем
под названием центральной предельной теоремы объясняет
то широкое распространение, которое получило на практике нормальное распределение.
6.2 Неравенство Чебышева
Пусть имеется случайная величина Х с математическим
ожиданием m x и дисперсией Dx = σ 2x . Неравенство Чебышева
утверждает, что каково бы ни было положительное число ε,
вероятность того, что величина Х отклонится от своего ма101
тематического ожидания не меньше чем на ε, ограничена
сверху величиной σ 2x /ε 2 :
σ 2x
P(| X - mx |≥ ε) ≤ 2 .
ε
Приведем доказательство для непрерывных случайных
величин.
P(| X-mx |> ε) = ∫ f ( x)dx ,
|x-m x|> ε
где f(x) – плотность распределения величины Х. По определению дисперсии
+∞
+∞
Dx = ∫ ( x-mx ) f ( x)dx = ∫ |x-mx|2 f ( x)dx ≥
−∞
2
−∞
2
∫ |x-mx| f ( x)dx .
|x − m x|> ε
Заменяя |x−m x | под знаком интеграла через ε, получим:
Dx ≥ ε 2 ( ∫ f ( x)dx) = ε 2 P(| x-mx | > ε ) ,
| x − m x |> ε
откуда и следует неравенство Чебышева для непрерывных
случайных величин.
Замечание. Знак ≥ заменен знаком >, т.к. для непрерывной величины вероятность точного равенства равна нулю.
Пример 6.1. Дана случайная величина Х с математическим ожиданием m x и дисперсией σ 2x . Оценить сверху вероятность того, что величина Х отклонится от своего математического ожидания не менее чем на 3σ х .
Решение. Полагая в неравенстве Чебышева ε=3σ х , полуσ 2x 1
чим:
P(| X − mx |≥ 3σ x ) ≤ 2 = ,
9σ x 9
т.е. искомая вероятность не может быть больше 1/9.
Замечание. Неравенство Чебышева дает только верхнюю границу вероятности данного отклонения. Выше этой
границы вероятность не может быть ни при каком законе
распределения. На практике в большинстве случаев вероятность того, что величина Х выйдет за пределы участка
m x ±3σ x , значительно меньше 1/9. Например, для нормального закона эта вероятность приблизительно равна 0,00027.
102
6.3 Закон больших чисел (теорема Чебышева)
В этом разделе рассмотрим одну из простейших, но
вместе с тем наиболее важных форм закона больших чисел
– теорему Чебышева.
Эта теорема устанавливает связь между средним арифметическим значением случайной величины и ее математическим ожиданием.
Предварительно решим вспомогательную задачу.
Дана случайная величина Х с математическим ожиданием m x и дисперсией D х . Над этой величиной производится n
независимых опытов и вычисляется среднее арифметическое значений величины Х. Требуется найти числовые характеристики этого среднего арифметического – математическое ожидание и дисперсию и выяснить, как они изменяются с увеличением n.
Обозначим:
Х 1 – значение величины Х в первом опыте;
Х 2 – значение величины Х во втором опыте и т.д.
Совокупность величин Х 1 , Х 2 , …, Х n представляет собой
n независимых случайных величин, каждая из которых распределена по тому же закону, что и Х. Среднее арифметическое этих величин обозначим
n
X ( n) = ( ∑ X i ) / n .
i =1
Это значение представляет собой линейную функцию
случайных величин Х 1 , Х 2 , …, Х n . Найдем математическое
ожидание и дисперсию X (n) . Согласно правилам определения числовых характеристик
1 n
1
m X ( n ) = M ( X (n)) = ∑ M ( X i ) = n ⋅ mx = mx ;
n i =1
n
n
D
1
DX ( n ) = 2 ∑ D( X i ) = x .
n
n i =1
Отсюда следует, что математическое ожидание величины X (n) не зависит от числа опытов n и равно m x . Дисперсия величины X (n) неограниченно убывает с ростом n и
может быть сделана сколь угодно малой.
103
Это свойство устойчивости среднего арифметического
и устанавливает теорема Чебышева.
Вначале рассмотрим понятие «сходимости по вероятности». Говорят, что случайная величина Х n сходится по вероятности к величине а, если при увеличении n вероятность того, что Х n и а будут сколь угодно близки, неограниченно приближается к единице, т.е. при достаточно
большом n P(| X n -a |< ε) > 1 - δ ,
где ε, δ – произвольно малые положительные числа.
Теорема Чебышева утверждает, что при увеличении n
среднее арифметическое X (n) сходится по вероятности к
m x , т.е.
P(| X (n)-mx |< ε) > 1 - δ .
Доказательство. Выше было показано, что величина
X (n) имеет числовые характеристики m X = mx , DX = Dx / n .
Применим к случайной величине X (n) неравенство Чебышева
DX(n) Dx
P(| X (n) - m X |≥ ε) ≤ 2 = 2 .
ε
nε
Как бы мало ни было число ε, можно взять n таким
большим, чтобы выполнялось неравенство
Dx
< δ , где δ – сколь угодно малое число.
nε 2
Тогда
P(| X (n) - mx |≥ ε) < δ ,
откуда, переходя к противоположному событию, имеем:
P(| X (n) - mx |< ε) > 1 - δ ,
что и требовалось доказать.
6.4 Обобщенная теорема Чебышева. Теоремы Маркова и Бернулли
Теорема Чебышева может быть обобщена на более
сложный случай, а именно когда закон распределения случайной величины Х может изменяться от опыта к опыту.
Тогда вместо среднего арифметического значений одной и
той же величины Х с постоянным математическим ожиданием и дисперсией мы имеем дело со средним арифметиче104
ским n
различных случайных величин, с различными
математическими ожиданиями и дисперсиями. Но при соблюдении некоторых условий и в этом случае среднее
арифметическое будет устойчивым.
Теорема. Если Х 1 , …, Х n независимые случайные величины с математическими ожиданиями mx1 , …, mx n и дисперсиями Dx1 , …, Dx n и если все дисперсии ограничены
сверху одним и тем же числом L:
Dxi <L, i = 1, n , то при возрастании n среднее арифметическое значений величин Х 1 , …, Х n сходится по вероятности к среднему арифметическому их математических ожиданий.
Введя как и выше обозначения для средних арифметических:
n
X ( n) = ( ∑ X i ) / n ,
i =1
n
m X ( n ) = ( ∑ mxi ) / n ,
i =1
n
D X ( n ) = ( ∑ Dx i ) / n 2 ,
i =1
запишем эту теорему в виде формулы.
Пусть ε, δ – сколь угодно малые положительные числа.
Тогда при достаточно большом n
P(| X (n) - m X ( n ) |< ε) > 1 - δ .
Доказательство. Рассмотрим величину X (n) с математическим ожиданием m X ( n ) и дисперсией D X ( n ) . Применим к
X (n) неравенство Чебышева:
P(| X (n) - m X ( n ) |≥ ε) ≤ DX ( n ) /ε 2 .
Заменив в выражении для DX (n ) каждую из величин Dxi
большей величиной L , мы только усилим неравенство:
L
P(| X (n) - m X ( n ) |≥ ε) < 2 .
nε
Как бы мало ни было ε, можно выбрать n настолько
большим, чтобы выполнялось неравенство
L
< δ.
nε 2
Тогда P(| X (n) - m X ( n ) |≥ ε) < δ , откуда, переходя к противоположному событию, получим доказываемое неравенство.
105
Замечание. Иногда сходимость по вероятности случайной величины (последовательности случайных величин) Х n
к величине а при увеличении n обозначают как
lim P(| X n -a |< ε) = 1.
n→∞
Обобщение закона больших чисел на случай зависимых
случайных величин принадлежит А.А.Маркову.
Теорема Маркова. Если Х 1 , …, Х n зависимые случайные величины и если при n→∞ D X ( n ) → 0 , то X (n) сходится
по вероятности к среднему арифметическому их математических ожиданий, т.е. lim P(| X (n) - m X(n) |< ε) = 1 .
n→∞
Доказательство. Применим к величине X (n) неравенство Чебышева:
P(| X (n) - m X(n) |≥ ε) ≤ DX(n) / ε 2 ,
и поскольку при n→∞ DX ( n ) → 0 , то при достаточно большом n
P(|X(n)-m X(n)| ≥ ε) < δ .
Тогда переходя к противоположному событию,
P(| X (n) - m X(n) |< ε) > 1 - δ ,
что и требовалось доказать.
Известная теорема Я.Бернулли, устанавливающая связь
между частотой события А и его вероятностью, может быть
доказана как прямое следствие закона больших чисел.
Рассмотрим схему Бернулли с вероятностью успеха р.
Теорема Бернулли утверждает, что при неограниченном
увеличении числа опытов n частота события А сходится по
вероятности к его вероятности р.
Обозначим частоту события А в n опытах через р * и запишем теорему Бернулли в виде формулы:
P(р * − p<ε)>1−δ,
где ε, δ – сколь угодно малые положительные числа. Требуется доказать справедливость этой формулы при достаточно большом n.
Доказательство. Рассмотрим независимые случайные
величины:
Х 1 -число успехов в первом опыте;
Х 2 - число успехов во втором опыте, и т.д.
Ряд распределения Х i
106
0
q
1
p
где q=1−p.
Математическое ожидание величины
Х i − М(Х i )=р, а ее дисперсия D(Х i )=pq. Час*
тота р представляет собой среднее арифметическое величин Х 1 , … , Х n , т.е. pn∗ = X (n) . Согласно закону больших чисел величина X (n) , т.е. частота сходится по вероятности к
общему математическому ожиданию этих случайных величин. Отсюда и следует справедливость теоремы Бернулли.
Теорема Бернулли утверждает устойчивость частоты
при постоянных условиях опыта. Теорема, устанавливающая свойство устойчивости частот при переменных условиях опыта, называется теоремой Пуассона и формулируется следующим образом:
если производится n независимых опытов и вероятность
появления события А в i-м опыте равна р i , то при увеличении n частота события А сходится по вероятности к среднему арифметическому вероятностей р i .
Хi
P
,
6.5 Понятие о
теореме Ляпунова. Формулировка
центральной предельной теоремы
Различные формы закона больших чисел утверждают
одно: факт сходимости по вероятности тех или иных случайных величин к определенным постоянным. В них не
оперируют с законами распределений случайных величин.
Во всех же формах центральной предельной теоремы
устанавливаются условия, при которых возникает нормальный закон распределения. Так как на практике эти условия
часто выполняются, нормальный закон является самым
распространенным из законов распределений, наиболее
часто встречающихся в случайных явлениях. Он возникает
во всех случаях, когда исследуемая случайная величина
может быть представлена в виде суммы достаточно большого числа независимых (или слабо зависимых) элементарных слагаемых, каждое из которых в отдельности мало
влияет на сумму. Особую роль нормальный закон играет в
теории стрельбы и теории ошибок измерения.
Пример 6.2. Пусть производится измерение некоторой
физической величины. Любое измерение дает лишь при107
ближенное значение измеряемой величины, так как на результат
измерения влияют очень многие независимые
(или слабо зависимые) случайные факторы (температура,
давление, колебания прибора, влажность и др.). Каждый из
этих факторов порождает ничтожную «частную ошибку».
Однако, поскольку число этих факторов очень велико, их
совокупное действие порождает уже заметную «суммарную
ошибку».
Рассматривая суммарную ошибку как сумму очень
большого числа взаимно независимых частных ошибок, мы
вправе заключить, что суммарная ошибка имеет распределение, близкое к нормальному.
Теорема Ляпунова.
Пусть X 1 ,…,X n ,… − последовательность независимых
одинаково распределенных случайных величин с математическим ожиданием M(X n )=m и дисперсией D(X n )=σ 2 . Тогда
S − nm
P( n
< x) → Φ( x) ,
n→∞
nσ 2
n
где S n = ∑ X n , а Ф(x) – функция стандартного нормального
i =1
распределения.
Замечание. Для доказательства центральной предельной теоремы А.М. Ляпунов использовал аппарат характеристических функций. Характеристической функцией f(t)
случайной величины Х называют математическое ожидание
случайной величины e itX , где i − мнимая единица, а t − произвольное действительное число. Таким образом,
f(t)=M(e itX ).
Для дискретной случайной величины Х с возможными
значениями x j , j=1,2,…,
itx
f (t ) = ∑ e j p j =∑ p j cos (t x j ) + i ∑ p j sin (t x j ) ;
j
j
j
для непрерывной случайной величины с плотностью распределения p(x)
+∞
+∞
−∞
−∞
+∞
f (t ) = ∫ eitx p ( x) dx = ∫ cos( t x) p ( x ) dx + i ∫ sin ( t x) p ( x ) dx .
Так как ∑ e
j
108
itx j
pj = ∑ pj =1 и
j
−∞
+∞
+∞
−∞
−∞
itx
∫ e p ( x) dx = ∫ p ( x)dx = 1, то
характеристическая функция существует при всех t для каждой случайной величины.
Характеристическая функция непрерывной случайной
величины отличается от преобразования Фурье плотности
распределения этой случайной величины только лишь отсутствием множителя 1/ 2π .
6.6 Задание №6 на самостоятельную работу
6.1 Среднее потребление электроэнергии в мае в некотором населенном пункте составляет 360000 кВт/ч. Оцените с помощью неравенства Чебышева вероятность того, что
потребление электроэнергии в мае текущего года в этом
населенном пункте превысит 1000000 Вт, если известно,
что среднее квадратичное отклонение потребления электроэнергии в мае равно 40000 кВт/ч.
Ответ: Р{Х > 1000000} <1/256.
6.2 Среднее квадратичное отклонение погрешности измерения курса самолета равно 2°. Считая математическое
ожидание погрешности измерения равным нулю, оцените с
помощью неравенства Чебышева вероятность того, что погрешность одного измерения курса самолета превысит 5°.
Ответ: Р{|Х| > 5°} < 0,16.
6.3 Вероятность появления некоторого события в каждом из 800 независимых испытаний равна 1/4. Воспользовавшись вторым неравенством Чебышева, оцените вероятность того, что число X появлений этого события заключено в пределах от 150 до 250.
Ответ: Р{150 ≤X ≤ 250}≥0,94.
6.4 Пусть дана последовательность Х 1 , Х 2 , ..., Х n , ... независимых дискретных случайных величин, причем ряд
распределения случайной величины Х n представлен в табл.
6.1. Проверьте, применим ли к этой последовательности
закон больших чисел в форме Чебышева.
Табл.6.1
Хn − n
0
n
1
1
1
1−
Р
2n
n
2n
Ответ: да, применим.
109
6.5 Пусть Х 1 , Х 2 , ..., Х n , ... — последовательность независимых случайных величин, причем случайная величина
Х n имеет плотность распределения
n 2 ( n+1) | x |
f ( x) = 2
.
(n + x 2 ) n+2
Проверьте, удовлетворяет ли последовательность
Х 1 , Х 2 , ..., Х n , ... закону больших чисел в форме Чебышева.
Ответ: да, удовлетворяет.
6.6 Пусть последовательность Х 1 , Х 2 , ..., Х n , ... некоррелированных случайных величин удовлетворяет условию
1 n
lim ∑ D( X i ) = 0.
n → ∞ n i =1
Проверьте, применим ли к этой последовательности
закон больших чисел.
Ответ: да, применим.
6.7 Найдите характеристическую функцию случайной
величины X, ряд распределения которой представлен в
табл. 6.2.
Табл.6.2
Х
0
1
2
3
Р 1/2 1/8 1/4 1/8
Ответ: f(t) = 1/2 + е it (1 + е it ) 2 /8.
6.8 Найдите характеристическую функцию случайной
величины X, ряд распределения которой представлен в
табл.6.3.
Табл. 6.3
Х -2 0
2
Р 1/4 1/2 1/4
Ответ: f(t) = cos 2 t.
6.9 Найдите характеристическую функцию неотрицательной целочисленной случайной величины X, распределение которой задается вероятностями
р n =Р{Х=n}=(n+1)р 2 (1−р) n (n=0,1, ..., 0<р<1).
Ответ: f(t)=p 2 /(1−(1−p)e it ) 2 .
110
6.10 Найдите характеристическую функцию непрерывной случайной величины X, имеющей плотность распреде| x |≥ 1;
0,

ления f ( x) =  3(1 − x 2 )
, | x |< 1.


4
t = 0;
1,

Ответ: f (t ) =  3(sin t − t cos t )
, t ≠ 0.

t3
6.11 Найдите характеристическую функцию случайной
величины X, имеющей гамма-распределение с параметрами
α и β.
α
Ответ: f (t ) =
.
α
β(1 / β − it )
6.12 Найдите характеристическую функцию непрерывной случайной величины X, имеющей плотность распределения
2
.
f ( x) =
π(1 + x 4 )
Ответ: f(t)= 2e −|t | /
sin( π / 4+ | t | / 2 ) .
1
6.13 Может ли функция f (t ) = 1 −
являться характе1+ t2
ристической функцией некоторой случайной величины?
Ответ: не может.
6.14 Может ли функция f(t)=2−cost являться характеристической функцией некоторой случайной величины?
Ответ: не может.
6.15 Может ли функция f(t)=1−t+[t], где [t] — целая
часть числа t, являться характеристической функцией некоторой случайной величины?
Ответ: не может.
6.16 Найдите характеристическую функцию случайной
величины Y=аХ+b, где X — случайная величина, определенная в задаче 6.12.
Ответ: f(t)= 2e −| at | / 2 + ibt sin( π / 4+ | at | / 2 ) .
6.17 Случайная величина Х 1 распределена равномерно в
интервале (0,1), а случайная величина Х 2 имеет стандарт2
111
ное нормальное распределение. Найдите характеристическую функцию случайной величины Y=Х 1 +Х 2 , если известно, что Х 1 и Х 2 являются независимыми.
2
(eit − 1)e −t / 2
Ответ: f (t ) =
.
it
6.18 Найдите математическое ожидание и дисперсию
случайной величины X, имеющей характеристическую
1
функцию f (t ) =
.
1 + 2it
Ответ: M(X)=−2, D(X)=4.
6.19 Найдите математическое ожидание и дисперсию
случайной величины X, имеющей характеристическую
π |t |
функцию f (t ) = 2e −|t | / 2 sin( +
).
4
2
1+ 2 2
Ответ: M(X)=0, D( X ) =
.
4
6.20 Найдите закон распределения случайной величины,
характеристическая функция которой равна
cos t (2 cos t + 1)
f (t ) =
.
3
Ответ: f(t) является характеристической функцией дискретной случайной величины X, имеющей ряд распределения, представленный в табл. 6.4.
Табл.6.4
Х –2 –1 0
1
2
Р 1/6 1/6 1/3 1/6 1/6
6.21 Найдите плотность распределения случайной величины, имеющей характеристическую функцию
| t |≥ 1;
0,
f (t ) = 
1− | t |, | t |< 1.
2
x
Ответ: f ( x) = 2 sin 2 .
2
πx
6.22 Проводится выборочное обследование большой партии электрических лампочек для определения среднего
времени их горения. Среднее квадратичное отклонение
112
времени горения лампочки равно σ=80 ч. Из всей партии
наудачу выбирается 400 лампочек. Воспользовавшись центральной предельной теоремой, оцените вероятность того,
что среднее (математическое ожидание) время горения
лампочки будет отличаться от наблюденного среднего времени горения выбранных 400 лампочек не более чем на 10
ч.
Ответ: 0,98738.
6.23 Случайная величина X является средним арифметическим из n независимых одинаково распределенных случайных величин, дисперсия каждой из которых равна 5.
Воспользовавшись центральной предельной теоремой, оцените, какое число слагаемых n нужно взять для того, чтобы
с вероятностью не менее 0,9973 случайная величина X отклонялась от своего среднего не более чем на 0,01.
Ответ: n≥ 450000.
6.24 Решите задачу 6.3, воспользовавшись для приближенной оценки искомой вероятности интегральной теоремой Муавра — Лапласа. Сравните полученные результаты.
Ответ: Р{150≤X≤250}≈0,9999366. Сравнивая полученные результаты, видим, что интегральная теорема Муавра−Лапласа дает гораздо более точный ответ.
113
7 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
7.1 Основные задачи математической статистики
Математические законы теории вероятностей не являются лишь абстрактными, лишенными физического содержания. Они представляют собой математическое выражение реальных закономерностей в массовых случайных явлениях природы. В основе таких понятий, как события и их
вероятности, случайные величины, их законы распределения и числовые характеристики лежит опыт; каждое исследование случайных явлений методами теории вероятностей
опирается на экспериментальные опытные данные или систему наблюдений.
Разработка методов регистрации, описания и анализа
статистических (экспериментальных) данных, получаемых
в результате наблюдения массовых случайных явлений и
составляет предмет науки – математической статистики.
В зависимости от характера решаемого практического
вопроса и от объема экспериментального материала задачи
математической статистики можно разделить на типичные.
1. Задача определения закона распределения случайной величины по статистическим данным.
На практике нам всегда приходится иметь дело с ограниченным количеством экспериментальных данных, в связи
с этим результаты наблюдений и их обработки всегда содержат больший или меньший элемент случайности. При
этом важно уметь выделить как постоянные и устойчивые
признаки явления, так и случайные, проявляющиеся в данной серии наблюдений только за счет ограниченного объема экспериментальных данных. В связи с этим возникает
характерная задача группировки, сглаживания или выравнивания статистических данных, представления их в компактном виде с помощью аналитических зависимостей.
2. Задача проверки правдоподобия гипотез.
Статистические данные могут с большим или меньшим
правдоподобием подтверждать или не подтверждать справедливость той или иной статистической гипотезы. Например, ставится такой вопрос: согласуются или нет данные
эксперимента с гипотезой о том, что данная случайная ве114
личина или признак подчинены тому или иному закону
распределения? Другой подобный вопрос: указывают ли
данные наблюдений на наличие объективной зависимости
случайной величины от одной или нескольких случайных
величин? Для решения подобных вопросов существуют методы проверки статистических гипотез с помощью критериев согласия.
3. Задача определения неизвестных параметров распределения.
Часто при обработке статистических данных нет необходимости определения законов распределения исследуемых случайных величин (признаков). Или же характер закона распределения известен заранее (до опыта). Тогда
возникает более узкая задача обработки данных – определить только некоторые числовые характеристики случайной величины, оценить их точность и надежность.
Таким образом, здесь перечислены только те задачи математической статистики, которые наиболее важны по своим практическим применениям.
7.2 Статистическая совокупность и статистическая
функция распределения
Предположим, что изучается некоторая случайная величина Х, закон распределения которой неизвестен и требуется определить этот закон по данным наблюдений (опытным
данным). Совокупность наблюдений Х 1 , Х 2 , …, Х n и представляет собой статистическую совокупность. Иногда говорят, что получена выборка объема n. При большом n весь
диапазон значений Х i делят на k интервалов (разрядов) и
подсчитывают количество значений m i , приходящихся на iй интервал.
Это число делят на общее число наблюдений n и получают частоту, соответствующую данному интервалу:
pi∗ = mi / n . Для контроля: сумма частот всех интервалов
равна единице. Тем самым значения Х i будут отсортированы в порядке возрастания. Таблица с указанием разрядов и
соответствующих им частот значений Х i называется стати115
стическим рядом. Таким образом, мы получаем сгруппированные данные.
Определение. Статистической функцией распределения случайной величины Х называется частота события
Х<х в данной статистической совокупности:
F n (x)=p * (X<x).
Для того, чтобы найти значение статистической функции распределения при данном х, достаточно подсчитать
число опытов, в которых величина Х приняла значение
меньше х, и разделить на общее число n произведенных
опытов. Статистическая функция распределения любой
случайной величины (дискретной или непрерывной) представляет собой ступенчатую функцию, скачки которой соответствуют наблюденным значениям случайной величины
и по величине равны частотам этих значений. Но при
больших значениях n (когда сотни скачков), построение
функции F n (x) трудоемко и себя не оправдывает. Другой
способ построения F n (x) будет рассмотрен ниже.
При увеличении числа опытов n, согласно теореме Бернулли, частота события сходится по вероятности к вероятности этого события. Следовательно, при увеличении n
статистическая функция распределения F n (x) сходится по
вероятности к подлинной функции распределения F(x) случайной величины Х. По сути самого определения статистической функции распределения F n (x), для нее справедливы
те же свойства, что и для функции F(x).
Пример 7.1. Для разработанной имитационной модели
системы массового обслуживания отмечены времена Х i между поступлениями (мин.) 200 требований в систему за 1
час моделирования. Статистическая совокупность приведена в табл.7.1.
Табл. 7.1. Интервалы времени n=199 между поступлениями
требований (мин.), отсортированные в порядке возрастания
0,01 0,05 0,08 0,12 0,21 0,26 0,36 0,45 0,53 0,69 0,95
0,02 0,05 0,09 0,12 0,21 0,26 0,37 0,45 0,53 0,69 0,97
0,02 0,05 0,09 0,13 0,21 0,26 0,37 0,46 0,53 0,70 1,00
0,03 0,06 0,10 0,13 0,21 0,26 0,38 0,47 0,54 0,72 1,05
0,03 0,06 0,10 0,14 0,21 0,26 0,38 0,47 0,54 0,72 1,05
116
0,03
0,04
0,04
0,04
0,04
0,04
0,04
0,05
0,05
0,05
0,05
0,05
0,05
0,05
0,06
0,06
0,07
0,07
0,07
0,07
0,07
0,07
0,07
0,07
0,07
0,08
0,08
0,08
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,11
0,11
0,11
0,11
0,11
0,12
0,12
0,14
0,14
0,14
0,15
0,15
0,15
0,15
0,15
0,17
0,18
0,19
0,19
0,19
0,20
0,22
0,22
0,22
0,23
0,23
0,23
0,23
0,23
0,24
0,25
0,25
0,25
0,25
0,25
0,27
0,28
0,28
0,29
0,29
0,30
0,31
0,31
0,32
0,35
0,35
0,35
0,36
0,36
0,38
0,38
0,38
0,38
0,38
0,39
0,40
0,40
0,41
0,41
0,43
0,43
0,43
0,44
0,47
0,48
0,49
0,49
0,49
0,49
0,50
0,50
0,50
0,51
0,51
0,51
0,52
0,52
0,55
0,55
0,56
0,57
0,57
0,60
0,61
0,61
0,63
0,63
0,64
0,65
0,65
0,65
0,72
0,74
0,75
0,76
0,77
0,79
0,84
0,86
0,87
0,88
0,88
0,90
0,93
0,93
1,17
1,18
1,24
1,24
Построим по данным наблюдений статистический ряд
(табл. 7.2).
Табл.7.2
I i [0;0,1) [0,1;0,2) [0,2;0,3) [0,3;0,4) [0,4;0,5) [0,5;0,6)
mi
41
34
30
20
19
18
∗
pi 0,206
0,171
0,151
0,101
0,095
0,090
I i [0,6;0,7) [0,7;0,8) [0,8;0,9) [0,9;1)
[1;1,1) [1,1;12)
mi
11
9
5
5
3
2
pi∗ 0,055
0,045
0,025
0,025
0,016
0,010
I i [1,2;1,3)
mi
2
pi∗ 0,010
Здесь через I i обозначены интервалы значений времени;
m i – число наблюдений в данном интервале;
pi∗ = mi / n − соответствующие частоты.
Для построения статистической функции распределения
будем использовать границы х 1 , х 2 , … разрядов, которые
используются в статистическом ряде.
Построим приближенно статистическую функцию распределения по данным табл.7.2 (рис. 7.1).
117
F 199 (0,0)=0;
F 199 (0,3)=0,528;
F 199 (0,6)=0,814;
F 199 (0,9)=0,939;
F 199 (1,2)=0,99;
F 199 (0,1)=0,206;
F 199 (0,4)=0,629;
F 199 (0,7)=0,869;
F 199 (1,0)=0,964;
F 199 (1,3)=1,0.
F 199 (0,2)=0,377;
F 199 (0,5)=0,724;
F 199 (0,8)=0,914;
F 199 (1,1)=0,98;
Рис.7.1
7.3 Гистограммы
Статистический ряд часто оформляется графически в
виде гистограммы. Гистограмма строится следующим образом. По оси абсцисс откладываются разряды, и на каждом из разрядов строится прямоугольник, площадь которого равна частоте данного разряда.
Таким образом, высота каждого прямоугольника равна
pi∗ / h , где h – длина разряда. Тогда полная площадь гистограммы равна единице.
По отношению к статистической совокупности гистограмма является по существу графической оценкой графика
плотности распределения случайной величины Х. Поэтому
гистограмма может быть хорошей подсказкой в выборе
распределений, которые можно дальше использовать как
модель данных наблюдений. Иногда визуально достаточно
просто отнести гистограмму к определенной плотности
распределения вероятностей, которые были рассмотрены в
разделе 2.
Однако, у такого подхода есть свои недостатки. Это
118
выражается в отсутствии четких правил по выбору числа k
интервалов (разрядов) и длины h разрядов. Посмотрим это
на примере статистической совокупности, приведенной в
табл.7.1. Ниже (рис.7.2,7.3, 7.4) приведены три гистограммы для одних и тех же статистических данных с различными длинами разрядов: h=0,05; h=0,075; h=0,1. Наиболее
ровная гистограмма получена для h =0,1, ее форма напоминает форму графика плотности экспоненциального распределения.
Рис. 7.2.
Рис.7.3
119
Рис.7.4
7.4 Числовые характеристики статистического распределения
В разделе 3 были рассмотрены числовые характеристики случайных величин: математическое ожидание, дисперсия, начальные и центральные моменты различных порядков. Аналогичные числовые характеристики существуют и
для статистических распределений. Для основной характеристики положения случайной величины − математического ожидания – такой аналогией является среднее арифметическое значение статистической совокупности {x n }:
n
X (n) = ( ∑ xi ) / n ,
i =1
(7.1)
где x i – значение случайной величины Х в i-м опыте, n –
число опытов. Эту характеристику называют также статистическим средним или выборочной средней.
Статистической (выборочной) дисперсией случайной
величины Х называют среднее арифметическое квадратов
отклонений наблюдаемых значений случайной величины от
их среднего значения:
n
D X ( n ) = [ ∑ ( xi − X (n)) 2 ] / n .
i =1
(7.2)
Исправленной дисперсией называют величину
n
S 2 ( n) =
DX (n) .
(7.3)
n −1
120
Аналогично определяются статистические начальные
и центральные моменты любых порядков:
n
mS (n) = ( ∑ xiS ) / n ,
i =1
o
n
mS (n) = [ ∑ ( xi − X (n)) S ] / n .
i =1
(7.4)
(7.5)
Все эти определения полностью аналогичны определениям числовых характеристик случайной величины, с той
разницей, что в них везде вместо математического ожидания присутствует среднее арифметическое. При увеличении
числа опытов все статистические характеристики будут
сходиться по вероятности к соответствующим характеристикам случайной величины и при достаточно большом n
могут быть приняты приближенно равными им.
При очень большом количестве опытов вычисление статистических характеристик по формулам (7.1) – (7.5) становится трудоемким и тогда используют следующий прием:
в статистическом ряде или гистограмме берут среднее значение разрядов ~
xi и их частоты pi∗ и используют для вычисления характеристик как средневзвешенных.
Таким образом, статистические характеристики будут
выражаться приближенными формулами:
k
X ( n) = ∑ ~
x p∗ ,
(7.6)
i =1
i
i
k
DX (n) = ∑ ( ~
xi − X (n)) 2 pi∗ ,
i =1
k
mS ( n ) = ∑ ~
xiS pi∗ ,
i =1
(7.7)
(7.8)
o
k
mS (n) = ∑ ( ~
xi − X (n)) S pi∗ ,
i =1
(7.9)
где ~
xi −середина i-го разряда, pi∗ − частота i-го разряда, k−
число разрядов.
При решении задачи определения законов распределений нами будут использованы еще две статистические характеристики:
Статистический коэффициент вариации
cv(n) = S 2 (n) / X (n)
(7.10)
121
и статистическая асимметрия
AS (n) = m3 (n) /( S 2 (n)) 3 / 2 .
(7.11)
Воспользуемся вышеперечисленными характеристиками
для подбора подходящих законов распределений для данных статистической совокупности, предполагая данные Х 1 ,
Х 2 , …, Х n независимыми и одинаково распределенными.
Составим так называемую итоговую статистику (табл.7.3).
Табл.7.3
Функция
Итоговая статистика Примечание
Минимум, Х 1 , Х n
[Х 1 , Х n ] – оценка инмаксимум
тервала наблюдений.
Для непрерывных и
дискретных данных.
Среднее m X (n)
Оценка среднего значения. Для непрерывных
и
дискретных
данных.
Медиана
Альтернативный покаx 0,5
затель среднего зна X (( n +1) / 2 ) ,

чения. Для непрерывn − нечетное

ных
и
дискретных
x0,5 (n) = 
[X (n/2) + X ((n/2) +1) ] данных.

n − четное

Дисперсия S 2 (n)
σ2
Коэффициент вариации
cv(n) = S 2 (n) / X (n)
cv = σ 2 /m
Коэффициент
τ ( n ) = S 2 ( n) / X ( n )
Лексиса
τ=σ 2 /m
122
Показатель изменчивости. Для непрерывных
и
дискретных
данных.
Альтернативный показатель изменчивости.
Для
непрерывных
данных.
Альтернативный показатель изменчивости.
Для дискретных данных.
Продолжение табл. 7.3
Асимметрия
o
o
AS = m 3 /(σ 2 )3 / 2 AS (n) = m 3 (n) /( S 2 (n)) 3 / 2
Показатель симметрии. Для непрерывных и дискретных данных.
С помощью указанных функций в некоторых случаях
можно выдвинуть предположение относительно семейства
распределений.
Для симметричного распределения (например, нормального), среднее m равно медиане х 0,5 . Следовательно, если
оценки X (n) и xˆ0,5 (n) примерно одинаковы, можно предположить, что распределение данной совокупности симметрично.
Иногда информацию о форме непрерывного распределения можно получить с помощью коэффициента вариации
cv. В частности, cv=1 для экспоненциального распределения. Для гамма – распределения и распределения Вейбулла
значение cv больше 1, равно 1 или меньше 1, когда параметр формы α соответственно меньше 1, равен 1 или больше 1.
Для гиперэкспоненциального распределения cv≥1. Для
остальных распределений, рассмотренных в разделах 2 и 3,
величина cv<1.
Для дискретного распределения коэффициент Лексиса
(lexis ratio) τ выполняет ту же роль, что и коэффициент вариации для непрерывного распределения. Его целесообразно использовать при определении распределений Пуассона,
биномиального и отрицательного биномиального (геометрического). Для этих распределений τ=1, τ<1 и τ >1 соответственно.
Асимметрия А S – показатель симметрии распределения.
Как было сказано уже в разделе 2, А S =0 для симметричного распределения, подобного нормальному. Если А S >0
(для экспоненциального распределения А S =2), распределение смещено вправо, а если А S <0, оно смещено влево. Таким образом, асимметрия может использоваться для того,
чтобы выяснить, какую форму имеет лежащее в основе статистических данных распределение.
123
Определим эти функции итоговой статистики для статистической совокупности по временам Х i между поступлениями требований из примера 7.1.
Итоговая статистика
Значение
Минимум
0,01
Максимум
1,24
Среднее
0,351
Медиана
0,260
Дисперсия
0,081144
Коэффициент вариации 0,813953
Асимметрия
1,000
Из этой таблицы следует, что среднее и среднеквадратическое отклонение примерно равны. Коэффициент вариации близок к единице, асимметрия положительная, т.е.
распределение смещено вправо. Результаты итоговой статистики говорят в пользу экспоненциального распределения, как наиболее подходящего среди рассмотренных в
разделе 2.
Приведенный на рис.7.1 приближенный график статистической функции распределения, гистограммы и результаты итоговой статистики позволяют выдвинуть гипотезу о
том, что данные распределения времени поступления требований в систему массового обслуживания распределены
по экспоненциальному закону.
Так как теоретическая кривая экспоненциального распределения зависит от одного параметра λ=1/М(Х), то подставив вместо математического ожидания М(Х) величину
X (n) , получим оценку параметра λˆ = 1 / 0,351 ≈ 2,849 . Тогда,
вычислив значения функции f(x)=2,849e −2,849 x на границах
разрядов
х
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
f(x) 2,85 2,14 1,61 1,21 0,91 0,69 0,52 0,39 0,29 0,22 0,17
,
х 1,1 1,2 1,3
f(x) 0,12 0,09 0,07
построим
124
график
этой
функции
поверх
гистограммы
(рис.7.5).
Рис.7.5
Из графика видно, что теоретическая кривая плотности
распределения f(x), сохраняя в основном существенные
особенности статистического распределения, свободна от
случайных неправильностей хода гистограммы.
На этом завершается рассмотрение первой из трех основных задач математической статистики.
7.5 Критерии согласия
В этом разделе рассматривается вопрос о согласованности теоретического и статистического распределений. Допустим, что для данного статистического распределения
подобрано теоретическое распределение (например, экспоненциальное). Между ними неизбежны некоторые расхождения. Поэтому возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или же они являются существенными и связаны с тем, что плохо подобрано
теоретическое распределение. Ответ на этот вопрос дают
так называемые критерии согласия.
Рассмотрим наиболее старый критерий согласия – критерий «хи – квадрат» К. Пирсона (К.Pearson, 1900), в котором мера расхождения между теоретическим и статистическим распределением обозначается χ 2 .
125
Проверяя согласованность теоретического и статистического распределений, исходят из расхождений между
теоретическими вероятностями p i − попадания случайной
величины в каждый из разрядов статистического ряда и полученными частотами pi∗ .
Пусть результаты n опытов сведены в k разрядов и
оформлены в статистический ряд
I i [α 1 ;α 2 ) [α 2 ;α 3 ) … [α k ;α k+1 )
…
pi∗
p1∗
p2∗
pk∗
и пусть подобрана плотность распределения f(х). Тогда
теоретические вероятности попадания случайной величины в i-й разряд статистического ряда
α i +1
pi = ∫ f ( x)dx − для непрерывных данных,
pi =
αi
∑ p( xi ) − для дискретных данных,
α i ≤ x i ≤ α i +1
где р – вероятностная мера подобранного распределения
(например, геометрического).
Тогда статистика критерия χ 2 определяется по формуле
k ( p∗ − p )2
2
i
χ = n∑ i
.
pi
i =1
Для удобства вычислений (чтобы не иметь дела со
слишком малыми величинами) можно ввести n под знак
суммы и использовать критерий в виде
k ( m − np ) 2
2
i
χ =∑ i
.
np
i =1
i
Отсюда видно, что величина χ 2 – случайная и ее распределение зависит от параметра r, называемого числом
степеней свободы распределения. Число степеней свободы
r равно числу разрядов k минус число независимых условий (связей), наложенных на частоты pi∗ . Например, таким
k
условием может быть ∑ pi∗ = 1.
i =1
В частности, если предполагаемое распределение экспоненциальное, то r=k−2. Если нормальное, то r=k−3.
126
В п.2.5.5 было отмечено, что распределение χ 2 является
частным случаем гамма – распределения при α=r/2 и β=2.
Таким образом, распределение χ 2 с r степенями свободы
является распределением суммы квадратов r независимых
случайных величин Х i , каждая из которых подчинена нормальному закону с параметрами m x =0, σ x =1. Это распределение имеет плотность
 r −1 − u
 u 2 e 2 , u ≥ 0;
 r
f r (u ) =  2 r
2 Γ( )

2
0,
u < 0,

∞
где Γ( z ) = ∫ t z −1e −t dt − гамма – функция аргумента z.
0
Объясним теперь понятие критерия согласия.
Критерий согласия – это статистический критерий для
проверки гипотезы, применяемый, чтобы формально оценить, являются ли данные наблюдений Х 1 , Х 2 , …, Х n независимой выборкой из определенного распределения с
функцией распределения F(х) или плотностью f(x). Таким
образом, критерий согласия используют для проверки так
называемой
нулевой гипотезы Н 0 : Х i – независимые и
одинаково распределенные случайные величины с функцией распределения F(х) или плотностью f(х).
После выбора определенного критерия множество всех
его возможных значений разбивают на два непересекающихся подмножества: одно из них содержит значения критерия, при которых нулевая гипотеза отвергается, другое –
при которых она принимается. Так как любой критерий
представляет собой одномерную случайную величину, то
все ее возможные значения принадлежат некоторому интервалу. Рассмотрим сказанное на примере критерия «хи −
квадрат».
Зададимся вопросом нахождения такого значения
2
χ кр (α,r) при заданной вероятности (уровне значимости) α и
заданном числе степеней свободы r, при котором было бы
выполнено условие:
127
2
P(χ 2 > χ кр
(α, r )) = α .
Тогда, если найденное по статистическому ряду значе2
ние χ 2 будет больше критического χ кр
(α,r), то при заданном
уровне значимости гипотезу Н 0 отвергают. Если же найденное значение χ 2 меньше критического, то нет оснований, чтобы отвергнуть нулевую гипотезу.
На рис.7.6 показано нахождение критической точки
2
χ кр
(α,r) и построение критической области для критерия χ 2 .
2
χ кр
( α, r )
Рис.7.6
2
Таблица значений χ кр
(α,r) для различных α и r приведена в приложении (табл. 4). Это таблица с двумя входами,
где α значение вероятности и r – число степеней свободы.
Числа, стоящие в таблице, представляют собой соответствующие значения χ 2 . Таблицу значений χ 2 можно использовать двояко.
Во-первых будем исходить из того, что величина Х действительно распределена по закону F(x). Тогда вероятность
α, определенная по таблице при полученных значениях r и
χ 2 , есть вероятность того, что за счет чисто случайных
причин мера расхождения χ 2 (7.3) будет не меньше, чем
фактическое значение χ 2 в данной серии опытов.
Если эта вероятность мала, то результат опыта следует
считать противоречащим гипотезе Н 0 .
Напротив, если вероятность α сравнительно велика,
можно признать расхождения между теоретическим и статистическим распределениями несущественными и отнести
их за счет случайных причин. Тогда гипотезу Н 0 можно
считать правдоподобной или не противоречащей опытным
128
данным.
Во-вторых, по заданному уровню значимости (α=0,05,
α=0,1) и числу степеней свободы r из статистического ряда
2
находят по таблице χ кр
(α,r). Если значение χ 2 (7.13) не пре2
вышает χ кр
(α,r), то говорят, что мы не опровергаем Н 0 на
заданном уровне α.
На практике при использовании критерия χ 2 должно
быть достаточно большим не только общее число опытов n,
но и числа наблюдений m i в отдельных разрядах (не менее
5-10 наблюдений). Если числа наблюдений в отдельных
разрядах малы (1-2), имеет смысл их объединить.
Пример 7.2. Рассмотрим сказанное выше на данных из
примера 7.1. Вычислим вначале значение критерия χ 2 для
статистического ряда, представленного таблицей 7.2. При
этом три последних разряда объединены в один. Выкладки
для вычисления критерия показаны в табл.7.4.
Табл.7.4
Интервал
i
[х i , x i+1 )
1 [0; 0,1)
2 [0,1; 0,2)
3 [0,2; 0,3)
4 [0,3; 0,4)
5 [0,4; 0,5)
6 [0,5; 0,6)
7 [0,6; 0,7)
8 [0,7; 0,8)
9 [0,8; 0,9)
10 [0,9; 1,0)
11 [1,0; ∞)
mi
41
34
30
20
19
18
11
9
5
5
7
e
− λ̂xi
1,0
0,752
0,566
0,425
0,320
0,241
0,181
0,136
0,102
0,077
0,058
e
− λ̂xi+1
0,752
0,566
0,425
0,320
0,241
0,181
0,136
0,102
0,077
0,058
0
pi
np i
0,248
0,186
0,141
0,105
0,079
0,060
0,045
0,034
0,025
0,019
0,058
49,35
37,01
28,06
20,89
15,72
11,94
8,96
6,77
4,98
3,78
11,54
(mi − npi ) 2
npi
1,41
0,24
0,13
0,04
0,68
3,08
0,46
0,73
0,00
0,39
1,79
2
χ =8,95
Из таблицы значений χ 2 (приложение табл.4) находим
для r=9:
при χ 2 =10,66 α=0,30;
при χ 2 =8,34
α=0,50.
Следовательно, искомая вероятность α при χ 2 =8,95 при129
ближенно равна 0,44. Эта вероятность малой не является и
поэтому гипотезу об экспоненциальном законе распределения интервалов времени между поступлениями требований
можно считать правдоподобной.
С другой стороны зададимся уровнем значимости
α=0,05. По таблице χ 2 при α=0,05 и r =9 находим
2
χ кр
(0,05; 9) = 16,92 . Так как 8,95<16,92, то можно говорить,
что при уровне значимости 0,05, гипотезу об экспоненциальном распределении не отвергаем. Итак, величина критерия не дает нам оснований считать, что экспоненциальное
2,849e −2,849 x , x ≥ 0;
распределение с плотностью f ( x) = 
пло0
,
x
0
<

хо согласуется с данными табл.7.1
Другой подход к определению значения критерия χ 2 называется равновероятным подходом. В этом случае устраняется некоторая неоднозначность в выборе длины разрядов в статистическом ряде и длины разрядов выбирают
так, чтобы выполнялось условие: р 1 =р 2 =…=р k . Тогда критерий χ 2 является приближенно достоверным, если k≥3 и
np i ≥5 для всех i.
Например, если для вышеприведенного примера сформировать
k=20
интервалов
с
р i =1/20=0,05,
то
n·р i =199·0,05=9,95.
Границы разрядов х i можно определить по формуле
x i =−0,351ln(1−i/20) для i=1,2,…, 20, что эквивалентно условию Fˆ ( xi ) = i / 20 , где Fˆ ( x) = 1 − e − x / 0,351 для х≥0. При этом
х 0 =0, х 20 =∞.
Определение значения критерия χ 2 по равновероятному
подходу и сравнение его с предыдущим значением, проделать самостоятельно.
Рассмотрим еще один критерий согласия – критерий
Колмогорова - Смирнова. В отличие от критерия «хиквадрат» критерий Колмогорова – Смирнова позволяет
сравнить статистическую функцию распределения F n (x) c
функцией предполагаемого распределения Fˆ ( x) . Для этого
критерия не нужно каким – либо образом группировать
данные и следовательно, нет сложности с определением
130
границ разрядов. Однако у него есть свои недостатки.
Во – первых, область его применения более ограниченна, чем у критерия «хи - квадрат», т.к. нет готовых критических значений для работы с дискретными данными. Во –
вторых, исходная форма критерия достоверна только в том
случае, если известны все параметры предполагаемого закона. Если же использовать вместо параметров их оценки
по данным, то критерий может давать завышенные значения вероятности, чем точно установленные.
Для определения меры расхождения (статистики), лежащей в основе критерия Колмогорова – Смирнова, мы будем использовать статистическую функцию распределения
количество Х i < x
= p∗ ( X < x)
Fn ( x ) =
n
и подобранную функцию распределения Fˆ ( x) . Тогда статистика этого критерия D n – это наибольшее (вертикальное)
расстояние между F n (x) и Fˆ ( x) для всех значений х:
Dn = max | Fn ( x) − Fˆ ( x) | .
А.Н.Колмогоров доказал, что какова бы ни была функция
распределения Fˆ ( x) непрерывной случайной величины Х,
при неограниченном возрастании числа независимых наблюдений n вероятность неравенства n Dn ≥ λ стремится к
пределу
+∞
P(λ ) = 1 − ∑ (−1) k e − 2 k
k = −∞
2 2
λ
.
Значения вероятности Р(λ), подсчитанные
(7.14) приведены в табл. 7.5
Табл.7.5
λ
Р(λ)
λ
Р(λ)
λ
Р(λ)
λ
0,0 1,000 0,5 0,964 1,0 0,270 1,5
0,1 1,000 0,6 0,864 1,1 0,178 1,6
0,2 1,000 0,7 0,711 1,2 0,112 1,7
0,3 1,000 0,8 0,544 1,3 0,068 1,8
0,4 0,997 0,9 0,393 1,4 0,040 1,9
2,0
(7.14)
по формуле
Р(λ)
0,022
0,012
0,006
0,003
0,002
0,001
Схема применения критерия следующая:
131
Fn (x) − F̂(x)
1) строятся статистическая функция распределения
F n (x) и предполагаемая теоретическая функция распределения Fˆ ( x) и определяется максимум модуля разности между
ними (рис.7.7);
2) определяется величина λ = n Dn и по таблице 7.5 находится вероятность Р(λ). Если вероятность Р(λ) весьма
мала, то гипотезу Н 0 отвергают; при сравнительно больших
Р(λ) гипотезу Н 0 считают совместимой с опытными данными.
Пример 7.3. Применим критерий Колмогорова – Смирнова к данным статистической совокупности из табл.7.1.
На рис.7.7 приведен график разности между функциями
распределения для данных об интервалах времени между
поступлениями требований и подобранного экспоненциального распределения Fˆ ( x) = 1 − e − x / 0,351 .
Рис.7.7
Максимальная разность между двумя функциями F n (x) и
Fˆ ( x) в точке х i =0,35 составляет −0,083. Тогда D n =0,083 и
λ=1,171. По табл. 7.5 находим Р(1,1)=0,178 и Р(1,2)=0,112.
Следовательно, как и в случае применения критерия «хи –
квадрат», гипотезу Н 0 – об экспоненциальном распределении данных на уровне Р=0,14 мы не опровергаем. В качестве замечания отметим тот факт, что с ростом n прямо пропорционально растет и объем вычислений для статистики
Dn.
Для сравнения ниже приведены результаты расчетов по
программе «Statistica» (рис.7.8, 7.9). Результаты ручного
счета и программы «Statistica» – для статистики Колмого132
рова - Смирнова совпадают. Расхождения по критерию «хи
- квадрат» объясняются тем, что в программе «Statistica»
при вычислении статистики χ 2 разряды берутся другие, а
именно (α i , α i+1 ] вместо [α i , α i+1 ) при ручном счете. Следовательно, в программе «Statistica» статистическая функция
распределения F n (x) непрерывна «справа», а не «слева»,
как мы допускали в п.7.2.
Это важно, особенно в тех случаях, когда данные в статистической совокупности могут повторяться, как в рассматриваемом нами примере.
Рис. 7.8
133
Рис. 7.9
Далее в качестве модели теоретического распределения
для данных статистической совокупности из таблицы 7.1
вместо экспоненциального распределения рассмотрим гамма – распределение (см. п. 2.5.5). Ниже на рисунках 7.10,
7.11, 7.12 приведены расчеты по программе «Statistica».
Рис. 7.10
134
Рис. 7.11
Рис. 7.12
135
Результаты расчета показывают, что данные статистической совокупности не противоречат и гипотезе о гамма –
распределении с параметром формы α=3,87 и масштабным
параметром β=1,36. При этом статистика критерия Колмогорова – Смирнова D n =0,072 вместо 0,083 в предыдущем
случае (что лучше, так как вероятность равна 0,26), а статистика критерия «хи – квадрат» − χ 2 =11,85 вместо 9,49
(что хуже, так как вероятность стала 0,158 вместо 0,394).
Учитывая, что экспоненциальное распределение содержит один параметр, а гамма – распределение – два параметра, то для дальнейшего моделирования удобнее пользоваться экспоненциальным распределением.
7.6 Статистические оценки для неизвестных параметров распределения
Определив при решении первой задачи математической
статистики один или несколько законов распределений, мы
должны задать значения их параметров, чтобы распределения были полностью определены и могли применяться при
дальнейшем моделировании. При выдвижении гипотезы о
виде распределения использовались независимые и одинаково распределенные опытные данные Х 1 , Х 2 , …, Х n , и эти
же данные будем использовать, чтобы получить оценки параметров, входящих в выбранное распределение. В таком
случае говорят, что оценивают неизвестный параметр по
данным статистической совокупности (выборки). Например, если уже установлено, что закон распределения случайной величины Х нормальный, то необходимо оценить
параметры m и σ. Или же, если величина распределена по
закону Пуассона, то подлежит определению только один
его параметр − математическое ожидание М(Х)=λ.
Рассмотрим следующую общую задачу. Имеется случайная величина Х, закон распределения которой содержит
неизвестный параметр θ. Обозначим θ̂ оценку параметра θ,
причем оценка является числовой функцией величин
Х 1 ,Х 2 ,…,Х n и следовательно, сама является величиной случайной. Закон распределения θ̂ зависит от закона распределения величины Х, от самого неизвестного параметра θ и
136
числа опытов n.
Предъявим к оценке θ̂ ряд требований по «качеству».
1. Несмещенной называют статическую оценку θ̂ , математическое ожидание которой равно оцениваемому параметру θ, т.е.
M (θ̂) = θ.
В этом случае исключается систематическая ошибка в сторону завышения или занижения.
2. Оценка θ̂ при увеличении числа опытов n должна
сходиться по вероятности к оцениваемому параметру θ.
Оценка, обладающая этим свойством, называется состоятельной.
3. Эффективной называют статическую оценку, которая по сравнению с другими имеет наименьшую дисперсию, т.е.
D(θ̂) = min .
Рассмотрим два типа оценок − это оценки по методу
моментов (К. Пирсона) и оценки максимального правдоподобия (Р. Фишера).
Согласно методу моментов, неизвестные параметры
распределения выбираются с таким расчетом, чтобы несколько моментов теоретического распределения были
равны соответствующим статическим моментам, вычисленным для данной статистической совокупности.
Пример 7.4. По данным статистической совокупности
Х 1 ,Х 2 ,…,Х n найти методом моментов оценку неизвестного
параметра λ экспоненциального распределения с функцией
плотности f ( x) = λe − λx ( x ≥ 0) .
Решение. Приравняем начальный теоретический момент
первого порядка начальному статическому моменту первого порядка: m 1 =m 1 (n). Учитывая, что m 1 =M(X), m1 (n) = X (n) ,
получим M ( X ) = X (n) . Так как для экспоненциального закона M ( X ) = 1 / λ , то оценкой для параметра λ будет
λ̂ = 1 / X (n) .
Пример 7.5. По данным статической совокупности
Х 1 ,Х 2 ,…,Х n найти методом моментов оценки неизвестных
параметров m и σ нормального распределения с функцией
плотности
137
2
2
1
e - ( x - m ) /( 2 σ ) .
σ 2π
Решение. Приравняем начальные теоретические и статические моменты первого порядка, а также центральные и
статистические моменты второго порядка: m 1 =m 1 (n),
φ m, σ ( x ) =
o
o
o
m 2 = m 2 (n) . Учитывая, что m 1 =m, m 2 = σ 2 , получим
mˆ = X (n) , σ̂ = DX ( n ) .
Замечание. Результаты примера 7.2 мы уже использовали в п. 7.4.
Рассмотрим теперь оценки максимального правдоподобия. Допустим, что вид функции плотности f(x) для независимых и одинаково распределенных данных Х 1 ,Х 2 ,…,Х n установлен, но неизвестен параметр этого распределения θ.
Функцией правдоподобия для непрерывной случайной
величины Х называют функцию
L(Х 1 ,Х 2 ,…,Х n ; θ)=f(Х 1 , θ) f(Х 2 , θ)… f(Х n , θ).
В качестве оценки параметра θ принимают такое его
значение θ̂ , при котором функция L достигает максимума.
Функции L и lnL достигают максимума в одной и той же
точке, поэтому ищут (что удобнее) максимум функции lnL.
Пример 7.6. Для экспоненциального распределения θ=λ
(λ>0). Составим логарифмическую функцию правдоподоn
бия:
ln L = n ln λ − λ ∑ X i .
i =1
Найдем первую производную по λ:
d ln L n n
= − ∑ Xi .
dλ
λ i =1
Так как lnL – строго возрастающая функция, то приравняв нулю первую производную, найдем точку максимума
n
λ̂ = n / ∑ X i = 1 / X (n) .
i =1
Пример 7.7. Функция правдоподобия для нормального
распределения имеет вид:
n
1
L= n
exp(− ∑ ( X i − m) 2 / 2σ 2 ) ,
n
i =1
σ ( 2π )
а следовательно логарифмическая функция правдоподобия
138
ln L = −n ln σ + ln
1
n
− ∑ ( X i − m) 2 /( 2σ 2 ) .
( 2 π) n i =1
Найдем частные производные по m и σ:
n
n
∂ ln L
∂ ln L
= ( ∑ X i − nm) / σ 2 ;
= − n / σ + ∑ ( X i − m) 2 / σ 2 .
∂m
∂σ
i =1
i =1
Приравняв частные производные нулю и решив полученную систему двух уравнений относительно m и σ, получим:
mˆ = X (n) ,
σ̂ 2 = DX(n) .
Заметим, что первая оценка несмещенная, а вторая
смещенная.
Теперь подробнее рассмотрим требования, предъявляемые к оценкам.
7.7 Оценки для математического ожидания и дисперсии
Пусть имеется случайная величина Х с математическим
ожиданием m x и дисперсией D x и при этом обе характеристики неизвестны. В результате n независимых опытов получены результаты X 1 , X 2 , …, X n . Требуется найти несмещенные и состоятельные оценки числовых характеристик
mx и Dx.
В качестве оценки для m x рассмотрим среднее арифметическое
n
X ( n) = ( ∑ X i ) / n .
i =1
Найдем его математическое ожидание
n
M ( X (n)) = ( ∑ mx ) / n = mx .
i =1
Отсюда следует, что X (n) является несмещенной оценкой для математического ожидания m x .
При рассмотрении закона больших чисел мы убедились,
что при увеличении n величина X (n) сходится по вероятности к m x . Тогда эта оценка является и состоятельной. Определим теперь дисперсию этой оценки:
139
n
D( X (n)) = D( ∑ X i ) / n 2 = Dx / n .
i =1
Эффективность или неэффективность оценки зависит от
вида распределения величины Х. Например, доказано, что
если величина Х распределена по нормальному закону, то
величина D( X (n)) = D X / n будет минимальной, т.е. оценка
X (n) будет эффективной.
Перейдем к оценке для дисперсии D x . Рассмотрим для
этого статистическую дисперсию
1 n
D X ( n ) = ∑ ( X i − X (n)) 2 = X 2 (n) − ( X (n)) 2 .
(7.15)
n i =1
Проверим, является ли эта оценка состоятельной. Величина X 2 (n) есть среднее арифметическое n значений случайной величины X 2 и она сходится по вероятности к
М(Х 2 ). Второе слагаемое сходится по вероятности к mx2 . Тогда дисперсия
D X (n )
сходится по вероятности к
M ( X 2 ) − mx2 = Dx , т.е. оценка D X (n ) является состоятельной.
Проверим, является ли оценка D X (n ) также и несмещенной. Для этого раскроем выражение (7.15):
n
n
i =1
i =1
n
n
i =1
i =1
D X ( n ) = ( ∑ X i2 ) / n − ( ∑ X i / n) 2 =
= ( ∑ X i2 ) / n − ( ∑ X i2 ) / n 2 − 2 ∑ X i X j / n 2 =
i< j
(7.16)
n −1 n 2 2
= 2 ∑ Xi − 2 ∑ Xi X j.
n i=1
n i< j
Найдем математическое ожидание величины (7.16):
n −1 n
2
M ( D X ( n ) ) = 2 ∑ M ( X i2 ) − 2 ∑ M ( X i X j ) .
(7.17)
n i =1
n i< j
Так как статистическая дисперсия не зависит от того, в
какой точке выбрать начало координат, выберем его в точке m x . Тогда
M ( X i2 )
o
n
2
∑ M ( X i ) = nDx ;
= M ( X i2 ) = Dx ;
o
i =1
o
M ( X i , X j ) = M ( X i X j ) = cov( X i , X j ) = 0 .
140
Последнее равенство следует из того, что X i и X j − независимы.
Подставив последние выражения в (7.17), получим
n −1
Dx .
M ( DX (n) ) =
n
Отсюда следует, что статистическая дисперсия не является несмещенной оценкой для D x . Тогда введя поправку
n
и умножив статистическую дисперсию на эту величиn −1
ну, получим «исправленную» дисперсию в качестве оценки
n
2
∑ ( X i − X (n))
n
D X ( n ) = i=1
.
n −1
n −1
При больших значениях n обе оценки - смещенная D X (n )
и несмещенная S 2 (n) − будут различаться очень мало и тогда введение поправочного множителя теряет смысл.
7.8 Доверительный интервал и доверительная вероятность
для D x : S 2 (n) =
В предыдущих разделах рассмотрен вопрос об оценках
неизвестных параметров распределений одним числом. Такие оценки называются «точечными». В ряде задач требуется не только найти оценку параметра θ, но и оценить его
точность и надежность. Требуется знать – к каким ошибкам
может привести замена параметра θ его точечной оценкой
θ̂ и с какой степенью надежности можно ожидать, что эти
ошибки не выйдут за известные пределы ?
Такого рода задачи особенно актуальны при малом числе наблюдений над случайной величиной Х, когда точечная
оценка θ̂ в значительной мере случайна и приближенная
замена θ на θ̂ может привести к серьезным ошибкам.
Чтобы дать представление о точности и надежности
оценки θ̂ , в математической статистике пользуются так называемыми доверительными интервалами и доверительными вероятностями.
Пусть для параметра θ по данным наблюдений получена несмещенная оценка θ̂ . Чтобы оценить возможную
141
ошибку при замене θ его оценкой θ̂ , возьмем некоторую
достаточно большую вероятность γ (например, γ=0,9;
γ=0,95; γ=0,99), такую, что событие с вероятностью γ можно считать практически достоверным. Очевидно , что если
δ>0 и |θ− θ̂ |<δ, то чем меньше δ, тем оценка точнее. Пусть
вероятность того, что |θ− θ̂ |<δ равна γ: P(| θ − θ̂ |< δ) = γ или
P(θ̂ − δ < θ < θ̂ + δ) = γ . Последнее соотношение следует понимать так: вероятность того, что интервал (θˆ − δ, θˆ + δ) заключает в себе (покрывает) неизвестный параметр θ, равна
γ.
Вероятность γ называют надежностью (доверительной
вероятностью) оценки θ по θ̂ , а интервал (θˆ − δ, θˆ + δ) – доверительным интервалом.
Замечание. Ранее мы неоднократно рассматривали вероятность попадания случайной величины X в заданный
(неслучайный) интервал. Здесь же параметр θ не случайная
величина, а случайна величина θ̂ и следовательно, случайны границы доверительного интервала. Поэтому в данном
случае лучше толковать величину γ не как вероятность попадания точки θ в интервал (θˆ − δ, θˆ + δ) , а как вероятность
того, что этот интервал накроет точку θ.
Перейдем к вопросу о нахождении границ доверительного интервала. Для этого рассмотрим задачу о доверительном интервале для математического ожидания.
Предположим, что X 1 , X 2 , …, X n являются независимыми и одинаково распределенными случайными величинами
с математическим ожиданием m и конечной дисперсий σ 2 ,
которые неизвестны. Для этих параметров получены оценки:
n
n
X (n) =  ∑ xi  / n ;
S 2 (n) = ∑ ( xi − X (n)) 2 /(n − 1) ,
 i=1 
i =1
где x i − возможные значения величин X i . Согласно центральной предельной теореме, при достаточно большом n
закон распределения X (n) близок к нормальному. Характеристики этого закона – математическое ожидание и дисперсия равны соответственно m и σ 2 /n (п.6.3). Тогда поль142
зуясь известной формулой (см. п.2.4.) Р(|X−m|<δ)=2Φ 0 (δ/σ)
и заменив в ней Х на X (n) , σ 2 на S 2 (n)/n, получим
P(| X (n) − m |< δ) = 2Φ0 (δ n / S 2 (n) ) = 2Φ0 (t γ ) ,
где t γ = δ n / S 2 (n) .
Тогда
δ = t γ S 2 (n) / n и можем записать
P( | X (n) − m |< t γ S 2 (n) / n ) = 2Φ0 (t γ ) .
Приняв во внимание, что эта вероятность задана и равна γ,
а также найдя значение t γ из равенства Φ 0 (t γ )=γ/2 по таблице интеграла Лапласа, можем теперь записать окончательную формулу доверительного интервала для неизвестного
математического ожидания:
X ( n ) − t γ S 2 ( n ) / n < m < X ( n) + t γ S 2 ( n) / n .
(7.18)
Полученный таким образом интервал называют также
100·γ − процентным доверительным интервалом для m.
Пример 7.8. Произведено 20 опытов над величиной Х;
результаты приведены в таблице 7.6.
Табл. 7.6
i
xi
i
xi
i
xi
i
xi
10,
6
11,
1
10,5 6
10,6 11
16 10,9
3
10,8 7
10,9 12
17 10,8
2
10,
3
11,2 8
11,0 13
18 10,7
5
4
10,9 9
10,3 14
19 10,9
10,
5
10,4 10 10,8 15
20 11,0
7
10,
8
Требуется найти оценку m̂ для математического ожидания m величины X и построить 90-процентный доверительный интервал для m.
Решение. Определим среднее арифметическое
1 20
X (20) =
∑ xi = 10,78.
20 i =1
143
Выбрав за начало отcчета x=10 находим несмещенную
13,38
20
оценку S 2 (20) = (
− 0,782 )
= 0,064 .
20
19
Тогда значение множителя S 2 (20) / 20 = 0,0565 . По таблице
интеграла Лапласа находим t 0,90 =1,643. Отсюда доверительный интервал: 10,69<m<10,87.
Пример 7.9. Построим 90 − процентный доверительный
интервал для среднего значения m статистической совокупности из примера 7.1. Из п.7.4 имеем следующие оценки X (199) = 0,351, S 2 (199)=0,081. Отсюда значения множителя
S 2 (199) / n = 0,020 . По таблице интеграла Лапласа
t 0,90 =1,643.
Отсюда
доверительный
интервал:
0,318<m<0,384.
Доверительный интервал, определенный формулой
(7.18) является лишь приближенным. Это видно по выкладкам, которые были проделаны при выводе этой формулы.
Теперь запишем точное выражение 100·γ − процентного
доверительного интервала для неизвестного математического ожидания m.
Пусть X 1 , X 2 , …, X n являются нормально распределенными случайными величинами. Тогда случайная величина
X (n) − m
T=
имеет распределение Стьюдента с n−1 сте2
S ( n) / n
пенями свободы. Плотность этого распределения имеет вид
n
Γ ( n / 2)
t2 −2
S n −1 (t ) =
(1 +
) .
n −1
(n − 1) π Γ ((n − 1) / 2)
В этом случае также говорят, что случайная величина T
имеет t – распределение с n−1 степенями свободы.
Точный (для любого n≥2) 100·γ – процентный доверительный интервал для m определяется как
X (n) − t n −1, γ S 2 (n) / n < m < X (n) + t n −1, γ S 2 (n) / n ,
(7.19)
где t n −1, γ − верхняя критическая точка для t – распределения
с n−1 степенями свободы определяется из условия
t n −1, γ
2 ∫ S n −1 (t) dt = γ .
0
144
Таким образом, при выводе формулы (7.19) использована случайная величина T.
Таблица значений критических точек t n −1, γ приведена в
приложении (табл.5).
Пример 7.10. Построить 90%-й доверительный интервал для m по данным примера 7.8. Ранее были определены
оценки: X (20) = 10,78 , S 2 (20)=0,064, а также величина
S 2 (20) / 20 = 0,0565 .
По таблице значений t n −1, γ находим значение t 1 9;0,9 =1,729.
Тогда
90%-й
доверительный
интервал
будет
10,68<m<10,88.
Таким образом, доверительный интервал, определяемый
формулой (7.19) шире, чем (7.18). Этот факт иллюстрирует
и рис.7.13, где приведены графики плотности t − распределения с 4-мя степенями свободы и стандартного нормального распределения.
Рис.7.13
Кривая t − распределения меньше поднимается вверх и
имеет более длинные хвосты, чем кривая нормального распределения и поэтому для любого конечного n
справедливо неравенство t n −1, γ > t γ . В тех случаях, когда n довольно
небольшое число, разница между (7.18) и (7.19) будет ощутимой.
Выше мы рассматривали задачу построения доверительного интервала для неизвестного математического
ожидания. Точно также определяется доверительный интервал для дисперсии D. Только при его получении используется случайная величина U=(n−1)S 2 (n)/D, которая имеет
145
распределение χ 2 с n−1 степенями свободы (см.п.7.5). Выразим случайную величину – оценку S 2 (n) через U:
D
S 2 ( n) = U
. Зная закон распределения величины U, можn −1
но найти для нее доверительный интервал с надежностью γ.
Доверительный интервал построим таким образом, чтобы
вероятности выхода величины U за пределы интервала
вправо и влево (заштрихованные площади на рис.7.14) были одинаковы и равны
α = 1− γ .
2
2
Воспользуемся таблицей значений χ 2кр (α, r ) для случая
r=n−1 и в соответствующей строке найдем два значения χ 2 :
одно, отвечающее вероятности α 1 =α/2; другое – вероятности α 2 =1−(α/2). Обозначим эти значения χ12 и χ 22 , причем χ12
будет правым концом доверительного интервала, а
χ 22 −левым.
χ 22
χ 12
Рис. 7.14
Таким образом, построим доверительный интервал для
дисперсии с границами D 1 и D 2 , который накрывает точку
D с вероятностью γ:
P( D1 < D < D2 ) = γ .
Потребуем также одновременного выполнения условия
P(χ 22 < U < χ 12 ) = γ .
Учитывая, что неравенства U < χ 12 и U < χ 22 равносильны
(n − 1) S 2 (n)
(n − 1) S 2 (n)
<D
и
> D,
неравенствам
χ 12
χ 22
146
то следующий интервал
(n − 1) S 2 (n)
(n − 1) S 2 (n)
(7.20)
<D<
χ 12
χ 22
является 100·γ − процентным доверительным интервалом
для неизвестной дисперсии.
Пример 7.11. Найти 90%-й доверительный интервал для
дисперсии в условиях примера 7.8, если известно, что величина Х распределена нормально.
Решение. Имеем γ=0,9; α=0,1; α/2=0,05. По таблице
значений χ 2 (α,r) при r=n−1=19 находим
для α1 = α = 0,05 : χ12 = 30,1;
2
для α2 = 1 − α = 0,95 : χ 22 = 10,11.
2
Учитывая, что S 2 (20)=0,064, используя формулу (7.20),
получим 90%-й доверительный интервал для дисперсии:
0,04<D<0,12.
7.9 Связь между доверительным интервалом и проверкой гипотез о среднем значении
В п.7.8 были даны два вида доверительных интервалов
для неизвестного среднего значения m величины X; формула (7.18) − для приближенного доверительного интервала; а
формула (7.19) − для точного. Более правильной будет следующая интерпретация доверительного интервала.Если будет построено большое количество независимых 100·γ –
процентных доверительных интервалов, каждый из которых основывается на n разных наблюдениях, где n − достаточно большое число, то доля интервалов, которые содержат (покрывают) m, будет равна γ. Эта доля и называется покрытием для доверительного интервала.
На покрытие доверительного интервала (7.19) оказывает влияние вид распределения величин X i . В таблице 7.7
представлена оценка покрытия для 90%-х доверительных
интервалов, основанная на 500 независимых экспериментах, при разных объемах выборок n (5, 10, 20 и 40) и таких
распределениях как: нормальное, экспоненциальное, «хи –
квадрат» с одной степенью свободы, логнормальное (e y , где
147
Y - стандартная нормальная случайная величины), а также
гиперэкспоненциальное, функция распределения которого
F ( x) = 0, 9 (1 − e −2 x ) + 0,1 (1 − e −2 x / 11 ) .
Табл. 7.7
Аcим
Распределение
мет- n=5
n=10 n=20 n=40
рия
Нормальное
0,00 0,910 0,902 0,898 0,900
Экспоненциальное 2,00 0,854 0,878 0,870 0,890
Хи-квадрат
2,83 0,810 0,830 0,848 0,890
Логнормальное
6,18 0,758 0,768 0,842 0,852
Гиперэкспоненци6,43 0,584 0,586 0,682 0,774
альное
Например, значение 0,878 при n=10 для экспоненциального распределения получено следующим образом. Десять
наблюдений сгенерировали по экспоненциальному распределению с известным средним значением m, а 90%-й доверительный интервал построили по выражению (7.19) и определили, содержит ли этот интервал среднее значение m
(это один эксперимент). Затем всю процедуру повторили
500 раз, и доля интервалов, содержащих значение m, в 500х доверительных интервалах составила 0,878.
Как следует из таблицы 7.7, для отдельного распределения покрытие становится ближе к 0,90 по мере возрастания n, что следует из центральной предельной теоремы.
Кроме того, для конкретного n покрытие уменьшается по
мере увеличения асимметрии. Следовательно, чем больше
асимметрия у распределения, тем больший объем выборки
необходим для получения удовлетворительного (близкого к
0,90) покрытия.
Далее рассмотрим следующую задачу. Допустим, что
величины X 1 , X 2 ,…, X n являются нормально распределенными (или приближенно нормально распределенными) и
что следует проверить нулевую гипотезу Н 0 , согласно которой m=m 0 , где m 0 - заданное гипотетическое значение m.
Интуитивно ясно, что если X (n) − m0 является большой ве-
148
личиной, то гипотеза Н 0 не может быть истиной ( X (n) –
точечная несмещенная оценка m).
Воспользуемся статистикой (функцией величины X i ),
распределение которой известно, когда гипотеза Н 0 истинна. Отсюда следует, что если гипотеза Н 0 истинна, статистика t n = [X (n) − m0 ] / S 2 (n) / n будет иметь t − распределение с n−1 степенями свободы. Тогда «двусторонний» критерий проверки гипотезы Н 0 : m=m 0 при конкурирующей
гипотезе Н 1 : m≠m 0 будет иметь следующую форму:
> tn-1,γ , то H 0 − опровергается;
(7.21)
если | t n | 
≤ tn −1, γ , то H 0 − принимается,
где t n−1,γ – критическая точка t – распределения.
Отрезок числовой оси, соответствующий опровержению
Н 0 , а именно: множество всех х, для которых |x|> t n−1,γ , называется критической областью критерия, а вероятность
попадания статистики t n в критическую область при условии, что гипотеза Н 0 является истиной, равна α и называется уровнем значимости критерия. Как правило, выбирается уровень α, равный 0,05 или 0,10. Критерий проверки гипотезы (7.21) называется t – критерий, а критические значения t n−1,γ мы уже использовали при построении доверительных интервалов по формуле (7.19).
При проверке гипотезы встречаются два вида ошибок.
1. Если отвергнуть гипотезу Н 0 тогда как она верна, допускают ошибку первого рода. Вероятность ошибки первого рода равна уровню значимости α и, следовательно, находится под контролем исследователя.
2. Если же принимать гипотезу Н 0 тогда, когда она ложна, допускают ошибку второго рода. Вероятность ошибки
второго рода для заданного уровня α и объема выборки n
обозначается β. Она зависит от того, что в действительности правильно (в сравнении с Н 0 ), и может быть неизвестна.
Мощностью критерия называют величину δ=1−β. Она
равна вероятности опровержения гипотезы Н 0 , когда она
ложна, а верна конкурирующая гипотеза. (Желательно,
чтобы критерий имел высокую мощность).
149
При заданном α мощность критерия можно увеличить
только путем увеличения числа опытов n и только так
можно добиться уменьшения ошибок первого и второго рода.
Так как мощность критерия может быть невелика и неизвестна, далее, когда статистика t n не будет попадать в
критическую область, будем считать, что гипотеза Н 0 не
опровергается (вместо «Н 0 принимается»).
Когда Н 0 не опровергается, часто точно неизвестно,
правильна Н 0 или ложна, поскольку критерию недостает
мощности, чтобы обнаружить различия между нулевой гипотезой Н 0 и тем, что в действительности правильно. В
этом состоит главный недостаток критериев проверки гипотез.
Далее сравним критерий проверки гипотез (7.21) и доверительный интервал (7.19). Проверяя гипотезу Н 0 : m=m 0
при Н 1 : m≠m 0 , мы требуем, чтобы вероятность попадания
критерия [X (n) − m0 ] / S 2 (n) / n в двустороннюю критическую область (7.21) была равна уровню значимости α, следовательно, вероятность попадания критерия в область
принятия гипотезы (−t n−1,γ , t n−1,γ ) равна 1−α=γ. Другими
словами, с надежностью γ выполняется неравенство
− t n −1, γ < [Х (n) − m0 ] / S 2 (n) / n < tn −1, γ ,
или равносильное неравенство
Х (n) − t n −1, γ S 2 (n) / n < m < Х (n) + t n −1, γ S 2 (n) / n .
Таким образом, мы получим доверительный интервал
(7.19) для оценки неизвестного математического ожидания
m нормального распределения с надежностью γ.
Замечание. Хотя построение доверительного интервала
для m и двусторонней критической области для проверки
гипотезы Н 0 : m=m 0 и приводят к одинаковым результатам,
их истолкование различно. Двусторонняя критическая область определяет границы (критические точки), между которыми заключена доля, равная γ=(1−α) наблюдаемых критериев, найденных при повторении опытов. Доверительный
же интервал определяет границы (концы интервала), между
которыми заключена доля покрытия, равная γ, попавших в
150
него значений оцениваемого параметра (см.пояснение к
табл.7.7).
Пример 7.12. Возьмем данные из примера 7.8. Предположим, что они получены из нормального распределения с
неизвестным средним значением m. Проверим для этих
данных на уровне α=0,01 нулевую гипотезу Н 0 : m=10,5, при
конкурирующей гипотезе Н 1 : m=10,8.
X (20) − 10,5 10,78 − 10,5
Поскольку t 20 =
=
= 4,96 > 1,73 = t19; 0,9 ,
2
0
,
0565
S (20) / 20
мы опровергаем гипотезу Н 0 . Этого следовало ожидать, так
как значение m 0 =10,5 не попадает в доверительный интервал для m: 10,68 < m < 10,88, построенный с надежностью
γ=0,90 в примере 7.10.
7.10 Оценка неизвестной вероятности по частоте
Рассмотрим задачу оценки неизвестной вероятности р
события А по его частоте р * в n независимых опытах, т.е.
мы имеем схему Бернулли. Обозначим Х i число успехов в iм испытании. Тогда частоту успехов в n испытаниях можно
определить в виде
∗
n
p = ∑ Xi / n
i =1
(см.п.6.4), причем M(Х i )=p, D(Х i )=pq.
Отсюда следует, что M(p * )=p, т.е. оценка p * для р будет несмещенной. Дисперсия величины p * :
D(p * )=pq/n.
Можно доказать, что эта дисперсия является минимально
возможной, т.е. оценка p * является также и эффективной.
Оценим точность и надежность такой оценки, т.е. построим
доверительный интервал для вероятности р.
В отличии от ранее рассмотренных случайных величин,
здесь величина Х i – дискретная случайная величина с двумя
возможными значениями: 0 и 1. Кроме того, её математическое ожидание р и дисперсия pq=p(1−p) связаны функциональной зависимостью.
Сначала рассмотрим случай, когда число опытов n достаточно велико, а вероятность р не слишком велика и не
151
слишком мала. Тогда можно считать, что частота события
р * − как среднее арифметическое, есть случайная величина,
распределенная приближенно по нормальному закону с параметрами m=p и σ = pq / n . Тогда задав доверительную
вероятность
γ,
потребуем
выполнения
неравенства
P ( p * − p < δ) = γ .
Так как величина р * распределена нормально, то
P ( | p ∗ − p | < δ ) = 2Ф0 (δ / pq / n ) = γ .
Обозначим величину δ / pq / n = t γ , тогда
δ = t γ pq / n.
Таким образом, с вероятностью γ можем утверждать, что
| p ∗ − p | < t γ pq / n .
(7.22)
Преобразуем это неравенство к виду
( p ∗ − p ) 2 < t γ2 p (1 − p ) / n
(7.23)
и дадим ему геометрическую интерпретацию. Геометрическим местом точек, координаты которых р * и р удовлетворяют неравенству (7.23), будет внутренняя часть эллипса,
проходящего через точки (0, 0) и (1, 1) и имеющего в этих
точках касательные, параллельные оси Ор * (рис.7.15). Область D, соответствующая неравенству (7.23) слева и справа ограничена прямыми р * =0 и р * =1. Теперь для любого
значения р * , полученного из опыта, можно построить доверительный интервал (р 1 , р 2 ), который с надежностью γ
покроет неизвестное значение вероятности р. Для этого через точку р * проведем прямую, параллельную оси ординат;
на этой прямой границы области D отсекут доверительный
интервал
(р 1 , р 2 ) (рис.7.15). Причем, чем больше n, тем
больше вытянут эллипс и тем уже доверительный интервал.
152
Рис. 7.15
Границы доверительного интервала (р 1 , р 2 ) можно найти из неравенства (7.23), как корни квадратного уравнения:
p1 = [ p ∗ + tγ2 /(2n) − t γ p ∗ (1 − p ∗ ) / n + t γ2 /( 4n 2 ) ] /(1 + t γ2 / n);
(7.24)
∗
2
∗
∗
2
2
2
p2 = [ p + t γ /(2n) + t γ p (1 − p ) / n + t γ /( 4n ) ] /(1 + t γ / n).
Пример 7.13. Частота события А в серии из 100 опытов
оказалась р * =0,78. Построить 90%-й доверительный интервал для вероятности р события А.
Решение. Из приложения (табл.3) для γ=0,9 находим
t γ =1,643. По формулам (7.24) имеем р 1 =0,705; р 2 =0,840. Доверительный интервал для р с надежностью 0,90:
0,705<p<0,840.
Замечание. При увеличении n величины t γ2 / n и
t γ2 /( 4n 2 ) в формулах (7.24) стремятся к нулю и в пределе
формулы принимают вид
p1 = p ∗ − t γ p ∗ (1 − p ∗ ) / n ,
,
(7.25)
∗
∗
∗
p2 = p + t γ p (1 − p ) / n .
Например, в условиях предыдущей задачи, формулы
(7.25) дают следующий результат:
0,712<p<0,848.
Теперь, учитывая рассмотренную в п.7.9 связь между
доверительным интервалом и проверкой гипотез о среднем
значении, посмотрим на построенный выше доверительный
интервал для неизвестной вероятности события А с этой
стороны. Для этого вернемся к примеру 7.13.
153
Зададимся уровнем значимости α=1−γ=0,1 и на этом
уровне проверим нулевую гипотезу Н 0 : р=0,7 при конкурирующей гипотезе Н 1 : р≠0,7. Для этого введем статистику
U = ( m / n − p0 ) n / p0 q0 ,
где р 0 −гипотетическое значение вероятности, а q 0 =1−р 0 .
Величина U при справедливости нулевой гипотезы распределена приближенно нормально с параметрами m=0, σ=1.
Вычислим наблюдаемое значение статистики
(0,78 − 0,7)
U набл =
⋅10 = 1,746 .
0,7 ⋅ 0,3
Критическое значение статистики найдем из равенства
отсюда
U кр =1,643.
Так
как
Φ(u кр )=(1−α)/2=0,45,
|U на бл. |=1,746 больше U кр =1,643, то нулевую гипотезу Н 0 :
р=0,7 отвергаем. Этого следовало ожидать, так как значение вероятности р=0,7 в 90%-й доверительный интервал
(0,705; 0,840) не попадает.
7.11 Точечные оценки для числовых характеристик
многомерных случайных величин
В предыдущих пунктах мы рассмотрели задачи, связанные с оценками для числовых характеристик одномерной
случайной величины при ограниченном числе опытов и построением для них доверительных интервалов.
Аналогичные вопросы возникают и при обработке ограниченного числа наблюдений над двумя и более случайными величинами.
Рассмотрим сначала случай двумерной случайной величины (X,Y). Пусть нами получены результаты n независимых опытов над величиной (X,Y) в виде пар значений
(x 1 ,y 1 ), (x 2 ,y 2 ),…,(x n ,y n ). Требуется найти оценки для числовых характеристик: математических ожиданий m x , m y , дисперсий D x , D y , ковариации cov(X,Y), коэффициента корреляции ρ(х, у) и коэффициентов регрессии β ху , β ух .
Оценки для математических ожиданий и дисперсий будут такими же, как и в случае одномерной величины. Несмещенными оценками для математических ожиданий будут средние арифметические:
154
n
n
X (n) = ( ∑ xi ) / n;
Y ( n ) = ( ∑ y i ) / n,
i =1
i =1
а для элементов ковариационной матрицыn
S (n) = ∑ ( xi − Х (n)) /(n − 1);
2
x
n
S (n) = ∑ ( yi − Y (n)) 2 /(n − 1);
2
2
y
i =1
i =1
n
σ̂ xy = côv( X , Y ) = ∑ ( xi − Х (n))( yi − Y (n)) /(n − 1).
i =1
Оценкой коэффициента корреляции будет величина
côv( X , Y )
ρ̂ =
,
SxS y
а оценками двух коэффициентов регрессии:
βˆ xy = ρ̂S x / S y ,
βˆ yx = ρ̂S y / S x .
Все приведенные оценки будут так же и состоятельными, т.е. при n→∞ сходятся по вероятности к соответствующим теоретическим характеристикам.
Рассмотрим теперь m – мерную случайную величину
(Х 1 , Х 2 , …, Х m ). Пусть над системой произведено n независимых наблюдений и результаты оформлены в виде таблицы.
Табл. 7.8
i X1 X2 K
Xk K
Xm
1 х 11 х 21 K
х k1 K
х m1
2 х 12 х 22 K
х k2 K
х m2
M
M
M
K
M
K
M
i
х 1i
х 2i
K
х ki
K
х mi
M
M
M
K
M
K
M
n
х 1n
х 2n
K
х kn
K
х mn
Здесь х k i – это значение, принятое компонентой вектора
X k в i-ом наблюдении.
Требуется найти оценки для числовых характеристик m
− мерной случайной величины: математических ожиданий
mx1 , mx 2 , …, mxm , и элементов ковариационной матрицы
155
 σ11 σ12 K σ1m 


σ 22 K σ 2 m 

∑= 
.
L


σ mm 

По главной диагонали ковариационной матрицы стоят
дисперсии компонент Х 1 , Х 2 , …, Х m :
σ11 = DХ 1 , σ 22 = DХ 2 , …, σ mm = DХ m .
Оценки для математических ожиданий найдутся как
средние арифметические:
n
Х k (n) = ∑ xki / n, k = 1, n .
i =1
Несмещенные оценки для дисперсий определяются по
формулам
S k2 (n)
n
= ∑ ( xki − Х k (n)) 2 /( n − 1) ,
i =1
а для ковариаций – по формулам
n
σ̂ kl = ∑ ( xki − Х k (n))( xli − Х l (n)) /( n − 1).
i =1
По этим данным определяются также оценки для элементов корреляционной матрицы
σ̂
ρ̂ kl = kl ,
где S k = S k2 (n) , Sl = S l2 (n).
S k Sl
Пример 7.14. Ниже в таблице приведены результаты
опытов, в которых исследовалась зависимость глубины h
(мм) проникновения снаряда в преграду от удельной энергии ε (т.е. энергии, приходящейся на 1 см 2 площади соударения). Найти все вышеперечисленные оценки, а также построить эмпирические линии регрессии.
Решение. Находим несмещенные оценки:
13
h = ( ∑ hi ) / 13 ≈ 21,08;
S ε2 = ∑ (ε i − ε ) / 12 ≈ 6660,19;
S h2 = ∑ (hi − h ) / 12 ≈ 103,84;
i =1
13
2
i =1
13
i =1
13
2
i =1
σ̂ εh = ∑ (ε i − ε )(hi − h ) / 12 ≈ 826,62;
ρ̂ =
β̂ εh = ρ̂S ε /S h ≈ 7,96;
β̂ hε = ρ̂S h /S ε ≈ 0,124.
i =1
156
13
ε = ( ∑ εi ) / 13 ≈ 164,46;
σ̂ εh
≈ 0,994;
Sε S h
5
6
7
8
9 10 11 12 13
i 1 2 3 4
ε i 41 50 81 104 120 139 154 180 208 241 250 269 301
h i 4 8 10 14 16 20 19 23 26 30 31 36 37
После подстановки полученных оценок получим следующие эмпирические линии регрессии:
h на ε: h−21,08=0,124(ε−164,46);
ε на h: ε−164,46=7,96(h−21,08).
Проверим
эти
расчеты
с
помощью
программы
«Statistica».
Рис. 7.16
157
Рис. 7.17
Результаты расчетов совпадают, разница только в том,
что в расчетах мы использовали несмещенные оценки, что
не влияет на конечный результат.
158
Эмпирические линии регрессии h на ε и ε на h показаны на
рис. 7.18, 7.19
ε
h
40
300
30
200
20
100
10
0
100
200
Рис. 7.18.
300
ε
0
10
20
40 h
30
Рис. 7.18
Результаты расчетов по программе «Statistica» подтверждают правильность проведенных расчетов.
7.12 Задание №7 на самостоятельную работу
7.1 Допустим, что данные о времени обслуживания
(мин.), представленные в таблице 7.9, являются независимыми наблюдениями относительно времени обслуживания
в системе массового обслуживания с одним устройством.
Используя все подходящие методы, описанные в разделе 7,
построить гипотезу относительно формы распределения,
определить оценки его параметра (параметров) с помощью
оценок максимального правдоподобия и определить степень согласия.
159
Таблица 7.9
0,02
1,39
5,02
3,04
3,45
1,35
0,83
4,39
4,39
7,78
2,66
3,37
5,83
0,72
0,89
3,43
4,33
4,04
4,85
4,75
16,44
6,71
1,92
2,28
2,50
3,34
3,79
6,03
2,80
5,97
2,10
2,82
3,47
3,09
0,37
2,66
0,99
2,83
4,45
3,78
7,66
6,03
3,41
1,16
4,21
2,82
4,56
7,15
5,08
2,07
0,84
4,85
2,39
4,06
5,03
11,31
2,57
1,99
10,29
4,73
5,00
4,19
1,03
4,05
6,64
2,12
2,93
5,12
8,22
1,04
3,27
2,66
2,14
7,23
3,43
3,07
7,98
0,86
5,08
5,16
5,79
1,36
0,51
4,46
6,36
3,14
1,95
2,13
2,54
1,58
3,19
6,88
7,12
0,94
7,02
3,29
3,35
2,34
10,79
3,23 8,52
2,08 4,95
1,15 3,57
2,19
1,65
1,52
3,67
5,49
0,71
3,46
3,26
7.2 Предположим, что данные о погрешностях в диаметре шарикоподшипников, представленные в табл. 7.10,
являются независимыми наблюдениями относительно отклонений от требуемого диаметра шарикоподшипников, изготовляемых на новом высокоскоростном станке. Используя все подходящие методы, описанные в разделе 7, построить гипотезу относительно формы распределения, определить оценки его параметра (параметров) с помощью
оценок максимального правдоподобия и степень согласия.
Табл. 7.10
2,31
1,49
2,10
0,30
0,48
1,71
0,19
0,00
0,66
−1,27
1,01
−0,54
1,70
2,58
0,56
0,38
0,77
2,29
1,55
0,27
1,62
0,94
0,94
1,20
0,26
1,40
2,12
1,41
2,73 1,50 1,00
1,33 0,17 0,19
0,26 1,55 2,28
3,11 1,48 0,01
0,99 1,97 0,31
0,24 0,59 −0,12
1,35 1,15 0,89
0,60 0,95 0,60
1,17 0,45 0,21
1,12 −0,51 1,90
2,79 2,36 1,10
0,17 1,03 0,85
0,44 0,24 1,09
0,78 2,66 1,99
2,54
1,55
0,49
1,62
2,40
0,59
2,18
1,14
1,21
1,43
2,02
1,82
1,11
2,69
1,51 2,24 1,18 1,23 1,74
1,06 1,06 1,59 2,26 0,78
2,04 1,75 1,63 1,06 1,01
1,64 2,21 0,44 1,13 1,63
1,68 1,71 2,44 1,98 1,62
3,21 1,96 2,20 0,89 0,46
2,72 1,69 2,30 0,48 2,08
2,14 1,78 1,30 4,01 1,70
0,70 −0,67 0,22 0,28 2,05
1,28 2,29 1,09 1,50 0,02
1,23 1,26 3,27 1,47 −0,05
0,06 1,12 0,49 −1,72 1,85
1,00 −0,16 1,08 −1,62 1,50
1,37 1,71 0,77 1,87 0,49
7.3 Пусть имеется нормально распределенная случайная
величина Х. Произведено N = 31 независимых наблюдений
этой величины, результаты которых приведены в табл.
7.11.
160
Табл.7.11
60 55 53 69 58 47 56 58 59 62 61 67 67 61 58 54
65 60 61 61 59 54 57 56 48 61 43 57 63 65 62
Определить 90% -е доверительные интервалы для истинного среднего значения и истинной дисперсии случайной величины Х.
Ответ: 90%-ные доверительные интервалы для среднего
значения и дисперсии случайной величины Х составляют
56,85 < m х <60,37,
22,91 < σ 2x < 54,22.
7.4 Предположим, что есть основания считать среднее
значение m x случайной величины Х равным 10, и пусть известна дисперсия величины Х, σ 2x = 4 . Определить, каков
должен быть объем выборки для проверки гипотезы m x = 10
при 5%-м уровне значимости, причем вероятность допустить ошибку второго рода при определении 10% -го отклонения от гипотетической величины также должна составить
5%. Определить при этих условиях область принятия, которую следует использовать при проверке гипотезы.
Ответ: искомый объем выборки N=52. Область принятия
гипотезы 9,46 < m x < 10,54.
7.5 Проверка гипотезы о нормальности распределения.
В табл.7.12 приведены N=200 независимых наблюденных
значений, расположенных в порядке возрастания процесса
на выходе генератора теплового шума.
Табл. 7.12
− 7,6 − 4,3 −
− 6,9 − 4,1 −
− 6,6 − 4,0 −
− 6,4 − 3,8 −
− 6,4 − 3,8 −
− 6,1 − 3,8 −
− 6,0 − 3,7 −
− 5,7 − 3,6 −
− 5,6 − 3,5 −
− 5,5 − 3,4 −
3,0 −
3,0 −
2,9 −
2,9 −
2,9 −
2,7 −
2,6 −
2,6 −
2,5 −
2,5 −
2,1 −
2,1 −
2,0 −
2,0 −
1,9 −
1,9 −
1,8 −
1,8 −
1,8 −
1,7 −
1,5 −
1,4 −
1,4 −
1,2 −
1,2 −
1,2 −
1,1 −
1,1 −
1,0 −
1,0 −
0,7 0,0 0,7 1,5 2,3 3,4 4,3 6,3
0,7 0,1 0,8 1,5 2,4 3,5 4,3 6,5
0,6 0,1 0,9 1,6 2,4 3,5 4,4 6,9
0,6 0,2 0,9 1,6 2,5 3,6 4,4 7,1
0,5 0,2 1,0 1,6 2,5 3,6 4,6 7,2
0,5 0,2 1,0 1,7 2,6 3,6 4,8 7,4
0,4 0,2 1,1 1,8 2,6 3,7 4,8 7,9
0,4 0,3 1,1 1,8 2,6 3,7 4,9 9,0
0,4 0,3 1,1 1,8 2,7 3,7 5,0
0,3 0,3 1,1 1,9 2,8 3,7 5,2
161
−
−
−
−
−
−
5,1 −
4,8 −
4,8 −
4,6 −
4,4 −
4,4 −
3,4 −
3,4 −
3,3 −
3,2 −
3,2 −
3,1 −
2,4 −
2,3 −
2,3 −
2,3 −
2,2 −
2,2 −
1,7 −
1,6 −
1,6 −
1,6 −
1,6 −
1,5 −
1,0 −
0,9 −
0,9 −
0,8 −
0,8 −
0,7
0,3 0,4 1,2 1,9 2,8 3,8 5,3
0,2 0,4 1,2 2,0 2,9 3,8 5,4
0,2 0,5 1,3 2,0 3,1 3,9 5,6
0,2 0,5 1,3 2,1 3,2 4,0 5,9
0,1 0,6 1,3 2,3 3,2 4,2 6,1
0,0 0,6 1,4 2,3 3,3 4,2 6,3
Проверить гипотезу о нормальности процесса на выходе
генератора теплового шума, применяя критерий согласия χ 2
при уровне значимости α = 0,05. Использовать равновероятный подход к определению значения критерия χ 2 (см.
п.7.5), положив k = 16 разрядов.
2
2
Ответ: Значения χ набл.
= 3,36, χ кр
(0,05; 13) = 22,4 . Следовательно, гипотеза о нормальности распределения рассматриваемого процесса принимается при уровне значимости
α=0,05.
162
8 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ
ПРОЦЕССОВ
Теорией случайных процессов (в другой терминологии
– теория случайных функций) называется математическая
наука, изучающая закономерности случайных явлений в
динамике их развития. При изучении явлений окружающего мира мы часто сталкиваемся с процессами, течение которых заранее предсказать в точности невозможно, что вызвано влиянием случайных факторов, воздействующих на
ход процесса. Приведем несколько примеров таких процессов.
1. Напряжение в электрической сети, номинально постоянное и равное 220В, фактически меняется во времени,
колеблется вокруг номинала под влиянием таких случайных факторов, как количество и вид включенных приборов,
моменты их включений и выключений и т.д.
2. Население города (или области) меняется с течением
времени случайным образом под влиянием таких факторов,
как рождаемость, смертность, миграция и т.д.
3. Уровень воды в реке (или в водохранилище) меняется
во времени случайным образом в зависимости от погоды,
количества осадков, таяния снега, оросительных мероприятий и т.д.
4. Частица, совершающая броуновское движение в поле
зрения микроскопа, меняет свое положение случайным образом в результате соударений с молекулами жидкости.
5. ЭВМ в ходе работы может случайным образом переходить из состояния в состояние, например:
S 1 – работает исправно;
S 2 – имеется неисправность, но она не обнаружена;
S 3 – неисправность обнаружена, ведется поиск ее источника;
S 4 – ремонтируется и т.д.
Переходы из состояния в состояние происходят под
действием случайных факторов, таких как колебание напряжения в сети питания ЭВМ, выход из строя отдельных
элементов, момент обнаружения неисправностей, время их
устранения и т.д.
163
Случайный процесс (далее сокращенно с.п.), протекающий в любой физической системе S, представляет собой
случайные переходы системы из состояния в состояние.
В первых трех примерах процессы описываются случайными функциями времени: U(t), где U – напряжение;
N(t), где N – население; H(t), где Н – уровень воды. При
фиксированном t каждая из них превращается в обычную
неслучайную функцию. Например, если в течение некоторого периода времени непрерывно изменять напряжение в
сети, получится неслучайная функция U(t), колеблющаяся
вокруг номинала U 0 (рис. 8.1а).
В четвертом примере состояние частицы характеризуется уже не одной, а двумя случайными функциями X(t) и Y(t)
– координатами частицы. Для фиксированного значения t
случайный процесс превращается в двумерную случайную
величину (X(t), Y(t)) – случайный вектор Q(t) на плоскости
x0y (рис.8.1б). При изменении аргумента t точка Q(t) будет
«блуждать» по плоскости x0y, так как показано, например,
на рис. 8.1в.
Рис. 8.1.
Особое положение среди приведённых примеров занимает пример 5. Здесь состояние системы не характеризуется какой-либо численной величиной (или вектором), а скорее всего термином «качественное» и случайный процесс
сводится к «блужданию по состояниям».
В ряде практических задач встречаются случайные
функции, зависящие не от времени t, а от других аргументов. Поэтому в дальнейшем, говоря о случайном процессе
164
будем пользоваться этим термином безотносительно к физической природе аргумента, обозначенного t, хотя в большинстве случаев аргументом будет именно время.
8.1 Определение случайного процесса. Классификация случайных процессов
Определение. Случайным процессом X(t) называется
процесс, значение которого при любом фиксированном t=t 0
является случайной величиной X(t 0 ), которую называют сечением случайного процесса, соответствующим данному
значению аргумента t=t 0 .
Реализацией случайного процесса X(t) называется неслучайная функция x(t), в которую превращается случайный
процесс X(t) в результате опыта (как например, напряжение
U(t) − в функцию u(t) на отрезке времени от 0 до τ (рис.8.1
a). Если произведен не один опыт, а несколько, в результате каждого из которых наблюдена какая-то реализация x i (t)
(i- номер опыта), то получим семейство или ансамбль реализаций.
Семейство реализаций с. п. (в некоторых случаях одна
достаточно «длинная» реализация) является основным экспериментальным материалом, на основе которых можно
получить характеристики случайного процесса. Это семейство аналогично совокупности наблюденных значений случайной величины Х, с той разницей, что здесь наблюдаются
не числовые значения, а функции.
Таким образом, с. п. X(t) представляет собой функцию,
которая при любом t является случайной величиной (сечением с. п.).
Тогда понятие с. п. становится обобщением понятия
случайной величины на случай, когда условия опыта не постоянны, а меняются (например, время течет). Случайная
величина X соответствует случайному явлению как бы «в
статике» (в неизменных условиях опыта), а с. п. X(t) − «в
динамике» (в изменяющихся условиях опыта). Каждое сечение процесса X(t) при заданном t есть случайная величина, а совокупность всех сечений при всевозможных t и
есть случайный процесс X(t). Значит процесс X(t) есть не
что иное, как система случайных величин − всех сечений
165
этого процесса. Таких сечений бесконечное (несчетное)
множество. Нужно стараться при изучении интересующих
нас свойств с. п. обойтись как можно меньшим числом сечений.
В теории случайных процессов принято классифицировать их по тем или другим признакам, учитывая плавность
или скачкообразность реализации, фиксированность или
случайность моментов, в которые происходят скачки и т.д.,
вид закона распределения отдельного сечения процесса или
совокупности сечений и т.д. Вначале рассмотрим элементарную классификацию с. п. – «по времени» и «по состояниям».
С. п. X(t) является процессом с дискретным временем,
если система, в которой он протекает, может менять свои
состояния только в моменты времени t 1 , t 2 ,…,число которых конечно или счетно. Множество этих моментов времени Т является дискретным.
Примером процесса с дискретным временем является
процесс работы ЭВМ, которая может менять свои состояния в моменты t 1 , t 2 ,…, определяемые тактом работы машины.
С. п. X(t) называется процессом с непрерывным временем, если переходы системы из состояния в состояние
могут происходить в любой момент времени t наблюдаемого периода τ. В этом случае множество Т моментов, когда
система меняет свое состояние, несчетно.
Примером такого процесса с непрерывным временем
является X(t) – число отказов технического устройства от
начала работы до момента t.
С. п. X(t) называется процессом с непрерывными состояниями, если его сечение в любой момент времени t
представляет собой непрерывную случайную величину и
следовательно, множество её значений несчетно. Например, координаты X(t), Y(t) частицы, совершающей броуновское движение, в момент t представляют двумерный случайный процесс с непрерывными состояниями.
С. п., протекающий в системе S, называется процессом
с дискретными состояниями, если в любой момент t множество его состояний конечно или счетно, т.е. в любой мо166
мент t характеризуется дискретной случайной величиной
X(t) (или многомерной дискретной случайной величиной).
К этой категории относятся все с. п. с «качественными» состояниями.
Таким образом, в зависимости от характера множества
Т значений аргумента t, в которые возможны переходы системы из состояния в состояние, а также множества самих
состояний все случайные процессы можно разделить на четыре основных класса, которые представлены на рис. 8.2.
Первый класс - процессы с дискретными состояниями и
дискретным временем;
второй – процессы с дискретными состояниями и непрерывными временем;
третий – процессы с непрерывными состояниями и дискретным временем;
четвертый – процессы с непрерывными состояниями и
непрерывным временем.
Случайный
процесс
С дискретным
состоянием
С непрерывным
состоянием
С дискретным
временем
С непрерывным
временем
Рис.8.2
8.2 Законы распределения и основные характеристики случайных процессов
Пусть имеется случайный процесс X(t). Сечение X(t)
при любом фиксированном t представляет собой случайную
величину, которая имеет закон распределения
F ( t , x ) = P ( X (t ) < x ).
(8.1)
167
Функция (8.1) называется одномерным законом распределения процесса X(t) и характеризует свойства только одного отдельно взятого сечения, но не дает понятия о совокупном распределении двух или более сечений случайного
процесса (рис. 8.3 а). Можно указать два с. п. с одинаковым распределением в каждом сечении, но совершенно
различных по своей структуре (рис. 8.3 б, в).
Рис. 8.3
Реализации первого процесса имеют плавный характер
(рис. 8.3 б), а – второго (рис. 8.3 в) более резкий. Для первого процесса характерна более тесная зависимость между
сечениями процесса; для второго эта зависимость затухает
довольно быстро с увеличением расстояния между сечениями. Следовательно, одномерный закон распределения
(8.1) не может служить полной характеристикой случайного процесса. Очевидно также, что более полной (но не исчерпывающей) характеристикой будет двумерный закон
распределения – совместная функция распределения двух
сечений, взятых соответственно для моментов t 1 и t 2 (рис.
8.4):
F(t 1 ,t 2 ,x 1 ,x 2 )=P(X(t 1 )<x 1 ,X(t 2 )<x 2 ).
(8.2)
Рис.8.4
Это функция уже не двух, а четырех аргументов. Ещё более
полной характеристикой будет трехмерный закон и т.д.
Однако оперировать со столь громоздкими характеристи168
ками, зависящими от многих аргументов, крайне неудобно;
к тому же объем экспериментального материала для их определения, с увеличением числа сечений растет чрезвычайно быстро. Поэтому на практике более чем двумерные законы распределения применяются крайне редко. К тому же
во многих случаях инженерной практики, протекающие в
системах процессы можно представлять как марковские, а
также как гауссовские (нормальные) (см. п. 8.6) случайные
процессы, в которых двумерный закон распределения (8.2)
будет исчерпывающей характеристикой.
При исследовании случайных процессов для практических целей чаще всего вообще отказываются от законов
распределения, и пользуются основными характеристиками
случайного процесса, которые будут уже не числами (как
для случайных величин), а функциями аргумента t.
Первой и важнейшей характеристикой случайного процесса X(t) является его математическое ожидание, т.е.
«средняя» функция, вокруг которой происходит разброс
реализаций случайного процесса (рис 8.5). На рисунке 8.5
тонкие линии представляют реализации X(t), а полужирная
линия – математическое ожидание m x (t).
Рис 8.5
Определение. Математическим ожиданием с.п. X(t)
называется неслучайная функция m x (t), которая при любом
значении аргумента t равна математическому ожиданию
соответствующего сечения с.п.
m x (t)=M(X(t)).
Зная одномерный закон распределения (8.1) всегда
можно найти m x (t) для каждого сечения и установить его
зависимость от t. Зафиксировав t и переходя от с.п. к случайной величине, можно вычислить математическое ожи169
дание процесса. Например, если сечение процесса X(t) при
данном t
представляет собой дискретную случайную величину с рядом распределения
x 1 (t) x 2 (t) … x i (t) …
,
р 1 (t) р 2 (t) … р i (t) …
то его математическое ожидание может быть вычислено по
формуле
m x (t ) = ∑ xi (t ) ⋅ рi (t ).
(8.3)
i
Если сечение процесса X(t) при данном t представляет
собой непрерывную случайную величину с плотностью
f(t,x), то его математическое ожидание может быть вычислено по формуле
∞
m x (t ) = ∫ x f (t , x ) dx.
(8.4)
−∞
На практике чаще всего математическое ожидание m x (t)
вычисляется не по формулам (8.3) и (8.4), а заменяется
приближенной оценкой , которую находят по опытным дан ным . Для определения моментов с . п . вводят понятие цен трированного случайного процесса :
о
X (t ) = X (t ) − m x (t ),
(8.5)
о
для которого
M ( X (t )) = M ( X (t )) − m x (t ) ≡ 0.
Определение. Начальным моментом порядка s с . п .
X(t) называется математическое ожидание степени s соот ветствующего сечения процесса :
m s (t ) = M [( X (t )) s ],
(8.6)
а центральным моментом порядка s – математическое
ожидание s- й степени центрированного процесса :
о
о
ms (t ) = M [( Х (t )) s ] .
(8.7)
Определение. Дисперсией с . п . X(t) называется неслу чайная функция D x (t), которая при любом значении аргу мента t равна дисперсии соответствующего сечения про цесса X(t).
По известным правилам , используя одномерный закон
распределения , можно вычислить дисперсию процесса X(t).
170
Если сечение X(t) представляет дискретную величину, то
дисперсию с.п. находят по формуле
Dx (t ) = D ( X (t )) = ∑ xi2 рi (t ) − mx2 (t ).
(8.8)
i
Если сечение X(t) представляет собой непрерывную
случайную величину с плотностью f(t,x), то дисперсия с.п.
может быть вычислена по формуле
∞
Dx (t ) = ∫ x 2 f (t , x)dx − mx2 (t ).
(8.9)
−∞
Дисперсия D x (t) представляет собой неслучайную неотрицательную функцию, характеризующую степень разброса
реализаций с.п. около его математического ожидания m x (t),
т.е. степень разброса реализаций центрированного случайо
ного процесса X (t ).
Определение. Средним квадратическим отклонением
σ х (t) с.п. X(t) называется арифметическое значение корня
квадратного из дисперсии D x (t):
σ х (t ) = σ( Х (t )) = Dх (t ) .
(8.10)
Рассмотренные нами характеристики с.п. X(t): m x (t),
D x (t), σ х (t)- являются весьма важными, но отнюдь не исчерпывающими, так как определяются только одномерным законом распределения.
Рассмотрим теперь две случайные величины – два сечения случайного процесса для моментов t и t ′ : X(t) и X (t ′) .
Найдем для них ковариацию
о
о
Rx (t , t ′) = M [ X (t ) X (t ′)] = M [ X (t ) X (t ′)] − m x (t )m x (t ′). (8.11)
Функция (8.11) называется корреляционной (ковариационной) функцией случайного процесса X(t).
Определение. Корреляционной (ковариационной)
функцией с.п. X(t) называется неслучайная функция Rx (t , t ′)
двух аргументов t и t ′ , которая равна ковариации соответствующих сечений случайного процесса: X(t) и X (t ′) .
Рассмотрим основные свойства корреляционной функции (далее сокращенно к.ф.) Rx (t , t ′) .
1. При равенстве аргументов ( t = t ′ ) к.ф. равна дисперсии случайного процесса, т.е.
171
о
о
Rx (t , t ) = M [ X (t ) X (t )] = Dx (t ).
(8.12)
2. К.ф. симметрична относительно своих аргументов:
Rх (t , t ′) = Rх (t ′, t ).
(8.13)
3. К.ф. Rx (t , t ′) является положительно определенной, т.е.
(8.14)
∫ ∫ a (t ) a (t ′) Rх (t , t ′) dt dt ′ ≥ 0,
( B) ( B)
где a(t) – произвольная функция аргумента t, B – произвольное подмножество множества Т, на котором определен
с.п. X(t).
Корреляционная функция Rx (t , t ′) характеризует не только степень тесноты линейной зависимости между двумя сечениями X(t) и X (t ′) процесса, но и разброс этих сечений
относительно m x (t).
Определение.
Нормированной
корреляционной
функцией
ρ x (t , t ′) случайного процесса X(t) называется
функция, полученная делением корреляционной функция
Rх (t , t ′) на произведение σ x (t ), σ x (t ′) :
Rх (t , t ′)
ρ х (t , t ′) =
.
σ x (t )σ x (t ′)
Свойства нормированной корреляционной функции
(н.к.ф.) ρ х (t , t ′) .
1.
При равенстве аргументов ( t = t ′ )
ρ х (t , t ) = 1.
2.
Н.к.ф. ρ х (t , t ′) симметрична относительно своих аргументов:
ρ х (t , t ′) = ρ х (t ′, t ).
3.
Н.к.ф. по модулю не превосходит единицу:
ρ х (t , t ′) ≤ 1 .
До сих пор мы рассматривали только характеристики
одного (скалярного) случайного процесса X(t). Рассмотрим
теперь двумерный случайный процесс {Х(t),Y(t)} с математическими ожиданиями компонент m x (t) и m y (t) соответственно. Кроме этих характеристик, описывающих только
поведение отдельных компонент, вводят «взаимную характеристику» − взаимную корреляционную функцию
о
о
Rxy (t , t ′) = M [ X (t ) Y (t ′)].
172
Определение. Взаимной корреляционной функцией
(в.к.ф.) Rxy (t , t ′) двух случайных процессов X (t ), Y (t ′) называется неслучайная функция двух аргументов t и t ′ , которая
при каждой паре значений t , t ′ равна ковариации двух сечений случайных процессов X (t ) и Y (t ′) .
Из определения следуют следующие свойства в.к.ф.:
1) взаимная корреляционная функция в общем случае не
симметрична относительно аргументов, т.е.
Rxy (t , t ′) ≠ Rxy (t ′, t );
2) взаимная корреляционная функция симметрична относительно индексов и аргументов Rxy (t , t ′) = R yx (t ′, t ).
Аналогично вводится понятие нормированной в.к.ф.
Rxy (t , t ′)
ρ xy (t , t ′) =
,
σ x (t )σ y (t ′)
где σ x (t) и σ y (t) – средние квадратические отклонения с.п.
X(t) и Y(t) соответственно.
Случайные процессы X(t) и Y(t) называются некоррелированными, если их в.к.ф. Rxy (t , t ′) равна нулю при любых значениях аргументов t , t ′ .
Все приведенные в данном подразделе характеристики
с.п. X(t) определяются его одномерным или двумерным законами распределения, и они справедливы для любых случайных процессов.
Для широкого класса с.п., определение их характеристик по вышеприведенным формулам может быть упрощено. Для этого приведем классификацию случайных процессов по их характеристикам.
Различают стационарные и нестационарные случайные процессы. В свою очередь стационарные случайные
процессы могут быть эргодическими или неэргодическими.
Для нестационарных случайных процессов существует специальная классификация нестационарности. Связь между
различными классами случайных процессов показана схематически на рис. 8.6.
173
Рис. 8.6
Стационарные случайные процессы. Физическое явление при рассмотрении с позиций теории случайных процессов (сигналов) можно описать в любой момент времени
осреднением по ансамблю реализаций, представляющих
данный случайный процесс. Рассмотрим ансамбль реализаций (выборочных функций), образующий с.п. (рис. 8.7).
Математическое ожидание или среднее значение (первый
начальный момент распределения) процесса в момент времени t может быть найдено путем суммирования мгновенных значений каждой реализации ансамбля в момент времени t и деления этой суммы на N – число реализаций.
174
Рис. 8.7
Аналогичным образом, корреляционная функция определяется путем осреднения по ансамблю произведений мгновенных
значений
центрированного
процесса
о
X (t ) = X (t ) − mx (t ) в моменты времени t и t + τ , т . е ., математи ческое ожидание m x ( t ) и корреляционная функция R x ( t , t + τ )
процесса X ( t ) определяются из соотношений
1 N
(8.15)
mx (t ) = lim
∑ xk (t ) ,
N → ∞ N k =1
175
о
1 N о
Rx (t , t + τ ) = lim
∑ x k (t ) xk (t + τ ) .
N → ∞ N k =1
Причем при суммировании предполагается, что появление
всех реализаций равновероятно. В общем случае, когда
функции m x (t) и R x (t,t+τ) меняются с изменением момента
времени t, с.п. X(t) называется нестационарным. В частном случае независимости m x (t) и R x (t,t+τ) от t, с.п. X(t) называется стационарным в широком смысле. Математическое ожидание такого процесса постоянно, а корреляционная функция представляет собой функцию единственной
переменной – временного сдвига между сечениями процесса, то есть m x (t)=m x , R x (t,t+ τ )=R x (τ).
Для с.п. X(t) можно отыскать бесконечное множество
начальных и центральных (в том числе и смешанных) моментов; их совокупность полностью описывает плотность
распределения процесса. Когда все начальные и центральные моменты не зависят от времени, процесс называют
стационарным в узком смысле (более точное определение
такого типа стационарности будет приведено ниже).
Любой процесс, стационарный в узком смысле, является стационарным и в широком, но не наоборот.
Эргодические случайные процессы. Выше был рассмотрен
вопрос об определении свойств с.п. путем осреднения по ансамблю
в отдельные моменты времени. Однако, во многих случаях представляется возможным описать свойства стационарного случайного
процесса путем осреднения по времени отдельных, достаточно
продолжительных реализаций ансамбля. Рассмотрим, например, kую реализацию (выборочную функцию) с.п., изображенного на рис.
8.7. Математическое ожидание mx(t) и корреляционная функция
этой реализации Rx(τ,k) определяется выражениями
1T
M x (k ) = lim ∫ xk (t )dt ,
(8.16)
T →∞ T
0
0
1T0
Rx (τ , k ) = lim ∫ x k (t ) x k (t + τ )dt .
T →∞ T
0
Если с.п. X(t) стационарен и m x (t) и R x (τ,k), определенные формулами (8.16), одинаковы для всех реализаций, то
случайный процесс X(t) называется эргодическим. Для эргодического с.п. среднее значение и корреляционная функ-
176
ция (а также другие моменты, определяемые осреднением
по времени) равны соответствующим средним по ансамблю: m x (k)=m x , R x (τ,k)=R x (τ). Заметим, что только стационарные процессы могут обладать свойством эргодичности.
Эргодические процессы представляют важную разновидность случайных процессов, так как все их свойства могут быть определены осреднением по времени одной единственной реализации (хотя и непременно достаточно продолжительной).
На практике процессы, соответствующие стационарным
случайным явлениям, как правило, обладают свойством эргодичности, что позволяет правильно определить характеристики стационарного случайного процесса по одной выборочной реализации.
Нестационарные случайные процессы. К нестационарным относятся все случайные процессы, упомянутые в
приведенной выше классификации, не обладающие свойством стационарности хотя бы в широком смысле. Характеристики нестационарного процесса в общем случае представляют собой некоторые функции времени, определить
которые можно только осреднением по ансамблю реализаций, образующих процесс. В практических задачах часто
представляется невозможным получить достаточно большое число реализаций для отыскания характеристик процесса с необходимой достоверностью. Это обстоятельство
препятствует развитию практических методов оценивания
и анализа нестационарных случайных процессов.
Во многих случаях в классе нестационарных процессов,
соответствующих реальным физическим явлениям, можно
выделить особые типы нестационарности, для которых задача оценивания и анализа упрощается. Например, некоторые случайные явления описываются нестационарным случайным процессом Y(t), каждая
реализация которого
имеет вид Y(t)=A(t)х(t), где х(t) – реализация стационарного
с.п. X(t), A(t) − детерминированный множитель.
Процессы такого типа имеют общий детерминированный тренд. Если нестационарный процесс соответствует
конкретной модели такого типа, то для его описания нет
177
необходимости производить осреднение по ансамблю: любые требуемые характеристики можно оценить по одной
реализации, как и для эргодических процессов.
Стационарные реализации. Понятие стационарности,
рассмотренное выше, связано с осреднением по ансамблю
характеристик случайного процесса. Однако на практике
часто приходится решать вопрос о стационарности и нестационарности процесса, представленного всего одной реализацией. В этом случае используется несколько отличное от
приведенного выше понятие стационарности процесса. Когда речь идет о стационарности одной выборочной функции, то это означает, что характеристики, рассчитанные по
коротким временным интервалам, не меняются «значительно» для различных интервалов. Термин «значительно» используется здесь для обозначения того факта, что наблюдаемые изменения «больше», чем можно ожидать за счет
обычной выборочной статистической изменчивости.
Для разъяснения этого рассмотрим реализацию х k (t),
полученную по k-ой реализации случайного процесса X(t).
Определим математическое ожидание и корреляционную
функцию осреднением по времени на коротком интервале
продолжительности Т при начальном моменте t:
1 t +T
mx (t , k ) = ∫ xk (t )dt ,
(8.17)
T t
о
1 t +T о
Rx (t , t + τ , k ) = ∫ x k (t ) x k (t + τ )dt .
T t
В общем случае, когда выборочные характеристики, определенные формулами (8.17), меняются значительно при
изменении начального момента t, отдельная реализация называется нестационарной. В частном случае, когда выборочные характеристики, определенные этими формулами,
не меняются значительно при изменении t, реализация называется стационарной. Реализация эргодического процесса всегда стационарна. С другой стороны, реализации физически важных нестационарных процессов не обладают
свойством стационарности. Следовательно, если предположение об эргодичности оправдано, то подтверждение свойства стационарности одной реализации может служить дос178
таточным основанием для допущения стационарности и эргодичности случайного процесса, к которому принадлежит
данная реализация.
Замечание. Для любого случайного процесса исчерпывающей характеристикой является бесконечномерная плотность распределения сечений f(t 1 ,t 2 ,t 3 ,…,x 1 ,x 2 ,x 3 ,…). Как
было уже сказано выше, оперировать со столь громоздкими
характеристиками, зависящими от многих аргументов,
крайне неудобно. Поэтому на практике более чем двумерные законы распределения применяются крайне редко. Таким образом, для приближенного описания свойств случайных процессов используют математическое ожидание,
дисперсию и корреляционную функцию. Учитывая свойство корреляционной функции, а именно: при совпадении
временных аргументов к.ф. превращается в дисперсию, то
набор характеристик, необходимых для приближенного
описания случайного процесса, может быть сокращен до
двух.
8.3 Канонические разложения случайных процессов
В.С.Пугачевым была предложена и развита идея представления с.п. в виде его разложения
∞
Х (t ) = φ 0 (t ) + ∑ Vk φ k (t ) ,
k =1
(8.18)
где V k – случайные величины, φ k (t) – неслучайные функции.
Такое представление с.п. в виде разложения (8.18) дает
возможность проводить довольно просто различные преобразования случайных процессов, так как разложение для
фиксированного момента времени t представляет собой линейную функцию случайных величин V k .
С другой стороны, вся зависимость от времени сосредоточена в неслучайных функциях φ k (t).
Прежде чем находить характеристики с.п. Х(t), заданного в виде (8.18), рассмотрим т.н. элементарный случайный
процесс Х(t)= Vφ(t),
где V – обычная центрированная случайная величина, с характеристиками m v =0, D v , а φ(t) – неслучайная функция.
Найдем характеристики элементарного с.п.:
179
M(X(t))=M(V·φ(t))=φ(t)·0=0;
D(X(t))=D(V·φ(t))=φ 2 (t)D v ;
(8.19)
Rx (t , t ′) = M [ X (t ) X (t ′)] = M [Vφ(t ) ⋅Vφ(t ′)] = φ(t ) φ(t ′) M (V 2 ) =
= φ(t ) ⋅ φ(t ′) Dv .
Определение. Каноническим разложением случайного процесса X(t) называется выражение вида
∞
Х (t ) = mx (t ) + ∑ Vk φ k (t ) ,
(8.20)
k =1
где m x (t) математическое ожидание с.п. Х(t); V 1 ,V 2 , … − некоррелированные, центрированные случайные величины с
дисперсиями D 1 ,D 2 , …; φ 1 (t),φ 2 (t), …− неслучайные функции аргумента t.
Случайные величины V k называются коэффициентами
канонического разложения, а функции φ k (t) – координатными функциями. Разложение (8.20) может содержать
также конечное число членов разложения.
Найдем характеристики с.п. X(t), заданного выражением
∞
(8.20) M ( Х (t )) = mx (t ) + ∑ M (Vk )φ k (t ) .
k =1
Так
как
Vk
–
центрированные
M(X(t))=m х (t).
Корреляционная функция
o
o
∞
∞
k =1
k =1
величины,
то
Rx (t , t ′) = M [ X (t ) X (t ′)] = M [ ∑ φ k (t ) Vk ∑ φ k (t ′) Vk ] =
∞ ∞
= M [ ∑ ∑ VkVh φ k (t ) φ h (t ′)].
k =1h =1
Используя свойства математического ожидания, получим
∞ ∞
Rx (t , t ′) = ∑ ∑ φ k (t ) φ h (t ′) M (VkVh ) .
k =1h =1
Учитывая, что M(V k V h )=0 при k≠h, при k=h имеем
M(V k V h )=M( Vk2 )=D k .
Следовательно,
∞
Rx (t , t ′) = ∑ φ k (t ) φ k (t ′) Dk .
k =1
(8.21)
Выражение (8.21) называется каноническим разложением корреляционной функции с.п. X(t).
Таким образом, справедливо утверждение: если с.п. X(t)
180
представлен своим каноническим разложением (8.20), то
его корреляционная функция выражается каноническим
разложением (8.21). Заметим, что справедливо и обратное
утверждение: если корреляционная функция с.п. X(t) представлена своим каноническим разложением (8.21), то ценo
трированный с.п. X (t ) может быть представлен канониче∞
o
ским разложением X (t ) = ∑ Vk φ k (t ) .
k =1
Так же можно записать каноническое разложение дис∞
персии с.п. X(t): Dx (t ) = R(t , t ) = ∑ φ 2k (t ) Dk .
k =1
Пример 8.1. Случайный процесс X(t) задан своим кано∞
ническим разложением Х (t ) = mx (t ) + ∑ Vk φ k (t ) ,
k =1
где случайные величины V k распределены нормально с характеристиками M(V k )=0, D(V k )=D k (k = 1, n ) , M(V k V m )=0
(k≠m) (величины V k – не коррелированы).
Найти одномерный и двумерный законы распределения
с.п. X(t).
Решение. Для фиксированного момента t случайная веn
личина Х (t ) = mx (t ) + ∑ Vk φ k (t )
k =1
представляет линейную функцию некоррелированнных,
нормально распределенных случайных величин V k . Следовательно, случайная величина X(t) будет распределена
нормально с характеристиками
n
M(X(t))=m x (t),
Dx (t ) = ∑ φ 2k (t ) Dk .
k =1
Одномерный закон распределения с.п.
1
[ x − mx (t )]2
exp{−
}.
f (t , x) =
2
D
(
t
)
2 πDx (t )
x
По этим же причинам двумерный закон распределения
с.п. также будет нормальным с характеристиками m x (t),
m x (t΄), D x (t), D x (t΄), и
181
n
ρ x (t , t ′) =
∑ φ k (t ) φ k (t ′) Dk
k =1
n
n
.
( ∑ φ (t ) Dk )( ∑ φ (t ′) Dh )
2
k
k =1
h =1
2
h
Следовательно,
f (t, t′, x, x′) =

1
×
exp−
2
2
′
−
t
t
2
(
1
ρ
(
,
))
2π Dx (t ) Dx (t′) (1 − ρx (t, t′))

x
1
( x − mx (t ))2 2ρ (t, t′) ( x − mx (t )) ( x − mx (t′)) ( x′ − mx (t′))2 
×
−
+
 .
′
′
D
t
D
t
(
)
(
)
D
t
D
t
(
)
(
)
x
x
x
x


Замечание. Отметим, что двумерный закон распределения нормального с.п. X(t) является его исчерпывающей
характеристикой. Кроме того, с.п. X(t) будет марковским
процессом. Нормальные и марковские процессы будут рассмотрены дальше в п.8.6.
8.4 Характеристики стационарных случайных процессов
Пусть имеется случайный процесс X(t), который является стационарным. При этом его одномерная плотность вероятности будет зависеть только от х, и не будет зависеть
от времени:
f(t,x)=f(x).
Не будут зависеть от времени и все начальные и центральные моменты порядка k:
m k (t)=m k
о
о
m k (t ) = m k
и, в частности, дисперсия
Dx (t ) = σ 2x = Dx .
Для к.ф. справедливо следующее соотношение:
R x (t, t΄) = R x (t΄−t)=R x (τ), то есть к.ф. зависит не от начала отсчета, а лишь от сдвига между временными сечениями. Поэтому в дальнейшем под стационарным с.п. будем
понимать такой случайный процесс, корреляционная функция которого зависит только от сдвига τ.
182
1. По величине к.ф. процесса X(t) не может превышать
его дисперсию:
Rx (τ ) ≤ Dx = σ 2x .
2. К.ф. – четная функция своего аргумента:
Rx ( τ ) = Rx ( − τ ) .
3. К.ф. при нулевом аргументе равна дисперсии процесса:
R x ( 0) = D x .
Учитывая рассмотренные свойства к.ф., ее обычно определяют только для положительных значений аргумента τ
(рис. 8.8).
Рис. 8.8
Для
нормированной
корреляционной
функции
ρ х (τ)=R x (τ)/D x эти свойства трансформируются следующим
образом:
1)
ρ x ( τ) ≤ 1 ;
2)
ρ x ( τ) = ρ x ( − τ) ;
3)
ρ x (0) = 1.
Функция ρ х (τ) есть коэффициент корреляции между сечениями с.п., разделенными интервалом τ по времени.
Общим для к.ф. и нормированной к.ф. стационарного
случайного процесса является то, что при неограниченном
увеличении временного сдвига между сечениями обе они
стремятся к нулю:
lim Rx ( τ) = lim ρ x ( τ) = 0.
τ →∞
τ →∞
В качестве примера рассмотрим образец приблизитель183
но стационарного с.п. и определим его характеристики.
Пример 8.2. Случайный процесс X(t) задан совокупностью 12 реализаций (рис. 8.9): а) найти его характеристики
m x (t), R x (t, t'), D x (t) и нормированную корреляционную
функцию ρ x (t, t'); б) приближенно рассматривая случайный
процесс X(t) как стационарный, найти его характеристики.
Решение. Так как с.п. X (t) меняется сравнительно плавно, можно брать сечения не очень часто, например через
0,4 сек. Тогда с.п. будет сведен к системе семи случайных
величин, отвечающих сечениям t=0; 0,4; 0,8; 1,2; 1,6; 2,0;
2,4.
Намечая эти сечения на графике и снимая с графика значения с.п. в этих сечениях, получим таблицу (табл. 8.1).
Рис. 8.9
184
Табл. 8.1
t
№
0
0,4
0,8
1,2
1,6
2,0
2,4
реализации
1
0,64 0,74 0,62 0,59 0,35 -0,09 -0,39
2
0,54 0,37 -0,32 -0,32 -0,60 -0,69 -0,67
3
0,34 0,50 0,37 0,26 -0,52 -0,72 0,42
4
0,23 0,26 0,35 0,55 0,69 0,75 0,80
5
0,12 0,20 0,24 0,18 -0,20 -0,42 -0,46
6
-0,16 -0,12 -0,15 0,05 0,29 0,43 0,63
7
-0,22 -0,29 -0,38 -0,24 -0,06 0,07 -0,16
8
-0,26 -0,69 -0,70 -0,61 -0,43 -0,22 0,29
9
-0,50 -0,60 -0,68 -0,62 -0,68 -0,56 -0,54
10
-0,30 0,13 0,75 0,84 0,78 0,73 0,71
-0,69 -0,40 0,08 0,16 0,12 0,18 0,33
11
12
0,18 -0,79 -0,56 -0,39 -0,42 -0,58 -0,53
Таблицу рекомендуется заполнять по строчкам, передвигаясь все время вдоль одной реализации.
Далее находим оценки для характеристик случайных величин Х(0), X(0,4), ..., X(2,4). Суммируя значения
по столбцам и деля сумму на число
реализаций n=12,
найдем приближенно зависимость математического ожидания от времени:
t
0
0,4
0,8
1,2
1,6
2,0
2,4
mˆ x (t ) -0,007 -0,057 0,000 0,037 -0,057 -0,093 0,036
На графике рис. 8.9 математическое ожидание показано
полужирной линией.
Далее находим оценки для элементов ковариационной
матрицы: дисперсий и ковариаций. Вычисления удобнее
всего производить по следующей схеме. Для вычисления
статистической дисперсии суммируются квадраты чисел,
стоящих в соответствующем столбце; сумма делится на
n=12; из результата вычитается квадрат соответствующего
математического ожидания. Для получения несмещенной
оценки результат множится на поправочный коэффициент
n/(n−1)=12/11. Аналогично оцениваются ковариации. Для
вычисления статистического момента, отвечающего двум
185
заданным сечениям, перемножаются числа, стоящие в соответствующих столбцах, а произведения складываются алгебраически. Полученная сумма делится на n = 12, а из результата вычитается произведение соответствующих математических ожиданий. Для получения несмещенной оценки
n
ковариации результат множится на
. Полученная таким
n −1
способом ковариационная матрица системы случайных величин X(0), X(0,4), ..., X(2,4) — она же таблица значений
корреляционной функции Rˆ x (t , t ' ) — приведена в таблице
8.2
Табл. 8.2
t
0
0,4
0,8
1,2
1,6
2,0
2,4
t΄
0,1632 0,1379 0,0795 0,0457
0
0,2385 0,2029 0,1621 0,0106 0,0642 0,0648
0,4
0,2356 0,2152 0,0827 0,0229 0,0251
0,8
0,2207 0,1527 0,0982 0,0896
1,2
0,1910 0,1491 0,1322
1,6
0,2407 0,2348 0,1711
2,0
0,2691 0,2114
2,4
0,2878
По главной диагонали таблицы стоят оценки дисперсий:
t
0
0,4
0,8
1,2
1,6
2,0
2,4
Dˆ x (t ) 0,1632 0,2385 0,2356 0,2207 0,2407 0,2691 0,2878
Извлекая из этих величин квадратные корни, найдем зависимость среднего квадратического отклонения σ̂ x
от
времени:
t
σ̂ x
0
0,4
0,8
1,2
1,6
2,0
2,4
0,404 0,488 0,485 0,470 0,491 0,519 0,536
Деля значения, стоящие в табл. 8.2, на произведения соответствующих средних квадратических отклонений, полу186
чим таблицу значений нормированной
функции ρ̂ x (t , t ' ) (табл. 8.3).
Табл. 8.3
t
0
0,4
0,8
1,2
1,6
t΄
1
0,700 0,405 0,241
0
1
0,856 0,707 0,053
0,4
1
0,943 0,345
0,8
1
0,643
1,2
0,829
1,6
1
2,0
2,4
корреляционной
2,0
2,4
0,306
0,090
0,390
0,612
0,923
1
0,299
0,095
0,344
0,524
0,650
0,760
1
Проанализируем полученные данные под углом зрения
предполагаемой стационарности с.п. X(t). Если судить непосредственно по данным, полученным в результате обработки, то можно прийти к выводу, что с.п. X(t) стационарным не является: его математическое ожидание не вполне
постоянно; дисперсия также несколько меняется со временем; значения н.к.ф. вдоль параллелей главной диагонали
также не вполне постоянны. Однако, принимая во внимание весьма ограниченное число обработанных реализаций
(n=12) и в связи с этим наличие большого элемента случайности в полученных оценках, эти видимые отступления
от стационарности вряд ли можно считать значимыми, тем
более, что они не носят сколько-нибудь закономерного характера. Поэтому вполне целесообразной будет приближенная замена процесса X (t) стационарным. Для приведения процесса к стационарному прежде всего осредним по
времени оценки для математического ожидания:
mˆ x =
mˆ x (0) + mˆ x (0,4) + ... + mˆ x ( 2,4)
≈ −0,02 .
7
Аналогичным образом осредним оценки для дисперсии:
Dˆ (0) + Dˆ x (0,4) + ... + Dˆ x (2,4)
Dˆ x = x
≈ 0,236 .
7
Извлекая корень, найдем осредненную оценку среднего
квадратического отклонения: σ̂ x ≈ 0,486 .
187
Перейдем к построению нормированной корреляционной
функции того стационарного процесса, которым
можно заменить с.п. X(t). Для с.п. корреляционная функция
(а значит, н.к.ф.) зависит только от τ=t'−t; следовательно,
при постоянном τ корреляционная функция должна быть
постоянной. В таблице 8.3 постоянному τ соответствуют:
главная диагональ (τ=0) и параллели этой диагонали (τ=0,4;
τ=0,8; τ=1,2 и т. д.). Осредняя оценки н.к.ф. вдоль этих параллелей главной диагонали, получим значения функции
ρ̂ x (τ ) :
t
0
0,4 0,8 1,2 1,6
2,0
2,4
ρ̂ x (τ ) 1,00 0,84 0,60 0,38 0,13 -0,10 -0,30
График функции ρ̂ x (τ ) представлен на рис. 8.10.
ρ̂x (τ)
Рис. 8.10
При рассмотрении рис. 8.10 обращает на себя внимание
наличие для некоторых τ отрицательных значений корреляционной функции. Это указывает на то, что в структуре
с.п. имеется некоторый элемент периодичности, в связи с
чем на расстоянии по времени, равном примерно половине
периода основных колебаний, наблюдается отрицательная
корреляция между значениями с.п.: положительным отклонениям от среднего в одном сечении соответствуют отрицательные отклонения через определенный промежуток
времени, и наоборот.
Такой характер корреляционной функции, с переходом
на отрицательные значения, очень часто встречается на
188
практике. Обычно в таких случаях по мере увеличения τ
амплитуда колебаний корреляционной функции уменьшается и при дальнейшем увеличении τ корреляционная
функция стремится к нулю.
Как было отмечено ранее, стационарные с.п. могут обладать или не обладать эргодическим свойством. Эргодическое свойство состоит в том, что любая реализация эргодического стационарного с.п. достаточной продолжительности является как бы «полномочным представителем»
всего ансамбля реализаций с.п.
Для эргодического стационарного с.п. X(t) математическое ожидание может быть определено из выражения
1 T
mx = M ( X (t )) = lim
(8.22)
∫ X (t )dt .
T →∞ 2T −T
Достаточным условием выполнения этого равенства –
эргодичности с.п. X(t) по математическому ожиданию – является lim Rx ( τ) = 0.
τ →∞
Дисперсия эргодического с.п. может быть вычислена по
формуле
1 T
Dx = D( X (t )) = lim
( X (t ) − mx ) 2 dt.
(8.23)
∫
T →∞ 2T −T
Достаточным условием выполнения равенства (8.23) –
эргодичности с.п. X(t) по дисперсии – является
lim R y ( τ) = 0,
τ →∞
где R y ( τ) – к.ф. стационарного с.п. Y (t ) = [ X (t )] .
К.ф. эргодического стационарного с.п. может быть определена по формуле
1 T
Rx (τ ) = lim
∫ ( X (t ) − m x )( X (t − τ ) − mx )dt . (8.24)
τ →∞ 2T −T
Достаточным условием выполнения равенства (8.24) –
эргодичности с.п. X(t) по к.ф. – является
lim Rz ( τ) = 0,
2
τ →∞
где Rz (τ ) – к.ф. процесса Z(t, v)=X(t)X(t+ v).
Пример 8.3. Рассмотрим с.п. U(t)=X(t)+V, где X(t) – эргодический с.п., V – случайная величина с характеристиками m V и D V . Покажем, что с.п. U(t) будет неэргодическим.
189
Действительно, характеристики с.п. U(t) будут
mU (t ) = mx + mv , RU ( τ) = Rx ( τ) + Dv .
Тогда
lim RU ( τ) = lim ( Rx ( τ) + Dv ) = lim Rx ( τ) + lim Dv = Dv .
τ →∞
τ →∞
τ →∞
τ →∞
Следовательно, с.п. U(t) является неэргодическим.
Пример 8.4. Рассматривается неслучайная величина а,
как частный случай с.п.: X(t)=а. Найти его характеристики
и определить, является ли этот процесс стационарным и эргодическим.
Решение. M(X(t))=a=const, D x (t)=R x (t,t)=R x (0)=0,
с.п. X(t)=а – стационарен и обладает эргодическим
свойством.
Пример 8.5. Рассматривается случайная величина V как
частный случай с.п.: X(t)=V. Найти его характеристики и
определить, является ли этот процесс стационарным и эргодическим.
Решение.
M ( X (t )) = M (V ) = mv ,
о
о
Rx (t , t ′) = M ( X (t ) X (t ′)) = M [(V − mv )(V − mv )] = D(V ) = Dv = Rx ( τ) .
Случайный процесс X(t)=V – стационарен, но не обладает свойством эргодичности.
Пример 8.6. Рассматривается прямоугольный волновой
процесс (случайная телеграфная волна) X(t). С.п. X(t) может принимать значение с, либо – с, причем число перемен
знака в интервале (t, t+τ) случайно; моменты перемен знака
независимы, перемены происходят со средней интенсивностью λ (рис. 8.11). Допустим также, что поведение процесса внутри интервала (t, t+τ) не зависит от поведения процесса вне этого интервала. Определим A n как событие, состоящее в том, что внутри интервала (t, t+τ) будет наблюдаться точно n перемен знака. Такой физический процесс
описывается распределением Пуассона и вероятность события A n равна
P( An ) = (λ | τ | ) n e − λ | τ | / n!.
190
Рис. 8.11
Найдем характеристики этого процесса. Одномерный
закон распределения с.п. X(t) имеет вид
X(t) -c +c
P(t) 0,5 0,5
Следовательно, mx (t ) = -c ⋅ 0,5 + c ⋅ 0,5 = 0;
Dx (t ) = (−c) 2 ⋅ 0,5 + c 2 ⋅ 0,5 = c 2 .
Определим теперь к.ф. процесса X(t). Любое произведение сечений X (t ) ⋅ X (t + τ) равно либо с 2 , если знаки X(t) и
X (t + τ) одинаковы, либо –с 2 , если знаки X(t) и X (t + τ) различны. Суммарная вероятность появления с 2 равна
P(A 0 )+P(A 2 )+P(A 4 )+…, а суммарная вероятность появления
–с 2 есть P(A 1 )+P(A 3 )+P(A 5 )+…. Следовательно,
∞
Rx ( τ) = M ( X (t ) X (t + τ)) = c ∑ (−1) n P( An ) =
2
n=0
2 − λ| τ |
=c e
∞
∑ (−1) n (λ | τ |) n / n!= c 2e
n =1
− 2λ | τ |
.
Отсюда следует, что с.п. X(t) стационарен и эргодичен.
График функции Rx ( τ) приведен на рис.8.12.
Рис. 8.12
Пример 8.7. Обобщенная случайная телеграфная волна.
Как и в предыдущем примере, на оси 0t имеется простейший поток событий с интенсивностью λ. В момент наступ191
ления i-го события с.п. X(t) принимает случайное значение
X(t) (i=1,2,…), сохраняя его до следующего события в потоке (рис. 8.13).
X(t)
Xi
. .X .
. ..t
1
0
X0
. .
t′
t
τ
X2
Рис. 8.13
В начальный момент времени t=0 Х(0)=Х 0 . Случайные
величины Х 0 , Х 1 , …, Х i , … независимы и распределены
одинаково с плотностью f(x). Найти характеристики с.п.
Х(t).
Решение. Так как одномерная плотность распределения
с.п. Х(t) равна f(x), то
∞
mx (t ) = M ( X i ) = ∫ x f ( x) dx = mx ,
−∞
∞
Dx (t ) = D( X i ) = ∫ ( x − m x ) 2 f ( x) dx = Dx .
−∞
Рассмотрим два сечения с.п. Х(t) и Х( t ′ ), разделенные
интервалом τ= t ′ −t, τ>0. Если между точками t и t ′ не появится ни одного события в простейшем потоке, то
o
o
o
X i (t ) = X i (t ′) = X i . Если между точками t и t ′ появится хотя
бы одно событие в простейшем потоке, то
o
o
o
o
X i (t ) = X i , X i (t ′) = X
j
(i≠j).
Следовательно,
o
o
o
Rx (t , t ′) = Rx ( τ) = e −λτ M ( X i2 ) + (1 − e −λτ ) M ( X i X j ) = Dx e −λτ ( τ > 0) ,
так как величины X i и X j независимы при i≠j.
Аналогично, для τ<0, получим R x (τ)=D x e −λ(−τ) . Объединяя последние две формулы, имеем R x (τ)=D x e −λ |τ| . Следовательно, рассматриваемый с.п. является стационарным и эргодическим.
192
Пример 8.8. Стационарный белый шум. Исследуем
предельное поведение с.п. X(t) из предыдущего примера
при условии, что интенсивность простейшего потока λ → ∞ ,
дисперсия сечения этого процесса тоже неограниченно
увеличивается ( Dx → ∞) , но при этом отношение Dx / λ остается постоянным:
lim Dx / λ = c. Найти характеристики
Dx →∞
λ →∞
X (t ).
с.п. Z (t ) = λlim
→∞
Dx →∞
Dx / λ = c
Решение. Преобразуем корреляционную функцию с.п.
X(t) с учетом равенства D x /λ=c:
D
R x(τ) = Dxe−λ| τ | = x λe−λ| τ | = cλe−λ| τ |.
λ
Тогда корреляционная функция с.п. Z(t) будет
λ
Rz ( τ) = lim cλe − λ | τ | = 2c lim e − λ | τ | .
λ →∞
λ →∞ 2
Под знаком предела стоит плотность распределения
случайной величины U, распределенной по закону Лапласа,
симметричному относительно начала координат, у которого
математическое ожидание равно нулю, а среднее квадратическое отклонение равно 2 / λ. Следовательно,
λ
lim e − λ | τ | = δ(τ) ,
λ →∞ 2
где δ (τ) - дельта – функция. Таким образом
Rz ( τ) = 2 c δ ( τ).
(8.25)
Это означает, что с.п. Z(t) представляет собой стационарный белый шум. Его можно представить как предельный случай последовательности очень коротких импульсов,
амплитуда которых представляет собой независимые случайные величины с очень большой дисперсией, при этом
отношение дисперсии этих импульсов к частоте их появления является постоянной (конечной) величиной.
Подобные процессы встречаются на практике при рассмотрении различных естественных помех в каналах связи, «теплового шума» в электронных устройствах и т.д.
193
8.5 Спектральное разложение стационарного случайного процесса
Можно показать, что стационарный с.п. также может
быть представлен своим каноническим разложением
∞
X(t) = mx + ∑ (Vk cos ω k t + U k sin ω k t ),
k =0
(8.26)
где U k , V k – центрированные, некоррелированные случайные величины с дисперсиями D(U k )=D(V k )=D k . Тогда корреляционная функция с.п. X(t) может быть представлена
следующим разложением
∞
∞
k =0
k =0
R(t,t ′) = ∑ Dk cos ω k (t − t ′) = ∑ Dk cos ω k τ = Rx(τ) , (8.27)
где τ = t − t ′ . Координатными функциями разложения (8.26)
являются косинусы и синусы различных частот.
Каноническое разложение (8.26) называется спектральным разложением стационарного с.п. Оно может быть
представлено и в виде
∞
X(t) = mx + ∑ Z k cos (ω k t − θ k ),
k =0
(8.28)
где θ k - фаза гармонического колебания элементарного стационарного с.п. – случайная величина, распределенная
равномерно в интервале (0, 2π); Z k – амплитуда гармонического колебания элементарного стационарного с.п. – тоже
случайная величина.
Случайные величины Z k , θ k , V k , U k связаны соотношениями Z k cos θ k = Vk , Z k sin θ k = U k .
Очевидно, что коэффициенты канонического разложения к.ф. Rx ( τ) и набор различных частот ω k (k=0,1,2…) в
формуле (8.27) должны зависеть от конкретного вида к.ф.
Rx ( τ) . Так как к.ф. стационарного с.п. X(t) является четной
функцией аргумента τ, т.е. Rx ( τ) = Rx (− τ), то её можно разложить в ряд Фурье на интервале (-Т, Т) по четным (косинусным) гармоникам, как это сделано в (8.27). Здесь
ω k = kω1 , ω1 = 2 π /( 2T ) = π / T ,
1 T
1 T
Do =
Dk = ∫ Rx ( τ) cos ω k τdτ.
∫ R x ( τ ) dτ,
2T −T
T −T
194
Доказано, что коэффициенты D k являются неотрицательными величинами для любой корреляционной функции
Rx ( τ) стационарного с.п. X(t). Таким образом, зная вид к.ф.
Rx ( τ) , можно получить значения (дисперсии) коэффициентов канонического разложения (V k , U k ) и частоты ω k стационарного с.п. X(t). Тогда дисперсию стационарного с.п.
(8.26) можно найти по формуле
∞
∞
k =0
k =0
Dx = Rx (0) = ∑ Dk cos ω k ⋅ 0 = ∑ Dk .
(8.29)
Таким образом, дисперсия стационарного с.п., представленного разложением (8.26) равна сумме дисперсий всех
гармоник его спектрального разложения.
Рис. 8.14
На рис.8.14 показан спектр дисперсий стационарного
с.п., представленного своим спектральным разложением, на
котором ω k = kω1 (k=0,1,2…). Заметим, что разложение к.ф.
Rx ( τ) в ряд (8.27) будет тем точнее, чем больший интервал
разложения Т будет взят. Например, если взять другой интервал (−T ′, T ′) , где T ′ = 2T , то спектр дисперсий разложения
с.п. X(t) на интервале (0, T ′) , так и для разложения на интервале (0, T ′) , должна быть одинаковой:
∞
∞
k =0
k =0
∑ Dk = ∑ Dk′ = Dx .
(8.30)
При неограниченном увеличении периода разложения
к.ф. (T → ∞) коэффициенты разложения будут неограниченно уменьшаться ( Dk → 0), а число их в сумме (8.30) неограниченно увеличиваться. При этом величина ∆ω = ω1 −
интервал между соседними частотами – будет также стре195
миться к нулю.
Запишем выражение (8.27) в виде
∞
∞ D
Rx ( τ) = ∑ Dk cos ω k τ = ∑ k (cos k∆ωτ)∆ω . (8.31)
k =0
k = 0 ∆ω
Введем обозначение
Dk / ∆ω = Dk / ω1 = S x (ω k ).
(8.32)
Величина S x (ω k )∆ω = Dk представляет собой ту часть
общей дисперсии стационарного с.п. X(t), которая приходится на k-ю гармонику. С увеличением периода разложения (T→∞) ступенчатая функция S x (ω k ) будет неограниченно приближаться к плавной кривой S x (ω) , которая представляет собой плотность распределения дисперсий по частотам непрерывного спектра.
Таким образом
S x (ω) = lim Dk / ∆ω .
(8.33)
∆ω → 0
Функция S x (ω) называется спектральной плотностью
стационарного с.п. X(t) или односторонней спектральной
плотностью. Используя определение функции S x (ω) перепишем (8.31) в виде
∞
∞ D
k
Rx ( τ) = lim ∑
(cos k∆ωτ)∆ω = ∫ S x (ω) cos ωτdω . (8.34)
∆ω → 0 k = 0 ∆ω
0
Таким образом, к.ф. и спектральная плотность стационарного с.п. связаны между собой косинус − преобразованием Фурье. Тогда спектральная плотность выражается через к.ф. стационарного с.п. следующим образом:
2∞
S x (ω) = ∫ Rx ( τ) cos ωτ dτ.
(8.35)
π0
Свойства функции S x (ω) :
1) S x (ω) ≥ 0;
∞
2) ∫ S x (ω)dω = Dx .
0
По аналогии с нормированной корреляционной функцией (н.к.ф.) ρ x ( τ) = Rx ( τ) / Rx (0) = Rx ( τ) / Dx
вводится в рассмотрение нормированная спектральная
плотность (н.с.п.) стационарного с.п.:
196
s (ω) = S x (ω) / Dx .
Н.к.ф. и н.с.п. связаны между собой преобразованием
Фурье:
∞
ρ x ( τ) = ∫ s x (ω) cos ω τ d ω,
0
2∞
s x (ω) = ∫ ρ x ( τ) cos ω τ d τ .
π0
Далее без вывода запишем спектральное разложение
стационарного с.п. X(t) в комплексной форме:
∞
X (t ) = mx + ∑ Wk e
i ω kt
k = −∞
,
(8.36)
а его корреляционная функция
∞
Rx ( τ) = ∑ Dk ei ω k t .
k = −ω
(8.37)
Vk − iU k
− ком2
( Wk − комплексно
Здесь i = − 1 − мнимая единица, Wx =
плексная случайная величина, W− k = Wk
сопряженная величина), iω − k = −iω k .
S x (ω) / 2, ω ≥ 0,
Функция S x* (ω) = 
(8.38)
0
,
S
(
−
ω
)
/
2
,
ω
<
 x
называется спектральной плотностью стационарного случайного процесса в комплексной форме или двусторонней
спектральной плотностью , заданной на всей частотной
оси от -∞ до +∞.
Свойства функции S x* (ω) :
1. S x* (ω) ≥ 0
при
−∞ < ω < ∞;
∞
2. ∫ S x* (ω) dω = Dx ;
−∞
*
x
3. S (ω) = S x* (−ω).
Отсюда видно , что двусторонняя спектральная плот ность представляет собой действительную , неотрицатель ную и четную функцию частоты ω . Соотношение между
функциями S( ω ) и S * ( ω ) иллюстрируется рис . 8.15.
197
Sx(ω)
S∗x (ω)
0
f
Рис. 8.15
С учетом (8.38) выражение для к.ф. примет вид:
∞
Rx ( τ) = ∫ S x* (ω)ei ω τ d ω,
−∞
а спектральные плотности преобразуются к виду:
1 ∞
S x ( τ) = ∫ Rx ( τ)e − i ω τ dτ,
π −∞
∞
1
−i ω τ
S x* ( τ) = S x ( τ) / 2 =
(−∞ < ω < ∞) .
∫ R x ( τ ) e dτ
2π − ∞
Для описания свойств двух стационарно связанных
процессов X(t) и Y(t) в частотной области используется
взаимная спектральная плотность (в.с.п.), которая определяется как преобразование Фурье от взаимной корреляци1 ∞
*
−i ω τ
онной функции S yx (ω) =
∫ R yx ( τ) e dτ , тогда взаимная
2π − ∞
корреляционная функция может быть определена как
∞
*
Rxy ( τ) = ∫ S xy
( ω) e i ω τ dτ ,
−∞
т.е в.к.ф. и в.с.п. связано между собой парой преобразования Фурье.
Пример 8.9. Найти спектральную плотность с.п. X(t),
представляющую собой случайную телеграфную волну (см.
пример 8.6) с корреляционной функцией Rx ( τ) = c 2 e −2 λ | τ | .
198
Решение.
∞
1 ∞
c 2  0 − 2 λ| τ | −i ω τ

*
−i ω τ
S x (ω ) =
e
dτ + ∫ e − 2 λ | τ |e − i ω τ dτ  =
∫ Rx (τ )e dτ =  ∫ e
2π − ∞
2π − ∞
0

∞
1
c2  0 2 λ τ −i ω τ
 c2  1

− 2 λ τ −i ω τ
=
τ
+
τ
=
−
e
d
e
d
∫
∫
 2π  2λ − iω − 2λ − iω  =
2 π − ∞

0
c2  1
1  c2
4π
c2
2λ
=
+
=
⋅
=
⋅
.
2 π  2λ − iω 2λ + iω  2 π (2λ) 2 + ω 2 π (2λ) 2 + ω 2
График S x* (ω) показан на рис. 8.16
S∗x ( ω )
c2
2πλ
Рис. 8.16
Пример 8.10. Найти спектральную плотность стационарного белого шума.
Решение. У стационарного белого шума к.ф. имеет вид
(см. пример 8.8)
1 ∞
c
*
−i ω τ
Rx ( τ) = 2 c δ (τ ) , откуда S x (ω) =
∫ 2 c δ (τ )e dτ = .
2π − ∞
π
Величина с называется интенсивностью белого шума.
Таким образом, стационарный белый шум представляет собой случайные колебания на всех частотах, при этом дисперсия этих колебаний, приходящихся на элементарный
участок ∆ω, остается постоянной и не зависит от частоты
колебаний ω. Действительно, эта дисперсия будет приближенно равна
c
∆Dx ≈ S x* (ω)∆ω = ∆ω и не зависит от частоты ω.
π
199
8.6 Классификация и определение марковских процессов
Выше уже было сказано, что существует два важных
класса случайных процессов, которые заранее могут быть
названы эргодическими. Первый – это класс гауссовских
(нормальных) стационарных процессов с абсолютно непрерывной спектральной плотностью, т.е. со спектральной
плотностью, не имеющей острых максимумов (дельта −
функций). Ко второму классу (частный случай первого) относятся марковские процессы, обладающие перечисленными свойствами. Корреляционная функция марковского процесса имеет простую экспоненциальную форму.
В соответствии с классификацией случайных процессов
(сокращенно с.п.) п.8.1 по значениям аргумента и пространству состояний, применительно к марковским процессам, будем различать марковские цепи, марковские последовательности, марковские процессы с конечным и бесконечным числом состояний (табл.8.4).
Наряду со скалярным (одномерным) процессом х(t) на
практике приходится рассматривать и многомерный процесс {х 1 (t), …, х M (t)}. Приведем общее определение марковского процесса х(t).
Определение. Случайный процесс х(t) называется марковским, если для любых n моментов времени t 1 < t 2 <…<t n
из отрезка [0,T] условная функция распределения значения
х(t n ) при фиксированных значениях х(t 1 ), х(t 2 ),…, х(t n -1 ) зависит только от х(t n -1 ), т.е. справедливо соотношение
P{х(t n )≤x n |х(t 1 )=x 1 ,…,х(t n -1 )=x n -1 }=
=P{х(t n )≤x n |х(t n -1 )=x n -1 }
(8.39)
Например, для трех моментов времени t i >t j >t k формула
(8.39) принимает вид
P{х(t i )≤x i |х(t k )=x k ; х(t j )=x j }=P{х(t i )≤x i |х(t j )=x j }. (8.40)
Поэтому часто говорят, что характерное свойство марковсих процессов состоит в следующем: если точно известно состояние марковского процесса в настоящий момент времени (t j ), то будущее состояние (при t i ) не зависит
от прошлого состояния (при t k ).
200
Укажем ещё одно общее и важное свойство марковских
процессов: для них эволюция вероятности перехода
описывается
уравнением
вида
P=P{х(t)≤x|х(t 0 )=x 0 }
d
P = AP , где А – некоторый линейный оператор (матрица –
dt
для дискретного процесса, дифференциальный оператор –
для непрерывного процесса и т.д.).
Здесь мы ограничимся рассмотрением дискретных и непрерывных марковских процессов.
Табл. 8.4
Значение аргумента
Непрерывные
Дискретные
Пространство состояний
Дискретное
Непрерывное
Цепь Маркова
Марковская
тельность
последова-
Дискретный марковский Непрерывный марковский
процесс
процесс
201
8.6.1 Дискретный марковский процесс
Предположим, что случайный процесс θ(t) представляет
собой ступенчатую кривую, т.е. может принимать только
дискретные значения { υ k , k = 1, k }, причем смена этих значений (состояний) происходит в некоторые случайные моменты времени (табл.8.4)
Введем вероятности перехода
π ij (t 0 ,t)=P{θ(t)=υ j |θ(t 0 )=υ i }, t>t 0 .
(8.41)
Это есть условные вероятности принять системе состояния υ j в момент времени t, если известно, что в предшествующий момент времени t 0 она находилась в состоянии υ i .
Очевидно, что
K
∑ π ij (t0 , t ) = 1 , π ij (t0 , t ) ≥ 0, i, j = 1, K ,
i =1
1, i = j ,
π ij (t0 , t0 ) = δ ij = 
(8.42)
0
,
i
≠
j
.

Для дискретного марковского процесса справедливо
следующее уравнение Колмогорова – Чепмена, которое
приведем без вывода:
K
π ij (t0 , t + ∆t ) = ∑ π ik (t0 , t ) π kj (t , t + ∆t ), t > t 0 , ∆t > 0 .
k =1
(8.43)
Основная задача при рассмотрении марковских процессов состоит в вычислении вероятностей перехода и безусловных (абсолютных) вероятностей различных состояний,
если известны начальное состояние системы и одношаговые вероятности перехода.
В данном случае вероятности перехода для малых временных интервалов ∆t имеют вид
πkk (t, t + ∆t ) = P{θ(t + ∆t ) = υk θ(t ) = υk } = 1 + akk (t )∆t + 0 (∆t ), (8.44)
π kj (t , t + ∆t ) = P{θ(t + ∆t ) = υ j θ (t ) = υk } = akj (t ) ∆t + 0 (∆t ), k ≠ j .
Первое соотношение (8.44) физически выражает два
факта: во–первых, что при ∆t =0 система достоверно находится в состоянии υ k и, во-вторых, вероятность перехода из
состояния υ k в любое другое зависит от рассматриваемого
момента времени и для малого ∆t пропорциональна длине
202
∆t. Второе соотношение (8.44) говорит о том, что вероятность смены состояния (зависящая от рассматриваемого
момента t) за малый интервал ∆t также пропорциональна
длине ∆t. Так как вероятности перехода неотрицательны
(akj (t ) ≥ 0), то для них должно выполняться условие нормировки
akk (t ) = − ∑ akj (t ) ≤ 0, a kj (t ) ≥ 0.
(8.45)
j ( j ≠k )
Подставив (8.44) в правую часть уравнения (8.43) и перейдя к пределу при ∆t→0, получим следующую систему
линейных дифференциальных уравнений (прямые уравнения):
K
∂
π ij (t0 , t ) = ∑ akj (t ) π ik (t0 , t ), i, j = 1, K ,
(8.46)
∂t
k =1
где a kj (t) удовлетворяют (8.45). Решение этой системы при
начальных условиях (8.42) дает зависимость вероятностей
перехода от времени.
Если число возможных состояний системы конечно, то
для любых непрерывных функций a k j (t), удовлетворяющих
условию (8.45) система (8.46) с начальными условиями
(8.42) имеет единственное неотрицательное решение, которое определяет дискретный марковский процесс.
Дискретный марковский процесс остается марковским и
в обратном направлении. При аналогичных рассуждениях,
выбрав промежуточный момент времени близким к начальному моменту t 0 , можно получить следующую систему линейных дифференциальных уравнений (обратные уравнения):
K
∂
π ij (t0 , t ) = − ∑ aik (t0 ) π kj (t0 , t ) , t > t 0 .
(8.47)
∂t0
k= j
Уравнениям (8.46) удовлетворяют не только вероятности переходов, но и абсолютные вероятности состояний
р j (t). При начальных вероятностях состояний p 0j = p j (t 0 ) вероятности состояний р j (t) удовлетворяют системе уравнений
d
p j (t ) = ∑ a kj (t ) p k (t ).
(8.48)
dt
k
Дискретный марковский процесс называется однород203
ным, если вероятности перехода π ij (t, t 0 ) зависят только от
разности τ=t−t 0 .
π ij (t, t 0 ) = π ij (τ).
В этом случае функции a k j (t)=a kj постоянны и дифференциальные уравнения упрощаются
d
π ij ( τ) = ∑ akj π ik ( τ),
(8.49)
dτ
k
d
π ij ( τ) = aii π ij ( τ) + ∑ aik π kj ( τ).
(8.50)
dτ
k (k ≠ j )
Если при τ→∞ существуют предельные значения вероятностей перехода p = lim πij(τ),
τ →∞
которые не зависят от начального состояния, то говорят,
что марковский процесс обладает эргодическим свойством
и существует однозначно – определенное стационарное состояние. Вероятности стационарных состояний определяются системой алгебраических уравнений
(8.51)
∑ akj pk = 0, ∑ pk = 1.
k
k
Пример 8.11. Дискретный марковский процесс с двумя
состояниями (случайный телеграфный сигнал). Пусть процесс θ(t) в любой момент времени может принимать лишь
два значения υ 1 (t)=1 или υ 2 (t)=−1, причем вероятность перехода 1→ −1 за малое время ∆t равна λ∆t, а вероятность
перехода −1→ 1 равна µ∆t. Известны вероятности начального состояния p10 = P {θ(t 0 ) = 1} и
p20 = P { θ(t0 ) = −1} = 1 − p10 .
Определить вероятности перехода
π ij (t 0 ,t)=P{θ(t)=υ j |θ(t 0 )=υ i } (где υ 1 =1, υ 2 =−1; i, j=1,2),
вероятности стационарного состояния p 1 и р 2 , а также
среднее значение и корреляционную функцию процесса
θ (t ) .
Из (8.44) следует, что а 12 =λ, а 21 =µ. Из (8.45) находим
а 11 =−λ, а 22 =−µ. Так как все коэффициенты а ij – постоянные
величины, то процесс θ(t) является однородным. Дифференциальные уравнения (8.46) примут вид
∂
π i 1 (t0 , t ) = −λ π i 1 (t0 , t ) + µ π i 2 (t0 , t ),
(8.52)
∂t
204
∂
π i 2 (t0 , t ) = − µ π i 2 (t0 , t ) + λ π i1 (t0 , t ), i=1,2.
∂t
Из условия нормировки (8.42) имеем π 12 (t, t 0 )=1−π i1 (t,
t 0 ). Поэтому первое из уравнений (8.52) можно записать
иначе
∂
π11 (t0 , t ) = − ( λ + µ ) π11 (t0 , t ) + µ, t > t0 .
(8.53)
∂t
Общее решение этого линейного неоднородного дифференциального уравнения первого порядка с начальным условием π 11 (t, t 0 )=1 имеет вид
t
 λ  − ( λ + µ)τ
µ
π11 (t0 , t ) = µ ∫ e − ( λ + µ )(t − s ) ds + e − ( λ − µ )(t − t 0 ) =
+ 
,
e
λ+µ λ+µ
t0
τ = t − t 0 > 0.
В результате решения системы уравнений (8.52) для
любых τ>0 получим
π11(τ) = µ /( λ + µ) + [ λ /( λ + µ)]e− (λ + µ)τ,
π12(τ) = [λ /( λ + µ)][1 − e− ( λ + µ ) τ],
(8.54)
π 22 (τ ) = λ/( λ + µ) + [ µ/( λ + µ)]e − ( λ + µ) τ ,
π21(τ) = [µ /(λ + µ)][1 − e− ( λ + µ) τ].
Эти вероятности переходов и определяют данный дискретный марковский процесс.
Рассматриваемый марковский процесс эргодичен, поскольку при t→∞ существуют предельные значения вероятностей перехода р 1 =µ/(λ+µ),
р 2 =λ /(λ+µ),
которые определяют вероятности стационарного состояния.
По определению, среднее значение процесса θ(t) равно
M ( θ (t )) = mθ (t ) = 1 ⋅ p1 (t ) − 1 ⋅ p2 (t ) =
= p10 π11 ( τ) + (1 − p10 ) π 21 ( τ) − (1 − p10 ) π 22 ( τ) − p10 π12 ( τ).
Подставив выражение вероятностей перехода из (8.54),
получим
mθ (t ) = (µ − λ ) /( λ + µ ) + 2 [ p10 − µ/(λ + µ)] e − ( λ + µ) τ , τ = t − t0 .
Вычислим теперь корреляционную функцию
Rθ ( s, τ) = M [ θ (t0 + s ) θ (t0 + s + τ)] − M ( θ (t0 + s )) M ( θ (t0 + s + τ)),
s , τ > 0.
Так как среднее значение произведения
205
M [θ(t0 + s ) ⋅ θ(t0 + s + τ)] = p1 (t0 + s ) π11 ( τ) + p2 (t0 + s ) π 22 ( τ) −
− p1 (t0 + s ) π12 ( τ) − p2 (t0 + s ) π 21 ( τ),
то окончательное выражение для корреляционной функции
будет
 4λλ
µ − λ  0
µ  − (λ + µ ) s 
Rθ ( s, τ) = 
−
+
p
−


⋅
 1 λ + µ e
2
λ
µ
+
(λ
µ)
+






µ  − ( λ + µ ) s  − (λ + µ)τ
⋅  p10 −
.
e
e
λ
+
µ



Предположим теперь, что в качестве вероятности начального состояния взята вероятность стационарного состояния, т.е. p10 = p1 = µ/(λ + µ). Тогда процесс θ(t) будет стационарным с момента времени t 0 ; его среднее значение
mθ (t ) = (µ − λ)/(λ + µ ) = const ,
а корреляционная функция
Rθ ( s, τ) = Rθ ( τ) = 4 λ µ ( λ + µ) −2 e − ( λ + µ)| τ | .
Если λ=µ, то процесс θ(t) принято называть случайным
телеграфным сигналом. Полагая в предыдущих формулах
λ=µ, находим вероятности переходов, вероятности стационарного состояния, а также среднее значение и корреляционную функцию для стационарного состояния случайного
телеграфного сигнала θ(t):
π11(τ) = π22(τ) = (1 + e− 2λτ) / 2, π12(τ) = π21(τ) = (1 − e− 2λτ) / 2,
р 1 =р 2 =1/2, mθ = 0,
Rθ ( τ) = e −2 λ | τ | .
Сравните полученные результаты с результатами примера 8.6.
8.6.2 Непрерывный марковский процесс. Уравнение
Фоккера – Планка – Колмогорова
В противоположность дискретным процессам, непрерывные (непрерывнозначные) процессы характеризуются
тем, что в любом малом интервале ∆t имеет место некоторое малое (порядка ∆t ) изменение состояния марковского
процесса х(t).
В отличие от произвольного случайного процесса X(t), непрерывный марковский процесс далее обозначен x(t).
Возьмем в последовательные моменты времени
206
t 0 <t 1 <…<t n -1 <t n значения случайного процесса
x 0 =x(t 0 ), x 1 =x(t 1 ),…, x n -1 =x(t n -1 ), x n =x(t n ).
Определение. Процесс x(t) является марковским, если
условные плотности вероятностей (плотности вероятности
перехода) зависят только от последнего значения x n -1 в
момент t n -1 и не зависят от других, более ранних значений,т.е.
π n (t n , xn t n −1 , xn −1 ; ...; t1 , x1; t0 , x0 ) = π(t n , xn t n −1 , xn −1 ), n ≥ 1. (8.55)
С другой стороны, условная плотность вероятности
равна отношению безусловных плотностей, а именно:
π n (tn , xn t n −1 , xn −1 ; ...; t1 , x1 ; t0 , x0 ) =
(8.56)
= f n +1 (t0 ,..., tn ; x0 ,..., xn ) / f n (t0 ,..., t n −1 ; x0 ,..., xn −1 ).
Иначе говоря, будущее поведение марковского процесса
не зависит от прошлого, если точно известно его состояние
в настоящий момент времени. Именно поэтому марковские
процессы также называются процессами без последействия.
Запишем формулу (8.56) в следующем виде:
f n +1 (t0 ,..., tn , x0 ,..., xn ) = π(t n , xn tn −1 , xn −1 ) f n (t0 ,..., t n −1 , x0 ,..., xn −1 ).
Применяя последовательно это соотношение для разных
n, получим
f n +1 (t0 ,..., tn , x0 ,..., xn ) = π(t n , xn t n −1 , xn −1 ) ×
(8.57)
× π(tn −1 , xn −1 t n −1 , xn − 2 ) × π(t1 , x1 t0 , x0 ) f (t0 , x0 ).
Следовательно, многомерные плотности вероятностей
марковских процессов выражаются через плотность вероятности перехода π (t , x t ′, x′) и одномерную начальную
плотность f(t 0 , x 0 ). Таким образом, характерное свойство
марковских процессов состоит в том, что начальная одномерная плотность вероятности и плотность вероятности
перехода полностью определяют марковский случайный
процесс.
Можно показать, что марковский процесс остается таковым и в обратном направлении, т.е.
π (t0 , x0 t1 , x1 ;...; tn , xn ) = π (t0 , x0 t1 , x1 ), t 0 < t1 < ... < t n .
Плотность вероятности перехода непрерывного марковского процесса удовлетворяет следующим условиям:
1) π(t , x t0 , x0 ) ≥ 0 (неотрицательность);
207
2) ∫ π(t , x t0 , x0 )dx = 1 (нормированность);
3) lim π(t , x t0 , x0 ) = δ ( x − x0 ) (малое изменение состояния за
малые промежутки времени);
∞
4) π(t , x t0 , x0 ) = ∫ π(t , x t ′, x′) π (t ′, x′ t0 , x0 )dx′,
−∞
т.е. удовлетворяет уравнению Колмогорова − Чепмена в
интегральной форме.
В тех случаях, когда плотность вероятности перехода
зависит только от разности временных аргументов τ = t − t ′,
т.е. π(t , x t ′, x′) = π(τ , x′, x), t , t ′ > 0,
марковский случайный процесс называется однородным во
времени.
Если при τ→∞ плотность вероятности перехода стремится к некоторому пределу
lim π (τ , x′, x) = f st ( x),
(8.58)
τ→∞
не зависящему от «начального» состояния x′ , то говорят,
что процесс эргодичен.
Если известна начальная плотность вероятности f(t 0 ,x 0 )
и найдена плотность вероятности перехода π(t , x t ′, x′) , то
можно вычислить другие характеристики марковского процесса x(t).
Одномерная плотность вероятности в произвольный
момент времени t будет равна
∞
f (t , x) = ∫ f (t0 , x0 ) π (t , x t0 , x0 ) dx0 .
(8.59)
−∞
Одномерная плотность вероятности в стационарном состоянии не зависит от времени и равна f st (x), а двумерная
плотность вероятности зависит только от сдвига τ = t − t ′ :
f 2 ( τ, x, x′) = f (t , t ′, x, x′) = f st ( x′) π ( τ, x′, x).
Для стационарного процесса x(t) корреляционная функция равна
∞
∞
Rx ( τ) = ∫ ∫ x′x f st ( x′) π ( τ, x′, x)dx′dx − ( ∫ x′f st ( x′) dx′) 2 .
−∞
(8.60)
−∞
По функции (8.60) можно найти спектральную плотность
2∞
S x (ω) = ∫ Rx ( τ) cos ω τ dτ, ω ≥ 0.
π0
208
Плотность вероятности перехода π(t , x t0 , x0 ), t > t0 непрерывного марковского процесса удовлетворяет следующим
уравнениям в частных производных:
∂
∂
π (t , x t0 , x0 ) = − [a (t , x) π (t , x t0 , x0 )] +
∂t
∂x
(8.61)
1 ∂2
[b (t , x) π (t , x t0 , x0 )],
+
2
2 ∂x
∂
∂
π (t , x t0 , x0 ) = a (t0 , x0 )
π (t , x t0 , x0 ) +
∂x0
∂t0
(8.62)
1
∂2
+ b (t0 , x0 ) 2 π(t , x t0 , x0 ).
2
∂x
Уравнение (8.61) называется уравнением Фоккера−Планка-Колмогорова или прямым уравнением (т.к. входит производная по конечному времени t>t 0 ), а уравнение
(8.62) уравнением Колмогорова или обратным уравнением
(так как входит производная по начальному времени t 0 <t).
Такое название исходит от того, что прямое уравнение для
процесса броуновского движения встречалось в работах
Фоккера (1914) и Планка (1917). Строгое математическое
обоснование
первого
уравнения
было
дано
А.Н.Колмогоровым; им же впервые получено уравнение
(8.62).
В этих уравнениях через a(t,x) и b(t,x) обозначены т.н.
инфинитезимальные моменты 1-го и 2-го порядка процесса
x(t). Вообще инфинитезимальным моментом n-го порядка
процесса называется величина
1 ∞
n
K n (t , x) = lim
[
x(t + ∆t ) − x(t )] π(t + ∆t , x t , x) dx .
(8.63)
∫
∆t → 0 ∆t − ∞
Тогда
a(t,x)=K 1 (t,x),
b(t,x)=K 2 (t,x).
Если для марковского процесса моменты K n (t , x) ≠ 0,
n=1,2; K n (t , x) = 0, n=3,4, …, то марковский процесс называется диффузионным.
Для любых случайных процессов, для которых существуют коэффициенты K n (t,x) справедливо следующее уравнение относительно плотности вероятности перехода:
209
∞ ( −1) n ∂ n
∂
π(t , x t0 , x0 ) = ∑
[K n (t , x) π (t , x t0 , x0 )]. (8.64)
n
∂t
n =1 n! ∂x
Далее будем рассматривать только частный случай
уравнения (8.64), когда первые два коэффициента K 1 (t,x) и
K 2 (t,x) отличны от нуля, а остальные – K 3 (t,x),
K 4 (t,x),…равны нулю.
Для диффузионных марковских процессов уравнение
(8.64) упрощается и переходит в уравнение ФоккераПланка-Колмогорова (8.61):
∂
∂
π(t , x t0 , x0 ) = − [a (t , x) π (t , x t0 , x0 )] +
∂t
∂x
(8.65)
2
1 ∂
[b (t , x)π(t , x t0 , x0 )].
+
2 ∂x 2
По традиции, связанной с применением уравнения
(8.65) для изучения диффузионных процессов, уравнение
(8.65) называют диффузионным уравнением, а коэффициенты a(t,x) и b(t,x) – соответственно коэффициентами сноса
и диффузии процесса x(t). Коэффициент а(t,λ) характеризует среднее значение локальной скорости, т.е. a(t,x)=m(t,x),
а коэффициент b(t , x) = σ 2 (t , x) − локальную скорость изменения дисперсии приращения марковского процесса. Поэтому коэффициент диффузии b(t , x) ≥ 0.
Линейное уравнение в частных производных (8.65) относится к уравнениям параболического типа и для отыскания его решения можно применять обычные методы решения уравнений этого типа. При этом решение должно быть
неотрицательным, нормированным к единице и должно
удовлетворять начальному условию
π (t , x t0 , x0 ) = δ ( x − x0 ).
(8.66)
Решение уравнения Колмогорова (8.65) для неограниченного пространства при дельтообразном начальном условии (8.66) называется фундаментальным решением задачи Коши.
Если значение марковского процесса x(t) в начальный
момент времени t 0 не фиксировано, а является случайным с
плотностью вероятности f 0 (x), то в качестве начального условия указывается эта плотность f(t 0 ,x)=f 0 (x).
210
Доказано, что одномерная плотность вероятности марковского диффузионного процесса удовлетворяет уравнению Колмогорова (8.65). Оказывается, что при дельтообразном начальном распределении, плотность вероятности
f(t,x) совпадает с плотностью вероятности перехода
π(t , x t0 , x0 ) , т.е. справедливо уравнение
∂
∂
1 ∂2
[b (t , x) f (t , x)]. (8.67)
f (t , x) = − [a (t , x) f (t , x)] +
2
∂t
∂x
2 ∂x
Это же уравнение справедливо и в случае многомерного
марковского процесса x(t)={x 1 (t),…, x М (t)}. Например, в
двумерном случае уравнение (8.67) относительно одномерной плотности вероятности f(t,x) имеет вид
2 ∂
∂
1 2 ∂2
[ai (t , x) f (t , x)] + ∑
f (t , x) = −∑
[bij (t , x)]. (8.68)
∂t
2 i , j =1 ∂xi ∂x j
i =1 ∂xi
Для отыскания решения уравнение Колмогорова (8.67),
кроме начального условия в виде дельта−функции, нужно
указать ещё и граничные условия. Граничные условия могут быть весьма разнообразными и определяются существом физической задачи. Мы же далее будем использовать
уравнение (8.67) в связи с анализом систем массового обслуживания, а именно для диффузионного приближения
(диффузионной аппроксимации) основных случайных процессов – процессов поступления и ухода требований в системе массового обслуживания.
Рассмотрим основные граничные условия, необходимые
при решении диффузионного уравнения Колмогорова. Для
этого будем трактовать плотность вероятности f(t,x) как
концентрацию (относительное число) частиц в точке x в
момент времени t. Поток частиц G вдоль оси x складывается из систематического потока a·f, где а – локальная скорость систематического движения, и случайного (диффузи1 ∂
( bf ), т.е.
онного) потока −
2 ∂x
1 ∂
[b (t , x) f (t , x)].
G (t , x) = a (t , x) f (t , x) −
(8.69)
2 ∂x
Из (8.67) и (8.69) следует, что уравнение Колмогорова
представляет собой уравнение непрерывности
211
∂
∂
f (t , x) + G (t , x) = 0 ,
(8.70)
∂t
∂x
выражающее сохранение числа частиц.
Если процесс x(t) может принимать значение от −∞ до
+∞, то уравнение (8.70) справедливо на всей прямой. Интегрируя (8.70) по x от −∞ до +∞ и учитывая, что
∞
f (t , x) ≥ 0 , ∫ f (t , x) dx = 1 ,
−∞
получим равенство
G (t ,−∞) = G (t , ∞) .
Помимо этого равенства, обычно в практических задачах выполняются нулевые граничные условия:
G (t ,−∞) = G (t , ∞) = 0 , f (t ,−∞) = f (t , ∞) = 0 .
(8.71)
В тех случаях, когда процесс x(t) принимает ограниченные значения на интервале (c,d), уравнение (8.65) следует
рассматривать только в этой области. Тогда граничные условия нулевого потока имеют вид
G (t , c) = G (t , d ) = 0 .
(8.72)
Это означает, что не допускается поток частиц через
границы c и d, и эти границы выступают как отражающие
экраны (в силу непрерывности частицы не теряются). Роль
отражающих границ наглядно иллюстрируется на рис. 8.17,
где изображен один отражающий экран в точке x=c.
В граничных точках c и d могут быть расположены поглощающие экраны: частица, достигшая такого экрана, поглощается им (т.е. остается там навсегда) и исключается из
дальнейшего рассмотрения. В этом случае граничное условие поглощения имеет вид
f (t , c) = f (t , d ) = 0.
(8.73)
212
Рис. 8.17.
Влияние поглощающего экрана на поведение процесса и
плотность вероятности схематично изображено на рис.
8.18.
Рис. 8.18
Далее остановимся на нахождении решения уравнений
(8.67) и (8.68) для стационарного состояния. Так как эти
уравнения относятся к уравнениям параболического типа,
то для их решения применяются известные методы решения уравнения этого типа.
213
Например, при исследовании переходных процессов, нестационарное уравнение (8.67) можно решать с помощью
шести следующих методов: 1) метода разделения переменных, 2) метода преобразования Лапласа, 3) метода характеристической функции, 4) метода замены независимых переменных, 5) метода гауссова приближения и 6) численных
методов. Методы получения нестационарного решения
уравнения Колмогорова в этой книге не рассматриваются.
Для стационарного состояния одномерная плотность
вероятности f st ( x) = lim f (t , x), если она существует, вообще
t →∞
не зависит от времени t и от начального распределения
f 0 (x). Тогда ∂f st ( x) / ∂t ≡ 0 и, следовательно, G(x)=G=const.
Уравнение (8.67) переходит в линейное дифференциальное
уравнение для f st (x):
d
[b ( x) f st ( x)] − 2a( x) f st ( x) = −2G,
(8.74)
dx
для которого хорошо известно общее решение:
x
z
C
a( y )
2G x
a( y )
f st ( x) =
exp [2 ∫
dy ] −
exp
[
2
dy ] dz . (8.75)
∫
∫
b ( x)
b ( x ) x′
x′ b ( y )
x′ b ( y )
Здесь постоянная С определяется из условия нормировки, а величина потока G находится из граничных условий.
В качестве нижнего предела интегрирования x′ можно
взять любую точку интервала, в котором определен процесс x(t). Например, при нулевых граничных условиях для
потока (G=0) уравнение (8.74) будет иметь вид
d
[b ( x) f st ( x)] − 2 a ( x) f st ( x) = 0,
dx
а его общим решением будет
x
C
a( y )
f st ( x) =
exp [2 ∫
dy ] ,
(8.76)
b ( x)
b
(
y
)
x′
где постоянная С определяется из условия нормировки
функции плотности.
Таким образом, определив из конкретной постановки задачи коэффициенты сноса a(x) и диффузии b(x) по формулам (8.63), в некоторых случаях можно сразу написать выражение для одномерной плотности вероятности. Это показывает эффективность использования уравнения Колмого214
рова в практических применениях марковских процессов.
8.6.3 Диффузионное приближение систем массового обслуживания
N(t)
Число требований
Рассмотрим следующие фундаментальные вероятностные процессы, описывающие системы массового обслуживания (СМО): процесс обслуживания (требований) и процесс уходов (требований), определяемые как
N 1 (t) – число поступлений на интервале (0,t),
N 2 (t) – число уходов на интервале (0,t).
Типичные реализации таких ступенчатых вероятностных процессов показаны на рис. 8.19.
Значение N(t)= N 1 (t)−N 2 (t) в любой момент времени
представляет собой число требований в СМО, причем
N(0)=0.
Рис. 8.19
Таким образом, процессы поступления требований в
СМО (N 1 (t)) и ухода из неё (N 2 (t)) являются гауссовскими,
т.е. распределенными по нормальному закону. Рассмотрим
вначале процесс N 1 (t). Время поступления требования C n в
потоке событий представляет собой сумму n промежутков
времени между моментами поступления требований, т.е. τ n
=t 1 +t 2 +…+ t n , причем τ 0 =0.
Для СМО типа GI/G/1 (с произвольными законами распределения входного потока A(t) и времени обслуживания
B(t)) считается, что {t i } является множеством независимых
215
одинаково распределенных случайных величин. Когда время t и, следовательно, число n становятся большими, τ n является суммой большого числа независимых и одинаково
распределенных случайных величин. Поэтому можно ожидать, что здесь применима центральная предельная теорема, которая позволяет описать случайную величину τ n , а
следовательно, и случайный процесс N 1 (t) как гауссовский.
Совершенно аналогично можно считать процесс уходов
N 2 (t) распределенным по нормальному закону. Это предположение о нормальном распределении N 1 (t) и N 2 (t) и следовательно, их разности N(t)= N 1 (t)−N 2 (t), является
краеугольным камнем диффузионного приближения СМО.
При диффузионном приближении предполагается, что
процесс поступлений N 1 (t) и процесс уходов N 2 (t) аппроксимируются марковскими диффузионными процессами,
распределенными по нормальному закону со средними
N1 (t ) и N 2 (t ) и дисперсиями σ 2N1 (t ) и σ 2N 2 (t ) соответственно.
Тогда число требований в СМО N(t) также является нормальным случайным процессом со средним значением
N (t ) = N1 (t ) − N 2 (t ) и дисперсией σ 2N ( t ) = σ 2N1 ( t ) + σ 2N 2 (t ) , так как
дисперсии независимых процессов складываются.
Таким образом, для системы GI/G/1 среднее значение и
дисперсия процесса N(t) равны
t
t  ρ − 1 
N (t ) = − = 
t = at ,
τ λ τµ  τµ 
 σ 2λ
σ µ2 
2
σ N (t ) = 
+
t = (cλ2 ⋅ λ + cµ2 ⋅ µ )t = bt ,
3
3
 (τ λ ) (τµ ) 
где a и b – постоянные коэффициенты сноса и диффузии, а
cλ2 , cµ2 − квадраты коэффициентов вариаций N 1 (t) и N 2 (t) соответственно.
Аппроксимируем дискретный процесс N(t) диффузионным
процессом
x(t)
(рис.
8.20),
для
которого
dx(t)=x(t+dt)−x(t) имеет нормальное распределение со
средним a·dt и дисперсией b·dt, т.е. x(t) определяется стохастическим
дифференциальным
уравнением
216
dx(t ) = adt + bdt ξ (t ) . Процесс ξ(t) является белым гауссовским шумом с нулевым средним и единичной дисперсией.
Плотность распределения вероятностей f(t,x) неограниченного процесса х(t) удовлетворяет диффузионному уравнению Колмогорова
∂f (t , x )
∂t
b ∂ f (t , x )
∂f (t , x )
.
= ⋅
−a
2
2
∂
x
∂x
2
(8.77)
Дополним уравнение (8.77) граничным условием отражения в т. x=0
b df (∞, x)
[ ⋅
− af (∞, x)] x =0 = 0.
(8.78)
2
dx
X(t) N(t)
1
0
τ0
Y
t
T
Рис. 8.20
При t→∞ решение уравнения (8.77) при условии (8.78)
для стационарной плотности распределения процесса x(t)
имеет вид
2|a|
2(1 − ρ )
 2(1 − ρ ) 
 2 | a | x
f (x ) =
exp−
exp
,
(8.79)
=
− 2
2
b
b  ρCλ2 + Cµ2

 ρCλ + Cµ 
где ρ=λ/µ. Это решение также может быть получено из
(8.76). Следует ожидать, что такое диффузионное приближение даст хороший результат только при больших значениях загрузки (ρ≈1).
В качестве приближения стационарного распределения
pˆ (n) числа заявок, находящихся в СМО можно использовать выражение
n+1
pˆ (n) = ∫ f ( x )dx = (1 − ρ̂ ) ρ̂ n ,
n = 0, 1, 2, ... ,
(8.80)
n
217
 2(1 − ρ ) 
где ρ̂ = exp− 2
.
2
ρ
C
+
C

λ
µ

В связи с тем, что для СМО GI/G/1/∞ р(0)=1−ρ, распределение длины очереди (8.80) можно модифицировать
при n = 0
1 − ρ,
pˆ (n) = 
(8.81)
n −1
при n ≥ 1.
ρ(1 − ρ̂ )ρ̂ ,
Точность метода диффузионного приближения можно
явно проверить только для СМО, для которых известны
точные результаты. Для СМО M/G/1 среднее количество
заявок в системе дается формулой Поллачека-Хинчина
2
ρ 2 (1 + cµ )
Ν =ρ+
,
2 1− ρ
где ρ −коэффициент загрузки, cµ2 − квадрат коэффициента
вариации времени обслуживания в СМО.
На рис. 8.21 приведены графики относительных поΝ − Ν1 

грешностей δ в % ,  δ =
%  для различных значений
Ν


квадрата коэффициента вариации времени обслуживания
cµ2 . Эта погрешность мала при с µ ≈1 и растет при отклонении с µ от единицы, однако δ стремится к нулю при ρ→1,
как и следовало ожидать.
δ%
40
Cµ2= 0
20
Cµ2= 0,5
0
1 ρ
- 20
Cµ2= 1
- 40
- 60
2
Cµ = 2
Cµ2= 5
Рис. 8.21
218
Таким образом, одномерное диффузионное приближение дает приемлемое решение только при умеренных и
больших загрузках. Далее рассмотрим двумерное диффузионное приближение СМО.
8.6.4 Обобщенная двумерная диффузионная модель систем массового обслуживания типа GI/G/1/∞ с бесконечной очередью и
GI/G/1/m с конечной очередью и потерями
Будем рассматривать двумерный диффузионный процесс (х 1 , х 2 ), где х 1 (t) аппроксимирует на периоде занятости число заявок N 1 (t), поступивших в СМО к моменту
времени t, а х 2 (t) - число заявок N 2 (t), покинувших СМО к
тому же времени. Так что текущее значение N − числа заявок, находящихся в СМО, определяется разностью целой
части от x 1 и целой части от х 2 : N=[x 1 ] − [х 2 ]. Рассмотрим
для процессов х i (i=1,2) в области N≥0 моменты времени t
первого достижения ординатой процесса целочисленного
уровня k+1 при начальном условии х i (0)=k (приращение
∆х i =1). Из теории случайных процессов известно, что плотность распределения вероятностей этого времени t имеет
вид
(1− ai t )2
−
1
g i (t ) =
e 2bi t ,
(8.82)
3
2 πbi t
где a i и b i соответственно коэффициенты сноса и диффузии
процессов x i (i=1, 2). C помощью табличного интеграла
∞
β
− − γt
t ν −1e t dt
ν
 β 2
(
)
= 2  K ν 2 βγ ,
γ
0
где K ν (•)- функция Макдональда порядка ν, могут быть вычислены математическое ожидание и дисперсия распределения (8.82). Потребуем, чтобы компоненты двумерного
диффузионного процесса (х 1 , х 2 ) в моменты времени первого прохождения целочисленного уровня имели средние
значения и дисперсии, совпадающие соответственно со
средними значениями и дисперсиями компонент дискретного процесса (N 1 , N 2 ). Тогда можно выразить коэффициен-
∫
219
ты сноса ai = τi−1 и bi = Di τi− 3 диффузии через среднее значение τi и дисперсию D i интервала времени между скачками дискретного процесса N i . В этом смысле на уровне двух
первых моментов распределений процессы x i и N i будут согласованными в моменты поступления и ухода заявок.
В области Ω, определенной условиями N≥0 и N max =m
(m–максимально допустимое число заявок в СМО), плотность распределения f(t, x 1 , x 2 ) векторного диффузионного
процесса (x 1 , x 2 ) удовлетворяет уравнению Колмогорова
2 b ∂2 f
∂f
∂f
= ∑ ( i ⋅ 2 − ai
)
(8.83)
∂xi
∂t i =1 2 ∂xi
В случае СМО с бесконечной очередью (m→∞) граница
Г 2 и следовательно граничное условие отражения на этой
границе в постановке задачи отсутствуют.
Так как период занятости начинается с уровня x 1 =1, то
начальным условием для уравнения (8.83) будет
f(0, x 1 , x 2 ) =δ( x 1 −1)δ( x 2 ), где δ(•)дельта функция Дирака.
Рассматривая функционирование СМО только на периоде занятости, к уравнению (8.83) добавим граничное
условие поглощения f| Г =0 и граничное условие отраже1
ния на границе Г 2 – grad f| Г = 0 . Граница Г 1 , определенная
2
условием [N]=0 имеет ступенчатый характер (рис. 8.22) и
физически означает завершение периода занятости. Распределение ординаты процесса x 1 в момент достижения
границы Г 1 позволяет определить все основные характеристики функционирования СMO.
Рассмотрим вначале случай СМО GI/G/1/∞, т.е. сосредоточимся на поведении траектории 1 двумерного процесса
(x 1 , x 2 ) на периоде занятости (рис. 8.22).
Вследствие сложного характера границы, решение
уравнения (8.83) в области Ω будем искать в виде совокупности решений в подобластях Ω k = (x 1 ≤k+1, x 2 ≤k) (k=1,2,...).
Обозначим через φ k (y 2 ) распределение ординаты процесса
x 2 в момент прохождения процессом (x 1 , x 2 ) границы x 1 =k+1
области Ω k и через ψ k (y 1 ) − распределение ординаты процесса x 1 в момент достижения границы x 2 =k той же облас220
ти. Рассмотрим состояние СМО с момента поступления заявки в СМО (x 1 =k+1) до момента окончания периода занятости (x 2 =k) (рис. 8.22).
Тогда из−за марковского характера рассматриваемых
процессов начальным условием для решения уравнения
(8.83) в областях Ω k будет распределение φ k -1 ( y2′ ) , известное на предшествующем шаге. Решим теперь уравнение
(8.83) и выведем рекуррентные формулы для определения
плотностей распределений ординаты процесса x 2 в момент
прохождения процессом (x 1 , x 2 ) границы x 1 =k+1 области
Ω k −φ k (y 2 ) и ординаты процесса x 1 достижения границы x 2 =k
той же области ψ k (y 1 ). Для этого рассмотрим величину
φ k (y 2 )dy 2 , равную интегральному значению компоненты
вектора потока вероятностей
a1 f k (t , x1 , x 2 ) −
b1 ∂f k (t , x1 , x 2 )
2
∂x1
через площадку dy 2 границы x 1 =k+1:
∞
b ∂w 
φ k ( y 2 )dy 2 = dy 2 ∫  a1 wk − 1 k 

2 ∂x 1 

0
x1=k +1
y2 =k − x2
⋅ dt .
x1
y1
Г2
2 1 y2
m+1
3
2 ϕ3
ϕ2
1
ψ3
Г1
ψ2
1
Ω2
2
2 ϕ
1
y′2
Ω3
ψ1
Ω1
1
2
3
4
5
6
x2
Рис. 8.22
Обобщенная двумерная диффузионная модель функционирования СМО:
− траектория 1 – для СМО GI/G/1/∞;
221
− траектория 2 – для СМО GI/G/1/m.
Решение уравнения (8.83) в области Ω k , в которой
x 1 (0)=k, x 2 (0)= y′2 −случайная величина с распределением
φ k −1 ( y2′ ) при нулевых граничных условиях может быть получено при помощи функции Грина
( x1 − k − a1t ) 2 ( x2 − y2′ − a2t ) 2
1
Qk (t , x1 , x2 | k , y2′ ) =
⋅ exp[−
−
]×
2b1t
2b2t
2π b1b2 ⋅ t
2( x1 − k − 1) 2
2(kx2 − y2′ x2 + y2′ k − k 2 ) 2
× {1 − exp[
]} × {1 − exp[
]}.
b1t
b2t
Здесь два первых сомножителя представляют собой фундаментальное решение уравнения (8.83) при дельтообразном
начальном распределении, а два последних сомножителя
выражают нулевые граничные условия при x 1 =k+1 и x 2 =k.
Решение f k будет выражаться через функцию Q k следующим
образом:
∞
f k (t , x1 , x2 ) = ∫ φ k -1 ( y2′ )Qk (t , x1, x2|k, y2′ )dy2′ .
0
Отсюда, учитывая выражение для Q k , приходим к рекуррентной формуле для определения φ k (y 2 ) (k=1,2,...):
∞
φ k ( y2 ) = ∫ φ k −1 ( y2′ )Qφ ( y2 y2′ )dy2′
(φ1 ( y2 ) = Qφ ( y 2 | 0)),
(8.84)
0
Qφ(y2|y2′ ) =
где
×[
1
a a
⋅ exp[ 1 + 2 ( y2′ − y2 + 1)] ×
b1 b2
π b1b2
γ
γ
K1 (2 β1 ⋅ γ ) −
K1 (2 β 2 ⋅ γ )];
β1
β2
1 ( y2′ − y2 + 1) 2
β1 =
+
;
2b1
2b2
1 ( y2′ + y2 + 1) 2
+
β2 =
;
2b1
2b2
a12 a22
γ=
+
;
y2 ∈ [0, ∞);
2b1 2b2
K1 (•) −функция Макдональда. Аналогичные рассуждения
приводят к следующему выражению для ψ k (y 1 ) (k=1,2,...):
∞
ψ k ( y1 ) = ∫ φ k-1 ( y2′ )Qψ ( y1 /y2′ )dy2′ (ψ1 ( y1 ) = Qψ ( y1 | 0)),
0
222
(8.85)
Qψ(y1|y2′ ) =
где
×[
1 + y2′
a
a
⋅ exp[ 1 (1 − y1 ) + 2 (1 + y2′ )] ×
b1
b2
π b1b2
γ
γ
K1( 2 β 3 ⋅ γ ) −
K1( 2 β 4 ⋅ γ )];
β3
β4
(1 − y1 ) 2 (1 + y′2 ) 2
(1 + y1 ) 2 (1 + y2′ ) 2
β3 =
; β4 =
; y1 ∈ [0, ∞).
+
+
2b1
2b2
2b1
2b2
Введем далее в рассмотрение случайную величину τ′λ –
остаточное время, в течение которого СМО ожидает поступления непосредственно следующей заявки (время простоя
СМО) и обозначим через τ′λ и Dλ′ - среднее и дисперсию остаточного времени τ′λ , а через p0′ – вероятность того, что
обслуженная заявка оставляет СМО пустой.
Через эти параметры можно выразить среднее значение и
дисперсию времени между заявками в выходном потоке из
СМО.
Определим теперь параметры двумерного диффузионного приближения p0′ , τ′λ и Dλ′ , необходимые для вычисления
характеристик выходного потока из СМО. Плотность рас∞
пределения вероятностей ψ( y1 ) = ∑ ψ k ( y1 ) ординаты процесk =1
са x 1 в момент достижения процессом ( x 1 , x 2 ) границы Г 1
позволяет определить остаточное время ожидания τ′λ (время простоя СМО). При известном значении y 1 (рис. 8.22)
ордината процесса x 1 должна получить приращение y 1 для
того, чтобы процесс N 1 изменился на единицу, т.е. поступила заявка в пустую СМО. Условное распределение времени достижения уровня y 1 , процессом ( x 1 , x 2 ) имеет вид:
1
( y1 − a1t ) 2
g (t | y1 ) =
⋅ exp[−
]
3
2
b
t
1
2 πb ⋅ t
1
с параметрами τ′λ ( y1 ) = τ λ y1 и Dλ′ ( y1 ) = Dλ y1 , где τλ и Dλ соответственно среднее и дисперсия времени между соседними
заявками во входном потоке.
223
∞
∞
0
0
Пусть mψ = ∫ y1ψ( y1 )dy1 и Dψ = ∫ ( y1 − mψ ) 2 ψ( y1 )dy1 соответственно математическое ожидание и дисперсия распределения ψ(y 1 ).
Тогда искомые параметры
τ′λ = τ λ mψ ,
(8.86)
Dλ′ = Dλ mψ + τ λ2 Dψ
(8.87)
выражаются через известные параметры входного потока
τλ и D λ −среднего и дисперсии времени между соседними заявками и распределения ψ(y 1 ). Обозначим через p k вероятность того, что за весь период занятости в СМО пришло
∞
ровно k заявок (k=1,2,...) pk = ∫ ψ k (y1 )dy1 .
0
Пусть за достаточно большой интервал времени Т имело
место m периодов занятости. Из них в среднем за m i =m·p i
(i=1,2,...) периодов занятости через СМО прошло ровно i
заявок. Тогда вероятность p0′ того, что обслуженная заявка
оставляет СМО пустой может быть выражена через вероятности p k
m
1
p0′ = ∞
= ∞
.
(8.88)
∑ i ⋅ mi ∑ i ⋅ pi
i =1
i =1
Таким образом, все три неизвестных параметра двумерной диффузионной аппроксимации СМО определены.
Рассмотрим теперь поведение траектории 2 двумерного
диффузионного процесса (х 1 , х 2 ), что отражает функционирование СМО GI/G/1/m с ограниченной очередью и потерями. Граница Г 2 определена максимально допустимым количеством m заявок в СМО и имеет ступенчатый характер
(рисунок 8.22).
При достижении траекторией процесса (х 1 , х 2 ) границы
Г 2 , ордината процесса х 1 мгновенно должна сдвинуться
вниз на единицу, что будет означать потерю очередной
«лишней» заявки. Тогда видоизменятся рекуррентные формулы для вычисления стационарного распределения ординаты х 2 процесса (х 1 , х 2 ) φ k (y 2 ) по формуле (8.84), а именно
224
начиная с номера k=m−1, где m−максимально допустимое
число заявок в СМО
φk ( y2 ), если 0 ≤ y2 ≤ m − 1;
(8.89)
φ k ( y2 ) = 
′
′
(
)
(
)
φ
y
+
φ
y
,
если
m
−
1
≤
y
<
∞
и
m
≤
y
<
∞
.
 k 2
k +1 2
2
2
Другими словами, после вычисления распределения
φ k (y 2 ) по формулам (8.84), их нужно пересчитать по формуле (8.89). Тогда по вероятностному смыслу распределений
φ k (y 2 ) на границе Г 2 , можно сразу определить вероятность
потери заявки
∞ ∞
pотк = ∑ ∫ φ k ( y2 )dy2 .
k =m m
(8.90)
Что же касается формул (8.86) – (8.88) для вычисления
параметров двумерной диффузионной аппроксимации
p0′ , τ′λ и Dλ′ , то они останутся такими же, изменятся только
величины m ψ и D ψ , входящие в них в силу пересчета распределений φ k (y 2 ) по (8.89).
Определим теперь характеристики СМО. Из соотношения (8.88) следует, что величина 1/ p0′ выражает среднее
количество заявок, прошедших через СМО за период занятости. Тогда средняя длина периода занятости Y в СМО
может быть определена через параметр p0′
∞ i⋅m
i
Y = τµ ∑
= τµ /p0′ ,
(8.91)
i =1 m
где τµ − среднее время обслуживания заявки в СМО. Из соотношения (8.88) следует, что средняя длина периода простоя I
I = p0 τ λ /p0′ ,
(8.92)
где p0′ =1−ρ, а τλ – среднее интервалов времени между соседними заявками во входном потоке.
Среднее время ожидания, как известно, может быть выражено через первые два начальных момента распределения случайной величины I−периода простоя
Dλ + Dµ + τ λ2 (1 − ρ) 2 I 2
W =
−
,
(8.93)
2τ λ (1 − ρ)
2I
где D µ - дисперсия времени обслуживания.
225
Определим математическое ожидание квадрата случайной величины I. Для этого заметим, что I= τ′λ , откуда учитывая (8.87), получим
I 2 = Dλ mψ + τ λ2 m2ψ .
(8.94)
Подставляя (8.94) в (8.93), окончательно получим
Dλ + Dµ + p02 τ λ2 − p0 Dλ − p0′ τ λ2 m2ψ
W =
. (8.95)
2 p0 τ λ
Среднюю длину очереди можно определить по формуле
Литлла
N q = λW ,
(8.96)
а среднее количество заявок N в СМО − по формуле
N = λ(W + τµ ) = λU .
(8.97)
Точность метода обобщенной двумерной диффузионной
аппроксимации с использованием разработанной программы VNGG1, которая входит в интерактивную систему вероятностного
моделирования
вычислительных
систем
(PROBMOD), исследована для широкого диапазона изменения параметров входного потока и закона обслуживания.
При этом коэффициент загрузки ρ варьировался от 0,1 до
0,9, а коэффициенты вариаций распределений длин интервалов между заявками во входном потоке C λ и времени обслуживания C µ – от 0 до 5.
В табл. 8.5 приведены значения среднего количества
заявок N в узле, а для сравнения в этой же таблице приведены значения N , полученные имитационным моделированием. Анализ этих данных показывает, что точность метода
обобщенной двумерной диффузионной аппроксимации, несомненно, выше точности известных методов одномерной
диффузионной аппроксимации. Таким образом, относительная погрешность предлагаемого метода для широкого
диапазона изменения параметров примерно равномерна и
не превышает 10%.
При проведении экспериментов в качестве одного из
параметров моделирования задавалось количество циклов
занятости, которое в зависимости от загрузки изменялось
от 1000 до 20000.
226
Табл. 8.5
N
ρ
Cµ
Cλ
0,1
0,5
0,1
1,0
2,0
5,0
0,1
0,5
0,3
1,0
2,0
5,0
0,1
0,5
0,5
1,0
2,0
5,0
0,1
0,5
0,7
1,0
2,0
5,0
0,1
0,9
0,5
1,0
0,1
0,5
1,0
0,100
0,101
0,111
0,101
0,111
0,096
0,118
0,108
0,421
−
0,302
0,301
0,315
0,308
0,334
0,336
0,518
−
4,522
−
0,506
0,500
0,534
0,556
0,670
0,676
1,748
−
11,449
−
0,715
0,70
0,844
0,907
1,459
1,439
4,691
3,794
27,959
21,754
0,964
0,934
1,996
1,940
5,145
4,974
0,101
0,101
0,111
0,10
0,112
0,10
0,122
0,129
0,394
−
0,314
0,301
0,320
0,317
0,352
0,362
0,545
−
4,361
−
0,534
0,500
0,576
0,589
0,741
0,751
1,704
1,108
11,421
−
0,844
0,773
1,019
1,040
1,652
1,665
4,817
4,034
28,093
21,863
1,913
1,740
2,925
2,801
6,110
5,939
0,105
0,101
0,111
0,102
0,115
0,101
0,133
0,148
0,431
0,506
0,340
0,315
0,351
0,349
0,404
0,401
0,640
0,472
4,367
−
0,671
0,647
0,737
0,738
0,945
0,954
1,911
1,531
11,633
−
1,384
1,360
1,601
1,608
2,285
2,285
5,423
4,868
28,750
22,984
4,848
4,718
5,886
5,794
9,096
8,968
2,0
0,117
0,103
0,117
0,113
0,125
0,119
0,171
0,154
0,586
0,459
0,489
0,519
0,521
0,605
0,606
0,924
0,846
4,560
−
1,344
1,376
1,446
1,467
1,714
1,713
2,764
2,565
12,535
−
3,746
3,779
3,990
4,040
4,732
4,742
7,834
7,470
31,460
29,049
16,798
16,881
17,831
17,918
21,062
21,072
5,0
0,211
0,214
0,220
0,220
0,232
0,242
0,360
0,315
1,076
−
1,746
1,824
1,824
1,855
1,961
1,948
2,397
2,307
6,142
−
6,429
6,596
6,607
6,691
6,934
6,959
8,145
7,902
17,945
−
20,561
20,912
20,949
21,142
21,747
21,878
24,864
24,556
48,791
44,863
100,819
101,826
102,213
102,899
105,380
106,163
227
Продолжение табл. 8.5
2,0
5,0
18,135
17,551
111,128
107,642
19,036
18,317
112,004
107,616
22,112
21,317
115,126
−
34,153
33,796
127,566
−
118,207
117,274
212,596
−
1 – я строка – результаты двумерного диффузионного
приближения,
2 – я строка – результаты имитационного моделирования .
228
9 МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ
ПРОЦЕССОВ И ПОТОКОВ СОБЫТИЙ
ВЕЛИЧИН,
9.1 Генерирование и статистический анализ псевдослучайных чисел
Рассмотрим последовательность чисел γ 0 ,γ 1 ,…, порождаемую рекуррентным уравнением
(9.1)
γ i+1 ={Mγ i },
где М−целое (М>1), {A} означает дробную часть А. Для некоторого множества начальных значений γ 0 последовательность, порождаемая уравнением (9.1), будет равномерно
распределенной в интервале (0;1) и при достаточно больших значениях М по своим свойствам близка к последовательности т.н. базовых случайных чисел.
Уравнение (9.1) преобразуем к форме, приспособленной
к арифметике с фиксированной запятой и ограниченной
длиной разрядного слова
(9.2)
ε i+1 ≡ M ε i (mod p),
где ε i – целые положительные числа, не превышающие p; p
− некоторая целая константа. Соотношение (9.2) определяет значение ε i+ 1 как остаток от деления произведения M ε i
на p. Очевидно, что значения элементов последовательности (9.1) равны γ i = ε i /p.
Последовательность (9.2) имеет период. Как только некоторое значение ε n будет равно начальному (или некоторому другому, имевшему уже место) значению, числа генерируемые уравнением (9.2), будут повторяться.
В соответствии с требованиями, предъявляемыми к генераторам псевдослучайных последовательностей, желательно, чтобы длина периода была максимальной. Она будет зависеть от модуля p и начального значения ε 0 .
Учитывая двоичный способ представления чисел в
ЭВМ, ограничимся рассмотрением случая
ε i+1 = Mε i (mod 2 S ),
(9.3)
-S
где S – длина разрядной сетки; γ i = ε i ·2 .
Качество псевдослучайных последовательностей определяется проверкой их равномерности распределения и
взаимной независимости с помощью различных статисти229
ческих тестов. Мы же в лабораторных работах для этого
будем использовать критерий согласия Пирсона – χ 2 или же
критерий Колмогорова – Смирнова.
Ниже на рисунке 9.1 приводится схема алгоритма генератора псевдослучайных чисел RANDU (IX,IY,YFL) для 32разрядной ЭВМ.
Начало
Ввод IX
IY=IX·65539
–
IY<0
+
IY=IY+2147483647+1
YFL=IY
YFL=YFL·0.4656613E-9
Конец
Рис. 9.1 – Схема алгоритма генератора псевдослучайных
чисел RANDU
Здесь последовательность псевдослучайных чисел определяется из рекуррентного соотношения
(9.4)
ε i+1 = (65539ε i ) mod 2 3 2 ,
Использованные обозначения: IX – начальное значение,
любое нечетное целое число, меньшее 2 32 ;
230
IY – получаемая целочисленная случайная величина,
YFL – получаемая случайная величина из интервала
(0;1).
9.2 Моделирование непрерывных случайных величин
Рассмотрим методы моделирования непрерывной случайной величины Х. Пусть f(x) – плотность распределения,
x
а F ( x) = ∫ f ( x)dx − функция распределения вероятностей
−∞
случайной величины Х. Обозначим через F -1 (y) – функцию,
обратную к F(x). Покажем, что распределение случайной
величины
x=F -1 (ζ),
(9.5)
где ζ – базовая случайная величина, имеет функцию распределения F(x). Действительно (рис. 9.2),
P(X<x)=P[ζ<F(x)]=F(x).
Следовательно, алгоритм моделирования непрерывной
случайной величины сводится к определению значения
этой величины по (9.5) через реализацию базового случайного числа.
Рис. 9.2
В качестве примера рассмотрим экспоненциальное распределение с плотностью f(x)=λe -λx , x≥0 и функцией распределения F(x)=1−e -λx , x≥0. Находим обратную функцию
распределения x=(−1/λ)lnζ, которая и определяет алгоритм
моделирования.
Недостатком алгоритмов обратной функции является
вычисление функции, обратной функции распределения.
Большинство распределений не позволяет определить эту
231
функцию в явном виде через элементарные функции. Поэтому трудоемкость алгоритмов определяется трудоемкостью решения относительно х уравнения вида
x
∫ f ( x)dx = ζ .
(9.6)
−∞
Другой, широко используемый метод моделирования,
состоит в представлении исходного распределения в виде
смеси других, более простых с точки зрения имитации распределений:
f(x)=p 1 f 1 (x)+p 2 f 2 (x)+…+p S f S (x),
(9.7)
где p 1 +p 2 +…+p s =1, f i (x) – некоторые плотности распределения. Тогда имитация осуществляется в два этапа. Сначала
имитируется выбор одного из S распределений, затем разыгрывается значение случайной величины с этим распределением. Первое базовое число используется для моделирования дискретной случайной величины с рядом распределения вероятностей (p 1 ,p 2 ,…,p S ), второе (или последующие) – для моделирования случайной величины с распределением f i (x) (i=1,2,…,S) в зависимости от предшествующего результата.
Укажем ещё один способ моделирования случайных величин. Так, нормальное распределение, распределение Эрланга, χ 2 – распределение и ряд других могут быть представлены в виде суммы (композиции) более простых случайных величин.
В таблице 9.3 приведены алгоритмы имитации распределений, рассмотренных в разделе 2.
Как правило, при решении важных задач методом имитационного моделирования исследователь проверяет качество генерирования псевдослучайной последовательности.
Эта задача решается с использованием критериев согласия. Отличие применения этих критериев при оценке качества генерирования от классической задачи сглаживания
статистических рядов заключается в том, что исследователь априори задаёт закон распределения и требуемые значения параметров псевдослучайной (сгенерированной) последовательности, а при решении задачи сглаживания необходимо решить задачу идентификации закона распределения.
232
При оценке качества генерирования псевдослучайной
последовательности в качестве теоретического закона распределения возможно использование:
1. заданного закона распределения с заданными параметрами;
2. заданного закона распределения с уточненными параметрами путём решения задачи аппроксимации закона
распределения тем или иным способом.
Рассмотрим последовательность этапов решения задачи
оценки качества генерирования применительно ко второму
случаю, как более общему (рис. 9.3).
После ввода исходных данных первым шагом в решении
этой задачи является построение гистограммы наблюдаеN
мого статистического ряда {xi }i =1 . Для этого необходимо
выполнить следующие этапы:
1. Определить диапазон изменения статистического ряда x min −x max .
2. Определить ширину дифференциального коридора:
x
− xmin
∆x = max
,
(9.7)
M
где М – количество дифференциальных коридоров.
3.Определить частоту попадания анализируемой случайной величины в j-ый дифференциальный коридор:
1 N
)
p j = ∑ δ ij ,
(9.8)
N i =1

 xi − xmin 
1
,
если
ent

 ∆x  + 1 = jΛxi = xmax ;

1
где
δij =  , если xi = j∆x
(9.9)
2


0, иначе

− индикатор состояния.
Следует отметить, что δ i, j+1 =1/2, если x i =j∆x ∧ x≠x max , т.е.
в этом случае в j и j+1 коридоры добавляется по 1/2.
233
Начало
Конец
Рис. 9.3 – Схема алгоритма оценки качества
генерирования ПСП
4. Если частота попадания в какой-либо k-ый дифференциальный коридор мала (p j <0,01÷0,02), то для уменьшения влияния случайности его объединяют с k+1 коридором.
Эта операция может быть применена неоднократно.
Исходным материалом для построения гистограммы является сгруппированный по дифференциальным коридорам
статистический ряд, представленный, как правило, в виде
таблицы (см. табл. 9.1), где hˆ j = pˆ j /∆ x j
234
Статистический ряд
Табл. 9.1
p̂ j 0,099 0,1006 0,1003 0,0989 0,099 0,1067 0,0954
j∆ x 0,1
0,2
0,3
0,4
0,5
0,6
0,7
ĥ j
0,99 1,006 1,003 0,989 0,99 1,067 0,954
p̂ j 0,1008 0,0997 0,0996
j∆ x 0,8
0,9
1
ĥ j 1,008 0,997 0,996
После построения гистограммы и оценки статистических характеристик решают задачу уточнения параметров
распределения, используя тот или иной метод аппроксимации закона распределения.
Заключительным этапом решения задачи является проверка качества генерирования с использованием критериев
согласия. Применение критериев согласия здесь полностью
аналогично тому, как это делалось в п. 7.5. На основании
данного статистического материала необходимо проверить
гипотезу H, состоящую в том, что случайная величина Х
подчиняется заданному закону распределения. Введем случайную величину U, являющуюся мерой расхождения теоретического и статистического распределений. Закон распределения этой случайной величины f u (u) зависит как от
закона распределения случайной величины X, так и от числа опытов N. Если гипотеза Н верна, то f u (u) определяется
законом распределения f a (х) и числом опытов N.
Вычислим вероятность события Р(u ≤ U) = Р д . Если эта
вероятность мала, то гипотезу следует отвергнуть как малоправдоподобную, если значительна − экспериментальные
данные не противоречат гипотезе Н. Далее в лабораторных
работах будут использованы критерии Пирсона и Колмогорова – Смирнова.
Если уточнение параметров распределения сгенерированной последовательности не производится, т.е. не решается задача аппроксимации законов распределения, оценка
качества генерирования ПСП производится с использова-
235
нием в качестве теоретического распределения заданного
закона с заданными параметрами.
Для уточнения параметров распределения часто применяется метод моментов. Согласно этому методу, параметры
распределения α 1 ,…,α m выбираются таким образом, чтобы
несколько важнейших числовых характеристик (моментов)
теоретического распределения были равны статистическим
характеристикам. При составлении уравнений для определения неизвестных параметров, как правило, выбирают моменты низших порядков. Общими рекомендациями являются здравый смысл и простота решения полученной системы
уравнений. Рассмотрим несколько примеров.
Определим параметры аналитического выражения плотности распределения вероятностей генератора «белого шума» − стандартной программы ПЭВМ. Теоретически закон
распределения
должен
быть
равномерным
1
f x(x) =
, a ≤ x ≤ b с параметрами a=0, b=1.
b−a
Гистограмма приведена на рис. 9.4, а данные для расчётов − в таблице 9.1.
«Белый шум»
(10 коридоров)
1,2
1
0,8
0,6
0,4
0,2
0
1
2
3
4
5
6
7
8
9 10
Рис. 9.4
Уравнения для определения двух неизвестных параметров распределения могут быть составлены различными
способами. Потребуем, например, чтобы у статистического
и теоретического распределений совпадали математическое
ожидание и дисперсия:
236
a+b

ˆ
m
=
;
x

2
(9.10)

2
−
(b
a)
 Dˆ =
.
 x
12
Отметим, что оценка начальных моментов статистического ряда определяется выражением:
M
k
aˆ k = ∑ x j pˆ j ,
j =1
(9.11)
где x j - среднее значение j интервала, а центральных –
k
µ̂ k = ∑ ( − 1 )s Cks α̂ k − s mˆ xs .
s =0
(9.12)
Эта система уравнений имеет аналитическое решение:
a = mˆ x − 3σ̂ x
(9.13)

b = mˆ x + 3σ̂ x .
Для данного статистического распределения
mˆ x = 0,4994;
ˆ
(9.14)
 Dx = 0,082208;
σ̂ = 0,286719.
 x
Подставив найденные оценки в выражения (9.13), получим: а=0,003327, b=0,996553. Отсюда видно, что рассчитанные параметры закона распределения незначительно, но
отличаются от заданного при генерировании. Следовательно, при проведении статистического моделирования целесообразно проверять качество программных генераторов и
оценивать его реальные характеристики.
Применив критерий Пирсона, вычислим значение
2
χ = 7,77, что соответствует вероятности Р д >0,3 (приложение табл. 4). Таким образом, можно принять гипотезу о
том, что данный статистический ряд соответствует равномерному распределению с найденными параметрами.
Преимуществом метода моментов является простота
определения параметров распределения, недостатком − неоднозначность в выборе уравнений, которых может быть
большое количество.
237
9.3 Задание №8 на самостоятельную работу
1. Сгенерировать временной ряд с заданным законом
распределения с объёмом выборки, равным N=500 (количество реализации для каждого модельного эксперимента
равно 29).
2. Проверить качество генерирования, воспользовавшись для определения параметров аналитического выражения законов распределения методом моментов.
3. Определить погрешности оценки параметров модели.
4. Пункты 1−3 повторить для объёмов выборки N=1000,
2000, 5000.
9.4 Содержание отчёта
1. Цель работы.
2. Метод и алгоритм моделирования некоррелированных временных рядов для заданного закона распределения.
3. Обратная функция закона распределения вероятностей.
4. Пример реализации некоррелированного временного
ряда.
5. Примеры гистограмм для различного объёма выборки
− N=500, 1000, 2000, 5000, М=20.
6. Значения параметров, определенные по методу моментов, и модуль относительной погрешности оценки параметров закона распределения для N=500, 1000, 2000.
5000, представленные в табличной форме (количество реализации для каждого модельного эксперимента равно 29).
Для определения параметра закона распределения и вычисления погрешности оценки параметра можно воспользоваться пакетом Excel.
7. Графическая зависимость максимальной по модулю
относительной погрешности оценки параметров закона
распределения от объёма выборки − N=500, 1000, 2000,
5000. Для построения графических зависимостей можно
воспользоваться пакетом Excel.
8. Выводы по работе.
238
Пример оформления результатов выполненной лабораторной работы для экспоненциального закона распределения приведен ниже (пункты 4−7 отчёта).
Рис. 9.5 − Генерирование ПСП с экспоненциальным законом распределения методом инверсного преобразования
239
Рис. 9.6 − Пример генерирования ПСП с экспоненциальным законом распределения
240
Рис. 9.7 − Пример генерирования ПСП с экспоненциальным законом распределения
241
Табл. 9.2 − Значения параметров, определенные по методу моментов, и относительные погрешности оценки параметров закона распределения
N=500
N=1000
)
)
)
)
)
)
)
)
(
)
(
λ
−
λ
λ
№ α1
№ α1
λ = 1 / α1 δ =
λ = 1 / α1 δ = − λ)
λ
λ
1 0,97723 1,023301 0,023301
2 0,96093 1,040659 0,040659
3 0,94707 1,055888 0,055888
4 1,0122 0,987947 -0,01205
5 1,01325 0,986923 -0,01308
6 1,06513 0,938853 -0,06115
7 1,04756 0,954599 -0,0454
8 0,98242 1,017895 0,017895
9 1,01613 0,984126 -0,01587
10 0,90731 1,102159 0,102159
11 1,05346 0,949253 -0,05075
12 0,97002 1,030907 0,030907
13 0,92659 1,079226 0,079226
14 0,94311 1,060322 0,060322
15 0,91677 1,090786 0,090786
16 0,91441 1,093601 0,093601
17 0,97835 1,022129 0,022129
18 0,98175 1,018589 0,018589
242
1 0,94009 1,06372
8
2 0,99149 1,00858
3
3 1,01004 0,99006
4 0,98566 1,01454
9
5 1,02001 0,98038
3
6 0,92825 1,07729
6
7 1,02934 0,97149
6
8 1,0109 0,98921
8
9 0,99031 1,00978
5
10 1,0059 0,99413
5
11 0,94411 1,05919
9
12 0,99562 1,00439
9
13 0,9987 1,00130
2
14 0,9672 1,03391
2
15 1,1127 0,89871
5
16 0,98334 1,01694
2
17 1,01539 0,98484
3
18 1,04018 0,96137
2
0,063728
0,008583
-0,00994
0,014549
-0,01962
0,077296
-0,0285
-0,01078
0,009785
-0,00587
0,059199
0,004399
0,001302
0,033912
-0,10129
0,016942
-0,01516
-0,03863
19 0,97255 1,028225 0,028225 19 0,98262 1,01768
7
20 1,05078 0,951674 -0,04833 20 1,0151 0,98512
5
21 1,0076 0,992457 -0,00754 21 0,99286 1,00719
1
22 0,95833 1,043482 0,043482 22 0,925
1,08108
1
23 1,03565 0,965577 -0,03442 23 1,02148 0,97897
2
24 0,87468 1,143275 0,143275 24 0,97933 1,02110
6
25 1,06397 0,939876 -0,06012 25 0,99113 1,00894
9
26 0,95993 1,041743 0,041743 26 1,00296 0,99704
9
27 0,96412 1,037215 0,037215 27 1,00701 0,99303
9
28 1,04051 0,961067 -0,03893 28 1,01401 0,98618
4
29 0,99359 1,006451 0,006451 29 0,99266 1,00739
4
N=2000
1 1,00292 0,997089 -0,00291
1 1,02181
2 0,99638 1,003633 0,003633
2 0,98327
3 1,00708 0,99297
-0,00703
3 0,99148
4 0,98824 1,0119
0,0119
4 0,98502
5 1,02102 0,979413 -0,02059
5 1,02117
6 0,99564 1,004379 0,004379
6 1,00947
7 0,96806 1,032994 0,032994
7 1,00089
N=5000
0,97865
6
1,01701
5
1,00859
3
1,01520
8
0,97926
9
0,99061
9
0,99911
0,017687
-0,01488
0,007191
0,081081
-0,02103
0,021106
0,008949
-0,00295
-0,00696
-0,01382
0,007394
-0,02134
0,017015
0,008593
0,015208
-0,02073
-0,00938
-0,00089
243
8 0,98639 1,013798 0,013798
8 1,01286
9 1,02966 0,971194 -0,02881
9 0,98589
10 0,99591 1,004107 0,004107 10 0,98445
11 0,99639 1,003623 0,003623 11 0,99633
12 1,02298 0,977536 -0,02246 12 0,99761
13 0,99853 1,001472 0,001472 13 0,99352
14 0,99237 1,007689 0,007689 14 1,00774
15 0,99152 1,008553 0,008553 15 1,00557
16 1,02363 0,976915 -0,02308 16 1,01113
17 1,00942 0,990668 -0,00933 17 0,99911
18 1,00899 0,99109
-0,00891 18 1,00916
19 0,98241 1,017905 0,017905 19 0,99684
20 0,98853 1,011603 0,011603 20 1,01254
21 0,9678
1,033271 0,033271 21 1,00414
22 1,00999 0,990109 -0,00989 22 0,99648
23 0,98163 1,018714 0,018714 23 1,01124
24 0,95262 1,049737 0,049737 24 1,00915
25 0,9806
1,019784 0,019784 25 1,00342
26 1,02819 0,972583 -0,02742 26 0,98785
27 1,01243 0,987723 -0,01228 27 0,98125
28 0,99446 1,005571 0,005571 28 0,99468
244
1
0,98730
3
1,01431
2
1,01579
6
1,00368
4
1,00239
6
1,00652
2
0,99231
9
0,99446
1
0,98899
3
1,00089
1
0,99092
3
1,00317
0,98761
5
0,99587
7
1,00353
2
0,98888
5
0,99093
3
0,99659
2
1,01229
9
1,01910
8
1,00534
-0,0127
0,014312
0,015796
0,003684
0,002396
0,006522
-0,00768
-0,00554
-0,01101
0,000891
-0,00908
0,00317
-0,01238
-0,00412
0,003532
-0,01112
-0,00907
-0,00341
0,012299
0,019108
0,005348
8
29 0,97052 1,030375 0,030375 29 1,02684 0,97386 -0,02614
2
245
Рис. 9.8 − Результаты моделирования
246
Табл. 9.3
Вид распределения
Равномерное
U(a,b)
Гистограмма
Плотность
Алгоритм
1
,a ≤ x ≤ b
b−a
s
∑ pi fi(x),
i =1
s
x=a+(b–a)ξ
Сначала имитир уется
дискретная величина i, заданная
рядом распределения p i
x = m x +εσ:
Центральная
предельная
теорема
∑ pi = 1,
где f i (x) – равномерное распределение с
параметрами a i и b i
Экспоненциальное
expo(β), β=1/λ
Эрланга
порядка S
Гиперэкспоненциальное
1
e
2πσ
−( x − mx ) 2
2σ
 12

ε =  ∑ ξi − 6 
 i =1

1
x = − lnξ
λ
2
λe − λx , x ≥ 0
(λx )s e− λx , x ≥ 0
1
x = − ln(ξ1...ξ s )
λ
s!
ξ 1 →i;
s
∑ pi fi(x),
1
x = − lnξ 2
λ
i =1
s
∑ pi = 1,
i =1
где f i (x) – экспоненциальное
распределение с параметрами
λi
Вейб улла
Weibull
(α,
β)
αβ
− α α −1 − ( x / β ) α
x
e
−
ξ 1 →i;
x=a i +(b i −a i )ξ 2
i =1
Нормальное
N(0, 1)
Примечания
,
Сумма s экспоненциальных величин.
См. примечание
к распределению
«гистограмма»
х=β(−lnξ) 1 / α
x≥0
9.5 Аппроксимация законов распределения
9.5.1 Задача сглаживания статистических рядов. Теоретические основы лабораторной работы
Необходимость в решении такой задачи возникает при
обработке результатов научных исследований, комплексных испытаний с целью построения аналитических моделей
законов распределения случайных величин, процессов, потоков событий.
247
Одним из методов, применяемых для решения задачи
сглаживания статистических рядов, является метод моментов, рассмотренный выше в п. 9.2.
Другим способом решения задачи сглаживания статистических рядов является определение параметров аналитического выражения, удовлетворяющих минимуму квадратической погрешности аппроксимации:
M
[ ( )
)]2 = min,
(
∆ = ∑ fˆx x j − f a x j ,β1 , β 2 ,...
j =1
(9.15)
где M − число дифференциальных коридоров;
fˆx x j = pˆ j / ∆ j – значение плотности распределения веро-
( )
ятностей в середине j-го дифференциального коридора x j ;
(
)
f a x j , β1 , β 2 ,... − аналитическое выражение с неизвестными параметрами.
Условиями минимума погрешности ∆ является следующая система уравнений:
)] (
)] (
[ ( ) (
)
∂f a x j , β1 , β 2 ,...
 ∂∆ M ˆ
=
f
x
−
f
x
,
β
,
β
= 0;
,...
∑ x j
j 1 2
a
 ∂β
∂
β
1
 1 j =1
∂f a x j , β1 , β 2 ,...
 ∂∆ M ˆ
=
f
x
−
f
x
,
β
,
β
,...
= 0;
(9.16)
∑ x j

j 1 2
a
∂
β
∂
β
2
 2 j =1
. . . . . .



Сложность этой системы зависит от вида аналитического
выражения и числа неизвестных параметров, подлежащих
определению. Как правило, решение этой системы возможно лишь приближенными методами.
Так, например, при однопараметрической аппроксимации с использованием метода Ньютона, неизвестный параметр определяется в результате решения следующего уравнения
M
∂fa x j , β
ˆ
f
x
−
f
x
,
β
∑ x j a j n
∂β
j =1
βn+1 = βn −
. (9.17)
2
2
M
∂ fa x j , β ∂fa x j , β  
ˆ
−
∑  f x x j − f a x j , βn
 
2
∂
β
∂
β
j =1

 

β=β n
[ ( ) (
)] (
[ ( ) (
[ ( ) (
248
)]
)
(
)
)
(
)
В качестве начального приближения можно выбрать
значение параметра, определенное по методу моментов.
Алгоритм завершает свою работу, когда выполняется
следующее условие:
β n +1 − β n ≤ ε ,
(9.18)
где ε − погрешность вычисления параметра, задаваемая исследователем.
Для нахождения параметров двухпараметрического закона распределения необходимо решить систему уравнений
(9.16) для двумерного случая:
M
∂f ( x , β , β )

ˆ ( x ) − f ( x , β , β )] a j 1 2 = 0 ;
f
=
[
f
∑
x j
a j 1 2
 1
∂β1
j =1

(9.19)

M
∂
f
(
x
,
β
,
β
)
 f = [ fˆ ( x ) − f ( x , β , β )] a j 1 2 = 0 .
x j
a
j 1 2
 2 j∑
∂β 2
=1

Решить эту систему можно только приближенными методами, например, методом Ньютона. Воспользовавшись
формулой для решения системы двух уравнений с двумя
неизвестными по методу Ньютона, получим:
1 ∂f
∂f
β1( n +1) = β1( n) − ( 2 f1 (β1( n) , β (2n) ) − 1 f 2 (β1( n) , β (2n ) )) ,
(9.20)
∆′ ∂ β 2
∂ β2
1 ∂f
∂f
β (2n +1) = β (2n) − ( 1 f 2 (β1( n) , β (2n) ) − 2 f1 (β1( n) , β (2n) ))
(9.21)
∆′ ∂ β1
∂ β1
где
∂f ∂f
∂ f ∂ f2
∆′ = 1 2 − 1
.
∂ β1 ∂ β 2 ∂ β 2 ∂ β1
Для вычислений необходимо знать значения частных
производных по неизвестным параметрам функций f 1 и f 2 .
Их выражения приведены в формулах (9.22) − (9.25).
∂2 fa (x j , β1, β2 ) ∂ fa (x j , β1, β2 ) 2
∂ f1 M ˆ
= ∑[ f x (x j ) − fa (x j , β1, β2 )]
−[
] , (9.22)
∂ β1 j =1
∂β1
∂β12
∂2 fa (x j , β1, β2 ) ∂ fa (x j , β1, β2 ) 2
∂ f2 M ˆ
= ∑[ f x (x j ) − fa (x j , β1, β2 )]
−[
] , (9.23)
2
∂ β2 j =1
∂β2
∂β2
249
∂ 2 f a ( x j , β1 , β 2 )
∂ f1 M ˆ
= ∑ [ f x ( x j ) − f a ( x j , β1 , β 2 )]
−
∂ β 2 j =1
∂ β1 ∂ β 2
−
∂ f a ( x j , β1 , β 2 ) ∂ f a ( x j , β1 , β 2 )
,
⋅
∂ β1
∂ β2
(9.24)
∂2 fa ( x j , β1, β2 ) ∂2 f a ( x j , β1, β2 )
∂ f2 M ˆ
. (9.25)
= ∑[ f x (x j ) − fa ( x j , β1, β2 )]
−
∂ β1 j =1
∂ β2 ∂ β1
∂ β2 ∂ β1
При аппроксимации плотностей распределения вероят ностей в качестве аргумента используется середина диффе ренциального коридора , что , в свою очередь , вносит до полнительные погрешности при анализе асимметричных
законов распределения . От этого недостатка свободна ап проксимация функций распределения вероятностей .
Задача аппроксимации статистического ряда функциями
распределения вероятностей ставится аналогично задаче
аппроксимации плотностей распределения вероятностей :
M
∆ = ∑ [ Fˆx ( x j ) − Fa ( x j , β1, β 2 ,K)]2 = min ,
j =1
(9.26)
где M − число дифференциальных коридоров ;
j
Fˆx ( x j ) = ∑ pˆ s
s =1
значение функции распределения вероятностей в конце j –
го дифференциального коридора x j ;
Fa ( x j , β1 , β 2 , ...)
аналитическое выражение с неизвестными параметрами
β 1 , β 2 ,… .
Условиями минимума погрешности ∆ является следую щая система уравнений :
∂Fa ( x j , β1 , β 2 , K)
 ∂∆ M ˆ
[
(
)
(
,
β
,
β
,
)]
F
x
F
x
K
=
−
= 0;
∑ x j
a
j 1 2
 ∂β
∂β1
 1 j =1
 ∂∆ M
∂Fa ( x j , β1 , β 2 ,K)
ˆ
[
(
)
(
,
β
,
β
,
)]
=
F
x
−
F
x
K
= 0 ; (9.27)
∑ x j

a
j 1 2
β
β
∂
∂
2
 2 j =1

. . . . . . .


250
При однопараметрической аппроксимации с использованием метода Ньютона, неизвестный параметр определяется в результате решения следующего уравнения:
M
∂Fa x j ,β
ˆ
F
x
−
F
x
,
β
∑ x j a j n
∂β
j =1
βn+1 = βn −
, (9.28)
2
2
M 
∂ Fa x j ,β ∂ Fa x j ,β  
ˆ
−
∑  Fx x j − Fa x j ,βn
 
2
∂β  
β
∂
j =1



[ ( ) (
[ ( ) (
)]
)]
( )
( )
( )
β=βn
и дальше все расчеты производятся аналогично случаю с
плотностями вероятностей.
Для нахождения параметров двухпараметрического закона распределения необходимо решить уравнение (9.27)
для двумерного случая.
Составим систему из двух уравнений для нахождения
неизвестных параметров аппроксимации. Эту систему
можно получить, продифференцировав выражение (9.27) по
неизвестным параметрам.
M
∂Fa ( x j , β1 , β 2 )

ˆ
=
[
(
)
−
(
,
β
,
β
)]
= 0;
F
F
x
F
x
a
j 1 2
 1 ∑ x j
∂
β
j =1
1

(9.29)

M
(
,
β
,
β
)
∂
F
x
 F = [ Fˆ ( x ) − F ( x , β , β )] a j 1 2 = 0 .
x j
a
j 1 2
 2 j∑
∂β 2
=1

Для решения системы (9.29) воспользуемся приближенным методом Ньютона. Способ нахождения неизвестных
параметров аналогичен случаю с плотностями распределения вероятностей по формулам (9.20) и (9.21).
Для вычислений необходимо определить частные производные по неизвестным параметрам β 1 , β 2 функций F 1 и
F2:
∂2 Fa ( x j , β1, β2 ) ∂Fa ( x j , β1, β2 ) 2
∂F1 M ˆ
= ∑[Fx ( x j ) − Fa ( x j , β1, β2 )]
−[
] , (9.30)
2
∂β1 j =1
∂
β
∂β1
1
∂2Fa ( x j , β1, β2 ) ∂Fa (x j , β1, β2 ) 2
∂F2 M ˆ
= ∑[Fx ( x j ) − Fa ( x j , β1, β2 )]
−[
] , (9.31)
2
∂β2 j =1
∂
β
∂β2
2
∂2 Fa ( x j , β1, β2 ) ∂2 Fa ( x j , β1, β2 )
∂F1 M ˆ
= ∑[Fx ( x j ) − Fa ( x j , β1, β2 )]
−
, (9.32)
∂β2 j =1
∂β1∂β2
∂β1∂β2
251
∂2Fa ( x j , β1, β2 ) ∂2 Fa (x j , β1, β2 )
∂F2 M ˆ
. (9.33)
= ∑[Fx ( x j ) − Fa ( x j , β1, β2 )]
−
∂β1 j =1
∂β2∂β1
∂β2∂β1
Значения неизвестных параметров вычисляются по
итерационной процедуре до достижения заданной точности.
Для выполнения лабораторной работы необходимо изучить раздел «Аппроксимация законов распределения» программной системы «Моделирование и анализ случайных
процессов» (см. приложение рис. 1, 2).
9.5.2 Задание №9 на самостоятельную работу
1. Сгенерировать временной ряд, распределенный по заданному закону распределения N=500, M=10.
2. Построить гистограмму.
3. Определить параметры законов распределения методом моментов, аппроксимации плотностей распределения
вероятностей, функций распределения по минимуму квадратической погрешности аппроксимации.
4. Пункты 1-3 повторить для N=1000, 2000, 5000 и M=10.
Определить М (0) – оптимальное число дифференциальных
коридоров.
5. Проанализировать зависимость погрешности оценки
параметров законов распределения от объёма выборки,
числа дифференциальных коридоров.
6. Качество аппроксимации определить, воспользовавшись критерием Пирсона и Колмогорова.
7. Загрузить N отсчетов случайного процесса из файла
(вариант указывается преподавателем).
Построить график случайного процесса и его гистограмму. Методом аппроксимации ортогональными полиномами
Лежандра построить график функции плотности вероятностей случайного процесса.
9.5.3 Содержание отчёта
1. Цель работы.
2. Методы и алгоритмы аппроксимации законов распре252
деления.
3. Примеры экранных форм для аппроксимации законов
распределения вероятностей.
4. Значения параметров законов распределения, определенные по методу моментов, аппроксимации плотностей
распределения вероятностей и функций распределения по
минимуму квадратической погрешности аппроксимации,
относительные погрешности оценки параметров закона
распределения, для N=500, 1000, 2000, 5000 и M=10, М (0 ) ,
представленные в табличной форме (количество реализаций для каждого модельного эксперимента равно 29).
5. Графики случайного процесса и функций плотности и
распределения вероятностей случайного процесса.
6. Выводы по работе.
Пример оформления результатов выполненной лабораторной работы для экспоненциального закона распределения, а также аппроксимация закона распределения для
примера случайного процесса «Обороты высокого давления
для двигателя НК – 36» приведены ниже.
Значения параметра закона распределения λ и χ 2 при
аппроксимации закона распределения по методу моментов,
плотности распределения вероятностей и функции распределения по минимуму квадратической погрешности аппроксимации для N=500, М=10.
253
Табл. 9.4
№
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
Метод моментов
χ2
λ
0.9603
5.5439
0.98
6.1867
0.9446
16.2528
0.9804
1.7875
1.0165
5.2636
0.9473
13.545
0.9549
5.7752
1.0333
10.256
0.9788
6.7865
0.9699
8.646
1.0022
13.856
1.0516
5.3593
1.0274
6.314
1.0496
3.8448
0.9409
7.1225
1.0549
11.7544
0.9992
1.7917
0.9645
7.985
1.0815
11.7833
1.0486
9.4825
0.9689
9.773
0.9844
5.1709
0.9728
7.0216
1.068
12.3235
0.9822
6.0582
0.9432
4.9787
0.9859
5.7124
0.9841
12.5944
0.9461
9.4224
8
f a (x, λ)
λ
1.00579
0.9307
1.0176
0.9737
1.0799
0.9101
0.9339
1.0605
1.0062
0.9677
1.1132
1.0153
1.0169
1.0182
0.9537
1.1391
1.0515
0.9191
1.1122
1.0185
1.0246
0.9752
0.9655
1.0462
0.9514
0.8908
1.0979
0.9567
0.9359
2
χ
8.51
6.4984
22.636
1.8577
7.6052
12.5885
5.6472
11.4268
7.5619
8.5363
24.6434
4.5777
6.1396
3.8185
7.3787
18.9582
2.6638
7.3457
13.5319
8.8276
13.3076
5.1367
6.9621
12.1296
6.1036
5.9352
11.5524
11.6159
9.112
9
F a (x, λ)
λ
0.9674
0.9582
0.9602
0.984
1.0283
0.9189
0.9522
1.0195
0.9664
0.9574
1.0091
1.0273
1.0183
1.0314
0.9345
1.0871
1.0717
0.9452
1.0499
1.0401
0.9892
0.9816
0.965
1.0634
0.9728
0.9258
1.0068
0.9798
0.9265
χ2
5.798
6.0585
17.0424
1.7663
5.4085
12.6992
5.7334
9.9176
6.6783
8.1046
14.1086
4.7372
6.1564
3.735
7.0582
13.4777
1.7661
7.4891
10.7825
9.2218
10.614
5.1523
6.9599
12.2956
5.9853
5.0102
5.8126
12.3894
8.9192
12
Выделенные значения параметров соответствуют минимальному значению χ 2 в строке, т.е. лучшему методу аппроксимации из рассмотренных.
В последней строке указано количество случаев, когда
данный метод аппроксимации дает лучший результат.
254
Рис. 9.9
255
Рис. 9.10
256
Рис. 9.11– Случайный процесс «Обороты высокого давления двигателя НК–36»
257
Рис. 9.12
258
Рис. 9.13
9.6 Аппроксимация корреляционных функций и
спектральных плотностей ортогональными функциями
Лагерра
9.6.1 Теоретические основы лабораторной работы
Необходимость в решении данной задачи возникает при
обработке результатов научных исследований, комплекс259
ных испытаний с целью построения аналитических моделей
корреляционных функций и спектральных плотностей
мощности случайных процессов в тех случаях, когда для
выбора аналитической модели недостаточно априорной
информации о свойствах исследуемого процесса.
В этом случае, как подсказывает практика, наиболее
целесообразно применять разложение корреляционной
функции в ряд по той или иной системе ортогональных
функций. Математическим обоснованием этого метода является теорема Мерсера, согласно которой симметричная и
положительно определенная функция, которой и является
функция корреляции, может быть разложена в равномерно
и абсолютно сходящийся ряд вида:
∞
R x (τ ) = ∑ β k ψ k (τ ) ,
k =0
(9.34)
где β k – коэффициенты Фурье;
ψ k (τ ) – семейство базисных функций, ортонормированных в интервале (0,∞) с весом µ(τ).
Это семейство характеризуется интегралом:
∞
0, при m ≠ n;
µ
(
τ
)
ψ
(
τ
)
ψ
(
τ
)
d
τ
=
(9.35)

∫
m
n
=
1
,
при
m
n
.

0
Так как ряд сходится в интервале (0,∞), то коэффициенты разложения β k определяются выражением:
∞
β k = ∫ Rx (τ )ψ k (τ )µ (τ )dτ .
(9.36)
0
В качестве системы базисных функций применяются
ортогональные функции Лагерра, Дирихле, Лежандра, Хаара, Уолша и т. д. Выбор системы базисных функций зависит, в основном, от возможности представления корреляционной функции минимальным числом членов разложения
для типовых моделей, удобством в работе.
Одной из распространенных систем ортогональных
функций, широко применяемых в аппроксимативном корреляционном анализе, являются ортогональные функции
Лагерра, определяемые выражением:
260
k! (− ατ )s − ατ/2
Lk (τ, α ) = ∑
e
.
(9.37)
2
!
(
k
−
s
)
(s!)
s =0
Ортогональные функции Лагерра удовлетворяют следующему свойству:
 0, если k ≠ n;
∞
(9.38)
∫ Lk (τ, α )Ln (τ, α )dτ =  1 , если k = n.
0
 α
Следует подчеркнуть, что на практике приходится ограничиваться конечным числом ряда (9.34).
k
Это приводит к появлению методической погрешности,
значение которой зависит как от свойств процесса, так и
способа оценки параметров модели.
Тогда для модели корреляционной функции
m
Rx (τ ) = ∑ β k Lk (τ, α ),
(9.39)
k =0
имеющей ограниченное число параметров, коэффициенты
разложения, обеспечивающие минимум квадратической погрешности аппроксимации:
2
∞
m


∆ = ∫  Rx (τ ) − ∑ β k Lk (τ, α ) dτ = min ,
k =0

0
определяются формулой:
(9.40)
∞
β k = α ∫ Rx (τ )Lk (τ, α )dτ .
(9.41)
0
При таком способе определения коэффициентов разложения погрешность аппроксимации, с учетом свойств ортогональных функций Лагерра, равна:
∞
1 m 2
2
∆ = ∫ Rx (τ )dτ − ∑ β k .
(9.42)
α
k =0
0
Из выражений (9.41) и (9.42) видно, что значения погрешности аппроксимации ∆ и коэффициентов разложения
β k зависят от численного значения параметра α.
Как показали исследования, относительная погрешность
аппроксимации
261
δ=∞
∆
(9.43)
∫ Rx (τ ) dτ
2
0
зависит от величины этого параметра, вида корреляционной функции и её показателя колебательности µ, числа
членов разложения ряда m.
Таким образом, необходимо разработать алгоритм поиска параметра α, обеспечивающего минимум квадратической погрешности аппроксимации.
Задача разработки алгоритма оценки параметра ортогональных функций Лагерра может быть сведена к задаче параметрической аппроксимации корреляционных функций.
В результате получим уравнение, решив которое, определим значение параметра α, обеспечивающего минимум
квадратической погрешности аппроксимации:
(9.44)
β m+1 =0.
Величина параметра α зависит от вида корреляционной
функции, показателя её колебательности, а также числа
членов разложения ряда. Число корней уравнения (9.43) зависит от тех же факторов и, в общем случае, равно m+1, и
только один из них обеспечивает наименьшую погрешность
аппроксимации. При приближенном решении уравнения
(9.43), например, методом Ньютона, значение α и соответствующее ему значение погрешности аппроксимации будут
зависеть от начального приближения α 0 .
Одной из отрицательных черт аппроксимации корреляционных функций ортогональными функциями Лагерра является то, что её основное свойство
m
Rx (0 ) = Dx = ∑ β k ,
(9.45)
k =0
как видно из выражения
∞
m +1
 jω − α / 2 
(9.46)
 dω,
∑ β k = Dx − ∫ S x (ω)
j
ω
+
α
/
2
k =0


−∞
при произвольной величине α не выполняется при конечном m. Условие (9.44) при произвольной величине α выполняется лишь при m→∞.
m
262
Для обеспечения условия (9.44) аналитическое выражение Rx (τ ) можно искать в виде:
m
Rx (τ ) = ∑ ck Lk (τ, α ),
(9.47)
k =0
ck =
где
βk
Dx .
m
(9.48)
∑ βk
k =0
m
Легко проверить, что в этом случае Rx (0 ) = ∑ β k = Dx .
k =0
Однако коэффициенты разложения с k , определенные по
формуле (9.48), не обеспечивают минимума квадратической погрешности аппроксимации.
Таким образом, общим недостатком известных способов
определения коэффициентов разложения является то, что
они либо нарушают основное свойство корреляционных
функций, либо не обеспечивают минимума квадратической
погрешности аппроксимации.
Уравнение для определения коэффициентов разложения
корреляционной функции b k
m
Rx (τ ) = ∑ bk Lk (τ, α ) ,
(9.49)
k =0
обеспечивающих минимум квадратической погрешности
аппроксимации при дополнительном условии
m
Rx (0 ) = ∑ bk = Dx ,
(9.50)
k =0
имеет вид
m
bk = β k +
Dx − ∑ β k
k =0
.
(9.51)
m +1
А для определения значения параметра α, обеспечивающего минимум погрешности необходимо решить уравнение
m
bm +1 = β m +1 +
Dx − ∑ β k
k =0
m +1
= 0.
(9.52)
263
Таким образом, при аппроксимации корреляционной
функции для обеспечения минимума квадратической погрешности требуется изменением параметра α добиться равенства нулю коэффициента β m+1 . Значения b 0 , …, b m в этом
случае будут оптимальными.
Рассмотренные алгоритмы (9.41), (9.44), (9.51) и (9.52)
легко реализовать на ЭВМ, однако все они, как указывалось выше, не лишены существенного недостатка − в результате решения уравнений (9.44) или (9.52) в общем случае возможно определение (m+1) корней, обеспечивающих
локальные минимумы погрешностей аппроксимации.
Это обстоятельство накладывает определенные неудобства при выборе диапазона изменения параметра функции
Лагерра.
Для однозначного решения задачи, т.е. определения
единственного корня, обеспечивающего погрешность аппроксимации, близкую к минимуму, необходимо анализировать сигнал, пропорциональный β 0 .
Рассмотрим уравнение
β 0 − kσ 2x
∞
= α ∫ Rx (τ )L0 (τ, α )dτ − kσ 2x = 0 ,
(9.53)
0
где L0 (τ, α ) = e − ατ / 2 − функция Лагерра нулевого порядка;
k – постоянная величина, которая, как видно из уравнения,
меньше 2.
Например, для корреляционной функции (под номером
5 в списке функций) Rx5 (τ ) = σ 2x e
приводится к виду:
−λ τ
cos ω0 τ это уравнение
∞
α ∫ e − ατ / 2 e − λτ cos ω0 τdτ − k = 0 .
(9.54)
0
Разрешив уравнение относительно α, получим:
(
)
− λ (1 − k ) + λ 2 (1 − k )2 + k (2 − k ) λ 2 + ω02
α=2
.
(9.55)
2−k
При k=1 выражение примет самый простой вид, а именно:
α = 2 λ2 + ω02 .
264
(9.56)
Решив уравнение (9.54) для корреляционных функций


λ
Rx,6,7 (τ ) = σ 2x e − λ| τ |  cosω0 τ ±
sinω0 | τ |  при k=1, получим:
ω0


(
)
α = 2 2λ2 + ω02 m λ .
(9.57)
Специфика проведения аппроксимативного корреляционного
анализа с помощью ЭВМ заключается в «дискретизации» полученных ранее уравнений, выборе численного метода для их решения,
написании, отладке соответствующего программного обеспечения
и проведении счёта. Проанализируем различные алгоритмы определения коэффициентов разложения ортогонального ряда и параметра функций Лагерра, которые для удобства представим в таблице 9.5.
Табл. 9.5
№
Алгоритм
1
β m + 1 =0.
m
2 b
m +1 = β m +1 +
Dx − ∑ β k
k =0
m +1
3
β 0 − σ 2x
4
β 0 − σ 2x = 0

β m +1 = 0
5
β 0 − σ 2x = 0

bm +1 = 0
6
β 0 − β1 − σ 2x = 0
m
7
8
∑ (− 1)
k =0
k
=0
β k − σ 2x
α = 2ω0
=0
= 0.
Преимущества
Минимум погрешности
Минимум погрешности,
Недостатки
m+1 корней
m+1 корней
Rx (τ ) = σ 2x
Аналитическое решение, один коδ ≠ min
рень
Выход на глобаль- Сложность
ный минимум по- реализации,
грешности
увеличивается время
анализа
Выход на минимум Сложность
погрешности,
реализации,
увеличиваетRx (τ ) = σ 2x
ся время
анализа
Один корень
δ ≠ min
Близок к δmin
m+1 корней
Простота определения α
δ ≠ min
265
Сравнительный анализ алгоритмов показывает, что с
точки зрения минимизации вычислительных затрат, обеспечения допустимых погрешностей аппроксимации и обеспечения лучшей сходимости (уравнение имеет только один
корень) наиболее целесообразно выбрать алгоритм 3. Параметр α, определенный по этому алгоритму, находится
вблизи α оп т и обеспечивает погрешности аппроксимации,
близкие к минимальным.
Например, квадратурная формула Симпсона при решении уравнения дает следующий результат:
α∆τ
{ Rx (0) + Rx ( 2n)e−2nα∆τ/ 2 +
3
+ 2[ R ( 2∆τ)e−2α∆τ/ 2 +...+ R [(2n − 2) ∆τ]e−(2n−2)α∆τ/ 2] +
(9.58)
x
x
+[ Rx (∆τ)e−α∆τ/ 2 +...+ Rx[(2n −1) ∆τ]e−(2n−1)α∆τ/ 2] }−σ2x = 0,
где n=J max /2.
Методика аппроксимации корреляционных функций ортогональными функциями Лагерра заключается в выполнении следующих этапов:
1. Определяются ординаты нормированной корреляционной функции { ρ x ( J∆τ ) }J = 0,... J max ;
2. Определяется параметр функций Лагерра α в результате решения уравнения (9.53);
3. Определяются коэффициенты разложения {β k } k=0, …, m в
соответствии с выражением (9.41);
4. Определяются коэффициенты разложения {b k } k=0, …, m в
соответствии с выражением (9.51);
5. Определяется число членов разложения ряда (9.39)
m opt , обеспечивающее минимальное значение погрешности
аппроксимации нормированной корреляционной функции
δ;
6. Определяются параметры аппроксимирующего выражения: α, m=m o pt , {β k } k=0, … , m , {b k } k=0, …, m , δ.
Определив параметры модели корреляционной функции
β 0 ,...β m , α
m
m
Ra (τ ) = ∑ β k Lk (τ, α )1(τ ) + ∑ β k Lk (− τ, α )1(− τ ) ,
k =0
266
k =0
(9.59)
оценим спектральную плотность мощности случайного
процесса.
Для этого, подставив модель (9.58) в выражение для
определения спектральной плотности мощности
m
1 ∞ m
 − jωτ
S x (ω) =
β
L
(
τ,
α
)
1
(
τ
)
+
β
L
(
−
τ,
α
)
1
(
−
τ
)
dτ , (9.60)
∑
∑
∫
k k
k k
e
2π 0 k = 0
k =0

с учётом определения ортогональных функций Лагерра
(9.37), получим:
k
 1
 jω − α/2 
1 m
S x (ω) =

 +
∑ βk 
2π k = 0  α/2 + jω  jω + α/2 

k
.
(9.61)
 jω + α/2 
1

 
α/2 − jω  jω − α/2  

Введем обозначение tgφ = 2ω. Тогда
+
α
k
 1  jtgφ − 1  k
1 m
1  jtgφ + 1  
S x (ω) =

 +

  .(9.62)
∑ βk 
απ k = 0 1 + jtgφ  jtgφ + 1  1 − jtgφ  jtgφ − 1  


Или
k
 jsinφ − cosφ 
1 m  cosφ

 +
Sx (ω) =
∑ βk 
α π k =0 cosφ + jsinφ  jsinφ + cosφ 

.
(9.63)
k
 jsinφ + cosφ 
cosφ

 
+
cosϕ − jsinφ  jsinφ − cosφ  

Воспользовавшись формулами Эйлера, выражение (9.63)
приведем к виду:

− jφ  k
jφ  k 
m


cosφ
1 −e
1
e
S x (ω) =
∑ β k  jφ  jφ  + − jφ  − jφ   =
απ k = 0  e  e
e

−e
 

cosφ m
k − (2k +1)φ
(2k +1)φ = 2cosφ m β (− 1)k cos(2k + 1)φ ,
=
β
(
−
1
)
e
+
e
∑ k
∑ k
απ k = 0
απ k = 0
где φ = arctg 2ω.
α
Для выполнения лабораторной работы необходимо изучить раздел «Аппроксимативный анализ корреляционно-
[
]
267
спектральных характеристик» программной системы «Моделирование и анализ случайных процессов» (см. приложение рис. 3).
9.6.2 Задание №10 на самостоятельную работу
1. Сгенерировать временной ряд с заданным видом корреляционной функции и со следующими параметрами
−M=ent[τ k max /∆τ], N=12,5М, δ=0,02.
2. Вычислить корреляционную функцию.
3. Задать вручную начальное приближение параметра
функции Лагерра и найти значения параметров аналитического выражения корреляционной функции α, b 0 ,…, b m ,
воспользовавшись метод Симпсона. Определить погрешности аппроксимации.
4. Определить спектральную плотность мощности и частоту, соответствующую максимуму спектральной плотности мощности.
5. Повторить пункты 1−4 для объёмов выборки N=kM, где
k=25, 50, 100.
6. Проанализировать зависимость погрешности оценки
параметров корреляционной функции и аппроксимации от
объёма выборки.
7. Повторить пункты 1−4 для объёмов выборки N=25М 1 ,
где M 1 =M/2, M/3, M/4.
8. Проанализировать зависимость погрешности аппроксимации корреляционной функции от M 1 – числа отсчётов
корреляционной функции.
9. Повторить пункты 1−4 для N=25М и δ=0,02; 0,05; 0,1;
0,2.
10. Проанализировать зависимость погрешности аппроксимации корреляционной функции от ∆τ.
9.6.3 Содержание отчёта
1. Цель работы.
2. Метод и алгоритмы аппроксимации корреляционных
функций ортогональными функциями Лагерра.
3. Примеры экранных форм для аппроксимации корреляционных функций и спектральных плотностей мощности
ортогональными функциями Лагерра.
268
4. Зависимости погрешности оценки параметра функции
Лагерра и аппроксимации от объёма выборки N.
5. Зависимости погрешности аппроксимации корреляционной функции от M 1 .
6. Зависимость погрешности аппроксимации корреляционной функции от ∆τ.
7. Параметры модели, представленные в табличной форме.
8. Выводы по работе.
Ниже приведены примеры экранных форм для аппроксимации корреляционных функций и спектральных плотностей мощности ортогональными функциями Лагерра.
Рис. 9.14 − Экранная форма аппроксимации корреляционной функции ортогональными функциями Лагерра
269
Рис. 9.15 − Экранная форма аппроксимации корреляционной функции ортогональными функциями Лагерра
270
Рис. 9.16 − Экранная форма аппроксимации
спектральной плотности
271
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Бендат Дж., Пирсол Л. Измерение и анализ случайных
процессов; Пер. с англ. Матушевского Г.В. и Привальского
В.Е. М.: Мир.-1974.-464с.
2. Вентцель Е.С. Теория верроятностей: Учеб. для вузов.-7е изд. – М.: Высш. шк., 2001.- 575с.
3. Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и её инженерные приложения. М.: Наука. Гл. ред. физ.мат. лит. – 1991.- 384с.
4. Гмурман В.Е.Теория вероятностей и математическая статистика: Учеб. пособие. – 8-е изд. – М.: Высш.шк., 2002.479с.
5. Кельтон В., Лоу А. Имитационное моделирование. Классика CS. 3-е изд. – СПб.: Питер; Киев: Издательская группа
BHV, 2004.-847с.
6. Клейнрок Л. Теория массового обслуживания: Пер. с
англ. /Под. ред. В.И. Неймана. – М.: Машиностроение,
1979.- 432с.
7. Клейнрок Л. Вычислительные системы с очередями: Пер.
с англ. /Под. ред. Б.С. Цыбакова. – М.: Мир, 1979.- 597с.
8. Коваленко И.Н., Филиппова А.А. Теория вероятностей и
математическая статистика. Учеб. пособие для вузов. М.:
Высшая школа. -1973.- 368с.
9. Прохоров С.А. Моделирование и анализ случайных процессов. Лабор. практикум. – 2-е изд., перераб. и дополн.
Самара.: СНЦ РАН, 2002.- 277с.
10. Пугачев В.С. Теория вероятностей и математическая
статистика: Учеб. пособие. – 2-е изд., испр. и дополн. – М.:
ФИЗМАТЛИТ, 2002.- 496с.
11. Тарасов.В.Н. Вероятностное компьютерное моделирование сложных систем. Самара.: СНЦ РАН, 2002.- 194с.
12. Тарасов В.Н. Бахарева Н.Ф. Компьютерное моделирование вычислительных систем. Теория, алгоритмы, программы. Допущено УМО вузов по университетскому политехническому образованию в качестве уч. пособия по направлению 230100. – Оренбург: ИПК ОГУ, 2005.- 183с.
13. Тарасов В.Н., Кругликов В.К. Анализ и расчет сетей
массового обслуживания с использованием двумерной
272
диффузионной аппроксимации. Автоматика и телемеханика. АН СССР, 1983.с.74-83.
14. Теория вероятностей. /Под. ред. д.т.н., проф. В.С. Зарубина и д.ф.-м.н., проф. А.П. Крищенко. Изд. 3-е, исправ. –
М.: МГТУ им. Н.Э.Баумана, 2004.- 456с.
15. Тихонов В.И., Миронов М.А. Марковские процессы. М.:
Сов. радио, 1977.- 488с.
273
ПРИЛОЖЕНИЕ
λm −λ
Значения функции Р(m; λ) =
e
m!
Табл. 1
m
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
274
λ
0,1
0,90484
09048
00452
00015
1,5
0,22313
33470
25102
12551
04707
01412
00353
00076
00014
00002
0,2
81873
16375
01637
00109
00005
2,0
13534
27067
27067
18045
09022
03609
01203
00344
00086
00019
00004
00001
0,3
74082
22225
03334
00333
00025
00002
2,5
08208
20521
25652
21376
13360
06680
02783
00994
00311
00086
00022
00005
00001
0,4
67032
26813
05363
00715
00072
00006
3,0
04979
14936
22404
22404
16803
10082
05041
02160
00810
00270
00081
00022
00006
00001
0,5
60653
30327
07582
01264
00158
00016
00001
3,5
03020
10569
18496
21579
18881
13217
07710
03855
01687
00656
00230
00073
00021
00006
00001
0,6
54881
32929
09879
01976
00296
00036
00004
λ
4,0
01832
07326
14653
19537
19537
15629
10420
05954
02977
01323
00529
00192
00064
00020
00006
00002
0,7
49659
34761
12166
02839
00497
00070
00008
00001
4,5
01111
04999
11248
16872
18981
17083
12812
08236
04633
02316
01042
00426
00160
00055
00018
00005
00002
0,8
44933
35946
14379
03834
00767
00123
00016
00002
5,0
00674
03369
08422
14037
17547
17547
14622
10444
06528
03627
01813
00824
00343
00132
00047
00016
00005
00001
0,9
40657
36591
16466
04940
01111
00200
00030
00004
5,5
00409
02248
06181
11332
15582
17140
15712
12345
08487
05187
02853
01426
00654
00277
00109
00040
00014
00004
00001
1,0
36788
36788
18394
06131
01533
00307
00051
00007
00001
6,0
00248
01487
04462
08924
13385
16062
16062
13768
10326
06884
04130
02253
01126
00520
00223
00089
00033
00012
00004
00001
Значения функции
ϕ ( x) =
1
e
2π
−
x2
2
Табл. 2
х
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0
0,39894
39695
39104
38139
36827
35207
33322
31225
28969
26609
24197
21785
19419
17137
14973
12952
11092
09405
07895
06562
05399
04398
03547
02833
02239
01753
01358
01042
00792
00595
х
3,0
4,0
1
39892
39654
39024
38023
36678
35029
33121
31006
28737
26369
23955
21546
19186
16915
14764
12758
10915
09246
07754
06438
05292
04307
03470
02768
02186
01709
01323
01014
00770
00578
2
39886
39608
38940
37903
36526
34849
32918
30785
28504
26129
23713
21307
18954
16694
14556
12566
10741
09089
07614
06316
05186
04217
03394
02705
02134
01667
01289
00987
00748
00562
0
0,00443
00013
3
39876
39559
38853
37780
36371
34667
32713
30563
28269
25888
23471
21069
18724
16474
14350
12376
10567
08933
07477
06195
05082
04128
03319
02643
02083
01625
01256
00961
00727
00545
Сотые доли x
4
5
39862 39844
39505 39448
38762 38667
37654 37524
36213 36053
34482 34294
32506 32297
30339 30114
28034 27798
25647 25406
23230 22988
20831 20594
18494 18265
16256 16038
14146 13943
12188 12001
10396 10226
08780 08628
07341 07206
06077 05959
04980 04879
04041 03955
03246 03174
02582 02522
02033 01984
01585 01545
01223 01191
00935 00909
00707 00687
00530 00514
Десятые доли x
2
00238
00006
6
7
39822
39387
38568
37391
35889
34105
32086
29887
27562
25164
22747
20357
18037
15822
13742
11816
10059
08478
07074
05844
04780
03871
03103
02463
01936
01506
01160
00885
00668
00499
39797
39322
38466
37255
35723
33912
31874
29659
27324
24923
22506
20121
17810
15608
13542
11632
09893
08329
06943
05730
04682
03788
03034
02406
01888
01468
01130
00861
00649
00485
4
00123
00002
8
39767
39253
38361
37115
35553
33718
31659
29431
27086
24681
22265
19886
17585
15395
13344
11450
09728
08183
06814
05618
04586
03706
02965
02349
01842
01431
01100
00837
00631
00470
6
00061
00001
9
39733
39181
38251
36973
35381
33521
31443
29200
26848
24439
22025
19652
17360
15183
13147
11270
09566
08038
06687
05508
04491
03626
02898
02294
01797
01394
01071
00814
00613
00457
8
00029
275
2
Значения интеграла Лапласа Ф0 ( x) =
x −t
e 2
1
∫
2π 0
dt
Табл. 3
х 0
0,0 0,00000
0,1 03983
0,2 07926
0,3 11791
0,4 15542
0,5 19146
0,6 22575
0,7 25804
0,8 28814
0,9 31594
1,0 34134
1,1 36433
1,2 38493
1,3 40320
1,4 41924
1,5 43319
1,6 44520
1,7 45543
1,8 46407
1,9 47128
2,0 47725
2,1 48214
2,2 48610
2,3 48928
2,4 49180
2,5 49379
2,6 49534
2,7 49653
2,8 49744
2,9 49813
х
3,0
4,0
276
1
00399
04380
08317
12172
15910
19497
22907
26115
29103
31859
34375
36650
38686
40490
42073
43448
44630
45637
46485
47193
47778
48257
48645
48956
49202
49396
49547
49664
49752
49819
0
0,49865
49997
2
00798
04776
08706
12552
16276
19847
23237
26424
29389
32121
34614
36864
38877
40658
42220
43574
44738
45728
46562
47257
47831
48300
48679
48983
49224
49413
49560
49674
49760
49825
2
49931
49999
3
01197
05172
09095
12930
16640
20194
23565
26730
29673
32381
34850
37076
39065
40824
42364
43699
44845
45818
46638
47320
47882
48341
48713
49010
49245
49430
49573
49683
49767
49831
Сотые доли х
4
5
01595 01994
05567 05962
09483 09871
13307 13683
17003 17364
20540 20884
23891 24215
27035 27337
29955 30234
32639 32894
35083 35314
37286 37493
39251 39435
40988 41149
42507 42647
43822 43943
44950 45053
45907 45994
46712 46784
47381 47441
47932 47982
48382 48422
48745 48778
49036 49061
49266 49286
49446 49461
49585 49598
49693 49702
49774 49781
49836 49841
Десятые доли х
4
49966
6
02392
06356
10257
14058
17724
21226
24537
27637
30511
33147
35543
37698
39617
41308
42786
44062
45154
46080
46856
47500
48030
48461
48809
49086
49305
49477
49609
49711
49788
49846
6
49984
7
02790
06749
10642
14431
18082
21566
24857
27935
30785
33398
35769
37900
39796
41466
42922
44179
45254
46164
46926
47558
48077
48500
48840
49111
49324
49492
49621
49720
49795
49851
8
03188
07142
11026
14803
18439
21904
25175
28230
31057
33646
35993
38100
39973
41621
43056
44295
45352
46246
46995
47615
48124
48537
48870
49134
49343
49506
49632
49728
49801
49856
9
03586
07535
11409
15173
18793
22240
25490
28524
31327
33891
36214
38298
40147
41774
43189
44408
45449
46327
47062
47670
48169
48574
48899
49158
49361
49520
49643
49736
49807
49861
8
49993
Значения χ 2 в зависимости от r и р.
Табл.4
p
0,99 0,98 0,95 0,90 0,80 0,70 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001
r
1 0,000 0,001 0,004 0,016 0,064 0,148 0,455 1,074 1,642 2,71 3,84 5,41 6,64 10,83
2 0,020 0,040 0,103 0,211 0,446 0,713 1,386 2,41 3,22 4,60 5,99 7,82 9,21 13,82
3 0,115 0,185 0,352 0,584 1,005 1,424 2,37 3,66 4,64 6,25 7,82 9,84 11,34 16,27
4 0,297 0,429 0,711 1,064 1,649 2,20 3,36 4,88 5,99 7,78 9,49 11,67 13,28 18,46
5 0,554 0,752 1,145 1,610 2,34 3,00 4,35 6,06 7,29 9,24 11,07 13,39 15,09 20,5
6 0,872 1,134 1,635 2,20 3,07 3,83 5,35 7,23 8,56 10,64 12,59 15,03 16,81 22,5
7 1,239 1,564 2,17 2,83 3,82 4,67 6,35 8,38 9,80 12,02 14,07 16,62 18,48 24,3
8 1,646 2,03 2,73 3,49 4,59 5,53 7,34 9,52 11,03 13,36 15,51 18,17 20,1 26,1
9 2,09 2,53 3,32 4,17 5,38 6,39 8,34 10,66 12,24 14,68 16,92 19,68 21,7 27,9
10 2,56 3,06 3,94 4,86 6,18 7,27 9,34 11,78 13,44 15,99 18,31 21,2 23,2 29,6
11 3,05 3,61 4,58 5,58 6,99 8,15 10,34 12,90 14,63 17,28 19,68 22,6 24,7 31,3
12 3,57 4,18 5,23 6,30 7,81 9,03 11,34 14,01 15,81 18,55 21,0 24,1 26,2 32,9
13 4,11 4,76 5,89 7,04 8,63 9,93 12,34 15,12 16,98 19,81 22,4 25,5 27,7 34,6
14 4,66 5,37 6,57 7,79 9,47 10,82 13,34 16,22 18,15 21,1 23,7 26,9 29,1 36,1
15 5,23 5,98 7,26 8,55 10,31 11,72 14,34 17,32 19,31 22,3 25,0 28,3 30,6 37,7
16 5,81 6,61 7,96 9,31 11,15 12,62 15,34 18,42 20,5 23,5 26,3 29,6 32,0 39,3
17 6,41 7,26 8,67 10,08 12,00 13,53 16,34 19,51 21,6 24,8 27,6 31,0 33,4 40,8
18 7,02 7,91 9,39 10,86 12,86 14,44 17,34 20,6 22,8 26,0 28,9 32,3 34,8 42,3
19 7,63 8,57 10,11 11,65 13,72 15,35 18,34 21,7 23,9 27,2 30,1 33,7 36,2 43,8
20 8,26 9,24 10,85 12,44 14,58 16,27 19,34 22,8 25,0 28,4 31,4 35,0 37,6 45,3
21 8,90 9,92 11,59 13,24 15,44 17,18 20,3 23,9 26,2 29,6 32,7 36,3 38,9 46,8
22 9,54 10,60 12,34 14,04 16,31 18,10 21,3 24,9 27,3 30,8 33,9 37,7 40,3 48,3
23 10,20 11,29 13,09 14,85 17,19 19,02 22,3 26,0 28,4 32,0 35,2 39,0 41,6 49,7
24 10,86 11,99 13,85 15,66 18,06 19,94 23,3 27,1 29,6 33,2 36,4 40,3 43,0 51,2
25 11,52 12,70 14,61 16,47 18,94 20,9 24,3 28,2 30,7 34,4 37,7 41,7 44,3 52,6
26 12,20 13,41 15,38 17,29 19,82 21,8 25,3 29,2 31,8 35,6 38,9 42,9 45,6 54,1
27 12,88 14,12 16,15 18,11 20,7 22,7 26,3 30,3 32,9 36,7 40,1 44,1 47,0 55,5
28 13,56 14,85 16,93 18,94 21,6 23,6 27,3 31,4 34,0 37,9 41,3 45,4 48,3 56,9
29 14,26 15,57 17,71 19,77 22,5 24,6 28,3 32,5 35,1 39,1 42,6 46,7 49,6 58,3
30 14,95 16,31 18,49 20,6 23,4 25,5 29,3 33,5 36,2 40,3 43,8 48,0 50,9 59,7
277
tγ
Значения t γ , удовлетворяющие равенству 2 ∫ S n −1 (t )dt = γ в
0
зависимости от γ и n−1.
Табл.5
γ
n-1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
∞
n-1
γ
278
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
0,158 0,325 0,51 0,727 1,000 1,376 1,963 3,08 6,31 12,71
142
289
445
617 0,816 1,061 1,336 1,886 2,92
4,3
137
277
424
584
765 0,978 1,25 1,538 2,35 3,18
134
271
414
569
741
941 1,190 1,533 2,13 2,77
132
267
408
559
727
920 1,156 1,476 2,02 2,57
131
265
404
553
718
906 1,134 1,440 1,943 2,45
130
263
402
549
711
896 1,119 1,415 1,895 2,36
130
262
399
546
706
889 1,108 1,397 1,86 2,31
129
261
398
543
703
883 1,100 1,383 1,833 2,26
129
260
397
542
700
879 1,093 1,372 1,812 2,23
129
260
396
540
697
876 1,088 1,363 1,796 2,2
128
259
395
539
695
873 1,083 1,356 1,782 2,18
128
259
394
538
694
870 1,079 1,35 1,771 2,16
128
258
393
537
692
868 1,076 1,345 1,761 2,14
128
258
393
536
691
866 1,074 1,341 1,753 2,13
128
258
392
535
690
865 1,071 1,337 1,746 2,12
128
257
392
534
689
863 1,069 1,333 1,740 2,11
127
257
392
534
688
862 1,067 1,33 1,734 2,1
127
257
391
533
688
861 1,066 1,328 1,729 2,09
127
257
391
533
687
860 1,064 1,325 1,725 2,09
127
257
391
532
686
859 1,063 1,325 1,725 2,09
127
256
390
532
686
858 1,061 1,323 1,721 2,08
127
256
390
532
685
858 1,060 1,321 1,717 2,07
127
256
390
531
685
857 1,059 1,319 1714 2,07
127
256
390
531
684
856 1,058 1,318 1,711 2,06
127
256
390
531
684
856 1,058 1,316 1,708 2,06
127
256
389
531
684
855 1,057 1,315 1,706 2,06
127
256
389
530
683
855 1,056 1,314 1,703 2,05
127
256
389
530
683
854 1,055 1,313 1,701 2,05
127
256
389
530
683
854 1,055 1,311 1,699 2,04
126
255
388
529
681
851
1,05 1,310 1,697 2,04
126
254
387
527
679
848 1,046 1,303 1,684 2,02
126
254
386
526
677
845 1,011 1,296 1,671 2,00
0,126 0,253 0,385 0,524 0,674 0,842 1,036 1,289 1,658 1,98
0,1
0,2
0,3
0,4
0,5
0,6
0,7
1,282 1,645
1,96
Продолжение табл.5
γ
n-1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
n-1
γ
γ
n-1
31,8 63,7 636,6 18
6,96 9,92 31,6
19
4,54 5,84 12,94 20
3,75 4,6 8,61
21
3,36 4,03 6,86
22
3,14 3,71 5,96
23
3
3,5
5,4
24
2,9 3,36 5,04
25
2,82 3,25 4,78
26
2,76 3,17 4,59
27
2,72 3,11 4,49
28
2,68 3,06 4,32
29
2,65 3,01 4,22
30
2,62 2,98 4,14
40
2,6 2,95 4,07
60
2,58 2,92 4,02 120
2,57 2,9 3,96
∞
n-1
0,98 0,99 0,999
γ
0,98 0,99 0,999
0,98 0,99 0,999
2,55
2,54
2,53
2,52
2,51
2,5
2,49
2,48
2,48
2,47
2,47
2,46
2,46
2,42
2,39
2,36
2,33
2,88
2,86
2,84
2,83
2,82
2,81
2,8
2,79
2,78
2,77
2,76
2,76
2,75
2,7
2,66
2,62
2,58
3,92
3,88
3,85
3,82
3,79
3,77
3,74
3,72
3,71
3,69
3,67
3,66
3,65
3,55
3,46
3,37
3,29
0,98 0,99 0,999
279
Пакет программ генерирования и
аппроксимации законов распределения случайных процессов
Анализ случайного процесса
Построение
гистограммы
Оценка статистических характеристик
Генерирование случайного процесса с заданным видом закона распределения
Аналитический метод
Приближенный метод
Проверка качества генерирования
Построение фазового портрета
Аппроксимация
законов распределения
Идентификация
случайного процесса
Метод моментов
Аппроксимация плотностей распределения вероятностей
Аппроксимация функций
распределения
Аппроксимация ортогональными полиномами
Проверка качества аппроксимации
Рис.1
Структура программы генерирования и аппроксимации
законов распределения случайных процессов.
280
Генерация случайного
процесса с заданным
видом закона
распределения
Загрузка N отсчетов
случайного процесса
из файла
Загрузка из файла значений
длин дифференциальных
коридоров и плотности
вероятности в этих
коридорах
Блок получения
статистических данных
Оценка моментных
характеристик
случайного процесса
Построение графика
случайного процесса
Расчет и построение графика
структурной функции
случайного процесса
Расчет и построение
графика функции
распределения случайного
процесса
Расчет и построение
гистограммы
случайного процесса
Расчет и построение
графика плотности
распределения
вероятностей случайного
процесса
Блок оценки характеристик случайного процесса
Нахождение
параметров
аппроксимирующей
функции методом
моментов
Нахождение
параметров
аппроксимирующей
функции
параметрическим
методом
Нахождение
параметров
аппроксимирующей
функции методом
моментов
Нахождение
параметров
аппроксимирующей
функции
параметрическим
методом
Блок аппроксимации
Оценка качества
аппроксимации по критерию
Пирсона
Оценка качества аппроксимации
по критерию Колмогорова
Блок оценки качества аппроксимации
Рис.2
Блочная структура программы генерирования и аппроксимации законов распределения случайных процессов
281
Автоматизированная
система
Подсистема
задания
входных
воздействий
Генерирование
СП с заданным
видом КФ
Ввод
данных из
файла
Подсистема
генерирования
НВР
Подсистема
первичной стат.
обработки
Подсистема
идентификации КФ
Подсистема
аппроксимации КФ
Метод
р-преобразования
Центрирование
СП
Анализ
фазовых
портретов
Функциями
заданного
вида
Адаптивно - временная
дискретизация
Нормирование
СП
Проверка
качества
идентификации
Функциями
Лагерра
Дискретизация
с «дрожанием»
Оценка числовых
характеристик
(моменты первых
порядков)
Аддитивная
случайная
дискретизация
Подсистема
спектрального
анализа
Вычисление КФ
С помощью
классических
алгоритмов
Метод с
использованием ИКФ
Рис.3
Структура программы аппроксимативного анализа
корреляционно-спектральных характеристик
282
В.Н. ТАРАСОВ, Н.Ф. БАХАРЕВА
ТЕОРИЯ ВЕРОЯТНОСТЕЙ,
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
И СЛУЧАЙНЫЕ ПРОЦЕССЫ
ИЗДАНИЕ ВТОРОЕ,
ПЕРЕРАБОТАННОЕ
Подписано в печать: 02.04.2008
Тираж: 120 экз. 15 усл. п.л. Заказ № 13
Отпечатано в типографии ГОУ ВПО ПГАТИ
443090, г. Самара, Московское шоссе, 77
Download