Uploaded by viktor.panov

Теория вероятностей

advertisement
Е.А. Голикова
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Презентации к курсу лекций
Оглавление
1. Введение в ТВ
1.1. Элементы комбинаторики . . . . . . . . . . .
1.2. Пространство элементарных событий (ПЭС)
1.3. Алгебра событий . . . . . . . . . . . . . . . .
1.4. Вероятность . . . . . . . . . . . . . . . . . . .
.
.
.
.
4
5
13
28
33
2. Вычисление вероятности сложных событий
2.1. Теоремы о вероятности суммы и произведения событий
2.2. Формулы полной вероятности и Байеса . . . . . . . .
2.3. Схема Бернулли . . . . . . . . . . . . . . . . . . . . .
60
61
72
80
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Случайные величины
94
3.1. Законы распределения ДСВ и НСВ . . . . . . . . . . . 95
3.2. Функции и числовые характеристики СВ . . . . . . . . 123
2
3.3. Основные законы распределения . . . . . . . . . . . . 174
3.4. Последовательности СВ. Закон больших чисел . . . . 218
4. Двумерные СВ
4.1. Законы распределения . . . . . . . . . . . . . . . . . .
4.2. Условные законы распределения, зависимость СВ . .
4.3. Элементы корреляционного и регрессионного анализа
3
254
254
292
316
1. Введение в ТВ.
4
1.1. Элементы комбинаторики
В теории вероятностей приходится довольно часто считать количество исходов некоторого стохастического эксперимента, т.е. решать
комбинаторные задачи. Предметом комбинаторики является вычисление количества элементов в различных конечных множествах. Решение комбинаторных задач зачастую носит алгоритмический характер: строится алгоритм пересчета элементов нужного сорта. Рассмотрим здесь некоторые стандартные комбинации, составленные из
элементов конечных множеств, и методы их пересчета.
5
Пусть имеется два конечных множества: A, состоящее из k1 элементов (|A| = k1) и B, состоящее из k2 элементов (|B| = k2). Тогда
1) если A ∩ B = ∅, то |A ∪ B| = |A| + |B| = k1 + k2;
2) если C = {(a, b)| a ∈ A, b ∈ B} — множество упорядоченных
пар, то |C| = |A| · |B| = k1k2.
6
|A| = k1 |B| = k2. Тогда
1) если A ∩ B = ∅, то |A ∪ B| = |A| + |B| = k1 + k2;
2) если C = {(a, b)| a ∈ A, b ∈ B} — множество упорядоченных
пар, то |C| = |A| · |B| = k1k2.
Эти два очевидных теоретико-множественных утверждения принято формулировать на языке выборок как правила суммы и произведения.
Правило суммы. Если некоторый объект A можно выбрать k1
способами, а другой объект B можно выбрать k2 способами, то выбор «либо A, либо B» можно осуществить k1 + k2 способами.
Правило произведения. Если объект A можно выбрать k1 способами, а после каждого такого выбора другой объект B можно выбрать (независимо от выбора объекта A) k2 способами, то пары объектов A и B можно выбрать k1k2 способами.
7
Правило произведения. Если объект A можно выбрать k1 способами, а после каждого такого выбора другой объект B можно выбрать (независимо от выбора объекта A) k2 способами, то пары объектов A и B можно выбрать k1k2 способами.
если C = {(a, b)| a ∈ A, b ∈ B} , то |C| = |A| · |B| = k1k2.
8
Правило произведения. Если объект A можно выбрать k1 способами, а после каждого такого выбора другой объект B можно выбрать (независимо от выбора объекта A) k2 способами, то пары объектов A и B можно выбрать k1k2 способами.
если C = {(a, b)| a ∈ A, b ∈ B} , то |C| = |A| · |B| = k1k2.
Пересчитаем все упорядоченные пары (a, b), где a ∈ A, b ∈ B и
|A| = k1, |B| = k2. Для этого разместим все пары в матрице размерности k1 × k2 :
(a1, b1)(a1, b2) . . . (a1, bk2 )
(a2, b1)(a2, b2) . . . (a2, bk2 )
........................
(ak1 , b1)(ak1 , b2) . . . (ak1 , bk2 )
Т.е. количество пар равно |A| · |B| = k1k2. Этот простой принцип с
помощью индукции можно перенести на пересчет количества произвольных упорядоченных m−ок (a1, a2, . . . , am), ai ∈ Ai, 1 ≤ i ≤ m.
9
Теорема 1.1. Если C = {(a1, a2, . . . , am)| ai ∈ Ai, 1 ≤ i ≤ m} —
множество упорядоченных m−ок, составленных из элементов множеств Ai, где
|Ai| = ki, 1 ≤ i ≤ m, то |C| = k1k2 . . . km. В частности, если
Ai = A, 1 ≤ i ≤ m и |A| = k, то |C| = k m.
Пусть множество A состоит из k элементов (|A| = k). Из этого
множества разными способами будем делать выборки по m элементов.
10
Пусть множество A состоит из k элементов (|A| = k). Из этого множества разными способами будем делать выборки по m элементов.
Качество выборки будем характеризовать по двум признакам:
1) упорядочена выборка (т.е. является ли она упорядоченной m-кой
элементов множества A) или нет;
2) с повторениями (т.е. возможно ли в выборке появление одного и
того же элемента больше, чем один раз) или нет.
Свойства выборки зависят от способа выбора.
11
Тип выборок
Количество выборок из k−элементного
упорядоченные с повторениями множества по m элементов и их название
да
нет
размещения
k!
Am
, m ≤ k (0! = 1)
k =
(k − m)!
да
да
размещения с повторениями
m
Ak = k m
нет
нет
сочетания
k!
Ckm =
, m ≤ k (0! = 1)
m!(k − m)!
нет
да
сочетания с повторениями
m
m
C k = Ck+m−1
Тип порядков
Количество порядков на k−элементном
множестве
пеорестановки
Pk = k!
k!
перестановки с повторениями
Pk (n1 , n2 , . . . , ns ) =
,
n1 !n2 ! · . . . · ns !
n1 + n2 + . . . + ns = k
12
1.2. Пространство элементарных событий (ПЭС)
Предмет теории вероятностей− изучение массовых случайных явлений. Например, производится опыт, который может быть повторен сколько угодно раз при неизменных условиях (это условие− уже
идеализация). При этом фиксируется исход опыта− явление, которое может произойти или не произойти в данном опыте. Т.е. исход
опыта носит случайный характер, поэтому количество исходов больше, чем один.
13
Определение 1. Событие, которое может произойти или не произойти в рамках данного опыта называется случайным событием (СС).
Исходы опыта тоже СС.
Определение 2. Будем говорить, что СС A является следствием СС
B, если A происходит, когда происходит B (B влечет A, B ⇒ A).
Определение 3. СС B назовем элементарным событием (ЭС), или
по-другому− элеменарным исходом опыта, если B является следствием
только самого себя.
14
Определение 3. СС B назовем элементарным событием (ЭС), или
по-другому− элеменарным исходом опыта, если B является следствием
только самого себя.
Пример 1. Опыт состоит в однократном бросании кубика. В качестве исхода фиксируем количество выпавших очков. Для данного опыта описать элементарные события, привести примеры других
случайных событий.
15
Пример 1. Опыт состоит в однократном бросании кубика. В качестве исхода фиксируем количество выпавших очков. Для данного опыта описать элементарные события, привести примеры других
случайных событий.
Решение. Рассмотрим естественный список исходов:
B1− «на кубике выпало 1» , B2− «выпало 2», B3− «выпало 3», . . .,
B6− «выпало 6»
16
Пример 1. Опыт состоит в однократном бросании кубика. В качестве исхода фиксируем количество выпавших очков. Для данного опыта описать элементарные события, привести примеры других
случайных событий.
Решение. Рассмотрим естественный список исходов:
B1− «на кубике выпало 1» , B2− «выпало 2», B3− «выпало 3», . . .,
B6− «выпало 6».
В рамках опыта могут произойти или не произойти и другие СС.
Например, A − «выпало четное число очков», C − «число выпавших
очков делится на 7», D − «число выпавших очков не превосходит 6»
и т.п.
17
Пример 1. Опыт состоит в однократном бросании кубика. В качестве исхода фиксируем количество выпавших очков. Для данного опыта описать элементарные события, привести примеры других
случайных событий.
Решение. Рассмотрим естественный список исходов:
B1− «на кубике выпало 1» , B2− «выпало 2», B3− «выпало 3», . . .,
B6− «выпало 6».
A − «выпало четное число очков», C − «число выпавших очков
делится на 7», D − «число выпавших очков не превосходит 6»
При этом СС A является следствием СС B2 (B2 ⇒ A) и B4 ⇒ A и,
кроме того, B6 ⇒ A Т.е. СС A не является ЭС. Каждое СС Bi есть
ЭС. А СС C не является следствием никакого ЭС и произойти не
может. СС D − следствие любого из ЭС Bi и происходит всегда (см.
рис.1).
18
3́
´
´
´
Опыт
´
:
´
»»
´»»»»
´
»»
»
´
XXX
Z
XXX
Z
XXX
z
Z
Z
Z
Z
Z
Z
~
Z
ЭС B1
-
ЭС B2
-
ЭС B4
-
ЭС B6
-
ЭС B3
Рис. 1: Иллюстрация к примеру 1
19
D
PP
PP
ЭС B5
A
P
P
q
-
jC
Определение 4. СС, которое в рамках данного опыта произойти не
может, т.е. не является следствием никакого ЭС, называется невозможным.
Определение 5. СС, которое в рамках данного опыта происходит всегда, т.е. является следствием любого ЭС, называется достоверным.
Определение 6. Два СС A и B называются совместными, если найдется такое ЭС C, что и A и B являются следствиями C, т.е. A и B
могут произойти одновременно. В противном случае два СС называются
несовместными.
Определение 7. Множество всех ЭС для данного опыта назовем пространством элементарных событий (ПЭС).
20
Определение 7. Множество всех ЭС для данного опыта назовем пространством элементарных событий (ПЭС).
Описание ПЭС − один из этапов решения.
21
Определение 7. Множество всех ЭС для данного опыта назовем пространством элементарных событий (ПЭС).
Описание ПЭС − один из этапов решения.
На языке случайных событий: для опыта, приведенного в примере 1, ПЭС состоит из шести ЭС Bi − «выпадение на кубике i очков».
На языке теории множеств: пусть Ω — некоторое множество
между элементами которого ω и ЭС Bi данного эксперимента можно установить взаимно-однозначное соответствие. Но тогда каждому
СС A соответствует подмножество Aω ⊂ Ω, состоящее из всех таких
ωBi , что A − следствие Bi : Aω = {ωBi |Bi ⇒ A}.
22
Определение 7. Множество всех ЭС для данного опыта назовем пространством элементарных событий (ПЭС).
Описание ПЭС − один из этапов решения.
На языке случайных событий: для опыта, приведенного в примере 1, ПЭС состоит из шести ЭС Bi − «выпадение на кубике i очков».
На языке теории множеств: ПЭС Ω = {ωBi , 1 ≤ i ≤ 6} = D ,
Aω = {ωB2 , ωB4 , ωB6 }, C = ∅
23
Геометрическая интерпретация ПЭС.
Пример 2. (Задача о встрече двоих.) Двое уговорились встретиться на следующих условиях: каждый появляется на месте встречи
в произвольный момент времени от 13 до 14 часов, ожидает другого
не более 10 минут, затем уходит. Построить пространство элементарных событий (ПЭС).
24
Геометрическая интерпретация ПЭС.
Пример 2. (Задача о встрече двоих.) Двое уговорились встретиться на следующих условиях: каждый появляется на месте встречи
в произвольный момент времени от 13 до 14 часов, ожидает другого
не более 10 минут, затем уходит. Построить пространство элементарных событий (ПЭС).
Решение. В качестве исхода будем фиксировать моменты прихода
участников на место встречи. Получаем множество упорядоченных
пар чисел (t1, t2) = ω, каждое из которых принимает любое значение
из отрезка [13; 14]. Для простоты можно отсчитывать время в минутах
от 13 часов. Если рассматривать пару чмсел (t1, t2) как координаты
точки на плоскости, то геометрическим образом ПЭС Ω будет квадрат (см. рис. 2).
25
t2 6
60
¡A ¡
¡
A
¡A A A¡
¡A ¡¡
A A¡
¡A A A¡
¡A ¡A A¡
¡A ¡
A A¡
¡A A A¡
10 ¡A¡AA¡¡AA¡A¡
A
¡A ¡
¡ A¡
-
A¡A
60 t1
10
Рис. 2: К задаче "о встрече двоих".
26
Теперь построим событие А − «двое встретились». Условие встречи:
|t1 − t2| ≤ 10. Раскрывая модуль, получим совокупность двух систем
½
½
t1 − t2 ≥ 0
t1 − t2 < 0
или
t1 − t2 ≤ 10
t1 − t2 ≤ 10,
задающих области (полосы) на плоскости, стыкующиеся по прямой
t1 = t2. В итоге получим шестиугольную «полоску» вдоль диагонали
квадрата (на рис.2 заштрихованная область).
27
1.3. Алгебра событий
Язык случайных событий (традиционный язык теории вероятностей)
Язык теории множеств (СС интерпретируется, как подмножество
множества ЭС Ω.)
28
Язык случайных событий (традиционный язык теории вероятностей)
Язык теории множеств (СС интерпретируется, как подмножество
множества ЭС Ω.)
Язык логики высказываний.
Определение 8. Высказывание− есть предложение русского языка,
относительно которого можно утверждать истинно оно или ложно.
Логические операции: из двух высказываний A и B можно сконструировать другие, если соединить их логическими связками− союзами «и», «или». Можно также получить отрицание высказывания A,
присоединив к нему частицу «не».
29
Язык теории вероятностей Язык теории множеств
Язык логики
СС A следствие B
B⊆A
если B – истинно,
B⇒A
то A – истинно
Если СС C происходит
тогда и только тогда, когда
C =A∪B
C =A∨B
происходит одно из СС
C – «A или B»
A или B, то C = A + B
Если СС C происходит
тогда и только тогда, когда
C =A∩B
C =A∧B
происходят оба СС
C – «A и B»
A и B, то C = A · B
Если СС B происходит
тогда и только тогда, когда
B =Ω\A=A
B=A
не происходит СС A, то B −
B – «не A»
СС, противоположное A
30
Свойства операций на множестве СС дублируют известные свойства операций теории множеств:
1) A + (B + C) = (A + B) + C = A + B + C;
2) A(BC) = (AB)C = ABC;
3) A(B + C) = AB + AC; (A + B)C = AC + BC;
4) A + B = A · B; AB = A + B;
5) A + Ω = Ω; A · Ω = A, Ω− достоверное событие;
6) A + ∅ = A; A · ∅ = ∅, ∅− невозможное событие;
7) B + B = Ω; 8) A · B + A · B = A; 9) A + A = A · A = A и т.д.
Замечание. Заметим, что если C = A + B, то это значит, что происходит хотя бы одно из событий A или B. Понятно, что высказывание C− «происходит хотя бы одно из событий A1, A2, . . . , An»
означает, что C = A1 + A2 + . . . + An. Понятие несовместности пары
событий A и B в алгебре СС можно выразить так A · B = ∅ (произведение A и B− невозможное СС).
31
Определение 9. Все СС, которые не являются элементарными, будем
называть сложными событиями.
Определение 10. Группа СС A1, A2, . . . , An называется полной, если
A1 + A2 + . . . + An = Ω.
Теорема 1.2. Множество всех элементарных событий ω1, ω2, . . .
для данного опыта образуют полную группу попарно несовместных событий, причем каждое СС A, происходящее в данном опыте, есть сумма соответствующего набора элементарных событий.
32
1.4. Вероятность
Этапы построения математической модели эксперимента со случайным исходом:
1) построение ПЭС;
2) построение алгебры случайных событий;
3) введение числовой меры; возможности наступления случайного
события — вероятности.
Из опыта известно, что разные СС характеризуются разной частотой появления. Но частота появления− числовая характеристика
СС.
33
Классическая модель
|Ω| = n. Все элементарные события {ω1, ω2, . . . , ωn} равновозможны
По теореме 1.2, любое событие из рассматриваемой алгебры событий представимо в виде суммы ЭС. Тогда для СС A = ω1 + . . . + ωm
для m штук ЭС (т.е. |A| = m)
34
|Ω| = n. Все элементарные события {ω1, ω2, . . . , ωn} равновозможны
По теореме 1.2, любое событие из рассматриваемой алгебры событий представимо в виде суммы ЭС. Тогда для СС A = ω1 + . . . + ωm
для m штук ЭС (т.е. |A| = m)
Определение 11. Функция на случайных событиях p(A), определенная равенством (1) называется классической вероятностью, если
ПЭС Ω состоит из n равновозможных исходов, а СС A благоприятствуют
m ЭС.
|A| m
= .
(1)
|Ω|
n
Другими словами, вероятность события A есть отношение числа исходов, благоприятствующих событию A, к общему числу возможных
исходов опыта.
p(A) =
35
|A| m
= .
(1)
|Ω|
n
Пример . В опыте два раза подбрасывается монета. Найти вероятность того, что герб выпадет хотя бы один раз.
p(A) =
36
|A| m
= .
(1)
|Ω|
n
Пример . В опыте два раза подбрасывается монета. Найти вероятность того, что герб выпадет хотя бы один раз.
Решение. Построение математической модели.
ПЭС Ω — набор СС:
ω1− «герб выпал 1 раз»,
ω2− «герб выпал 2 раза»,
ω3− «герб не выпал ни разу».
Пречисленные три СС образуют полную группу попарно несовместных событий и наблидаемое в опыте событие A− «герб выпал
хотя бы один раз» записывается в алгебре этих ЭС: A = ω1 + ω2.
Можно ли считать построенную модель классической и применить
формулу (1)?
p(A) =
37
|A| m
= .
(1)
|Ω|
n
Пример . В опыте два раза подбрасывается монета. Найти вероятность того, что герб выпадет хотя бы один раз.
Решение. Построение математической модели.
ПЭС Ω — набор СС:
ω1− «герб выпал 1 раз»,
ω2− «герб выпал 2 раза»,
ω3− «герб не выпал ни разу».
Можно ли считать построенную модель классической и применить
формулу (1)?
Комбинация «герб, герб» выпадает одним способом, а СС «герб
выпал 1 раз» — двумя способами: «герб, решетка» и «решетка,
герб». Но тогда ЭС ω1 и ω2 не равновозможны. Построенная мат.
модель не является классической и формула (1) не применима.
p(A) =
38
|A| m
= .
(1)
|Ω|
n
Пример 3. В опыте два раза подбрасывается монета. Найти вероятность того, что герб выпадет хотя бы один раз.
Решение. Построение математической модели.
Построим другое ПЭС Ω0:
ω10 − «при 1-м бросании выпал герб, при втором− решетка (имеем
упорядоченную пару (Г,Р))»,
ω20 − «(Р,Г)»,
ω30 − «(Г,Г)»,
ω40 − «(Р,Р)».
Эти ЭС равновозможны, мат. модель является классической.
|Ω0| = 4, A = ω10 + ω20 + ω30 , |A| = 3. По (1), получим
p(A) =
p(A) =
|A| 3
= .
|Ω| 4
39
Геометрическая модель
Если ПЭС Ω бесконечно и каждому ЭС ωx сопоставляется число x
(или упорядоченная пара чисел (x, y), или тройка (x, y, z)), такое, что
ωx ∈ Ω ⇔ x ∈ [a, b] или
ω(x,y) ∈ Ω ⇔ (x, y) ∈ GΩ или
ω(x,y,z) ∈ Ω ⇔ (x, y, z) ∈ ΣΩ
GΩ − множество точек на плоскости, ΣΩ− в пространстве, то мы
имеем геометрическую модель опыта.
40
Геометрическая модель
Если ПЭС Ω бесконечно и каждому ЭС ωx сопоставляется число x
(или упорядоченная пара чисел (x, y), или тройка (x, y, z)), такое, что
ωx ∈ Ω ⇔ x ∈ [a, b] или
ω(x,y) ∈ Ω ⇔ (x, y) ∈ GΩ или
ω(x,y,z) ∈ Ω ⇔ (x, y, z) ∈ ΣΩ
GΩ − множество точек на плоскости, ΣΩ− в пространстве, то мы
имеем геометрическую модель опыта.
Введем для множеств на прямой, на плоскости и в пространстве
числовую функцию µ(A)− мера множества A:
1) если A− отрезок [a, b], то µ([a, b])− его длина: µ([a, b]) = b − a;
2) если A− ограниченная область G на плоскости, то µ(G)− площадь области: µ(G) = SG;
3) если A− ограниченная область Σ в прострнстве, то µ(Σ)− объем
трехмерной области: µ(Σ) = VΣ.
41
Определение 12. Если ЭС опыта равновозможны и мы имеем геометрическую модель опыта, то
p(A) =
µ(A)
µ(Ω)
называется геометрической вероятностью СС A.
Пример 4.(Задача о встрече двоих.) Двое уговорились встретиться на следующих условиях: каждый появляется на месте встречи
в произвольный момент времени от 13 до 14 часов, ожидает другого
не более 10 минут, затем уходит. Найти вероятность того, что двое
встретятся.
42
Пример 4.(Задача о встрече двоих.) Двое уговорились встретиться на следующих условиях: каждый появляется на месте встречи
в произвольный момент времени от 13 до 14 часов, ожидает другого
не более 10 минут, затем уходит. Найти вероятность того, что двое
встретятся.
Решение. ПЭС для данного опыта уже построено. Мы находимся
в условиях геометрической модели, поэтому
p(A) =
S(A) 60 · 60 − 50 · 50 1
=
=
S(Ω)
60 · 60
4
см. рис.2.
43
С геометрическим определением вероятности связана одна известная задача− парадокс Бертрана.
Пример . (Парадокс Бертрана) Для некоторой окружности случайным образом выбирается хорда. Найти вероятность того, что хорда длиннее стороны правильного треугольника, вписанного в данную
окружность.
44
С геометрическим определением вероятности связана одна известная задача− парадокс Бертрана.
Пример . (Парадокс Бертрана) Для некоторой окружности случайным образом выбирается хорда. Найти вероятность того, что хорда длиннее стороны правильного треугольника, вписанного в данную
окружность (СС A).
Решение.
Первый способ. Возьмем произвольную точку внутри круга. Проведем хорду, серединой которой эта точка является.
45
46
A
..........................................
..........
.
......
.
© ...........
.
.
©
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
...
....© .........
...
...
.....
.... ©...©
...
.
...
.
...
..
.... © ....
©
.Q
... Q ...
....u
..
.
.
...
.
..
...
... Q.........
.
.
.
.
.
...
Q.........................
..
....
..
Q
...
.....
.
.
.
.
Q ........
.......
............
.........
.........................Q
ω
Способ 1
ω
2π
u
ωO
u
..............................
.............
........
.......
....
.
.
.
...
!u........
!
.. ..
!
...
...
...
!!
..
...
.... !!
..
...!
...
...
.
.
...
..
...
..
...
..
.
....
.
...
.....
.....
.........
................. .........................
.......
..............................
.............
........
.......
.....
.
.
.
....
...
...
.. ..
...
...
...
...
...
...
..
u
...
...
...
.
.
...
..
...
..
...
..
.
....
.
...
.....
.....
.........
................. .........................
.......
Способ 2
Способ 3
ω
A
A
Рис. 3: К примеру 1
47
A
ω
O
Пример . (Парадокс Бертрана) Для некоторой окружности случайным образом выбирается хорда. Найти вероятность того, что хорда длиннее стороны правильного треугольника, вписанного в данную
окружность (СС A).
Решение.
Первый способ. Возьмем произвольную точку внутри круга. Проведем хорду, серединой которой эта точка является.
Построение мат. модели.
ЭС− «точка ω на плоскости внутри круга радиуса R.»
ПЭС Ω− множество всех точек круга.
Описание СС A — «хорда длиннее стороны правильного треугольника, вписанного в данную окружность.».
ω ∈ A тогда и только тогда, когда ω лежит внутри круга, вписанного
в треугольник (см. рис.4). Радиус этого круга равен R/2.
48
u
...................................
....
............
......
.
.
.
© ...........
©
....
...
.
.
.......................
...
.....©
..
....
©
...
..
.....
...
.... ©.....
...
.
©
..
...
.©
.
.Q
.
.
...
.
..
... Q .....
...u
..
.
.
.
... Q....
.
.
.
.
.
.......
...
.
Q
.........................
...
...
....
Q
...
.
.
.....
.
Q ..........
........
..............
.........
....................Q
ω
u
.........................................
..........
......
......
.u
.
....
.
.
...
!
...
!
.
...
.
!
...
...
!
..
!
...
...
!
...
.
....!!
...
...
.
..
...
.
.
...
..
...
...
....
.
.
.
.
.....
....
........
........
..............
............................
.........................................
..........
......
......
....
.
.
.
....
...
...
....
...
...
...
...
...
.
....
u
...
...
.
..
...
.
.
...
..
...
...
....
.
.
.
.
.....
....
........
........
..............
............................
Способ 2
Способ 3
ω
A
Способ 1
Рис. 4: К примеру 1
Вычисление вероятности.
SA
πR2
1
p(A) =
=
=
.
SΩ 4πR2 4
49
A
ω
O
Второй способ. Изменим способ выбора хорды. За один из концов
хорды примем фиксированную точку окружности. Тогда случайно берется вторая точка и каждому ЭС однозначно соответствует точка
ω (второй конец хорды) на окружности. Таким образом, в качестве
ПЭС формирется множество Ω− все точки окружности. Геометрическая модель в данном случае одномерная, а Ω− есть отрезок длиной lΩ = 2πR (см. рис.4). Опишем СС A. «Критическое» положение хорды, когда ее длина равна стороне правильного треугольника,
получим, если случайная точка делит окружность в отношении 1:3.
Таких точек на окружности две. СС A соответствует отрезок между
указанными точками длиной lA = 2πR
3 . Геометрическую вероятность
находим как отношение длин соответствующих отрезков:
p(A) =
lA
1
2πR
=
= .
lΩ 3 · 2πR 3
50
Третий способ. Теперь проведем произвольный радиус и выберем на
нем наудачу точку. Хорду проведем перпендикулярно радиусу через
эту точку. В этом эксперименте каждой выбранной хорде однозначно соответствует точка ω на отрезке Ω длины R (см. рис.4). Причем,
длина хорды равна длине стороны треугольника, если ω = R2 , а ω ∈ A
тогда и только тогда, когда 0 ≤ ω ≤ R2 (0− центр окружности). Составляем отношение длин отрезков и получаем
p(A) =
lA
1
R
=
= .
lΩ 2R 2
51
Аксиоматическое определение вероятности
Определение 13. Пусть проводится некоторый эксперимент, которому соотвествует
ПЭС Ω . Рассмотрим возникающую алгебру случайных событий, т.е. множество СС
A с определенными на нем операциями. Пусть на множестве событий A определена
функция p(A), A ∈ A, обладающая следующими свойствами:
1. p(A) ≥ 0, ∀A ∈ A;
2. p(Ω) = 1;
3. если A1 , A2 , . . . , Ai , . . . − последовательность попарно несовместных событий
Ai ,тогда
а) p(A1 + A2 + . . . + An ) = p(A1 ) + p(A2 ) + . . . + p(An ), если последовательность
СС конечна;
∞
∞
P
P
б) p( Ai ) =
p(Ai ), причем в правой части сходящийся ряд.
i=1
i=1
Тогда такая функция p называется вероятностью. Для события A величина p(A)
называется вероятностью события A. Тройка < Ω, A, p > называется вероятностным пространством.
52
Перечислим некоторые следствия определения.
Свойства вероятности.
1. Если A и B несовместны (A · B = ∅), то p(A + B) = p(A) + p(B);
2. p(A) = 1 − p(A), в частности p(∅) = 0;
3. Если СС A влечет СС B ( A ⇒ B), то p(A) ≤ p(B).
4. Для любого СС A 0 ≤ p(A) ≤ 1.
53
Перечислим некоторые следствия определения.
Свойства вероятности.
1. Если A и B несовместны (A · B = ∅), то p(A + B) = p(A) + p(B);
2. p(A) = 1 − p(A), в частности p(∅) = 0;
3. Если СС A влечет СС B ( A ⇒ B), то p(A) ≤ p(B).
4. Для любого СС A 0 ≤ p(A) ≤ 1.
Доказательство.
1) — частный случай акс. аддитивности 3).
2) получим из акс. 3) и 2):
A · A = ∅, A + A = Ω ⇒ p(A + A) = p(A) + p(A) = p(Ω) = 1
54
Перечислим некоторые следствия определения.
Свойства вероятности.
1. Если A и B несовместны (A · B = ∅), то p(A + B) = p(A) + p(B);
2. p(A) = 1 − p(A), в частности p(∅) = 0;
3. Если СС A влечет СС B ( A ⇒ B), то p(A) ≤ p(B).
4. Для любого СС A 0 ≤ p(A) ≤ 1.
Доказательство.
1) — частный случай акс. аддитивности 3).
2) получим из акс. 3) и 2):
A · A = ∅, A + A = Ω ⇒ p(A + A) = p(A) + p(A) = p(Ω) = 1
3) получим из акс. 3) и 1):
A ⊂ B(A ⇒ B) ⇒ AB = A
B = BΩ = B(A + A) = BA + BA = A + BA и A(BA) = ∅ ⇒
p(B) = p(A + BA) = p(A) + p(BA), p(BA) ≥ 0 ⇒ p(B) ≥ p(A).
55
3) получим из акс. 3) и 1):
A ⊂ B(A ⇒ B) ⇒ AB = A
B = BΩ = B(A + A) = BA + BA = A + BA и A(BA) = ∅ ⇒
p(B) = p(A + BA) = p(A) + p(BA), p(BA) ≥ 0 ⇒ p(B) ≥ p(A).
4) — следствие доказанного свойства 3) и акс. 2)
56
Создание математической модели < Ω, A, p >:
1) Описать ПЭС Ω
2) на полученном ПЭС Ω определить вероятность ЭС ω в соответствии с условиями опыта;
например, если |Ω| = n и ЭС ω равновозможны, то мы находимся в условиях
классической модели; если |Ω| бесконечно и Ω можно сопоставить область (одномерную, двумерную или трехмерную), то применяем геометрическую модель (есть
и другие виды вероятностных пространств, некоторые из которых рассмотрим позже);
3) в алгебре событий A сформировать СС, вероятность которого
нужно вычислить.
57
Пример . Из группы в 15 студентов, среди которых четверо отличников, наугад для тестирования выбирают 7 человек. Какова вероятность, что среди отобранных студентов не более двух отличников?
Решение. 1) Описание ПЭС: Исход данного опыта − набор из семи человек: неупор. выборка из 15 по 7 элементов без повторений.
2) Задание вероятности.
В силу случайности выбора, все ЭС равновозможны. Значит мы
находимся в условиях классической модели.
7
|Ω| = C15
.
3) Описание СС A — среди отобранных студентов не более двух
отличников.
СС A − «в выборке из 7-ми человек отличников или нет, или один
отличник, или два отличника :»
58
Пример . Из группы в 15 студентов, среди которых четверо отличников, наугад для тестирования выбирают 7 человек. Какова вероятность, что среди отобранных студентов не более двух отличников?
7
Решение. 2) Классическая модель. |Ω| = C15
.
3) Описание СС A — среди отобранных студентов не более двух
отличников.
СС A − «в выборке из 7-ми человек отличников или нет, или один
отличник, или два отличника :»
Применим правило произведения (см. теорему 1.1): число всех воз6
можных семерок, содержащих ровно одного отличника равно C41C11
.
5
Число семерок, содержащих ровно двух отличников: C42C11
,
7
число семерок без отличников C11
.
По определению классической вероятности, имеем:
6
5
7
|A| C41C11
+ C42C11
+ C11
p(A) =
=
=
7
|Ω|
C15
59
4·11!
6!5!
4!11!
11!
+ 2!2!5!6!
+ 7!4!
15!
7!8!
=
10
≈ 0, 77.
13
2. Вычисление вероятности сложных событий
Математическая модель (т.е. вероятностное пространство
< Ω, A, p >) уже построена. Тогда решение задачи заключается в выражении «сложного» СС A через «простые» CC A1, A2, . . . , An в алгебре событий A. Разумеется , что при вычислении вероятности p(A)
понадобятся теоремы о вероятности суммы и произведения событий.
60
2.1. Теоремы о вероятности суммы и произведения
событий
Теорема 2.1 (о вероятности суммы событий). Для любых событий A и B имеет место равенство
p(A + B) = p(A) + p(B) − p(AB).
Доказательство.
A + B = AB + BA + AB
слагаемые попарно несовместны, тогда по акс. 3)
p(A + B) = p(AB) + p(BA) + p(AB) ± p(AB) =
= (p(AB) + p(AB)) + (p(BA) + p(AB)) − p(AB) = p(A) + p(B) − p(AB)
Теорема доказана.
61
Следствие. Методом математической индукции можно получить
теорему сложения для трех и более слагаемых:
1) p(A+B+C) = p(A)+p(B)+p(C)−p(AB)−p(AC)−p(BC)+p(ABC);
2) p(A1+A2+. . .+An) =
n
X
i=1
p(Ai)−
n
X
p(AiAj )+
i<j
+ (−1)n+1p(A1A2 . . . An)
62
n
X
p(AiAj Ak )+. . . +
i<j<k
(2)
Следствие. Методом математической индукции можно получить
теорему сложения для трех и более слагаемых:
1) p(A+B+C) = p(A)+p(B)+p(C)−p(AB)−p(AC)−p(BC)+p(ABC);
n
n
n
X
X
X
2) p(A1+A2+. . .+An) =
p(Ai)−
p(AiAj )+
p(AiAj Ak )+. . . +
i=1
i<j
i<j<k
+ (−1)n+1p(A1A2 . . . An)
(2)
Во второй формуле суммирование ведется по всем различным наборам из множества СС {A1, A2, . . . , An}: сначала по одному элеменn
P
P
ту (в сумме p(Ai)), затем по два элемента (в сумме p(AiAj )), заi=1
тем по три (в сумме
n
P
i<j
p(AiAj Ak )) и т.д., при этом наборы СС Ai
i<j<k
различаются по составу , но не по порядку. Следовательно, эти наборы есть сочетания и количество слагаемых в первой сумме равно
Cn1 = n, во второй− Cn2, в третьей Cn3 и т.д.
63
Напомним, что если СС A1, A2, . . . , An попарно несовместны, т.е.
n
P
AiAj = ∅, i 6= j, то p(A1 +A2 +. . .+An) =
p(Ai) в силу определения
i=1
вероятности (см. стр.52).
64
Определение 14. Вероятностью события A при условии наступления
события B (условной вероятностью СС A) называется величина
p(A|B) =
65
p(AB)
.
p(B)
Определение 14. Вероятностью события A при условии наступления
события B (условной вероятностью СС A) называется величина
p(AB)
.
p(B)
Следствием определения является следующая теорема.
p(A|B) =
Теорема 2.2 (о вероятности произведения событий). Для
бых событий A и B имеет место равенство
лю-
p(AB) = p(A) · p(B|A).
Следствие 1. Методом математической индукции можно получить
теорему умножения для трех и более сомножителей:
p(ABC) = p(A) · p(B|A) · p(C|AB), . . .
p(A1A2 · . . . · An) = p(A1)p(A2|A1) · . . . · p(An|A1A2 . . . An−1).
66
(3)
Определение 15. События A и B называются независимыми, если
p(A|B) = p(A).
Понятно, что для пары независимых СС A и B верно равенство
p(AB) = p(A)p(B).
67
Определение 15. События A и B называются независимыми, если
p(A|B) = p(A).
Понятно, что для пары независимых СС A и B верно равенство
p(AB) = p(A)p(B).
Определение 16. События A1, A2, . . . , An называются независимыми в совокупности, если для любого подмножества СС
{Ai1 , Ai2 , . . . , Aim } и для любого СС Aj
p(Aj |Ai1 Ai2 · . . . · Aim ) = p(Aj ).
Заметим, что из независимости в совокупности следует попарная
независимость группы событий. Обратное неверно. Из теоремы произведения получим следствие для независимых СС.
Следствие 2. Если события A1, A2, . . . , An независимы в совокупности, то
p(A1A2 · . . . · An) = p(A1)p(A2) · . . . · p(An).
68
Пример . Поражение боевого самолета может наступить или в результате повреждения обоих его двигателей (СС D1, D2), или в результате попадания в кабину пилота (СС K). При обстреле любое
попадание в соответствующий агрегат самолета приводит к его поражению. Найти вероятность СС A − поражение самолета, если известно, что p(D1) = p1, p(D2) = p2, p(K) = p3.
Решение. Воспользуемся разложением СС A : A = D1 · D2 + K.
Тогда по теореме сложения (см. теорему 2.1)
p(A) = p(D1 · D2) + p(K) − p(D1D2K).
Далее, поскольку поражение одного или нескольких агрегатов самолета никак не влияет на поражение других, СС D1, D2, K независимы
в совокупности. Воспользуемся теоремой умножения 2.2:
p(A) = p(D1)p(D2) + p(K) − p(D1)p(D2)p(K) = p1p2 + p3 − p1p2p3.
69
Следствие 3. Вероятность СС A : появления хотя бы одного СС Ai
из группы независимых в совокупности СС A1, A2, . . . , An равна
p(A) = 1 − p(A) = 1 − p(A1)p(A2) . . . p(An).
Доказательство. Воспользуемся свойствами операций
A = A1 + A2 + . . . + An = A1 · A2 . . . An
и независимостью СС A1, A2, . . . , An в совокупности
p(A) = p(A1)p(A2) . . . p(An)
70
Пример. Вероятность того, что при одном выстреле стрелок попадет
в цель 0,4. Сколько выстрелов требуется произвести, чтобы с вероятностью не менее, чем 0,9 стрелок попал в цель хотя бы один раз?
Решение. Пусть СС Ai — при i-ом выстреле стрелок попал в цель,
а СС A — стрелок попал в цель хотя бы один раз, сделав n выстрелов. Тогда
A = A1 + A2 + . . . + An ,
p(A) = 1 − p(A) = 1 − p(A1)p(A2) . . . p(An) = 1 − 0, 6n
lg 0, 1
= 4, 5
1 − 0, 6n ≥ 0, 9 ⇒ n ≥
lg 0, 6
Значит, по крайней мере 5 выстрелов.
71
2.2. Формулы полной вероятности и Байеса
Определение 17. Пусть H1, H2, . . . , Hn,− множество попарно несовместных событий
(HiHj = ∅, i 6= j), причем H1 + . . . + Hn = Ω. Тогда события
H1, . . . , Hn образуют полную группу событий и называются гипотезами.
Теорема 2.3 (формула полной вероятности). Пусть H1, H2, . . . , Hn−
полная группа событий (гипотез). Тогда
p(A) = p(H1) · p(A|H1) + . . . + p(Hn) · p(A|Hn).
Доказательство. СС A есть сумма попарно несовместных событий:
A = H1A + H2A + . . . + HnA
72
Теорема 2.3 (формула полной вероятности). Пусть H1, H2, . . . , Hn−
полная группа событий (гипотез). Тогда
p(A) = p(H1) · p(A|H1) + . . . + p(Hn) · p(A|Hn).
Доказательство. СС A есть сумма попарно несовместных событий:
A = H1A + H2A + . . . + HnA
поэтому по теореме сложения и умножения
(p(HiA) = p(Hi)p(A|Hi)) имеем
p(A) = p(H1A+H2A+. . .+HnA) = p(H1A)+p(H2A)+. . .+p(HnA) =
= p(H1) · p(A|H1) + . . . + p(Hn) · p(A|Hn).
73
74
Ω=
n
P
i=1
©
*
©©
©
:
»
©©
»»»
»
©
»
©
»»
»
©
X
HX
HXXXX
HH
XXX
z
H
HH
p(Hn )
HH
j
H1
p(H1 )
Опыт
Hi
p(A|H1 )
-
H2
-
...
-
Hn
-
p(A|Hn )
Рис. 5: Схема гипотез
75
A
Пример . Имеются три одинакового вида урны. Известно, что в первой 2 белых и 3 черных шара, во второй− 4 белых и 1 черный шар, в
третьей− 3 белых шара. Наудачу выбирается одна из этих урн. Какова вероятность достать из нее белый шар?
Решение. Интересующее нас СС A − «достать из урны белый
шар.»
Естественно сформулировать в качестве гипотез СС
Hi − «выбрана урна с номером i,» 1 ≤ i ≤ 3.
76
Пример . Имеются три одинакового вида урны.
в первой — 2 б 3 ч, во второй — 4 б 1 ч, в третьей — 3 б. Какова
вероятность достать белый шар?
Решение. СС A − «достать из урны белый шар.» гипотезы СС
Hi − «выбрана урна с номером i,» 1 ≤ i ≤ 3.
СС Hi во-первых попарно несовместны (HiHj = ∅), во-вторых образуют полную группу (т.е. Ω = H1 + H2 + H3). Выпишем все известные вероятности
i
1
2
3
P
p(Hi)
p(A|Hi)
1/3
2/5
1/3
4/5
1/3
1
P (Hi) = 1
77
Пример . Имеются три одинакового вида урны.
в первой — 2 б 3 ч, во второй — 4 б 1 ч, в третьей — 3 б. Какова
вероятность достать белый шар?
Решение. Выпишем все известные вероятности
i
1
2
3
P
p(Hi)
p(A|Hi)
1/3
2/5
1/3
4/5
1/3
1
P (Hi) = 1
Мы находимся в условиях формулы полной вероятности, следовательно
1 2 1 4 1
11
p(A) = · + · + · 1 = .
3 5 3 5 3
15
78
Теорема 2.4 (формула Байеса). В условиях теоремы о полной
вероятности имеет место равенство
p(Hi|A) =
p(Hi)p(A|Hi)
p(Hi)p(A|Hi)
=
.
p(A)
p(H1)p(A|H1) + . . . + p(Hn)p(A|Hn)
Формула Байеса позволяет «переоценить» вероятности гипотез по
результатам эксперимента. Вероятности p(Hi|A) называют апостериорными, поскольку они учитывают результаты опыта, в отличие
от априорных вероятностей гипотез p(Hi). Схема задачи остается
той же, меняется лишь вопрос: найти нужно p(Hi|A), если СС A уже
произошло
79
2.3. Схема Бернулли
Определение 18. Схемой Бернулли называют последовательность
из n независимых испытаний, в каждом из которых событие A происходит с вероятностью p или не происходит с вероятностью q = 1 − p.
При этом в каждой серии из n испытаний фиксируется число «успехов» − m, 0 ≤ m ≤ n, т.е. число появлений СС A.
80
Теорема 2.5 (формула Бернулли). Пусть вероятность наступления события A в каждом из n испытаний, проходящих
по схеме Бернулли, равна p. Тогда вероятность того, что в
серии из n испытаний событие A наступит ровно m раз равна
pn(m) = Cnmpmq n−m, где q = 1 − p.
(4)
Доказательство. Пусть СС B — «в серии из n испытаний событие
A наступит ровно m раз,» а СС Ai — «в i-ом испытании наступит СС
A.» Тогда для n = 3, m = 2
B = A1A2A3 + A1A2A3 + A1A2A3,
p(B) = p(A1A2A3) + p(A1A2A3) + p(A1A2A3) = 3 · p2q
в силу несовместности слагаемых и независимости сомножителей. А
количество слагаемых равно Cnm.
81
Следствие. Наиболее вероятное число «успехов» (M ) в серии из
n независимых испытаний, удовлетворяет неравенству
np − q ≤ M < np + p, где p − вероятность «успеха», q = 1 − p.
Пример 1. Пара одинаковых игральных костей бросается 7 раз.
Какова вероятность СС C − «сумма очков, равная 7 выпадет дважды»
82
Пример 1. Пара одинаковых игральных костей бросается 7 раз. Какова вероятность СС C − «сумма очков, равная 7 выпадет дважды»
Решение. Производится серия из n = 7 независимых испытаний. В каждом фиксируется появление СС A −«сумма выпавших очков равна 7»(это «успех»). Вычислим вероятность СС A − «сумма
выпавших очков равна 7 при одном бросании двух костей.» Сделаем это по классической формуле. ЭС − упорядоченная пара чисел
(a1, a2), 1 ≤ ai ≤ 6, − из числа очков на первом и втором кубиках.
Тогда (см. таблицу на стр. 12) |Ω| = 62 = 36. Теперь отметим пары, дающие в сумме 7: (1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3), т.е. |A| = 6.
Поэтому
|A|
6
1
5
p(A) =
=
= = p, q = 1 − p = .
|Ω| 36 6
6
83
Пример 1. Пара одинаковых игральных костей бросается 7 раз. Какова вероятность СС C − «сумма очков, равная 7 выпадет дважды»
Решение. Производится серия из n = 7 независимых испытаний.
В каждом фиксируется появление СС A −«сумма выпавших очков
равна 7»(это «успех»).
p(A) =
|A|
6
1
5
=
= = p, q = 1 − p = .
|Ω| 36 6
6
Теперь можно воспользоваться формулой Бернулли:
p(C) = p7(2) =
C72p2q 5
1 55
= 42 · 2 · 5 ≈ 0, 234.
6 6
84
Асимптотические приближения формулы Бернулли
Вычисления по формуле (4) вызывают определенные сложности
при больших значениях n. В таких случаях обычно применяются так
называемые асимптотические формулы.
Теорема 2.6 (локальная теорема Муавра-Лапласа). Пусть производится серия из n независимых испытаний, в каждом из которых вероятность p появления СС A не близка к 0 или 1. Тогда
при больших n вероятность pn(m) того, что в серии из n испытаний событие A наступит ровно m раз может быть вычислена по приближенной формуле
µ
¶
1
m − pn
pn(m) ≈ √
ϕ √
,
(5)
npq
npq
2
где q = 1 − p, ϕ(x) = √1 e−x /2, причем с ростом n (при посто2π
янном p) эта оценка становится все более точной.
85
«Большие» n для нас будет означать, что n ≥ 100. Есть еще один
тип условий на n и p : n > 25, npq > 10.
Теорема 2.7 (интегральная теорема Лапласа). В условиях теоремы 2.6 при больших n вероятность того, что в серии из n
испытаний событие A наступит не менее k1 раз, но не более k2
раз можно вычислить по приближенной формуле
µ
¶
µ
¶
k1 − pn
k2 − pn
−Φ √
,
(6)
pn(k1, k2) ≈ Φ √
npq
npq
Rx
где q = 1 − p, Φ(x) = ϕ(t) dt, причем с ростом n (при постоян0
ном p) эта оценка становится все более точной.
Следствием интегральной теоремы Лапласа является асимптотическая оценка отклонения вероятности p СС A от относительной частоты СС A − m/n, где n − число независимых испытаний, m − число появлений СС A.
86
Теорема 2.8 (закон больших чисел для схемы Бернулли). В
условиях интегральной теоремы Лапласа имеет место приближенное равенство
µ r ¶
n
m
.
(7)
p(| − p| < ε) ≈ 2Φ ε
n
pq
Функции ϕ и Φ табулированы.
Теорема 2.9 (Пуассона). Обозначим через pn,λ(m) вероятность
того, что «успех» наступит ровно m раз в серии из n испытаний, проводимых по схеме Бернулли, причем в каждом из испыλ . Тогда для любого не матаний вероятность «успеха» равна n
лого положительного числа λ и достаточно большого n справедлива формула Пуассона
λm −λ
·e .
pn,λ(m) ≈
m!
87
(8)
Случаи применения различных теорем для схемы Бернулли сведены
в таблицу.
Асимптотические приближения формулы Бернулли
теоремы
n
p
n, npq
Локальная теорема
n ≥ 100 p ≈ 1/2 n > 25, npq > 10
µ Муавра-Лапласа
¶
m − pn
pn (m) ≈ √ 1 ϕ √
npq
npq
Интегральнаяµ
теорема Лапласа
¶
µ
¶ n ≥ 100 p ≈ 1/2 n > 25, npq > 10
k2 − pn
k1 − pn
pn (k1 , k2 ) ≈ Φ √
−Φ √
npq
npq
Формула Пуассона
n ≥ 100 p = nλ
npq < 10
m
λ
Pn,λ (m) ≈
· e−λ
p < 0, 1 λ = pn – не мало
m!
88
Пример. В лотарее разыгрывается в среднем один выигрыш на 1000
номеров. Какова вероятность, имея 100 билетов, получить не менее
двух выигрышей?
Решение. Итак, мы находимся в условиях схемы Бернулли для
n = 100, p = 0, 001. Нужно вычислить вероятность p100(m ≥ 2).
89
Пример. В лотарее разыгрывается в среднем один выигрыш на 1000
номеров. Какова вероятность, имея 100 билетов, получить не менее
двух выигрышей?
Решение. Итак, мы находимся в условиях схемы Бернулли для
n = 100, p = 0, 001. Нужно вычислить вероятность p100(m ≥ 2).
Значения n, p подходят для применения формулы Пуассона (см. таблицу на стр.88 ). Применим противоположное СС и формулу Пуассона λ = np = 0, 1:
p100(m ≥ 2) = 1−p100(0)−p100(1) ≈ 1−e−λ−λe−λ = 1−1, 1·e−0,1 = 0, 00468.
90
Пример . На контроль поступила партия деталей из цеха. Известно,
что 5 процентов всех деталей не удовлетворяет стандарту. 1) Сколько нужно испытать деталей, чтобы с вероятностью не менее 0,95 обнаружить хотя бы одну нестандартную деталь? 2) Найти наиболее
вероятное число бракованных деталей среди ста проверенных и значение этой максимальной вероятности.
Решение. 1). Испытания независимы, т.е. проходят по схеме Бернулли, p = 0, 05. Количество испытаний обозначим n.
91
Пример . На контроль поступила партия деталей из цеха. Известно,
что 5 процентов всех деталей не удовлетворяет стандарту. 1) Сколько нужно испытать деталей, чтобы с вероятностью не менее 0,95 обнаружить хотя бы одну нестандартную деталь? 2) Найти наиболее
вероятное число бракованных деталей среди ста проверенных и значение этой максимальной вероятности.
Решение. 1). Испытания независимы, т.е. проходят по схеме Бернулли, p = 0, 05. Количество испытаний обозначим n.
СС B − «хотя бы в одном из n испытаний обнаружен брак» имеет
вероятность не менее 0,95. Эту вероятность удобнее выразить через
вероятность противоположного СС B :
p(B) = 1 − p(B) = 1 − pn(0) = 1 − (1 − p)n = 1 − 0, 95n ≥ 0, 95.
Решая неравенство, находим n (логарифмированием или подбором):
n ≥ 59.
92
Пример . 2) Найти наиболее вероятное число бракованных деталей
среди ста проверенных и значение этой максимальной вероятности.
Решение. 1). СС B − «хотя бы в одном из n испытаний обнаружен
брак» имеет вероятность не менее 0,95. Эту вероятность удобнее выразить через вероятность противоположного СС B :
p(B) = 1 − p(B) = 1 − pn(0) = 1 − (1 − p)n = 1 − 0, 95n ≥ 0, 95.
Решая неравенство, находим n (логарифмированием или подбором):
n ≥ 59.
2). Воспользуемся следствием из теоремы Бернулли 2.5 для
p = 0, 05, q = 0, 95, n = 100 :
100 · 0, 05 − 0, 95 ≤ M < 100 · 0, 05 + 0, 05 ⇒ M = 5.
Вычислим эту наибольшую вероятность:
5
p100(5) = C100
· (0, 05)5 · (0, 95)95 ≈ 0, 181.
Задача решена.
93
3. Случайные величины
94
3.1. Законы распределения ДСВ и НСВ
Определение 19. Пусть имеется вероятностное пространство
< Ω, A, p >. Тогда числовая функция ξ(ω), действующая из ПЭС Ω в
Rn, называется n-мерной случайной величиной (СВ).
Определение 20. Если множество значений СВ конечно или счетно, то
случайная величина называется дискретной (ДСВ). Если множество
значений СВ есть конечный или бесконечный интервал, то СВ называется непрерывной (НСВ).
95
Определение 21. Пусть имеется вероятностное пространство
< Ω, A, p >. Тогда числовая функция ξ(ω), действующая из ПЭС Ω в
Rn, называется n-мерной случайной величиной (СВ).
Определение 22. Если множество значений СВ конечно или счетно, то
случайная величина называется дискретной (ДСВ). Если множество
значений СВ есть конечный или бесконечный интервал, то СВ называется непрерывной (НСВ).
Законы распределения ДСВ
Пусть ξ(ω)− одномерная ДСВ и X = {x1, x2, . . .}− множество ее
значений (X называют также множеством возможных значений). Тогда можно вычислить вероятность каждого из значений xi:
X
X
p(ξ = xi) = p(
ωij |ξ(ωij ) = xi) =
p(ωij ).
j
j
96
Законы распределения ДСВ
Пусть ξ(ω)− одномерная ДСВ и X = {x1, x2, . . .}− множество ее
значений (X называют также множеством возможных значений). Тогда можно вычислить вероятность каждого из значений xi:
X
X
p(ξ = xi) = p(
ωij |ξ(ωij ) = xi) =
p(ωij ).
j
j
СС «ξ = xi» происходит тогда и только тогда, когда происходит одно
из ЭС ωij .
Поскольку все ЭС попарно несовместны, вероятность СС «ξ = xi»
равна сумме вероятностей p(ωij ).
В частности, СС− « ξ примет одно из возможных значений xi» является достоверным, т.е.
X
p(ωi) = 1.
ωi ∈Ω
Это условие называется условием нормировки.
97
В частности, СС− « ξ примет одно из возможных значений xi» является достоверным, т.е.
X
p(ωi) = 1.
ωi ∈Ω
Это условие называется условием нормировки.
Определение 23. Функция pξ (xi), xi ∈ X (X — множество возможных значений ξ) называется распределением вероятностей ДСВ ξ.
Как и всякая функция, она задается формулой, графически, но чаще
всего в виде таблицы, называемой рядом распределения ДСВ:
x1
x2
...
xm
... X
,
pi = 1.
p1 = p(ξ = x1) p2 = p(ξ = x2) . . . pm = p(ξ = xm) . . .
i
98
Определение 24. Функция pξ (xi), xi ∈ X (X — множество возможных значений ξ) называется распределением вероятностей ДСВ ξ.
Как и всякая функция, она задается формулой, графически, но чаще
всего в виде таблицы, называемой рядом распределения ДСВ:
x1
x2
...
xm
... X
,
pi = 1.
p1 = p(ξ = x1) p2 = p(ξ = x2) . . . pm = p(ξ = xm) . . .
i
Определение 25. Закон распределения СВ есть исчерпывающая (в
том смысле, что позволяет вычислить вероятность любого СС, связанного с данной СВ) функциональная характеристика СВ.
Распределение вероятностей pξ (x) одна из форм закона распределения СВ.
Другая форма закона распределения− функция распределения.
99
Определение 26. Закон распределения СВ есть исчерпывающая (в
том смысле, что позволяет вычислить вероятность любого СС, связанного с данной СВ) функциональная характеристика СВ.
Распределение вероятностей pξ (x) одна из форм закона распределения СВ.
Другая форма закона распределения− функция распределения.
Определение 27. Функцией распределения Fξ (x) случайной величины ξ называется действительная функция Fξ (x) = p(ξ < x)− вероятность попадания СВ ξ в интервал (−∞, x).
Для ДСВ, значения которой x1 < x2 < x3 < . . .,

0,




 p1 ,
X
Fξ (x) = p(ξ < x) =
p(ξ = xi ) ⇔ Fξ (x) =
p1 + p2 ,


xi <x

p + p2 + p3 ,

 1
...
100
x ≤ x1 ,
x 1 < x ≤ x2 ,
x 2 < x ≤ x3 ,
x 3 < x ≤ x4 ,
....
(9)
Определение 28. Математической моделью случайного явления,
характеризуемого СВ ξ, является пара (pξ (x), X), где X− множество
возможных значений, а pξ (x)− распределение вероятностей СВ ξ.
Пример. Стрелок ведет огонь по мишени до первого попадания
или до исчерпания боекомплекта, составляющего 4 патрона. Вероятность попадания при каждом выстреле равна 0,8. Найти закон распределения количества сделанных выстрелов.
Решение. Пусть ξ− количество сделанных выстрелов. Это ДСВ,
поскольку множество ее возможных значений X = {1, 2, 3, 4}.
101
Пример. Стрелок ведет огонь по мишени до первого попадания или
до исчерпания боекомплекта, составляющего 4 патрона. Вероятность попадания при каждом выстреле равна 0,8. Найти закон распределения количества сделанных выстрелов.
Решение. Пусть ξ− количество сделанных выстрелов. Это ДСВ,
поскольку множество ее возможных значений X = {1, 2, 3, 4}.
Найдем обе формы закона распределения СВ ξ : ряд распределения и функцию распределения.
Ряд распределения определяется распределением вероятностей
p(ξ = k), 1 ≤ k ≤ 4. Понятно, что p1 = p(ξ = 1) = 0, 8.
102
Решение. Пусть ξ− количество сделанных выстрелов. Это ДСВ, поскольку множество ее возможных значений X = {1, 2, 3, 4}.
Найдем обе формы закона распределения СВ ξ : ряд распределения и функцию распределения.
Ряд распределения определяется распределением вероятностей
p(ξ = k), 1 ≤ k ≤ 4. Понятно, что p1 = p(ξ = 1) = 0, 8.
Покажем теперь, как вычислить
pk = p(ξ = k) для k = 2, 3.
Пусть CC Ai− «при i-том выстреле мишень была поражена.»
Тогда событие ξ = 2 запишется так: A1 · A2, поэтому, так как события
A1 и A2, по условию, независимы, то
¡
¢
¡ ¢
p2 = p A1 · A2 = p A1 · p(A2) = 0, 2 · 0, 8 = 0, 16.
Аналогично
¡
¢
¡ ¢
p3 = p A1 · A2 · A3 = p A1 · p(A2) · p(A3) = 0, 22 · 0, 8 = 0, 032.
103
Если продолжать в том же духе, то получим
¡
¢
¡ ¢
p4 = p A1 · A2 · A3 · A4 = p A1 ·p(A2)·p(A3)·p(A4) = 0, 23·0, 8 = 0, 0064.
и условие нормировки p1 + p2 + p3 + p4 = 1 нарушается. Конечно здесь
не правильно вычислена вероятность p4. Действительно, ξ = 4 если
стрелок попал четвертым выстрелом либо промахнулся все 4 раза.
Но тогда
¡
¢
p4 = p A1 · A2 · A3 · A4 + A1 · A2 · A3 · A4 = 0, 0064 + 0, 24 = 0, 008.
Таким образом, ряд распределения СВ ξ:
ξ 1
2
3
4
pk 0, 8 0, 16 0, 032 0, 008
104
Найдем функцию распределения Fξ (x) по формуле (9):


0,
x ≤ 1,




 0, 8, 1 < x ≤ 2,
F (x) = 0, 96, 2 < x ≤ 3,



0, 992, 3 < x ≤ 4,


 1,
4 < x.
Можно было действовать и по определению. Например, тот факт, что
ξ < 3 означает, что ξ = 1 или ξ = 2, причем эти события несовместны,
поэтому вероятность события ξ < 3 равна
Fξ (3) = p(ξ < 3) = p(ξ = 1) + p(ξ = 2) = 0, 8 + 0, 16 = 0, 96.
Задача решена.
105
Определение 29. Функцией распределения Fξ (x) случайной величины ξ называется действительная функция Fξ (x) = p(ξ < x)− вероятность попадания СВ ξ в интервал (−∞, x).
Свойства функции распределения Fξ (x).
1. 0 ≤ Fξ (x) ≤ 1.
106
Определение 30. Функцией распределения Fξ (x) случайной величины ξ называется действительная функция Fξ (x) = p(ξ < x)− вероятность попадания СВ ξ в интервал (−∞, x).
Свойства функции распределения Fξ (x).
1. 0 ≤ Fξ (x) ≤ 1.
2. Если x1 < x2, то Fξ (x1) ≤ Fξ (x2), т.е. Fξ (x) неубывающая функция.
Доказательство. Заметим, что (−∞, x2) = (−∞, x1) ∪ [x1, x2), тогда для СС A − ”ξ < x1” , B − ”ξ < x2” , C − ”x1 ≤ ξ < x2” имеем
A = B + C и BC = ∅. По теореме сложения
p(A) = p(B) + p(C) ⇔ Fξ (x2) = Fξ (x1) + p(x1 ≤ ξ < x2) ⇒
Fξ (x2) ≥ Fξ (x1)
107
(10)
Определение 31. Функцией распределения Fξ (x) случайной величины ξ называется действительная функция Fξ (x) = p(ξ < x)− вероятность попадания СВ ξ в интервал (−∞, x).
Свойства функции распределения Fξ (x).
1. 0 ≤ Fξ (x) ≤ 1.
2. Если x1 < x2, то Fξ (x1) ≤ Fξ (x2), т.е. Fξ (x) неубывающая.
3. lim Fξ (x) = 0, lim Fξ (x) = 1.
x→−∞
x→+∞
108
Определение 32. Функцией распределения Fξ (x) случайной величины ξ называется действительная функция Fξ (x) = p(ξ < x)− вероятность попадания СВ ξ в интервал (−∞, x).
Свойства функции распределения Fξ (x).
1. 0 ≤ Fξ (x) ≤ 1.
2. Если x1 < x2, то Fξ (x1) ≤ Fξ (x2), т.е. Fξ (x) неубывающая функция.
3. lim Fξ (x) = 0, lim Fξ (x) = 1.
x→−∞
x→+∞
4. Fξ (x) непрерывная слева, вероятность попадания в точку есть
разность:
Fξ (x − 0) = Fξ (x); p(ξ = x) = Fξ (x + 0) − Fξ (x − 0).
5. Вероятность попадания в интервал (см. (10)):
p(x1 ≤ ξ < x2) = Fξ (x2) − Fξ (x1).
109
Законы распределения НСВ
Функция распределения Fξ (x) для НСВ является непрерывной. В частности,
p(ξ = x) = Fξ (x + 0) − Fξ (x − 0) = 0
110
Законы распределения НСВ
Функция распределения Fξ (x) для НСВ является непрерывной.
Функция распределения вероятностей pξ (x), для НСВ есть функция плотности.
Определение 33. Функция плотности распределения вероятностей fξ (x) для НСВ ξ в каждой точке непрерывности x есть производная функции распределения1:
fξ (x) =
1 при
d
Fξ (x) = Fξ0 (x).
dx
этом точки разрыва f (x) образуют множество вероятности 0
111
Законы распределения НСВ
Функция распределения Fξ (x) для НСВ является непрерывной.
Функция распределения вероятностей pξ (x), для НСВ есть функция плотности.
Определение 34. Функция плотности распределения вероятностей fξ (x) для НСВ ξ в каждой точке непрерывности x есть производная функции распределения2:
d
Fξ (x) = Fξ0 (x).
dx
Определение 35. Множество X, удовлетворяющее условию fξ (x) > 0
для всякого x ∈ X, является множеством возможных значений
НСВ (носителем распределения).
fξ (x) =
2 при
этом точки разрыва f (x) образуют множество вероятности 0
112
d
Fξ (x) = Fξ0 (x).
dx
Свойства плотности распределения вероятностей fξ (x).
1. fξ (x) ≥ 0.
fξ (x) =
113
d
Fξ (x) = Fξ0 (x).
dx
Свойства плотности распределения вероятностей fξ (x).
1. fξ (x) ≥ 0.
Rx
fξ (t) dt (здесь x− независимая переменная функции
2. Fξ (x) =
fξ (x) =
−∞
Fξ (x), а t− переменная интегрирования).
114
d
Fξ (x) = Fξ0 (x).
dx
Свойства плотности распределения вероятностей fξ (x).
1. fξ (x) ≥ 0.
Rx
fξ (t) dt (здесь x− независимая переменная функции
2. Fξ (x) =
fξ (x) =
−∞
Fξ (x), а t− переменная интегрирования).
3. Вычисление вероятности попадания в интервал
Zx2
p(x1 ≤ ξ < x2) =
fξ (x) dx = Fξ (x2) − Fξ (x1),
x1
в частности, p(ξ = x) = 0, ∀x ∈ (−∞, +∞). Поэтому
p(x1 ≤ ξ < x2) = p(x1 ≤ ξ ≤ x2) = p(x1 < ξ < x2) = p(x1 < ξ ≤ x2).
115
d
Fξ (x) = Fξ0 (x).
dx
Свойства плотности распределения вероятностей fξ (x).
1. fξ (x) ≥ 0.
Rx
fξ (t) dt
2. Fξ (x) =
fξ (x) =
−∞
3. Вычисление вероятности попадания в интервал
Zx2
p(x1 ≤ ξ < x2) = fξ (x) dx = Fξ (x2) − Fξ (x1),
x1
p(x1 ≤ ξ < x2) = p(x1 ≤ ξ ≤ x2) = p(x1 < ξ < x2) = p(x1 < ξ ≤ x2).
+∞
R
4.
fξ (x) dx = 1 — условие нормировки.
−∞
Действительно:
+∞
R
fξ (x) dx = Fξ (+∞) − Fξ (−∞) = 1
−∞
116
Пример. Случайная величина ξ задана функцией распределения

 0 2 при x ≤ 0
x при 0 < x ≤ 3 . Указать множество всех возможных
Fξ (x) =

 9
1 при x > 3
значений СВ ξ. Найти ее плотность распределения fξ (x).
Решение. Поскольку Fξ (x)− непрерывная функция, то множество
значений СВ ξ несчетно.
117
Пример. Случайная величина ξ задана функцией распределения

 0 2 при x ≤ 0
x при 0 < x ≤ 3 . Указать множество всех возможных
Fξ (x) =

 9
1 при x > 3
значений СВ ξ. Найти ее плотность распределения fξ (x).
Решение. Поскольку Fξ (x)− непрерывная функция, то множество
значений СВ ξ несчетно. По свойству функции плотности 4,
p(0 ≤ ξ < 3) = p(0 ≤ ξ ≤ 3) = p(0 < ξ < 3) = p(0 < ξ ≤ 3) = Fξ (3) − Fξ (0) = 1.
118
Пример. Случайная величина ξ задана функцией распределения

 0 2 при x ≤ 0
x при 0 < x ≤ 3 . Указать множество всех возможных
Fξ (x) =

 9
1 при x > 3
значений СВ ξ. Найти ее плотность распределения fξ (x).
Решение. Поскольку Fξ (x)− непрерывная функция, то множество
значений СВ ξ несчетно. По свойству функции плотности 4,
p(0 ≤ ξ < 3) = p(0 ≤ ξ ≤ 3) = p(0 < ξ < 3) = p(0 < ξ ≤ 3) = Fξ (3) − Fξ (0) = 1.
Т.е. все интервалы значений СВ ξ ненулевой вероятности принадлежат отрезку [0, 3].
Уменьшить длину полученного интервала значений СВ ξ нельзя.
Действительно, если 0 < x0 < 3, то найдется δ > 0 такое, что
x0 − δ < 3 и
x20 (x0 − δ)2
−
6 0.
=
p(x0 − δ < ξ < x0) = Fξ (x0) − Fξ (x0 − δ) =
9
9
119
Пример. Случайная величина ξ задана функцией распределения

 0 2 при x ≤ 0
x при 0 < x ≤ 3 . Указать множество всех возможных
Fξ (x) =

 9
1 при x > 3
значений СВ ξ. Найти ее плотность распределения fξ (x).
Решение. Поскольку Fξ (x)− непрерывная функция, то множество
значений СВ ξ несчетно. По свойству функции плотности 4,
p(0 ≤ ξ < 3) = p(0 ≤ ξ ≤ 3) = p(0 < ξ < 3) = p(0 < ξ ≤ 3) = Fξ (3) − Fξ (0) = 1.
Т.е. все интервалы значений СВ ξ ненулевой вероятности принадлежат отрезку [0, 3].
Уменьшить длину полученного интервала значений СВ ξ нельзя.
Действительно, если 0 < x0 < 3, то найдется δ > 0 такое, что
x0 − δ < 3 и
x20 (x0 − δ)2
p(x0 − δ < ξ < x0) = Fξ (x0) − Fξ (x0 − δ) =
−
6 0.
=
9
9
120
Т.е. выбросить из [0, 3] никакой интервал, содержащий x0 нельзя, не
уменьшив вероятность попадания нашей СВ в [0, 3]. Однако множество значений НСВ ξ (как числовой функции на ПЭС) восстанавливается по Fξ (x) не однозначно: это может быть отрезок [0, 3] или
полуинтервалы (0, 3], [0, 3), или интервал (0, 3) и т.п., поскольку для
НСВ p(ξ = a) = 03.
3в
этом случае говорят, что рассуждение верно с точностью до множества точек вероятности ноль.
121
Теперь, для нахождения множества возможных значений НСВ ξ (по
определению на стр. 112), вычислим плотность распределения как
производную функции Fξ (x):


при x ≤ 0
0
2 x при 0 < x < 3 .
fξ (x) = Fξ0 (x) =

 09
при x > 3
Функция fξ (x) в точке x = 3 не существует. Поскольку fξ (x) > 0 на
(0, 3), то множество возможных значений для НСВ ξ есть этот интервал. Задача решена.
Замечание. Всякая определенная на (−∞, +∞) и интегрируемая
функция fξ (x), обладающая двумя характеристическими свойствами:
1) fξ (x) ≥ 0– неотрицательность;
+∞
R
2) fξ (x) dx = 1− нормированность
−∞
может рассматриваться как функция плотности некоторой НСВ ξ.
122
3.2. Функции и числовые характеристики СВ
Напомним, что СВ есть числовые функции на множестве ЭС Ω (см.
определение на стр. 96). Но тогда, как числовые функции, СВ можно
складывать, умножать, вкладывать в качестве внутренней функции в
действительную функцию g(x). Таким образом получаем новые СВ:
123
Определение 36. СВ ζ называется суммой случайных величин
ξ и η, если
ζ(ω) = ξ(ω) + η(ω), ∀ω ∈ Ω;
СВ χ называется произведением случайных величин ξ и η, если
χ(ω) = ξ(ω) · η(ω), ∀ω ∈ Ω;
СВ ε называется функцией случайной величины ξ , если для некоторой действительной функции g(x)
ε(ω) = g(ξ(ω)), ∀ω ∈ Ω.
Рассмотрим задачу нахождения закона распределения СВ ζ (χ или
ε) по известным законам ξ и η (при известной числовой функции
g(x)).
124
Рассмотрим задачу нахождения закона распределения СВ ζ (χ или ε)
по известным законам ξ и η (при известной числовой функции g(x)).
I.Для ДСВ решение поставленной задачи состоит из двух этапов:
1) построить множество Z возможных значений СВ ζ (χ или ε);
2) построить распределение вероятностей для всех значений из Z:
p(ζ = zi), zi ∈ Z.
125
I.Для ДСВ решение поставленной задачи состоит из двух этапов:
1) построить множество Z возможных значений СВ ζ (χ или ε);
2) построить распределение вероятностей для всех значений из Z:
p(ζ = zi), zi ∈ Z.
Пример. Два стрелка независимо друг от друга делают по два выстрела в мишень. Вероятность попадания первого стрелка− 0,8, а
второго – 0,7. Найти закон распределения суммарного числа попаданий.
Решение. Введем СВ ξ и η: ξ− число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
Множество возможных значений СВ ξ: X = {0, 1, 2}, аналогично
для СВ η : Y = {0, 1, 2}.
126
Пример. Два стрелка независимо друг от друга делают по два выстрела в мишень. Вероятность попадания первого стрелка− 0,8, а
второго – 0,7. Найти закон распределения суммарного числа попаданий.
Решение. Введем СВ ξ и η: ξ− число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
Множество возможных значений СВ ξ: X = {0, 1, 2}, аналогично
для СВ η : Y = {0, 1, 2}.
Поскольку эксперимент проходит по схеме Бернулли, при вычислении вероятностей воспользуемся формулой Бернулли:
P2(k) = C2k pki (1 − pi)2−k , p1 = 0, 8, p2 = 0, 7, k = 0, 1, 2.
Таким образом находим законы распределения СВ ξ и η :
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
127
Таким образом находим законы распределения СВ ξ и η :
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Пусть СВ γ− суммарное число попаданий, т.е. γ = ξ + η.4
Найдем множество Z возможных значений γ. Понятно, что
zi = xj + yk , поэтому Z = {0, 1, 2, 3, 4}.
4 Заметим, что в качестве ПЭС Ω рассматриваем множество ЭС ω − «1-ый стрелок попал i раз, второй− j раз» , тогда все функции ξ, η, γ
ij
определены на Ω.
128
Таким образом находим законы распределения СВ ξ и η :
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Пусть СВ γ− суммарное число попаданий, т.е. γ = ξ + η.5
Найдем множество Z возможных значений γ. Понятно, что zi =
xj + yk , поэтому Z = {0, 1, 2, 3, 4}.
Вычислим вероятности каждого из значений zi.
Например, СС «γ = 0» происходит тогда и только тогда, когда
одновременно «ξ = 0» и «η = 0.» Значит речь идет о произведении независимых (в силу постановки опыта) СС. Применяем теорему
произведения:
p(γ = 0) = p(ξ = 0) · p(η = 0) = 0, 04 · 0, 09 = 0, 0036.
5 Заметим, что в качестве ПЭС Ω рассматриваем множество ЭС ω − «1-ый стрелок попал i раз, второй− j раз» , тогда все функции ξ, η, γ
ij
определены на Ω.
129
Таким образом находим законы распределения СВ ξ и η :
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Пусть СВ γ− суммарное число попаданий, т.е. γ = ξ + η.6
Найдем множество Z возможных значений γ. Понятно, что zi =
xj + yk , поэтому Z = {0, 1, 2, 3, 4}.
Вычислим вероятности каждого из значений zi.
p(γ = 0) = p(ξ = 0) · p(η = 0) = 0, 04 · 0, 09 = 0, 0036.
СС «γ = 1» ⇔ ((«ξ = 0 и η = 1») или («ξ = 1 и η = 0.»)) Поэтому
p(γ = 1) = p(ξ = 0)·p(η = 1)+p(ξ = 1)·p(η = 0) = 0, 04·0, 42+0, 32·0, 09 = 0, 0456.
Продолжая подсчет по тому же принципу, получим
p(γ = 2) = p(ξ = 0) · p(η = 2) + p(ξ = 2) · p(η = 0) + p(ξ = 1) · p(η = 1) =
6 Заметим, что в качестве ПЭС Ω рассматриваем множество ЭС ω − «1-ый стрелок попал i раз, второй− j раз» , тогда все функции ξ, η, γ
ij
определены на Ω.
130
= 0, 04 · 0, 49 + 0, 64 · 0, 09 + 0, 32 · 0, 42 = 0, 2116,
p(γ = 3) = p(ξ = 1)·p(η = 2)+p(ξ = 2)·p(η = 1) = 0, 32·0, 49+0, 64·0, 42 = 0, 4256,
p(γ = 4) = p(ξ = 2) · p(η = 2) = 0, 64 · 0, 49 = 0, 3136.
Закон распределения СВ γ:
X
zi = xj + yk
0
1
2
3
4
,
pi = 1.
pi = p(γ = zi ) 0, 036 0, 0456 0, 2116 0, 4256 0, 3136
i
Задача решена.
Замечание к примеру. Если нужно по известным законам распределения СВ ξ и η найти закон распределения их произведения
ε = ξ · η, то действуем по той же схеме, что и для суммы СВ. Находим множество возможных значений СВ ε: Z = {0, 1, 2, 4} и считаем
их вероятности, учитывая независимость и несовместность соответствующих СС. Например,
p(ε = 2) = p(ξ = 1)·p(η = 2)+p(ξ = 2)·p(η = 1) = 0, 32·0, 49+0, 64·0, 42 = 0, 4256.
131
В результате получим
X
zi = xj · yk
0
1
2
4
,
pi = 1.
pi = p(ε = zi) 0, 1264 0, 1344 0, 4256 0, 3136
i
132
II. Для НСВ найдем закон распределения неслучайной функции одного случайного аргумента ζ = g(ξ).
1. Если ζ = g(ξ) и z = g(x)− монотонная функция, то существует
обратная к ней функция x = g −1(z) причем
½
p(ξ < g −1(z)), если g(x) возрастает
Fζ (z) = p(ζ < z) =
⇒
p(ξ > g −1(z)), если g(x) убывает
½
Fξ (g −1(z)) ,
если g(x) возрастает
Fζ (z) =
(11)
1 − Fξ (g −1(z)) , если g(x) убывает.
133
II. Для НСВ найдем закон распределения неслучайной функции одного случайного аргумента ζ = g(ξ).
1. Если ζ = g(ξ) и z = g(x)− монотонная функция, то существует
обратная к ней функция x = g −1(z) причем
½
p(ξ < g −1(z)), если g(x) возрастает
Fζ (z) = p(ζ < z) =
⇒
p(ξ > g −1(z)), если g(x) убывает
½
Fξ (g −1(z)) ,
если g(x) возрастает
Fζ (z) =
(12)
1 − Fξ (g −1(z)) , если g(x) убывает.
Можно получить формулу для функции плотности в случае монотонной функции z = g(x):
¯ dg −1(z) ¯
¯
¯
0
−1
fζ (z) = Fζ (z) = fξ (g (z))¯
(13)
¯
dz
134
2. Если ζ = g(ξ) и z = g(x)− немонотонная функция, то область определения z = g(x) разбивают на промежутки монотонности
(xi, xj ) и вычисляют функцию распределения Fζ (z) на каждом промежутке z ∈ (g(xi), g(xj )) (или (g(xj ), g(xi)) для случая убывания g(x) на
данном интервале). Функция плотности вычисляется как производная функции распределения. Кроме того функция плотности может
быть найдена как сумма функций, каждая из которых определяется
на интервале монотонности по формуле (13).
3. Закон распределения для НСВ ζ = ξ + η и χ = ξ · η см. в разделе
?? на стр.??.
135
Пример. По известной функции распределения НСВ ξ

если x ≤ −1
0,
x+1
Fξ (x) =
, если − 1 < x ≤ 2
 3
1,
если x > 2.
найти функции Fζ (x) и fζ (x) для НСВ ζ = 2ξ + 1.
136
Пример. По известной функции распределения НСВ ξ

если x ≤ −1
0,
x+1
Fξ (x) =
, если − 1 < x ≤ 2
 3
1,
если x > 2.
найти функции Fζ (x) и fζ (x) для НСВ ζ = 2ξ + 1.
Решение. Понятно, что функция z = g(x) = 2x + 1 является монотонно возрастающей и множество возможных значений НСВ ζ−
интервал g(−1) = −1 < z < g(2) = 5. Вычислим формулу обратной
функции, выражая x через z:
z−1
.
2
При вычислении функции распределения Fζ (z) учтем множество
возможных значений НСВ ζ и воспользуемся формулой (12)
x = g −1(z) =
137
Пример. По известной функции распределения НСВ ξ

если x ≤ −1
0,
x+1
Fξ (x) =
, если − 1 < x ≤ 2
 3
1,
если x > 2.
найти функции Fζ (x) и fζ (x) для НСВ ζ = 2ξ + 1.
Решение. −1 < z < 5. Вычислим формулу обратной функции, выражая x через z:
z−1
x = g −1(z) =
.
2
При вычислении функции распределения Fζ (z) учтем множество
возможных значений НСВ ζ и воспользуемся формулой (12)


0,
если z ≤ −1
 p(ζ < z) =z−1
Fζ (z) = Fξ ( z−1 ) = 2 +1 = z+1 , если − 1 < z ≤ 5
3
6

1, 2
если z > 5.
138
Пример. По известной функции распределения НСВ ξ

если x ≤ −1
0,
x+1
Fξ (x) =
, если − 1 < x ≤ 2
 3
1,
если x > 2.
найти функции Fζ (x) и fζ (x) для НСВ ζ = 2ξ + 1.
Решение. −1 < z < 5.


0,
если z ≤ −1
 p(ζ < z) =z−1
Fζ (z) = Fξ ( z−1 ) = 2 +1 = z+1 , если − 1 < z ≤ 5
3
6

1, 2
если z > 5.
Теперь запишем функцию плотности fζ (z), дифференцируя функцию
распределения Fζ (z) на соответствующих интервалах:
½
0 , если z < −1, z > 5
fζ (z) = 1
6 , если − 1 < z < 5.
Задача решена.
139
Числовые характеристики СВ
Определение 37. Математическое ожидание (среднее значение)
СВ ξ есть число M [ξ], которое вычисляется по формуле
P


 x xip(ξ = xi), если ξ−ДСВ
i
+∞
M [ξ] =
.
(14)
R


x fξ (x) dx, если ξ−НСВ

−∞
Причем математическое ожидание существует, если соответствующий
ряд или интеграл сходятся абсолютно.
140
Числовые характеристики СВ
Определение 37. Математическое ожидание (среднее значение)
СВ ξ есть число M [ξ], которое вычисляется по формуле
P


 x xip(ξ = xi), если ξ−ДСВ
i
+∞
M [ξ] =
.
(15)
R


x fξ (x) dx, если ξ−НСВ

−∞
Причем математическое ожидание существует, если соответствующий
ряд или интеграл сходятся абсолютно.
Определение 38. Если η = g(ξ) для некоторой действительной функции z = g(x), то
P


 x g(xi)p(ξ = xi), если ξ −ДСВ
i
+∞
M [η] = M [g(ξ)] =
.
(16)
R


g(x) fξ (x) dx, если ξ−НСВ

−∞
141
Числовые характеристики СВ
Определение 38. Если η = g(ξ) для некоторой действительной функции z = g(x), то
P


 x g(xi)p(ξ = xi), если ξ −ДСВ
i
+∞
M [η] = M [g(ξ)] =
.
(17)
R


g(x) fξ (x) dx, если ξ−НСВ

−∞
Определение 39. СВ ξ1, ξ2, . . . , ξk будем называть взаимно независимыми, если любые СС A1, A2, . . . , Ak , связанные с данными СВ (например: A1− «ξ1 < 2» ,A2− «−1 ≤ ξ2 < 5» и т.д.) независимы в
совокупности.
142
Определение 39. СВ ξ1, ξ2, . . . , ξk будем называть взаимно независимыми, если любые СС A1, A2, . . . , Ak , связанные с данными СВ (например: A1− «ξ1 < 2» ,A2− «−1 ≤ ξ2 < 5» и т.д.) независимы в
совокупности.
Свойства M [ξ].
1. Если C − постоянная величина (постоянная функция на ПЭС
Ω), то M [C] = C.
2. M [ξ + C] = M [ξ] + C.
143
Свойства M [ξ].
1. Если C − постоянная величина , то M [C] = C.
2. M [ξ + C] = M [ξ] + C.
3. M [C · ξ] = C · M [ξ].
4. M [ξ + η] = M [ξ] + M [η] для любых СВ ξ и η.
Следовательно, рассуждая индуктивно, получим
M [ξ1 + ξ2 + . . . + ξk ] = M [ξ1] + M [ξ2] + . . . + M [ξk ], k ≥ 2.
5. Если СВ ξ и η независимы, то M [ξ · η] = M [ξ] · M [η].
Если СВ ξ1, ξ2, . . . , ξk взаимно независимы, то
M [ξ1 · ξ2 · . . . · ξk ] = M [ξ1] · M [ξ2] · . . . · M [ξk ], k ≥ 2.
Доказательство. Свойства 1-3 — следствия определений 15, 17.
Докажем св-во 4 на примере ДСВ ξ и η
xi
x1 x2
yi
y1 y2
,
.
pi = p(ξ = xi) p1 p2
qi = p(η = yi) q1 q2
144
Доказательство. Свойства 1-3 — следствия определений 15, 17.
Докажем св-во 4 на примере ДСВ ξ и η
xi
x1 x2
yi
y1 y2
,
.
pi = p(ξ = xi) p1 p2
qi = p(η = yi) q1 q2
145
Доказательство. Свойства 1-3 — следствия определений 15, 17.
Докажем св-во 4 на примере ДСВ ξ и η
xi
x1 x2
yi
y1 y2
,
.
pi = p(ξ = xi) p1 p2
qi = p(η = yi) q1 q2
Тогда ДСВ ξ + η имеет распределение
ξ + η x1 + y1 x1 + y2 x2 + y1 x2 + y2
p
p11
p12
p21
p22
и по определению 15
M [ξ + η] = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22 =
146
Доказательство. Свойства 1-3 — следствия определений 15, 17.
Докажем св-во 4 на примере ДСВ ξ и η
xi
x1 x2
yi
y1 y2
,
.
pi = p(ξ = xi) p1 p2
qi = p(η = yi) q1 q2
Тогда ДСВ ξ + η имеет распределение
ξ + η x1 + y1 x1 + y2 x2 + y1 x2 + y2
p
p11
p12
p21
p22
и по определению 15
M [ξ + η] = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22 =
= x1 (p11 + p12) +x2 (p21 + p22) +y1 (p11 + p21) +y2 (p21 + p22)
| {z }
| {z }
| {z }
| {z }
=p1
=p2
=q1
=q2
Т.к. pij = p((ξ = xi)и(η = y1)), а pi = p(ξ = xi) qj = p(η = y2), причем
СС «ξ = xi» ⇔ СС ( «(ξ = xi)и(η = y1)»или «(ξ = xi)и(η = y2)»)
147
получим pi = pi1 + pi2 аналогично qj = q1j + q2j . Т.е.
M [ξ + η] = x1p1 + x2p2 + y1q1 + y2q2 = M [ξ] + M [η]
148
Докажем св-во 5 на примере ДСВ ξ и η
xi
x1 x2
yi
y1 y2
,
.
pi = p(ξ = xi) p1 p2
qi = p(η = yi) q1 q2
Тогда ДСВ ξ · η имеет распределение
ξ · η x1 · y1 x1 · y2 x2 · y1 x2 · y2
p
p11
p12
p21
p22
и по определению 15
M [ξ + η] = (x1 · y1)p11 + (x1 · y2)p12 + (x2 · y1)p21 + (x2 · y2)p22 =
= y1q1 (x1p1 + x2p2) +y2q2 (x1p1 + x2p2) = (y1q1 + y2q2) M [ξ] = M [η]·M [ξ]
{z
}
|
{z
} |
{z
}
|
=M [ξ]
=M [ξ]
M [η]
Т.к. pij = p((ξ = xi)и(η = yj )), а pi = p(ξ = xi) qj = p(η = yj ), причем
СС «ξ = xi» и СС «η = yj » независимы, получим pij = pi · qj .
149
Определение 40. Дисперсия СВ ξ есть число D[ξ], которое вычисляется по формуле D[ξ] = M [(ξ − M [ξ])2], т.е.
P
2

(x
−
M
[ξ])
p(ξ = xi), если ξ−ДСВ
i

 x
i
+∞
.
(18)
D[ξ] =
R
2


(x − M [ξ]) fξ (x) dx, если ξ −НСВ

√
−∞
Величина D = σ называется среднее квадратическое отклонение (СКО).
Дисперсия в переводе означает рассеивание и характеризует разброс значений СВ ξ относительно математического ожидания.
Свойства D[ξ].
1. Формула для вычисления дисперсии:
D[ξ] = M [ξ 2] − (M [ξ])2.
2. Если C − постоянная величина, то D[C] = 0.
150
(19)
Определение 40. Дисперсия СВ ξ есть число D[ξ],
которое вычисля√
ется по формуле D[ξ] = M [(ξ − M [ξ])2], Величина D = σ называется
среднее квадратическое отклонение (СКО).
Свойства D[ξ].
1. Формула для вычисления дисперсии:
D[ξ] = M [ξ 2] − (M [ξ])2.
2. Если C − постоянная величина, то D[C] = 0.
3. Если C − постоянная величина, то D[C · ξ] = C 2 · D[ξ].
4. Если ξ, η − независимые СВ, то D[ξ + η] = D[ξ] + D[η].
Если СВ ξ1, ξ2, . . . , ξk взаимно независимы, то
D[ξ1 + ξ2 + . . . + ξk ] = D[ξ1] + D[ξ2] + . . . + D[ξk ], k ≥ 2.
151
(20)
Свойства D[ξ].
1. Формула для вычисления дисперсии:
D[ξ] = M [ξ 2] − (M [ξ])2.
(21)
2. Если C − постоянная величина, то D[C] = 0.
3. Если C − постоянная величина, то D[C · ξ] = C 2 · D[ξ].
4. Если ξ, η − независимые СВ, то D[ξ + η] = D[ξ] + D[η].
Если СВ ξ1, ξ2, . . . , ξk взаимно независимы, то
D[ξ1 + ξ2 + . . . + ξk ] = D[ξ1] + D[ξ2] + . . . + D[ξk ], k ≥ 2.
Доказательство. Докажем свойство 1.
D[ξ] = M [(ξ − M [ξ])2] = M [ξ 2 − 2M [ξ]ξ + (M [ξ])2] |{z}
=
св4,2,1МО
= M [ξ 2] − 2M [ξ]M [ξ] + (M [ξ])2 = M [ξ 2] − (M [ξ])2
Свойства 2, 3 — следствия определения и свойств МО.
152
Докажем свойство 4.
Если ξ, η − независимые СВ, то D[ξ + η] = D[ξ] + D[η].
D[ξ + η]
=
|{z}
M [ξ 2 + 2ξη + η 2] − (M [ξ] + M [η])2 =
св1D,св4МО
= M [ξ 2] + 2M [ξ]M [η] +M [η 2] − (M [ξ])2 − 2M [ξ]M [η] − (M [η])2 =
| {z }
ξ,η независ, св5МО
= (M [ξ 2] − M [ξ]2) + (M [η 2] − M [η]2) = D[ξ] + D[η]
153
Докажем свойство 4.
Если ξ, η − независимые СВ, то D[ξ + η] = D[ξ] + D[η].
D[ξ + η]
=
|{z}
M [ξ 2 + 2ξη + η 2] − (M [ξ] + M [η])2 =
св1D,св4МО
= M [ξ 2] + 2M [ξ]M [η] +M [η 2] − (M [ξ])2 − 2M [ξ]M [η] − (M [η])2 =
| {z }
ξ,η независ, св5МО
= (M [ξ 2] − M [ξ]2) + (M [η 2] − M [η]2) = D[ξ] + D[η]
Пример. Два стрелка независимо друг от друга делают по два выстрела в мишень. Вероятность попадания первого стрелка− 0,8, а
второго– 0,7. Найти среднее значение и дисперсию суммарного числа попаданий. (Cм. пример 2 на стр. 127)
154
Решение. Введем СВ ξ и η: ξ − число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Теперь по определению (формула (15)) находим M [ξ], M [η] :
M [ξ] =
3
X
xip(ξ = xi) = 0 · 0, 04 + 1 · 0, 32 + 2 · 0, 64 = 1, 6;
i=1
M [η] =
3
X
yip(η = yi) = 0 · 0, 09 + 1 · 0, 42 + 2 · 0, 49 = 1, 4
i=1
M [γ] = M [ξ] + M [η] = 3.
155
Решение. Введем СВ ξ и η: ξ − число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Теперь по определению (формула (15)) находим M [ξ], M [η] :
M [ξ] = 1, 6; M [η] = 1, 4 M [γ] = M [ξ] + M [η] = 3.
Для вычисления дисперсий СВ ξ и η удобно воспользоваться свойством 1 (формула (21)): D[ξ] = M [ξ 2] − (M [ξ])2. Для вычисления
M [ξ 2] (M [η 2]) воспользуемся формулой (17) для ДСВ и g(x) = x2 :
M [ξ 2] =
3
X
x2i p(ξ = xi) = 0 · 0, 04 + 1 · 0, 32 + 22 · 0, 64 = 2, 98,
i=1
2
M [η ] =
3
X
yi2p(η = yi) = 0 · 0, 09 + 1 · 0, 42 + 22 · 0, 49 = 2, 38.
i=1
156
Решение. Введем СВ ξ и η: ξ − число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Теперь по определению (формула (15)) находим M [ξ], M [η] :
M [ξ] = 1, 6; M [η] = 1, 4 M [γ] = M [ξ] + M [η] = 3.
M [ξ 2] =
3
X
x2i p(ξ = xi) = 0 · 0, 04 + 1 · 0, 32 + 22 · 0, 64 = 2, 98,
i=1
M [η 2] =
3
X
yi2p(η = yi) = 0 · 0, 09 + 1 · 0, 42 + 22 · 0, 49 = 2, 38.
i=1
D[ξ] = M [ξ 2] − (M [ξ])2 = 2, 98 − 1, 62 = 0, 32
D[η] = M [η 2] − (M [η])2 = 2, 38 − 1, 42 = 0, 42.
157
Решение. Введем СВ ξ и η: ξ − число попаданий первого стрелка
(из двух выстрелов), η− число попаданий второго стрелка.
xi
0
1
2
yi
0
1
2
,
.
pi = p(ξ = xi) 0, 04 0, 32 0, 64 pi = p(η = yi) 0, 09 0, 42 0, 49
Теперь по определению (формула (15)) находим M [ξ], M [η] :
M [ξ] = 1, 6; M [η] = 1, 4 M [γ] = M [ξ] + M [η] = 3.
M [ξ 2] = 2, 88, M [η 2] = 2, 38.
D[ξ] = M [ξ 2] − (M [ξ])2 = 2, 98 − 1, 62 = 0, 32
D[η] = M [η 2] − (M [η])2 = 2, 38 − 1, 42 = 0, 42.
Поскольку СВ ξ и η независимы, то по свойству 4 дисперсии имеем
D[ξ + η] = D[ξ] + D[η] = 0, 74.
Итак, задача решена: M [ξ + η] = 3, D[ξ + η] = 0, 74.
158
Определим некоторые другие числовые характеристики распределений СВ, которые используются для характеризации в основном
НСВ.
Определение 41. Мода СВ ξ есть число dξ , которое (если существует) определяется по правилу:

xm − возможное значение ξ, т.ч. p(ξ = xm) = max p(ξ = xi),


i


ξ – ДСВ
dξ =

xm − абсцисса точки максимума функции плотности, т.е.



fξ (xm) = max fξ (x), ξ – НСВ.
(22)
Таким образом, мода− наиболее вероятное значение СВ. Мода может не существовать или не быть единственной.
159
Определение 41. Мода СВ ξ есть число dξ , которое (если существует) определяется по правилу:


p(ξ = xi), ξ – ДСВ
 xm − возможное значение ξ, т.ч. p(ξ = xm) = max
i
dξ = xm − абсцисса точки максимума функции плотности, т.е.


fξ (xm) = max fξ (x), ξ – НСВ.
(23)
Таким образом, мода− наиболее вероятное значение СВ. Мода может не существовать или не быть единственной.
Определение 42. Медиана НСВ ξ есть число hξ , удовлетворяющее
условию
p(ξ < hξ ) = p(ξ ≥ hξ ).
(24)
Из определения следует, что прямая x = hξ делит площадь криволинейной трапеции, ограниченной функцией плотности fξ (x), на две
160
равновеликие части. Медиана есть корень уравнения Fξ (x) = 1/2 и
может определяться неоднозначно.
161
Из определения следует, что прямая x = hξ делит площадь криволинейной трапеции, ограниченной функцией плотности fξ (x), на две
равновеликие части. Медиана есть корень уравнения Fξ (x) = 1/2 и
может определяться неоднозначно.
Определение 43. Начальный момент порядка s (s = 0, 1, 2, . . .)
СВ ξ (если он существует) есть число αs, вычисляемое по формуле
P
s

x

 x i p(ξ = xi), если ξ−ДСВ
i
+∞
.
(25)
αs = M [ξ s] =
R s


x fξ (x) dx, если ξ−НСВ

−∞
162
Определение 43. Начальный момент порядка s (s = 0, 1, 2, . . .)
СВ ξ (если он существует) есть число αs, вычисляемое по формуле
P
s


 x xi p(ξ = xi), если ξ−ДСВ
i
+∞
αs = M [ξ s] =
.
(26)
R s


x fξ (x) dx, если ξ−НСВ

−∞
Определение 44. Центральный момент порядка s(s
=
0, 1, 2, . . .) СВ ξ (если он существует) есть число µs, вычисляемое
по формуле
P
s

(x
−
M
[ξ])
p(ξ = xi), если ξ−ДСВ
i

 x
i
+∞
µs = M [(ξ − M [ξ])s] =
.
R
s


(x − M [ξ]) fξ (x) dx, если ξ−НСВ

−∞
(27)
163
В частности, из определения следует, что
α0 = µ0 = 1, M [ξ] = α1, D[ξ] = µ2 = α2 − α12.
Заметим, что центральные моменты порядка s выражаются через начальные порядка не более, чем s. Определим также две важные характеристики распределения НСВ, связанные с моментами высших
порядков.
Определение 45. Коэффициент асимметрии или «скошенноµ3
сти» НСВ ξ есть число Skξ , вычисляемое по формуле Skξ = 3 ,
σ
p
где σ = D[ξ].
164
Определение 45. Коэффициент асимметрии или «скошенноµ3
сти» НСВ ξ есть число Skξ , вычисляемое по формуле Skξ = 3 ,
σ
p
где σ = D[ξ].
Определение 46. Коэффициент эксцесса или «островершинноµ4
сти» НСВ ξ есть число eξ , вычисляемое по формуле eξ = 4 − 3, где
σ
p
σ = D[ξ].
Определение 47. Распределение НСВ ξ назовем симметричным, если график функции плотности симметричен относительно прямой
x = M [ξ] (в частности M [ξ] = hξ ).
165
Определение 47. Распределение НСВ ξ назовем симметричным, если график функции плотности симметричен относительно прямой
x = M [ξ] (в частности M [ξ] = hξ ).
Известно, что распределение симметрично тогда и только тогда,
когда ∀k ≥ 0µ2k+1 = 0
166
Определение 47. Распределение НСВ ξ назовем симметричным, если график функции плотности симметричен относительно прямой
x = M [ξ] (в частности M [ξ] = hξ ).
Известно, что распределение симметрично тогда и только тогда,
когда ∀k ≥ 0µ2k+1 = 0 (µ1 = M [ξ − M [ξ]] = 0 всегда)
µ3
Таким образом, коэффициент асимметрии, Skξ = 3 , оценивает отσ
клонение от симметричного распределения.
167
Определение 47. Распределение НСВ ξ назовем симметричным, если график функции плотности симметричен относительно прямой
x = M [ξ] (в частности M [ξ] = hξ ).
Известно, что распределение симметрично тогда и только тогда,
когда ∀k ≥ 0µ2k+1 = 0 (µ1 = M [ξ − M [ξ]] = 0 всегда)
µ3
Таким образом, коэффициент асимметрии, Skξ = 3 , оценивает отσ
клонение от симметричного распределения.
Коэффициент эксцесса оценивает степень вытянутости графика
функции плотности (по сравнению с нормальной кривой см. стр.
214).
168
Пример . СВ ξ распределена по закону равнобедренного треугольника в интервале (−a, a) (закон Симпсона), если она НСВ и ее плотность распределения вероятностей имеет вид, изображенный на рис.
6. Записать функцию плотности распределения вероятностей. Найти
M [ξ], D[ξ], dξ , hξ , eξ .
Решение. Запишем аналитическое выражение функции плотности, заданной графически на рис.6

, если x ∈
/ (−a, a)
0
1
fξ (x) =
(x + a) , если x ∈ (−a, 0] .
a
 21
− a2 (x − a) , если x ∈ (0, a)
169
y
1/a
¡
¡
¡
6
y = fξ (x)
¡@
¡ @
¡
@
@
@
@
@
@
@
¡
¡
¡
−a
a
Рис. 6: К примеру 2.
170
-
x
Решение. Запишем аналитическое выражение функции плотности, заданной графически на рис.6

, если x ∈
/ (−a, a)
0
1
fξ (x) =
(x + a) , если x ∈ (−a, 0] .
 a2 1
− a2 (x − a) , если x ∈ (0, a)
Вычислим числовые характеристики НСВ ξ.
Z+∞
Z0
Za
1
−1
M [ξ] =
xfξ (x) dx = x 2 (x + a) dx + x 2 (x − a) dx = 0.
a
a
−∞
−a
0
171
Решение. Вычислим числовые характеристики НСВ ξ.
Z0
Za
Z+∞
−1
1
M [ξ] =
xfξ (x) dx = x 2 (x + a) dx + x 2 (x − a) dx = 0.
a
a
−∞
−a
0
в силу симметричности графика, M [ξ] = 0 = hξ (можно было не считать M [ξ]). Также понятно, что dξ = 0 = M [ξ] = hξ (в частности
скошенность нулевая).
Для вычисления эсцесса eξ посчитаем четвертый центральный момент и дисперсию
Z+∞
Z0
Za
1
a4
4
4
4 1
(x − M [ξ]) fξ (x) dx = x 2 (x + a) dx − x 2 (x − a) dx =
,
µ4 =
a
a
15
−∞
−a
0
Z+∞
Z0
Za
1
a2
2
2
2 1
D[ξ] = µ2 =
,
(x − M [ξ]) fξ (x) dx = x 2 (x + a) dx − x 2 (x − a) dx =
a
a
6
−∞
−a
eξ =
µ4
µ4
3
−
3
=
−
3
=
−
.
2
σ4
µ2
5
172
0
Поскольку эксцесс отрицательный, наше распределение «плосковершинное»(по сравнению с нормальным см. стр.214). Задача решена.
173
3.3. Основные законы распределения
Некоторые ДСВ
I. Биномиальное распределение.
Пусть эксперимент проводится по схеме Бернулли (см. стр.81).
Рассмотрим ДСВ ξ − число успехов в n независимых испытаниях,
вероятность успеха p.
Понятно, что {0, 1, 2, · · · , n} − множество возможных значений ξ.
По формуле Бернулли (см.(4) на стр.81)
p(ξ = m) = pn(m) = Cnmpmq n−m.
174
I. Биномиальное распределение.
Пусть эксперимент проводится по схеме Бернулли (см. стр.81).
Рассмотрим ДСВ ξ − число успехов в n независимых испытаниях,
вероятность успеха p.
Понятно, что {0, 1, 2, · · · , n} − множество возможных значений ξ.
По формуле Бернулли (см.(4) на стр.81)
p(ξ = m) = pn(m) = Cnmpmq n−m.
Таким образом получен закон распределения Бернулли (биномиальное распределение):
xi 0
1
...
m
... n
pi q n npq n−1 . . . Cnmpmq n−m . . . pn
Утверждение. Числовые характеристики распределения Бернулли:
√
M [ξ] = np, D[ξ] = npq, σ = npq.
175
Утверждение. Числовые характеристики распределения Бернулли:
√
M [ξ] = np, D[ξ] = npq, σ = npq.
Доказательство. Рассмотрим «индикаторные» СВ ξi — число
успехов в i-ом испытании:
xi 0 1
pi q p
Тогда M [ξi] = p и D[ξi] = M [ξi2] − M [ξi]2 = p − p2 = pq.
176
Утверждение. Числовые характеристики распределения Бернулли:
√
M [ξ] = np, D[ξ] = npq, σ = npq.
Доказательство. Рассмотрим «индикаторные» СВ ξi — число
успехов в i-ом испытании:
xi 0 1
pi q p
Тогда M [ξi] = p и D[ξi] = M [ξi2] − M [ξi]2 = p − p2 = pq.
Причем ξ = ξ1 + ξ2 + . . . + ξn.
177
Утверждение. Числовые характеристики распределения Бернулли:
√
M [ξ] = np, D[ξ] = npq, σ = npq.
Доказательство. Рассмотрим «индикаторные» СВ ξi — число
успехов в i-ом испытании:
xi 0 1
pi q p
Тогда M [ξi] = p и D[ξi] = M [ξi2] − M [ξi]2 = p − p2 = pq.
Причем ξ = ξ1 + ξ2 + . . . + ξn.
Поскольку ξi независимы,
M [ξ] = M [ξ1 + ξ2 + . . . + ξn] = M [ξ1] + M [ξ2] + . . . + M [ξn] = np,
√
D[ξ] = D[ξ1+ξ2+. . .+ξn] = D[ξ1]+D[ξ2]+. . .+D[ξn] = npq, σ[ξ] = npq.
178
II. Распределение Пуассона.
1). Рассмотрим ДСВ ξ − число успехов в n испытаниях, проводимых по схеме Бернулли, при уcловии, что p(A) = p мало, а n велико.
По формуле редких явлений Пуассона (см. таблицу на стр. 88):
λm −λ
p(ξ = m) = Pn,λ(m) ≈
· e , λ = np.
m!
179
II. Распределение Пуассона.
1). Рассмотрим ДСВ ξ − число успехов в n испытаниях, проводимых по схеме Бернулли, при уcловии, что p(A) = p мало, а n велико.
По формуле редких явлений Пуассона (см. таблицу на стр. 88):
λm −λ
p(ξ = m) = Pn,λ(m) ≈
· e , λ = np.
m!
Тогда ряд распределения СВ ξ имеет вид
xi 0
1 ...
pi e−λ λe−λ . . .
m
m! e
λm −λ
...
...
n
n! e
λn −λ
180
,
λ = np = M [ξ] ,
D[ξ] = npq ≈ np, (q ≈ 1).
II. Распределение Пуассона.
1). Рассмотрим ДСВ ξ − число успехов в n испытаниях, проводимых по схеме Бернулли, при уcловии, что p(A) = p мало, а n велико.
По формуле редких явлений Пуассона (см. таблицу на стр. 88):
λm −λ
p(ξ = m) = Pn,λ(m) ≈
· e , λ = np.
m!
Тогда СВ ξ распределена по закону Бернулли-Пуассона
xi 0
1 ...
pi e−λ λe−λ . . .
Заметим, что
n+1
P
i=1
m
m! e
λm −λ
...
...
n
n! e
λn −λ
,
λ = np = M [ξ] ,
D[ξ] = npq ≈ np, (q ≈ 1).
pi 6= 1
Но приближенное равенство
n+1
P
i=1
pi ≈ 1 тем точнее, чем больше n.
181
2). Рассмотрим события, которые наступают в случайные моменты
времени. Такая последовательность случайных событий называется
поток событий.
182
2). Рассмотрим события, которые наступают в случайные моменты
времени. Такая последовательность случайных событий называется
поток событий.
Если вероятность появления k событий за время длительностью t
есть функция только k и t, то поток обладает свойством стационарности.
183
2). Рассмотрим события, которые наступают в случайные моменты
времени. Такая последовательность случайных событий называется
поток событий.
Если вероятность появления k событий за время длительностью t
есть функция только k и t, то поток обладает свойством стационарности.
Если появление того или иного числа событий на непересекающихся промежутках времени есть независимые СС, то поток обладает свойством отсутствия последействия.
184
2). Рассмотрим события, которые наступают в случайные моменты
времени. Такая последовательность случайных событий называется
поток событий.
Если вероятность появления k событий за время длительностью t
есть функция только k и t, то поток обладает свойством стационарности.
Если появление того или иного числа событий на непересекающихся промежутках времени есть независимые СС, то поток обладает свойством отсутствия последействия.
Если за бесконечно малый промежуток времени может появиться
не более одного события, то поток обладает свойством ординарности.
Определение 48. Простейшим (пуассоновским) называют поток
событий, который обладает свойствами стационарности, отсутствия последействия и ординарности.
185
Определение 48. Простейшим (пуассоновским) называют поток
событий, который обладает свойствами стационарности, отсутствия последействия и ординарности.
Рассмотрим ДСВ ξ − число событий пуассоновского потока за время длительностью t. Закон распределения СВ ξ:
xi
0
1
...
pi e−tλ tλe−tλ . . .
k
(tλ)k
k!
...
e−tλ . . .
186
,
tλ = M [ξ] = D[ξ].
Определение 48. Простейшим (пуассоновским) называют поток
событий, который обладает свойствами стационарности, отсутствия последействия и ординарности.
Рассмотрим ДСВ ξ − число событий пуассоновского потока за время длительностью t. Закон распределения СВ ξ:
xi
0
1
...
pi e−tλ tλe−tλ . . .
k
(tλ)k
k!
...
e−tλ . . .
,
tλ = M [ξ] = D[ξ].
Заметим, что, используя разложение в ряд Тейлора функции ex, получим
∞
∞
X
X
(tλ)k
(tλ)k
tλ
−tλ
=e ⇒ e
= 1.
k!
k!
k=0
k=0
Т.е. условие нормировки выполнено. Число λ − среднее количество
событий потока в единицу времени (плотность потока).
187
Замечание. Наивероятнейшее значение M (т.е. мода) СВ ξ, распределенной по закону Бернулли, удовлетворяет неравенству (см.
стр. 81) np − q ≤ M < np + p, тогда для закона Бернулли-Пуассона:
M [ξ] − 1 ≤ M ≤ M [ξ] или
λt − 1 ≤ M ≤ λt.
для потока событий.
188
(28)
Вывод закона распределения ξ из закона Бернулли-Пуассона 1).
а) Рассмотрим промежуток времени единичной длины t = 1.
Разобьем его на n интервалов длины 1/n.
В качестве успеха рассмотрим СС A − «на конкретном интервале
разбиения произошло по крайней мере одно событие потока.»
В силу свойства отсутствия последействия, p(A) = pn одинакова
на каждом интервале, мала и зависит только от n ⇒ схема Бернулли
для n независимых испытаний.
189
Вывод закона распределения ξ из закона Бернулли-Пуассона 1).
а) Рассмотрим промежуток времени единичной длины t = 1.
Разобьем его на n интервалов длины 1/n.
В качестве успеха рассмотрим СС A − «на конкретном интервале
разбиения произошло по крайней мере одно событие потока.»
В силу свойства отсутствия последействия, p(A) = pn одинакова
на каждом интервале, мала и зависит только от n ⇒ схема Бернулли
для n независимых испытаний.
Если n >> 100 ⇒ 1/n << 0, 1, в силу свойства ординарности потока, более одного события произойти на каждом интервале не может
(точнее, даже если на промежутке произошло более одного события,
мы считаем только одно).
k
Тогда по формуле Пуассона p(ξn = k) = (λk!n) e−λn
Таким образом, СВ ξ ≈ ξn, распределенной по закону БернуллиПуассона 1).
190
k
Тогда по формуле Пуассона p(ξn = k) = (λk!n) e−λn
Таким образом, СВ ξ ≈ ξn, распределенной по закону БернуллиПуассона 1).
Причем, среднее число появлений событий потока за единицу времени есть M [ξn] = npn = λn.
Теперь переходим к пределу при n → ∞.
lim npn = lim λn = λ среднее число событий потока в единицу
n→∞
n→∞
времени.
Мы получили числовую характеристику простейшего потока, которая называется плотность (или интенсивность) потока.
б) Теперь время t −любое положительное число. Вновь разбиваем временной интервал на интервалы длиной 1/n. Снова получим
схему испытаний Бернулли с вероятностью успеха pn, но количество
испытаний− целое число [nt], ближайшее к nt.
191
k
Тогда по формуле Пуассона p(ξn = k) = (λk!n) e−λn
Таким образом, СВ ξ ≈ ξn, распределенной по закону БернуллиПуассона 1).
M [ξn] = npn = λn.
lim npn = lim λn = λ среднее число событий потока в единицу
n→∞
n→∞
времени.
б) Теперь время t −любое положительное число. Вновь разбиваем
временной интервал на интервалы длиной 1/n. Снова получим схему испытаний Бернулли с вероятностью успеха pn, но количество
испытаний− целое число [nt], ближайшее к nt. Применяя формулу
Пуассона, получим ξ ≈ ξn,t и
(λn,t)k −λn,t
p(ξn,t = k) =
e
, M [ξn,t] = [nt]pn = λn,t .
k!
Переход к пределу при n → ∞ дает
lim λn,t = t lim npn = tλ = M [ξ].
n→∞
n→∞
192
Пример. При радиоактивном распаде СВ ξ − число α-частиц, регистрируемх датчиком в течение времени t, распределяется по закону
Пуассона. В известном опыте Резерфорда радиоактивное вещество
наблюдали в течение N = 2608 промежутков времени длительностью
t = 7, 5 сек., каждый раз регистрируя число частиц. Общее число
всех зарегистрированных частиц было K = 10094. Считая, что количество опытов достаточно велико, оценить параметр λt распределения Пуассона. Найти наиболее вероятное число регистрируемых
частиц за время t = 7, 5 сек. и вероятность этого числа.
Решение. Параметр λt есть среднее число частиц за промежуток
времени t = 7, 5 сек. Тогда
K 10094
=
= 3, 87.
N
2608
Для нахождения наиболее вероятного значения СВ ξ = M воспольλt ≈
193
зуемся неравенством (28):
λt − 1 ≤ M ≤ λt, λt ≈ 3, 870 ⇒ M = 3.
Осталось вычислить максимальную вероятность:
(tλ)3 −3,87 (3, 87)3 −3,87
p(ξ = 3) =
e
=
e
≈ 0, 508.
3!
3!
Отметим, что в опыте Резерфорда получилось то же число M = 3 и
близкие к теоретическим вероятностям частоты. Задача решена.
194
III. Геометрическое распределение.
Пусть опыт состоит в том, что производятся независимые испытания, в каждом из которых с вероятностью p может произойти СС A
(«успех»). Испытания производятся до появления СС A. Рассмотрим СВ ξ − количество «неуспехов»до появления «успеха.»Тогда
{0, 1, 2, . . .} − множество возможных значений СВ ξ. Закон распределения СВ ξ имеет вид
∞
X
q
q
xi 0 1 . . . k . . .
k
,
q
=
1
−
p,
pq
=
1,
M
[ξ]
=
,
D[ξ]
=
.
pi p pq . . . pq k . . .
p
p2
k=0
Можно рассмотреть также в качестве СВ η − количество всех испытаний, включая появление успеха. Понятно, что η = ξ + 1 и закон
распределения имеет вид (M [η] = M [ξ] + 1, D[η] = D[ξ])
∞
X
1
q
xi 1 2 . . . k . . .
k−1
,
q
=
1−p,
pq
=
1,
M
[η]
=
,
D[η]
=
.
pi p pq . . . pq k−1 . . .
p
p2
k=1
195
Некоторые НСВ
I. Равномерное распределение.
НСВ ξ имеет равномерное распределение R(a, b) на конечном отрезке [a, b], если функции плотности и распределения имеют вид (см.
рис. 7)



0,
x<a

 0, x ∈
 x−
/ [a, b]
a
1
, x ∈ [a, b] .
, Fξ (x) =
fξ (x) =


, x ∈ [a, b]
b
−
a

 1,
b−a
x>b
Вычисляя числовые характеристики, получим
(b − a)2
a+b
, D[ξ] =
.
M [ξ] =
2
12
Примерами таких НСВ могут служить: ошибка округления до ближайшего деления измерительного прибора; случайное время появления пассажира на остановке
транспорта; координата случайной точки, брошенной на отрезок.
196
y
y
6
1
(b−a)
6
..
.....
.....
.
.
.
....
....
....
.
.
.
.
..
.....
.....
1
............................................
-
a
b
x
a
а)
b
-
x
б)
Рис. 7: а) Функция fξ (x); б) функция Fξ (x) для равномерного распределения.
197
Пример. Длина комнаты измеряется с помощью рулетки с делениями в 10 см. При этом округление производится до ближайшего деления. Пусть СВ ξ − ошибка измерения. Найти закон распределения,
математическое ожидание и дисперсию ξ.
Решение. НСВ ξ принимает значения на отрезке [−5, 5] и имеет
равномерное распределение с плотностью
(
0, x ∈
/ [−5, 5]
fξ (x) =
1
, x ∈ [−5, 5]
10
Подставляя a = −5, b = 5 в известные формулы для M [ξ] и D[ξ],
получим
a+b
(b − a)2 100
M [ξ] =
= 0, D[ξ] =
=
≈ 8, 33.
2
12
12
Задача решена.
198
II. Показательное распределение.
1). Рассмотрим пуассоновский поток случайных событий плотности λ. Пусть СВ ξ − время между двумя соседними событиями потока. Тогда ξ ≥ 0 −НСВ, распределенная по показательному закону
E(λ) с параметром λ. Функции плотности и распределения показательного закона имеют вид (см. рис. 8)
½
½
0,
x<0
0,
x<0
fξ (x) =
,
F
(x)
=
,
ξ
λe−λx, x > 0
1 − e−λx, x > 0
M [ξ] = σ[ξ] =
199
1
.
λ
y
y
6
1
λ ..............................
...........
.............
...................
......................
-
x
а)
6
...........
.........................
...............
.
.
.
.
.
.
.
.
.
.
.
.........
.......
.....
.
.
.
.
...
..
-
x
б)
Рис. 8: а) Функция fξ (x); б) функция Fξ (x) для показательного распределения.
200
2). Пусть случайные события пуассоновского потока есть отказы в
работе некоторой системы.
201
2). Пусть случайные события пуассоновского потока есть отказы в
работе некоторой системы.
Fξ (t) = p(ξ < t) − вероятность того, что за время t произойдет хотя бы один отказ (т.к. ξ − время между двумя соседними событиями
потока, т.е. отказами).
202
2). Пусть случайные события пуассоновского потока есть отказы в
работе некоторой системы.
Fξ (t) = p(ξ < t) − вероятность того, что за время t произойдет хотя бы один отказ (т.к. ξ − время между двумя соседними событиями
потока, т.е. отказами).
Рассмотрим противоположное событие: A − «за время длительностью t не произойдет ни одного отказа»:
½
1, t < 0
p(A) = p(ξ > t) = 1 − p(ξ < t) = 1 − Fξ (t) = Rξ (t) =
e−λt, t > 0
203
2). Пусть случайные события пуассоновского потока есть отказы в
работе некоторой системы.
Fξ (t) = p(ξ < t) − вероятность того, что за время t произойдет хотя бы один отказ (т.к. ξ − время между двумя соседними событиями
потока, т.е. отказами).
Рассмотрим противоположное событие: A − «за время длительностью t не произойдет ни одного отказа»:
½
1, t < 0
p(A) = p(ξ > t) = 1 − p(ξ < t) = 1 − Fξ (t) = Rξ (t) =
e−λt, t > 0
Функция надежности Rξ (t)− вероятность безотказной работы системы в течение времени t с плотностью потока отказов λ.
При этом ξ − время безотказной работы системы, M [ξ] = λ1 −
среднее время безотказной работы. обычно функция надежности
Rξ (t) рассматривается только для t > 0 (см. рис. 9).
204
Rξ
6
1
...
...
...
....
.....
.......
..........
.............
.........................
....................
-
t
0
Рис. 9: Функция надежности Rξ (t).
205
Пример . Испытывают два независимо работающих элемента.
Длительность времени ξ безотказной работы первого элемента имеет показательное распределение E(λ = 0, 02) и Fξ (t) = 1 − e−0,02t.
Время безотказной работы η второго элемента описывается функцией надежности Rη (t) = e−0,05t. Найти вероятность того, что за время
длительностью 6ч.: а) оба элемента откажут; б) хотя бы один элемент
откажет.
Решение. Вероятность того, что первый элемент откажет за время
длительностью 6ч. (CC A) равна Fξ (6), а вероятность, того, что он не
откажет Rξ (6) = 1 − Fξ (6).
206
Пример . Испытывают два независимо работающих элемента.
Длительность времени ξ безотказной работы первого элемента имеет показательное распределение Fξ (t) = 1 − e−0,02t. Время безотказной работы η второго элемента описывается функцией надежности
Rη (t) = e−0,05t. Найти вероятность того, что за время длительностью
6ч.: а) оба элемента откажут; б) хотя бы один элемент откажет.
Решение. Вероятность того, что первый элемент откажет за время
длительностью 6ч. (CC A) равна Fξ (6), а вероятность, того, что он не
откажет Rξ (6) = 1 − Fξ (6).
Так же считаем вероятность безотказной работы второго элемента:
Rη (6) и вероятность отказа (СС B)− Fη (6) = 1 − Rη (6).
207
Пример .за время длительностью 6ч.: а) оба элемента откажут; б)
хотя бы один элемент откажет.
Решение. Вероятность того, что первый элемент откажет за время
длительностью 6ч. (CC A) равна Fξ (6), а вероятность, того, что он не
откажет Rξ (6) = 1 − Fξ (6).
Так же считаем вероятность безотказной работы второго элемента:
Rη (6) и вероятность отказа (СС B)− Fη (6) = 1 − Rη (6).
Проведем вычисления:
p(A) = Fξ (6) = 1 − e−0,02·6 = 0, 113 , p(A) = Rξ (6) = e−0,02·6 = 0, 887 ;
p(B) = Fη (6) = 1 − e−0,05·6 = 0, 259 , p(B) = Rη (6) = e−0,05·6 = 0, 741 .
Теперь вычисляем вероятности сложных событий
а) p(A · B) = p(A) · p(B) = 0, 113 · 0, 259 = 0, 03 ;
б) p(A + B) = 1 − p(A · B) = 1 − p(A) · p(B) = 1 − 0, 887 · 0, 741 = 0, 34.
Задача решена.
208
III. Нормальное распределение
НСВ ξ имеет нормальное распределение с параметрами a, σ −
N (a, σ), если функция плотности и функция распределения имеют
вид (см. рис.10)
(x − a)2
µ
¶
µ
¶
−
1
1
x
−
a
x
−
a
2σ 2 , Fξ (x) = + Φ
fξ (x) = √ e
=Ψ
, где
2
σ
σ
σ 2π
Zx
t2
1
e− 2 dt − функция Лапласа,
Φ(x) = √
2π
0
1
Ψ(x) = √
2π
Zx
e
2
− t2
−∞
dt =
1
+ Φ(x)
2
Φ(−x) = −Φ(x) , Ψ(−x) = 1 − Ψ(x) , Φ(b) − Φ(a) = Ψ(b) − Ψ(a).
Примером нормально распределенной НСВ служит ошибка измерений, которая
является следствием множества слабых случайных влияний
209
6y
1
..........
√1
.......... ..............
.....
σ 2π ..........
...
..
.
.....
.........
.
.
.
.
.
.
.
.
.
.
.
...
....................................
...
......
.........
..............
..................................
-
a
x
6y
...........................................
.....................
............
.
.
.
.
.
.
1
....
..
..
2
.
.
..
.....
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
...
................................................
-
a
а)
x
б)
Рис. 10: а) Функция fξ (x); б) функция Fξ (x) для нормального распределения.
210
Числовые характеристики N (a, σ).
1. M [ξ] = hξ = dξ = a, т.е. нормальное распределение симметрично
и параметр a есть математическое ожидание.
211
Числовые характеристики N (a, σ).
1. M [ξ] = hξ = dξ = a, т.е. нормальное распределение симметрично
и параметр a есть математическое ожидание.
2. D[ξ] = σ 2, т.е. параметр σ есть среднее квадратическое отклонение.
212
Числовые характеристики N (a, σ).
1. M [ξ] = hξ = dξ = a, т.е. нормальное распределение симметрично
и параметр a есть математическое ожидание.
2. D[ξ] = σ 2, т.е. параметр σ есть среднее квадратическое отклонение.
3. Центральные моменты порядка s
½
0,
если s нечетно
µs =
.
2
(s − 1)σ µs−2, если s четно
4. Коэффициенты асимметрии и эксцесса равны нулю:
Skξ = 0 , eξ = 0 .
213
4. Коэффициенты асимметрии и эксцесса равны нулю:
Skξ = 0 , eξ = 0 .
Вероятность попадания в интервал для N (a, σ).
1. В силу общего свойства функции распределения (см. стр. 109 ),
имеем
¶
µ
¶
µ
β−a
α−a
p(α < ξ < β) = Fξ (β) − Fξ (α) = Φ
−Φ
. (29)
σ
σ
214
Вероятность попадания в интервал для N (a, σ).
1. В силу общего свойства функции распределения (см. стр. 109 ),
имеем
µ
¶
µ
¶
β−a
α−a
p(α < ξ < β) = Fξ (β) − Fξ (α) = Φ
−Φ
. (29)
σ
σ
2. В частности, если интервал симметричен относительно математического ожидания a, то
³ε´
p(|ξ − a| < ε) = 2Φ
.
(30)
σ
215
Вероятность попадания в интервал для N (a, σ).
1. В силу общего свойства функции распределения (см. стр. 109 ),
имеем
µ
¶
µ
¶
β−a
α−a
p(α < ξ < β) = Fξ (β) − Fξ (α) = Φ
−Φ
. (29)
σ
σ
2. В частности, если интервал симметричен относительно математического ожидания a, то
³ε´
p(|ξ − a| < ε) = 2Φ
.
(30)
σ
3. Правило трех сигма: нормально распределенная НСВ ξ с дисперсией σ 2 практически не отклоняется от своего среднего значения
a больше, чем на 3σ :
p(|ξ − a| < 3σ) = 2Φ(3) = 0, 9973.
216
(31)
Пример. Производится измерение без систематических ошибок
диаметра вала. Случайная ошибка измерения ξ подчиняется нормальному распределению со стандартным (т.е. средним квадратическим) отклонением 1 см. Найти вероятность того, что ошибка измерения ξ не превзойдет по абсолютной величине 1,5 см.
Решение. Отсутствие систематических ошибок означает, что
M [ξ] = 0. Также задано σ = 1. Найдем требуемую вероятность по
формуле (30) и используем таблицу в приложении на стр. ??
µ ¶
1, 5
p(|ξ − M [ξ]| < ε) = p(|ξ| < 1, 5) = 2Φ
= 0, 8664.
1
Задача решена.
217
3.4. Последовательности СВ. Закон больших чисел
Рассмотрим бесконечную последовательность СВ {ξn}∞
n=1
ξ1, ξ2, . . . , ξn . . . . Пусть A − неслучайное число.
:
Определение 49. Последовательность СВ {ξn}∞
n=1 называется сходящейся по вероятности к числу A, если
p
∀ε > 0 lim p(|ξn − A| < ε) = 1 , обозначение: ξn −−−→ A.
n→∞
n→∞
218
Рассмотрим бесконечную последовательность СВ {ξn}∞
n=1
ξ1, ξ2, . . . , ξn . . . . Пусть A − неслучайное число.
:
Определение 49. Последовательность СВ {ξn}∞
n=1 называется сходящейся по вероятности к числу A, если
p
∀ε > 0 lim p(|ξn − A| < ε) = 1 , обозначение: ξn −−−→ A.
n→∞
n→∞
Определение 50. Последовательность СВ {ξn}∞
n=1 с функциями распределения Fn(x) называется сходящейся по распределению к СВ ξ
с функцией распределения Fξ (x), если в каждой точке непрерывности
x функции Fξ (x)
F
F
n→∞
n→∞
lim Fn(x) = Fξ (x) , обозначение: ξn −−−→ ξ (или ξn −−−→ Fξ (x)).
n→∞
Функцию распределения Fξ (x) называют асимптотической для
{ξn}∞
n=1 .
219
Закон больших чисел
Теорема 3.4.1 (Неравенство Чебышева). Для любой СВ ξ с математическим ожиданием M [ξ] и дисперсией D[ξ] верно неравенство
D[ξ]
p(|ξ − M [ξ]| ≥ ε) ≤ 2 .
(32)
ε
220
Закон больших чисел
Теорема 3.4.2 (Неравенство Чебышева). Для любой СВ ξ с математическим ожиданием M [ξ] и дисперсией D[ξ] верно неравенство
D[ξ]
p(|ξ − M [ξ]| ≥ ε) ≤ 2 .
(32)
ε
Следствие. 1. Неравенство (32), учитывая свойства противоположных СС, может быть записано в эквивалентной форме:
D[ξ]
.
ε2
2.(Правило
p трех сигма). Пусть в неравенстве Чебышева
ε = 3σ = 3 D[ξ], тогда
p(|ξ − M [ξ]| < ε) ≥ 1 −
1
σ2
=
p(|ξ − M [ξ]| ≥ 3σ) ≤
.
(3σ)2 9
221
(33)
Пример. Устройство состоит из 10 независимо работающих элементов. Вероятность отказа каждого из элементов за время t равна 0,05.
Пусть ξ − число отказавших элементов за время t. Оценить вероятность того, что абсолютная величина отклонения ξ от среднего значения отказов за время t окажется меньше двух, используя
а) неравенство Чебышева;
б) непосредственный счет по формуле Бернулли.
222
Пример. Устройство состоит из 10 независимо работающих элементов. Вероятность отказа каждого из элементов за время t равна 0,05.
Пусть ξ − число отказавших элементов за время t. Оценить вероятность того, что абсолютная величина отклонения ξ от среднего значения отказов за время t окажется меньше двух, используя
а) неравенство Чебышева;
б) непосредственный счет по формуле Бернулли.
Решение.
В задаче требуется оценить вероятность p(|ξ − M [ξ]| < 2).
Понятно, что СВ ξ распределена по закону Бернулли с параметрами p = 0, 05, n = 10. Поэтому
M [ξ] = np = 10 · 0, 05 = 0, 5, D[ξ] = npq = 10 · 0, 05 · 0, 95 = 0, 475.
223
Решение.
В задаче требуется оценить вероятность p(|ξ − M [ξ]| < 2).
Понятно, что СВ ξ распределена по закону Бернулли с параметрами p = 0, 05, n = 10. Поэтому
M [ξ] = np = 10 · 0, 05 = 0, 5, D[ξ] = npq = 10 · 0, 05 · 0, 95 = 0, 475.
а). Используя неравенство Чебышева (33), получим
p(|ξ − M [ξ]| < 2) ≥ 1 −
224
0, 475
= 0, 88.
4
Решение.
В задаче требуется оценить вероятность p(|ξ − M [ξ]| < 2).
Понятно, что СВ ξ распределена по закону Бернулли с параметрами p = 0, 05, n = 10. Поэтому
M [ξ] = np = 10 · 0, 05 = 0, 5, D[ξ] = npq = 10 · 0, 05 · 0, 95 = 0, 475.
а). Используя неравенство Чебышева (33), получим
0, 475
p(|ξ − M [ξ]| < 2) ≥ 1 −
= 0, 88.
4
б). Раскроем неравенство |ξ − M [ξ]| < 2 : −1, 5 < ξ < 2, 5, т.е.
ξ = 0, 1, 2. Теперь используем формулу Бернулли
p(|ξ − M [ξ]| < 2) = p10(0) + p10(1) + p10(2) =
= 0, 9510 + 10 · 0, 05 · 0, 959 + 45 · 0, 052 · 0, 958 = 0, 98846.
Сравнивая а) и б), можем заключить, что оценка с помощью неравенства Чебышева грубая, но не требует больших вычислений и знания закона распределения СВ, используя лишь значение D[ξ].
225
Теорема 3.4.3 (Теорема Чебышева). Пусть {ξi}∞
i=1 − последовательность попарно независимых СВ, имеющих конечные математические ожидания M [ξi] и ограниченные дисперсии, т.е.
найдется число K > 0 такое, что для любого i D[ξi] < K. Тогда
Ã
!
n
n
¯
¯1 X
X
1
K
¯
¯
(34)
p ¯
ξi −
M [ξi]¯ < ε ≥ 1 − 2 .
n i=1
n i=1
nε
226
Теорема 3.4.3 (Теорема Чебышева). Пусть {ξi}∞
i=1 − последовательность попарно независимых СВ, имеющих конечные математические ожидания M [ξi] и ограниченные дисперсии, т.е.
найдется число K > 0 такое, что для любого i D[ξi] < K. Тогда
Ã
!
n
n
¯
¯1 X
X
1
K
¯
¯
(34)
p ¯
ξi −
M [ξi]¯ < ε ≥ 1 − 2 .
n i=1
n i=1
nε
Следствие. 1. Пусть {ξi}∞
i=1 − последовательность попарно независимых, одинаково распределенных СВ, имеющих конечные математические ожидания M [ξi] = m и дисперсии. Тогда последовательn
P
p
1
ность СВ ξn = n
ξi сходится по вероятности к m : ξn −−−→ m.
n→∞
i=1
227
Следствие. 1. Пусть {ξi}∞
i=1 − последовательность попарно независимых, одинаково распределенных СВ, имеющих конечные математические ожидания M [ξi] = m и дисперсии. Тогда последовательn
P
p
1
ность СВ ξn = n
ξi сходится по вероятности к m : ξn −−−→ m.
n→∞
i=1
2. Частным случаем теоремы Чебышева является закон больших
чисел для схемы Бернулли: относительная частота ξn = m
n появления «успеха»в n независимых испытаниях сходится по вероятности
p
к теоретической вероятности «успеха», т.е. ξn −−−→ p. (Сравните с
n→∞
теоремой 2.8 на стр.87.)
Следствие 2 является обоснованием введения понятия статистической вероятности как предела отностительной частоты
228
Замечание. Теорема Чебышева лежит в основе практической интерпретации вероятности как относительной частоты «успехов»в
n независимых испытаниях, а математического ожидания СВ как
среднего арифметического значений этой СВ в n независимых испытаниях. Однако, сходимость по вероятности не исключает очень
редкой возможности значительного отклонения среднего арифметического от математического ожидания (или относительной частоты
от вероятности) при любом значении n.
229
Пример 1. Опыт состоит из n независимых испытаний, в каждом из
которых может появиться СС A с вероятностью p(A). Сколько раз
нужно повторить испытание, чтобы с вероятностью 0,9 гарантировать, что относительная частота появления СС A совпадает с теоретической вероятностью p(A) с точностью 0,1?
230
Пример 1. Опыт состоит из n независимых испытаний, в каждом из
которых может появиться СС A с вероятностью p(A). Сколько раз
нужно повторить испытание, чтобы с вероятностью 0,9 гарантировать, что относительная частота появления СС A совпадает с теоретической вероятностью p(A) с точностью 0,1?
Решение. Рассмотрим индикаторную СВ ξi − число появлений СС
A в i-м испытании. Тогда ее закон распределения имеет вид
xi
0
1
, M [ξi] = p(A), D[ξi] = p(A)(1 − p(A)) < 1.
pi 1 − p(A) p(A)
Тогда относительная частота появления СС A в n испытаниях
n
n
P
P
m
1
1
ξi, а n
M [ξi] = p(A).
n = n
i=1
i=1
231
Решение. Рассмотрим индикаторную СВ ξi − число появлений СС
A в i-м испытании. Тогда ее закон распределения имеет вид
xi
0
1
, M [ξi] = p(A), D[ξi] = p(A)(1 − p(A)) < 1.
pi 1 − p(A) p(A)
Тогда относительная частота появления СС A в n испытаниях
n
n
P
P
m
1
1
ξi, а n
M [ξi] = p(A).
n = n
i=1
i=1
Таким образом применима оценка (34) из теоремы Чебышева:
¯
´
³¯ m
1
¯
¯
> 0, 9 ⇒ n > 1000.
p ¯ − p(A)¯ < 0, 1 ≥ 1 −
n
n(0, 1)2
Итак, проводя серии по 1000 испытаний, примерно в 90% серий будем получать значение относительной частоты, которая отличается
от p(A) не более, чем на 0,1. Так можно определять теоретическую
вероятность.
232
Центральная предельная теорема
В широком смысле центральная предельная теорема (ЦПТ) утверждает, что сумма большого числа случайных слагаемых при довольно слабых ограничениях имеет распределение, близкое к нормальному. В узком смысле, под ЦПТ понимается ряд теорем, в которых
устанавливаются условия сходимости по распределению последовательности СВ к нормальному распределению.
233
Теорема 3.4.4 (Теорема Ляпунова). Пусть {ξi}∞
i=1 − последовательность попарно независимых, одинаково распределенных
СВ, имеющих конечные математические ожидания M [ξi] = m
n
P
2
ξi
и дисперсии D[ξi] = σ . Тогда последовательность СВ Sn =
i=1
сходится по распределению к нормально распределенной СВ η
√
с параметрами M [η] = nm, σ[η] = σ n, т.е.
Sn =
n
X
i=1
√
F
ξi −−−→ N (nm, σ n).
n→∞
234
(35)
Следствие. 1. Пусть последователоность {ξi}∞
i=1 удовлетворяет
условиям ЦПТ, тогда при достаточно больших значениях n верны
приближенные равенства
µ
¶
µ
¶
n
X
b − nm
a − nm
√
√
p(a ≤
ξi ≤ b) ≈ Φ
−Φ
,
(36)
σ
n
σ
n
i=1

n
P


µ
¶
ξi − ДСВ
 p(Sn = x), Sn =
x
−
nm
i=1
√
pSn (x) =
, (37)
≈ϕ
n
P

σ
n

ξi − НСВ
 fSn (x), Sn =
i=1
1
где Φ(x) = √
2π
Zx
0
t2
x2
−
1 −
2
e
dt − функция Лапласа, ϕ(x) = √ e 2 .
2π
235
2. Пусть последователоность {ξi}∞
i=1 удовлетворяет условиям ЦПТ,
тогда
n
√
1X
F
Sn =
ξi −−−→ N (m, σ/ n),
n→∞
n i=1
Sn − m F
√ −−−→ N (0, 1).
σ/ n n→∞
Для СВ из пункта 2 имеют место аналоги формул из пункта 1.
236
Таким образом, в ЦПТ и в следствии идет речь об асимптотическом
приближении сумм независимых слагаемых, средних арифметических и центрированных средних. Независимо от того, какие законы
распределения имеют слагаемые ξi, суммарная СВ распределяется
асимптотически нормально (при выполнении условий ЦПТ). На этом
основан практический вывод о том, что влияние большого числа слабых независимых факторов в сумме распределено нормально. Прмером может служить ошибка точных физических измерений.
237
I. Асимптотические формулы для распределения Бернулли.
В разделе «Асимптотические приближения формулы Бернулли»(см. стр.85) сформулированы локальная и интегральная теоремы
Лапласа, а также теорема Бернулли (теоремы 2.6, 2.7, 2.8). Покажем, что они являются следствием ЦПТ.
238
I. Асимптотические формулы для распределения Бернулли.
Действительно, если испытания проходят по схеме Бернулли с вероятностью «успеха»p, то СВ ξ − количество «успехов»в n испытаn
P
ниях есть сумма ξ =
ξi индикаторных СВ ξi − количество успехов
i=1
в i-м испытании с законом распределения
xi 0 1
, M [ξi] = p, D[ξi] = p(1 − p) = pq.
pi 1 − p p
239
I. Асимптотические формулы для распределения Бернулли.
n
P
ξ=
ξi и
i=1
xi 0 1
, M [ξi] = p, D[ξi] = p(1 − p) = pq.
pi 1 − p p
Для последовательности {ξi}∞
i=1 выполнены условия ЦПТ. Тогда для
достаточно больших n и p не близких к 0 и 1 (уcловия для n и p получаются с помощью специальных оценок скорости сходимости) по
формуле (35) имеем
ξ=
n
X
i=1
√ √
ξi −−−→ N (np, pq n).
F
n→∞
Подставляя параметры m = p и σ =
240
√
pq в формулы (36) и (37),
получаем интегральную и локальную теоремы соответственно:
µ
¶
µ
¶
b − np
a − np
p(a ≤ ξ ≤ b) ≈ Φ √
−Φ √
,
npq
npq
µ
¶
x − np
p(ξ = x) ≈ ϕ √
.
npq
А теорема Бернулли есть частный случай интегральной теоремы Лапласа.
241
II. Асимптотические формулы для распределения Пуассона.
Рассмотрим последовательность независимых СВ {ξi}∞
i=1 , где ξi
распределены по закону Пуассона с параметром λ = M [ξi] = D[ξi]
(см. стр.181). Тогда по ЦПТ по формуле (35), учитывая, что
m = σ 2 = λ, имеем
ξ=
n
X
i=1
√ √
ξi −−−→ N (nλ, λ n).
F
n→∞
242
II. Асимптотические формулы для распределения Пуассона.
Рассмотрим последовательность независимых СВ {ξi}∞
i=1 , где ξi
распределены по закону Пуассона с параметром λ = M [ξi] = D[ξi]
(см. стр.181). Тогда по ЦПТ по формуле (35), учитывая, что
m = σ 2 = λ, имеем
ξ=
n
X
i=1
√ √
ξi −−−→ N (nλ, λ n).
F
n→∞
Например, на автоматическую телефонную станцию поступает
простейший поток вазовов плотностью λ. Пусть СВ ξ − число вызовов за единицу времени. Тогда ξ имеет распределение Пуассона.
Требуется оценить вероятность поступления k вызовов за n единиц
времени: pn(k) и вероятность pn(k1 ≤ k ≤ k2) (число вызовов k за
время n не меньше k1 и не больше k2).
243
II. Асимптотические формулы для распределения Пуассона.
ξ=
n
X
i=1
√ √
ξi −−−→ N (nλ, λ n).
F
n→∞
Требуется оценить вероятность поступления k вызовов за n единиц
времени: pn(k) и вероятность pn(k1 ≤ k ≤ k2) (число вызовов k за
время n не меньше k1 и не больше k2).
Пусть ξi − число вызовов за i-ю единицу времени, тогда чиcло выn
P
зовов за время n есть сумма ξn =
ξi. Применяя формулы (37) и
i=1
(36), получим
µ
¶
(k − nλ)2
−
2nλ
e
(nλ)k −nλk
k − nλ
1
pn(k) =
e
≈ϕ √
=√
k!
nλ
2πnλ
µ
µ
¶
¶
b − nλ
a − nλ
pn(k1 ≤ k ≤ k2) ≈ Φ √
−Φ √
nλ
nλ
244
Формулы достаточно точны уже при nλ > 9.
Список подобных асимптотических формул для разных законов
распределения можно продолжить.
245
Пример. Игральная кость подбрасывается 210 раз. Найти вероятность того, что сумма выпавших очков превысит 700.
246
Пример. Игральная кость подбрасывается 210 раз. Найти вероятность того, что сумма выпавших очков превысит 700.
Решение. Пусть кость бросается n раз и СВ ξi − число выпавших
n
P
очков при i-м бросании. Тогда ξn =
ξi − сумма выпавших очков.
i=1
247
Пример. Игральная кость подбрасывается 210 раз. Найти вероятность того, что сумма выпавших очков превысит 700.
Решение. Пусть кость бросается n раз и СВ ξi − число выпавших
n
P
очков при i-м бросании. Тогда ξn =
ξi − сумма выпавших очков.
i=1
Найдем вероятность p(ξ > 700), если n = 210.
Считая применимой ЦПТ, имеем: распределение СВ ξ асимптоти√
чески нормальное N (mn, σ n) с параметрами
√
√
mn = M [ξi] · 210, σ n = σ[ξi] 210.
248
Решение. Пусть кость бросается n раз и СВ ξi − число выпавших
n
P
очков при i-м бросании. Тогда ξn =
ξi − сумма выпавших очков.
i=1
Найдем вероятность p(ξ > 700), если n = 210.
Считая применимой ЦПТ, имеем: распределение СВ ξ асимптоти√
чески нормальное N (mn, σ n) с параметрами
√
√
mn = M [ξi] · 210, σ n = σ[ξi] 210.
Посчитаем закон распределения и характеристики ДСВ ξi :
7
35
xi 1
2
3
4
5
6
, M [ξi] = , D[ξi] =
= σ[ξi]2.
pi 1/6 1/6 1/6 1/6 1/6 1/6
2
12
249
Решение. Пусть кость бросается n раз и СВ ξi − число выпавших
n
P
очков при i-м бросании. Тогда ξn =
ξi − сумма выпавших очков.
i=1
Найдем вероятность p(ξ > 700), если n = 210.
Считая применимой ЦПТ, имеем: распределение СВ ξ асимптоти√
чески нормальное N (mn, σ n) с параметрами
√
√
mn = M [ξi] · 210, σ n = σ[ξi] 210.
Посчитаем закон распределения и характеристики ДСВ ξi :
7
35
xi 1
2
3
4
5
6
, M [ξi] = , D[ξi] =
= σ[ξi]2.
pi 1/6 1/6 1/6 1/6 1/6 1/6
2
12
Тогда вероятность p(ξ > 700) будем вычислять по формулам для нормального распределения N (735, √352 ):
µ
¶
³√ ´
700 − 735
1
1
√
= +Φ
2 = 0, 5+0, 4207 = 0, 9207.
p(ξ > 700) ≈ −Φ
2
2
35/ 2
250
Пример. Блок устройства работает исправно в течение времени ξ,
после отказа его мгновенно заменяют новым из резерва, содержащего n − 1 таких блоков (n — велико). Поток отказов простейший с
интенсивностью λ. Найти вероятность того, что блок проработает не
менее 130 единиц времени, если λ = 0, 5, n = 50.
251
Пример. Блок устройства работает исправно в течение времени ξ,
после отказа его мгновенно заменяют новым из резерва, содержащего n − 1 таких блоков (n — велико). Поток отказов простейший с
интенсивностью λ. Найти вероятность того, что блок проработает не
менее 130 единиц времени, если λ = 0, 5, n = 50.
Решение. Пусть СВ ξi — время работы блока до i-о отказа. Тогда
распределение СВ ξi — экспоненциальное E(λ) с параметром λ =
0, 5 (см. стр.199)
1
1
M [ξi] = σ[ξi] = =
.
λ 0, 5
50
P
Тогда суммарное время работы η =
ξi распределяется асимптотиi=1
√
чески нормально N (mn, σ n) с параметрами
√
1
1 √
mn =
· 50 = 100, σ n =
50 ≈ 14, 14.
0, 5
0, 5
252
Используя формулу (36) (Φ(+∞) = 12 ), имеем
µ
¶
1
130 − 100
1
1
p(η > 130) = −Φ
= −Φ (2, 121) = −0, 4821 = 0, 017.
2
14, 14
2
2
Вероятность найдена.
253
4. Двумерные СВ
Рассмотрим случайный вектор (ξ, η) как действительную векторфункцию на ПЭС Ω (см. стр.97):
Одномерные СВ ξ и η есть компоненты случайного вектора.
4.1. Законы распределения
254
Рассмотрим случайный вектор (ξ, η) как действительную векторфункцию на ПЭС Ω (см. стр.97):
Одномерные СВ ξ и η есть компоненты случайного вектора.
Законы распределения
Определение 50. Значение функции распределения двумерной СВ
(ξ, η) (дискретной или непрерывной) в каждой точке (x, y) есть вероятность произведения СС «ξ < x» и «η < y:»
Fξη (x, y) = p(ξ < x, η < y).
255
s6
y
x
-t
s (x, y)
A A A A A A A A
A A A A A A A AA
A A A A A A A
A A A A A A A
A A A A A A A
Рис. 11:
Определение 50. Значение функции распределения двумерной СВ
(ξ, η) (дискретной или непрерывной) в каждой точке (x, y) есть вероятность произведения СС «ξ < x» и «η < y:»
Fξη (x, y) = p(ξ < x, η < y).
Fξη (x, y) есть вероятность попадания случайной точки (ξ, η) в квадрант с вершиной в точке (x, y) (см. рис. 11).
256
Свойства функции распределения Fξη (x, y) = p(ξ < x, η < y).
1. 0 ≤ Fξη (x) ≤ 1.
257
Свойства функции распределения Fξη (x, y) = p(ξ < x, η < y).
1. 0 ≤ Fξη (x) ≤ 1.
2. Если x1 < x2, то Fξη (x1, y) ≤ Fξη (x2, y);
если y1 < y2, то Fξη (x, y1) ≤ Fξη (x, y2).
Fξη (x, y) неубывающая функция по обоим аргументам.
258
Свойства функции распределения Fξη (x, y) = p(ξ < x, η < y).
1. 0 ≤ Fξη (x) ≤ 1.
2. Если x1 < x2, то Fξη (x1, y) ≤ Fξη (x2, y);
если y1 < y2, то Fξη (x, y1) ≤ Fξη (x, y2).
Fξη (x, y) неубывающая функция по обоим аргументам.
3. Fξη (−∞, y) = Fξη (x, −∞) = Fξη (−∞, −∞) = 0;
Fξη (+∞, +∞) = 1.
Действительно, Fξη (−∞, y) = p(ξ < −∞, η < y) = 0
259
Свойства функции распределения Fξη (x, y) = p(ξ < x, η < y).
1. 0 ≤ Fξη (x) ≤ 1.
2. Если x1 < x2, то Fξη (x1, y) ≤ Fξη (x2, y);
если y1 < y2, то Fξη (x, y1) ≤ Fξη (x, y2).
Fξη (x, y) неубывающая функция по обоим аргументам.
3. Fξη (−∞, y) = Fξη (x, −∞) = Fξη (−∞, −∞) = 0;
Fξη (+∞, +∞) = 1.
Действительно, Fξη (−∞, y) = p(ξ < −∞, η < y) = 0
4. Функции распределения компонент выражаются через функцию
совместного распределения:
Fξη (x, +∞) = Fξ (x), Fξη (+∞, y) = Fη (y).
Действительно,Fξη (+∞, y) = p(ξ < +∞, η < y) = p(η < y) = Fη (y)
260
Свойства функции распределения Fξη (x, y) = p(ξ < x, η < y).
1. 0 ≤ Fξη (x) ≤ 1.
2. Если x1 < x2, то Fξη (x1, y) ≤ Fξη (x2, y);
если y1 < y2, то Fξη (x, y1) ≤ Fξη (x, y2).
Fξη (x, y) неубывающая функция по обоим аргументам.
3. Fξη (−∞, y) = Fξη (x, −∞) = Fξη (−∞, −∞) = 0;
Fξη (+∞, +∞) = 1.
Действительно, Fξη (−∞, y) = p(ξ < −∞, η < y) = 0
4. Функции распределения компонент выражаются через функцию
совместного распределения:
Fξη (x, +∞) = Fξ (x), Fξη (+∞, y) = Fη (y).
Действительно,Fξη (+∞, y) = p(ξ < +∞, η < y) = p(η < y) = Fη (y)
5. Fξη (x, y) непрерывная слева по любому аргументу:
Fξη (x − 0, y) = Fξη (x, y); Fξη (x, y − 0) = Fξη (x, y).
261
y6
(a, d)
(a, c)
(b, d)
-x
(b, c)
Рис. 12:
6. Вероятность попадания случайной точки (ξ, η) в прямоугольник
D : a ≤ x ≤ b; c ≤ y ≤ d (см, рис.12):
p((ξ, η) ∈ D) = Fξη (b, d) − Fξη (a, d) − Fξη (b, c) + Fξη (a, c).
262
Закон распределения дискретного случайного вектора
Пусть (ξ, η) − дискретный случайный вектор, т.е. его множество значений конечно или счетно. Тогда набор значений вектора
{(xi, yj )} с их вероятностями p(ξ = xi, η = yj ) = pij есть одна из
форм закона распределения. Обычно для конечного множества значений (1 ≤ i ≤ k, 1 ≤ j ≤ m) такое распределение вероятностей
оформляется в таблицу − матрицу распределения:
ξ\η
x1
x2
...
xk
y1
p11
p21
...
pk1
y2
p12
p22
...
pk2
...
...
...
...
...
ym
p1m X
k X
m
pij = 1.
p2m ,
i=1 j=1
...
pkm
263
По матрице распределения можно вычислить функцию распределения:
XX
Fξη (x, y) =
pij
(38)
xi <x yj <y
и законы распределения составляющих − СВ ξ и η
p(ξ = xi) =
m
X
pij , - сумма по i-й строке,
j=1
p(η = yj ) =
k
X
pij - сумма по j-у столбцу.
i=1
264
(39)
Пример 1. Два стрелка независимо друг от друга делают по два выстрела каждый по своей мишени. Вероятность попадания при каждом выстреле для первого и второго стрелков p1 = 0, 7 и p2 = 0, 4
соответственно. Найти матрицу распределения и функцию распределения случайного вектора (ξ, η), где ξ − количество попаданий в
мишени первого стрелка, а η − в мишени второго. Найти законы распределения составляющих.
265
Пример 1. Два стрелка независимо друг от друга делают по два выстрела каждый по своей мишени. Вероятность попадания при каждом выстреле для первого и второго стрелков p1 = 0, 7 и p2 = 0, 4
соответственно. Найти матрицу распределения и функцию распределения случайного вектора (ξ, η), где ξ − количество попаданий в
мишени первого стрелка, а η − в мишени второго. Найти законы распределения составляющих.
Решение. В первую очередь найдем множество значений СВ ξ и η:
ξ ∈ {0, 1, 2}, η ∈ {0, 1, 2}.
Тогда случайный вектор (ξ, η) принимает 9 значений
(xi, yj ), 0 ≤ xi, yj ≤ 2.
266
Пример 1. Два стрелка независимо друг от друга делают по два выстрела каждый по своей мишени. Вероятность попадания при каждом выстреле для первого и второго стрелков p1 = 0, 7 и p2 = 0, 4
соответственно. Найти матрицу распределения и функцию распределения случайного вектора (ξ, η), где ξ − количество попаданий в
мишени первого стрелка, а η − в мишени второго. Найти законы распределения составляющих.
Решение. В первую очередь найдем множество значений СВ ξ и η:
ξ ∈ {0, 1, 2}, η ∈ {0, 1, 2}.
Тогда случайный вектор (ξ, η) принимает 9 значений
(xi, yj ), 0 ≤ xi, yj ≤ 2.
Вычислим вероятность одного из них:
p(ξ| = 0,{zη = 0}) = (1 − p1)2(1 − p2)2 = 0, 32 · 0, 62 = 0, 0324.
независимы
267
Решение. В первую очередь найдем множество значений СВ ξ и η:
ξ ∈ {0, 1, 2}, η ∈ {0, 1, 2}.
Тогда случайный вектор (ξ, η) принимает 9 значений
(xi, yj ), 0 ≤ xi, yj ≤ 2.
Вычислим вероятность одного из них:
p(ξ| = 0,{zη = 0}) = (1 − p1)2(1 − p2)2 = 0, 32 · 0, 62 = 0, 0324.
независимы
Учитывая, что первый стрелок может попасть первым или вторым
выстрелом, получим
p(ξ = 1, η = 0) = p1(1 − p1)p22 +(1 − p1)p1p22 = 0, 7 · 0, 3 · 0, 62 · 2 = 0, 1512.
Сведем вычисления в таблицу распределения
ξ\η
0
1
2
3
3
0 0, 0324 0, 0432 0, 0144 X X
pij = 1.
,
1 0, 1512 0, 2016 0, 0672
i=1 j=1
2 0, 1764 0, 2352 0, 0784
268
По таблице можно сразу найти законы распределения составляющих: вероятности значений ξ есть построчные суммы чисел pij , а для
η − суммы по столбцам (см. формулу (39)):
ξ\η
0
1
2
ξ
0 0, 0324 0, 0432 0, 0144 0, 09
1 0, 1512 0, 2016 0, 0672 0, 42 .
2 0, 1764 0, 2352 0, 0784 0, 49
η
0, 36 0, 48 0, 16
1
(40)
Заметим, что в силу независимости соответствующих событий
pij = p(ξ = xi)p(η = yj ) для всех i, j. Например, 0, 42 · 0, 48 = 0, 2016.
269
По таблице можно сразу найти законы распределения составляющих: вероятности значений ξ есть построчные суммы чисел pij , а для
η − суммы по столбцам (см. формулу (39)):
ξ\η
0
1
2
ξ
0 0, 0324 0, 0432 0, 0144 0, 09
1 0, 1512 0, 2016 0, 0672 0, 42 .
2 0, 1764 0, 2352 0, 0784 0, 49
η
0, 36 0, 48 0, 16
1
(41)
Заметим, что в силу независимости соответствующих событий
pij = p(ξ = xi)p(η = yj ) для всех i, j. Например, 0, 42 · 0, 48 = 0, 2016.
Найдем функцию распределения − функцию накопленных вероятностей.
Значение функции Fξη (x, y) зависит от того, где находятся аргументы x, y по отношению к числам 0,1,2.
270
6η
2s
s
1s
s
s
s
(x, y)
A A A A A
A A As A As
A A A A A
A 0A A A 1A
A A A A A
s
2
-
ξ
Рис. 13:
Например, (по формуле (38) Fξη (x, y) =
P P
xi <x yj <y
pij ) считаем веро-
ятность попадания в соответствующий квадрант (см. рис. 13)
если x ≤ 0 или y ≤ 0, то Fξη (x, y) = 0;
если 1 < x ≤ 2 и 0 < y ≤ 1, то
Fξη (x, y) = p((ξ = 0, η = 0)или (ξ = 1, η = 0)) =
= p11 + p21 = 0, 0324 + 0, 1512 = 0, 1836.
271
Продолжая таким же образом, получим степенчатую функцию накопленных вероятностей Fξη (x, y)
x\y
y≤0 0<y≤1 1<y≤2 y>2
x≤0
0
0
0
0
0<x≤1
0
0, 0324
0, 0756 0, 09 .
1<x≤2
0
0, 1836
0, 4284 0, 51
x>2
0
0, 36
0, 84
1
272
Закон распределения непрерывного случайного вектора
Определение 51. (ξ, η) − непрерывный случайный вектор, если
его функция распределения Fξη (x, y) непрерывна, дифференцируема по
каждому из аргументов и существует вторая производная
рывная всюду за исключением конечного числа кривых.
∂ 2 Fξη
∂x∂y
непре-
Компоненты ξ и η непрерывные СВ.
Определение 52. Функция плотности совместного распределения вероятностей (плотность вероятностей) двумерной непрерывной СВ (ξ, η) есть
∂ 2Fξη
fξη (x, y) =
.
(42)
∂x∂y
График функции плотности есть поверхность, которая называется
поверхностью распределения.
273
∂ 2 Fξη
∂x∂y
Вероятностный смысл fξη (x, y) =
по теореме Лагранжа, если a = x, b = x + ∆x, c = y, d = y + ∆y,
(см. 262) то
p((ξ, η) ∈ D) = Fξη (b, d) − Fξη (a, d) − (Fξη (b, c) − Fξη (a, c))
00
= Fxy
(x, y)∆x∆y.
Поэтому
fξη (x, y) =
p((ξ, η) ∈ D)
∆x∆y
274
Свойства двумерной плотности распределения fξη (x, y).
1. Функция плотности неотрицательна и удовлетворяет условию
нормировки
Z+∞ Z+∞
fξη (x, y) dxdy = 1.
−∞ −∞
275
Свойства двумерной плотности распределения fξη (x, y).
1. Функция плотности неотрицательна и удовлетворяет условию
нормировки
Z+∞ Z+∞
fξη (x, y) dxdy = 1.
−∞ −∞
2. Вероятность попадания значения СВ в область D
ZZ
p((ξ, η) ∈ D) =
fξη (x, y) dxdy.
D
276
Свойства двумерной плотности распределения fξη (x, y).
1. Функция плотности неотрицательна и удовлетворяет условию
нормировки
Z+∞ Z+∞
fξη (x, y) dxdy = 1.
−∞ −∞
2. Вероятность попадания значения СВ в область D
ZZ
p((ξ, η) ∈ D) =
fξη (x, y) dxdy.
D
Действительно, т.к. p((ξ, η) ∈ D) ≈ f (x, y)∆x∆y и интегральная сумP
ма имеет вид f (xi, yi)∆xi∆yi
277
3. Вычисление совместной функции распределения и функций распределения компонент
Zx Zy
Fξη (x, y) =
fξη (t, s) dtds, t ∈ (−∞, x), s ∈ (−∞, y);
−∞ −∞
Zx Z+∞
Fξ (x) = Fξη (x, +∞) =
fξη (t, s) dtds, t ∈ (−∞, x), s ∈ (−∞, +∞);
−∞ −∞
Zy Z+∞
Fη (y) = Fξη (+∞, y) =
fξη (t, s) dtds, s ∈ (−∞, y), t ∈ (−∞, +∞).
−∞ −∞
278
3. Вычисление совместной функции распределения и функций распределения компонент
Zx Zy
Fξη (x, y) =
fξη (t, s) dtds, t ∈ (−∞, x), s ∈ (−∞, y);
−∞ −∞
Zx Z+∞
Fξ (x) = Fξη (x, +∞) =
fξη (t, s) dtds, t ∈ (−∞, x), s ∈ (−∞, +∞);
−∞ −∞
Zy Z+∞
fξη (t, s) dtds, s ∈ (−∞, y), t ∈ (−∞, +∞).
Fη (y) = Fξη (+∞, y) =
−∞ −∞
4. Вычисление функций плотности распределения компонент
Z+∞
Z+∞
fξ (x) =
fξη (x, y) dy ; fη (y) =
fξη (x, y) dx.
(43)
−∞
−∞
279
Определение 53. Говорят, что случайный вектор (ξ, η) непрерывного типа распределен равномерно в области Ω плоскости xOy, если
плотность распределения вероятностей такого вектора имеет вид
(
0, (x, y) ∈
/Ω
fξη (x, y) =
,
1
,
(x,
y)
∈
Ω
S(Ω)
где S(Ω) − площадь Ω.
Для равномерно распределенных в области Ω векторов верна формула
S(D ∩ Ω)
.
p((x, y) ∈ D) =
S(Ω)
Эта формула повторяет определение геометрической вероятности
(см. стр.48). Но теперь понятно, что она применяется только для
математической модели с «равновозможными» значениями вектора
(x, y).
280
Пример 2. Случайный вектор (ξ, η) распределен равномерно внутри
квадрата
a
a
Ω = {(x, y) : − < x, y < } .
2
2
Найти: 1) законы распределения компонент; 2) совместную функцию
распределения Fξη (x, y).
281
Пример 2. Случайный вектор (ξ, η) распределен равномерно внутри
квадрата
a
a
Ω = {(x, y) : − < x, y < } .
2
2
Найти: 1) законы распределения компонент; 2) совместную функцию
распределения Fξη (x, y).
Решение. 1). Совместная плотность равномерного распределения
в заданном квадрате Ω имеет вид
½
0, |x| ≥ a2 или |y| ≥ a2
.
fξη (x, y) =
1
a
a
,
|x|
<
и
|y|
<
2
2
2
a
282
Решение. 1). Совместная плотность равномерного распределения
в заданном квадрате Ω имеет вид
½
0, |x| ≥ a2 или |y| ≥ a2
fξη (x, y) =
.
a
1
a
,
|x|
<
и
|y|
<
2
2
a2
Плотности составляющих найдем по свойству 4 ( стр.277)

0,
|x| ≥ a2

Z+∞

a/2
R dy 1
fξ (x) =
fξη (x, y) dy =
a ,
,
|x|
<
=


a
2
a2
−∞
−a/2
½
fη (y) =
0, |y| ≥
1
a , |y| <
283
a
2
a
2
.
Решение. 1). Совместная плотность равномерного распределения
в заданном квадрате Ω имеет вид
½
0, |x| ≥ a2 или |y| ≥ a2
fξη (x, y) =
.
a
1
a
,
|x|
<
и
|y|
<
2
2
a2
Плотности составляющих найдем по свойству 4 ( стр.277)

0,
|x| ≥ a2

Z+∞

a/2
R dy 1
fξ (x) =
fξη (x, y) dy =
a ,
,
|x|
<
=


a
2
a2
−∞
−a/2
½
fη (y) =
0, |y| ≥
1
a , |y| <
284
a
2
a
2
.
Функции распределения компонент находим по свойству 3 (стр.116)


0,
x ≤ − a2

x

Z
 Rx
dt
1
a
a
a
=
(x
+
),
−
<
x
≤
Fξ (x) =
fξ (t) dt =
a
a
2
2
2 ,

−a/2


−∞

1,
x > a2

Zy
0,
y ≤ − a2

1
Fη (y) =
fη (t) dt =
(y + a2 ), − a2 < y ≤ a2 .
a

1,
y > a2
−∞
285
2). Найдем совместную функцию распределения Fξη (x, y). Поскольку применение формулы из свойства 3 на стр.277 зависит от
того где находится точка (x, y), рассмотрим пять областей на плоскости tOs (см. рис.14):
½ a
½
·
a
a
−2 < t ≤ 2
t > a2
t ≤ −2
K:
, L:
, M:
,
s ≤ − a2
s > a2
s > a2
½
½ a
t > a2
− 2 < t < a2
N:
, Ω:
.
− a2 < s ≤ a2
− a2 < s < a2
286
L
K
− a2
M
s6
Ω
y
a
2
N
x
-t
s (x, y)
A A A A A A A A
A A A A A A A AA
A A A A A A A
A A A A A A A
ADA A A A A A
Рис. 14: К примеру 2.
287
Формула из свойства 3 на стр.277 выглядит следующим образом
Zx Zy
Fξη (x, y) =
ZZ
fξη (t, s) dtds =
−∞ −∞
fξη (t, s) dtds, t ∈ (−∞, x), s ∈ (−∞, y),
D
где D − квадрант с вершиной в точке (x, y) (на рис.14 заштрихованная область).
Рассмотрим случай, изображенный на рис.14: точка (x, y) принадлежит области N .
Тогда область интегрирования D представим в виде объединения
областей: D = (D ∩ Ω) ∪ (D \ Ω). Но функция плотности fξη (t, s)
принимает ненулевые значения только внутри Ω, т.е. в D ∩ Ω :
288
½
− a2 < t < a2
, поэтому
− a2 < s < y
ZZ
Fξη (x, y) =
ZZ
1
dtds =
a2
fξη (t, s) dtds =
D
D∩Ω
Za/2 Zy
1
1
a
dtds
=
(y+
).
a2
a
2
−a/2 −a/2
Подобным образом рассуждаем в оставшихся четырех случаях расположения точки (x, y) :
ZZ
если (x, y) ∈ K, то D ∩ Ω = ∅ ⇒ Fξη (x, y) =
fξη (t, s) dtds = 0,
½
если (x, y) ∈ L, то D ∩ Ω :
289
D
− a2 < t < x
т.е.
− a2 < s < a2
Zx Za/2
ZZ
Fξη (x, y) =
fξη (t, s) dtds =
D
−a/2 −a/2
½
если (x, y) ∈ M, то D ∩ Ω :
Fξη (x, y) =
fξη (t, s) dtds =
D
Zx Zy
ZZ
1
dtds = 1,
a2
−a/2 −a/2
½
если (x, y) ∈ Ω, то D ∩ Ω :
fξη (t, s) dtds =
D
− a2 < t < a2
т.е.
− a2 < s < a2
Za/2 Za/2
ZZ
Fξη (x, y) =
1
1
a
dtds
=
(x
+
),
a2
a
2
−a/2 −a/2
290
− a2 < t < x
т.е.
− a2 < s < y
1
1
a
a
dtds
=
(x
+
)(y
+
).
a2
a2
2
2
Таким образом получена совместная функция распределения

a
a

или
y
≤
−
0,
x
≤
−

2
2


1
a
a
a
a

−2 < x < 2 , y > 2

a (x + 2 ),
1
Fξη (x, y) =
.
(y + a2 ),
− a2 < y < a2 , x > a2
a

1
a
a
a
a
a
a


(x
+
)(y
+
),
−
<
y
≤
,
−
<
x
≤
2

2
2
2
2
2
2

a
a
a
1,
x>2, y>2
Задача решена.
291
4.2. Условные законы распределения,
зависимость СВ
Определение 54. Если (ξ, η) − дискретный случайный вектор, то
условным распределением (условным законом) случайной величины ξ при условии, что СВ η приняла значение yj , называется соответствие между значениями ξ = xi и отношениями
p(ξ = xi, η = yj )/p(η = yj ).
292
Определение 54. Если (ξ, η) − дискретный случайный вектор, то
условным распределением (условным законом) случайной величины ξ при условии, что СВ η приняла значение yj , называется соответствие между значениями ξ = xi и отношениями
p(ξ = xi, η = yj )/p(η = yj ).
Если закон распределения случайного вектора задан таблицей
ξ\η
x1
x2
...
xk
y1
p11
p21
...
pk1
y2
p12
p22
...
pk2
...
...
...
...
...
ym
p1m X
k X
m
pij = 1,
p2m ,
i=1 j=1
...
pkm
293
то p(η = yj ) =
k
P
s=1
psj = p·j , и
p(ξ = xi, η = yj )/p(η = yj ) = pij /p·j .
Условный закон распределения ξ при условии η = yj можно оформить таблицей (также η при условии ξ = xi)
pij
ξ|η = yj x1 x2 . . . xk
, pi = p(ξ = xi|η = yj ) = k
,
pi
p1 p2 . . . pk
P
psj
(44)
s=1
pij
η|ξ = xi y1 y2 . . . ym
, pj = p(η = yj |ξ = xi) = P
.
m
pj
p1 p2 . . . p m
pis
s=1
Если множество возможных значений ДСВ η бесконечно, то p·j есть
∞
P
сумма ряда: p(η = yj ) =
psj = p·j . В общем случае будем писать
s=1
P
psj .
s
294
Определение 55. Если (ξ, η) − непрерывный случайный вектор, то
условной плотностью распределениия случайной величины ξ при
условии, что СВ η приняла значение y, называется отношение
fξ (x|η = y) =
fξη (x, y)
, fη (y) > 0.
fη (y)
295
(45)
Определение 55. Если (ξ, η) − непрерывный случайный вектор, то
условной плотностью распределениия случайной величины ξ при
условии, что СВ η приняла значение y, называется отношение
fξη (x, y)
fξ (x|η = y) =
, fη (y) > 0.
(45)
fη (y)
Учитывая свойство плотностей 4 на стр. 277), получим
fξη (x, y)
.
fξ (x|η = y) = +∞
R
fξη (x, y) dx
−∞
Переписывая формулы (44) и (45), получим аналог теоремы умножения СС − формулу умножения плотностей:
fξη (x, y) = fξ (x|η = y)fη (y), (ξ, η) − НСВ;
p(ξ = xi, η = yj ) = p(ξ = xi|η = yj )p(yj ), (ξ, η) − ДСВ.
296
(46)
Комбинируя формулы (39), (43), (46), получим формулу полной
вероятности:
Z∞
Z∞
fξ (x) =
fξη (x, y) dy =
fξ (x|η = y)fη (y) dy, (ξ, η) − НСВ; (47)
−∞
p(ξ = xi) =
X
−∞
p(ξ = xi, η = yj ) =
X
j
j
297
p(ξ = xi|η = yj )p(yj ), (ξ, η)−ДСВ.
Свойства условных законов распределения.
ДСВ
Неотрицательность
p(ξ = xi |η = yj ) ≥ 0, ∀xi (yj )
Условие нормировки
P
p(ξ = xi |η = yj ) = 1, ∀yj
НСВ
fξ (x|η = y) ≥ 0
R∞
i
fξ (x|η = y) dx = 1, fη (y) > 0
−∞
Вероятность попадания в интервал
Rb
P
p(a < ξ ≤ b|η = yj ) =
p(xi |η = yj ) p(a < ξ ≤ b|η = y) = fξ (x|η = y) dx
a<xi ≤b
a
Перечисленные свойства повторяют свойства одномерных законов
распределения (см. стр. 116).
298
Свойства условных законов распределения.
ДСВ
Неотрицательность
p(ξ = xi |η = yj ) ≥ 0, ∀xi (yj )
Условие нормировки
P
p(ξ = xi |η = yj ) = 1, ∀yj
НСВ
fξ (x|η = y) ≥ 0
R∞
i
fξ (x|η = y) dx = 1, fη (y) > 0
−∞
Вероятность попадания в интервал
Rb
P
p(a < ξ ≤ b|η = yj ) =
p(xi |η = yj ) p(a < ξ ≤ b|η = y) = fξ (x|η = y) dx
a<xi ≤b
a
Условие нормировки:
Z∞
Z∞
Z∞
fξη (x, y)
1
fξ (x|η = y) dx =
dx =
fξη (x, y)dx = 1
fη (y)
fη (y)
−∞
−∞
−∞
|
{z
}
fη (y)
299
Определение 56. Если (ξ, η) − непрерывный случайный вектор, то
условная функциия распределения случайной величины ξ при условии, что СВ η приняла значение y, есть
Zx
Fξ (x|η = y) = p(ξ < x|η = y) =
fξ (t|η = y) dt, fη (y) > 0.
−∞
В частности, во всех точках непрерывности условной плотности верно
равенство
∂Fξ (x|η = y)
= fξ (x|η = y).
∂x
300
Пример 1. Закон распределения дискретного случайного вектора
(ξ, η) задан таблицей
η\ξ
0
5
10
5
0.1
0
0
10
0.2
0.1
0.1
15 20
0.1 0
0.1 0.05
0.2 0.05
Найти условный закон распределения величины ξ при условии η = 5.
Решение. Для вычилений воспользуемся формулами (44):
p(η = 5) =
4
X
p2s = 0 + 0.1 + 0.1 + 0.05 = 0.25 ⇒
s=1
p(ξ = 5, η = 5)
0
=
= 0,
p(η = 5)
0.25
p(ξ = 10, η = 5)
0.1
p(ξ = 10|η = 5) =
=
= 0.4,
p(η = 5)
0.25
p(ξ = 5|η = 5) =
301
p(ξ = 15, η = 5)
0.1
=
= 0.4,
p(η = 5)
0.25
p(ξ = 20, η = 5) 0.05
p(ξ = 20|η = 5) =
=
= 0.2 .
p(η = 5)
0.25
Таким образом условный закон, записанный в виде таблицы, имеет
вид (значение ξ = 5 невозможно):
p(ξ = 15|η = 5) =
xi
10 15 20
.
p (ξ = xi|η = 5) 0.4 0.4 0.2
Задача решена.
302
Зависимость случайных величин
Определение независимых СВ на языке случайных событий: СВ
ξ, η независимы, если все связанные с ними СС независимы в совокупности.
303
Зависимость случайных величин
Определение независимых СВ на языке случайных событий: СВ
ξ, η независимы, если все связанные с ними СС независимы в совокупности.
СС A и B независимы, если p(AB) = p(A)p(B) или p(A|B) = p(A).
304
Зависимость случайных величин
Определение независимых СВ на языке случайных событий: СВ
ξ, η независимы, если все связанные с ними СС независимы в совокупности.
СС A и B независимы, если p(AB) = p(A)p(B) или p(A|B) = p(A).
Теперь, имея аналог теоремы произведения − формулу произведения плотностей (46) и аналоги
p(AB) ↔ fξη (x, y); p(A) ↔ fξ (x); p(A|B) ↔ fξ (x|η = y)
сформулируем признаки независимости СВ.
305
Теорема 4.2.1 (Признаки независимости СВ). Случайные величины ξ и η независимы тогда и только тогда, когда для любых
x и y выполнено любое из равенств
Fξη (x, y) = Fξ (x)Fη (y)
fξη (x, y) = fξ (x)fη (y), если (ξ, η) − НСВ;
p(ξ = xi, η = yj ) = p(ξ = xi)p(η = yj ), если (ξ, η) − ДСВ;
Fξ (x|η = y) = Fξ (x)
(48)
(49)
(50)
Fη (y|ξ = x) = Fη (y)
(51)
fξ (x|η = y) = fξ (x), если (ξ, η) − НСВ;
p(ξ = xi|η = yj ) = p(ξ = xi), если (ξ, η) − ДСВ;
(52)
fη (y|ξ = x) = fη (y), если (ξ, η) − НСВ;
p(η = yj |η = xi) = p(η = yj ), если (ξ, η) − ДСВ.
(53)
Замечание. Наряду с совместным законом распределения (это
плотность или функция рвспределения ) исчерпывающей характери306
стикой случайного вектора (ξ, η) может служить пара − безусловный закон компоненты ξ и условный закон компоненты η. По двум
безусловным законам распределения компонент (например по fξ (x),
fη (y)) совместный закон распределения может быть восстановлен
только если ξ и η независимы.
307
Пример 2 1)Изучить независимость компонент ДСВ из примера
на стр.267
По условию постановки эксперимента, два стрелка стреляют независимо. СВ ξ − количество попаданий 1-го, а СВ η − количество
попаданий 2-го стрелка. Понятно, что всякое СС, связанное с СВ ξ
не зависит от СС, связанного с η. Значит, по определению, СВ ξ и η
независимы.
Можно подтвердить этот факт и по признаку (49) из теоремы 4.2.1:
p(ξ = 1, η = 2) = 0.0672 = 0.42 · 0.16 = p(ξ = 1)p(η = 2),
p(ξ = 0, η = 1) = 0.0432 = 0.09 · 0.48 = p(ξ = 0)p(η = 1) т.д.
P
P
Если pi· =
pis и p·j =
psj , то в нашем случае по таблице (41)
s
s
имеем pij = pi· · p·j , для любых i, j , что гарантирует независимость
компонент.
308
2)Исследовать независимость компонент для ДСВ (ξ, η) из примера 1 на стр.301.
Вычислен условный закон распределения СВ η при условии ξ = 5.
Покажем, что он не совпадает с безусловным распределением СВ η.
Действительно,
p(η = 5|ξ = 5) = 0 6= p(η = 5), где
p(η = 5) = p(η = 5|ξ = 0) + p(η = 5|ξ = 5) + p(η = 5|ξ = 10) = 0.1 + 0 + 0 = 0.1 .
По признаку (53) СВ ξ, η зависимы.
309
Пример. В прямоугольнике Ω = [a, b] × [c, d] НСВ (ξ, η) распределен
равномерно. Зависимы ли ξ и η?
310
Пример. В прямоугольнике Ω = [a, b] × [c, d] НСВ (ξ, η) распределен
равномерно. Зависимы ли ξ и η?
Решение. Совместная плотность:
(
0,
(x, y) ∈
/Ω
fξη (x, y) =
1
1
S(Ω) = (b−a)(c−d) , (x, y) ∈ Ω
311
Пример. В прямоугольнике Ω = [a, b] × [c, d] НСВ (ξ, η) распределен
равномерно. Зависимы ли ξ и η?
Решение. Совместная плотность:
(
0,
(x, y) ∈
/Ω
fξη (x, y) =
1
1
S(Ω) = (b−a)(c−d) , (x, y) ∈ Ω
Найдем плотности компонент:
Z∞
fξ (x) =
Zd
fξη (x, y)dy =
−∞
c
1
1
dy =
, если x ∈ [a, b]
(b − a)(c − d)
b−a
1
Аналогично fη (y) = d−c
, если y ∈ [c, d]
Получили fξη (x, y) = fξ (x)fη (y)
В следующей задаче рассмотрим пример случайного вектора, одна
из компонент которого − ДСВ, а другая − НСВ.
312
Пример 2. Пусть относительно случайного вектора (ξ, λ) известно, что ДСВ ξ − количество обанкротившихся предприятий в единицу времени − распределена по закону Пуассона с параметром λ,
который сам является непрерывной СВ, распределенной по показательному закону с параметром µ (µ неслучайный параметр). Требуется найти безусловный закон распределения составляющей ξ.
Решение. При фиксированном значении СВ λ = y известен условный закон распределения ДСВ ξ, т.е.
y k −y
p(ξ = k|λ = y) =
e , k = 0, 1, . . . ,
k!
а безусловная плотность НСВ λ задана:
½
0,
y≤0
fλ(y) =
.
−µy
µe , y >0
313
Решение. При фиксированном значении СВ λ = y известен условный закон распределения ДСВ ξ, т.е.
y k −y
p(ξ = k|λ = y) =
e , k = 0, 1, . . . ,
k!
а безусловная плотность НСВ λ задана:
½
0,
y≤0
fλ(y) =
.
µ e−µy , y > 0
Теперь воспользуемся немного модифицированной формой формулы полной вероятности (47) для вектора смешанного типа (легко
видеть, что вид формулы универсален вне зависимости от типа СВ),
интеграл считаем по частям
Z∞
Z∞ k
y −y −µy
p(ξ = k|λ = y)fλ(y) dy =
p(ξ = k) =
e µe
dy =
k!
−∞
0
314
Решение. При фиксированном значении СВ λ = y известен условный закон распределения ДСВ ξ, т.е.
y k −y
p(ξ = k|λ = y) =
e , k = 0, 1, . . . ,
k!
а безусловная плотность НСВ λ задана:
½
0,
y≤0
fλ(y) =
.
µ e−µy , y > 0
Z∞ k
Z∞
y −y −µy
p(ξ = k|λ = y)fλ(y) dy =
p(ξ = k) =
e µe
dy =
k!
−∞
0
µ
1
µ
k
=
pq
,
k
=
0,
1,
.
.
.
,
p
=
,
q
=
.
(1 + µ)k+1
(1 + µ)
(1 + µ)
Полученный безусловный закон распределения ДСВ ξ
=
p(ξ = k) = pq k , k = 0, 1, . . . , q = 1 − p
есть геометрическое распределение (см. стр. 195). Задача решена.
315
4.3. Элементы корреляционного и регрессионного
анализа
Рассмотрим типы «взаимодействия» компонент случайного вектора (ξ, η).
1). СВ ξ и η независимы.
По значению η(ω) = y для любого ЭС ω нельзя сделать никакого
вывода о значении ξ(ω).
316
Рассмотрим типы «взаимодействия» компонент случайного вектора
(ξ, η).
1). СВ ξ и η независимы.
По значению η(ω) = y для любого ЭС ω нельзя сделать никакого
вывода о значении ξ(ω).
Тогда безусловный закон распределения компоненты ξ совпадает с
ее условным законом распределения ξ|η = y для любого y (см. теорему 4.2.1).
2). СВ ξ и η зависимы.
Значения СВ η(ω) влияют на значения СВ ξ(ω).
317
1). СВ ξ и η независимы.
По значению η(ω) = y для любого ЭС ω нельзя сделать никакого
вывода о значении ξ(ω).
2). СВ ξ и η зависимы.
Значения СВ η(ω) влияют на значения СВ ξ(ω).
При этом возможны два случая:
а) СВ ξ и η связаны функциональной зависимостью (ξ = g(η)), т.е.
по значению η(ω) = y однозначно вычисляется значение ξ(ω) = x
(x = g(y));
б) СВ ξ и η связаны стохастической зависимостью, т.е. для фиксированного значения η(ω) = y СВ ξ может принимать некоторый набор значений, для которых условный закон распределения СВ
ξ|η = y меняется с изменением y.
318
Числовые характеристики степени и вида зависимости СВ
Определение 57. Начальные αk,s и центральные µk,s моменты
случайного вектора (ξ, η) :
αk,s = M [ξ k η s]; µk,s = M [(ξ − M [ξ])k (η − M [η])s]
319
Числовые характеристики степени и вида зависимости СВ
Определение 57. Начальные αk,s и центральные µk,s моменты
случайного вектора (ξ, η) :
αk,s = M [ξ k η s]; µk,s = M [(ξ − M [ξ])k (η − M [η])s]
Примеры моментов:
α1,0 = M [ξ], α0,1 = M [η], α1,1 = M [ξη];
µ1,0 = µ0,1 = 0, µ2,0 = D[ξ], µ0,2 = D[η].
Точка с координатами (M [ξ], M [η]) называется центром распределения.
320
Определение 58. Центральный момент µ1,1 называется ковариацией
(корреляционным моментом) Kξη случайного вектора (ξ, η), т.е.
Kξη = M [(ξ − M [ξ])(η − M [η])].
321
(54)
Определение 58. Центральный момент µ1,1 называется ковариацией
(корреляционным моментом) Kξη случайного вектора (ξ, η), т.е.
Kξη = M [(ξ − M [ξ])(η − M [η])].
(54)
Определение 59. Коэффициентом корреляции случайного вектора (ξ, η) называется отношение
rξη =
Kξη
, если σξ > 0, ση > 0.
σξ ση
(55)
Определение 60. Случайные величины ξ и η коррелированы, если
Kξη 6= 0 (rξη 6= 0).
322
Теорема 4.3.1. Если случайные величины коррелированы, тогда они зависимы.
Доказательство. Предположим, что ξ и η независимы. Тогда независимы и СВ ξ − M [ξ], η − M [η]. По свойству МО получим:
Kξη = M [(ξ − M [ξ])(η − M [η])] = M [ξ − M [ξ]]M [η − M [η]] = 0 · 0 = 0.
Замечание. Из теоремы следует, что коррелированность − один
из видов зависимости СВ. В частности, из независимости следует некоррелированность. Заметим, что обратить теорему нельзя, что
показывает следующий пример.
323
(Kξη 6= 0 ⇒ ξ, η − зависимы) ⇔ (ξ, η − независимы ⇒ Kξη = 0)
Пример. ДСВ ξ задана законом распределения
xi
−1 0 1
.
p (ξ = xi) 13 13 13
Найти ковариацию Kξη , если η = ξ 2.
324
(Kξη 6= 0 ⇒ ξ, η − зависимы) ⇔ (ξ, η − независимы ⇒ Kξη = 0)
Пример. ДСВ ξ задана законом распределения
xi
−1 0 1
.
p (ξ = xi) 13 13 13
Найти ковариацию Kξη , если η = ξ 2.
Решение. Понятно, что M [ξ] = 0.
Вычисляем множество Y возможных значений η :
y1 = x21 = x23 = 1, y2 = 02 = 0 ⇒ Y = {0, 1}.
Теперь находим вероятности значений:
2
1
p(η = 1) = p(ξ = −1) + p(ξ = 1) = , p(η = 0) = p(ξ = 0) = ⇒
3
3
yj
0 1
p (η = yj ) 13 23
325
2
⇒ M [η] = .
3
При вычислении ковариации воспользуемся свойствами математического ожидания (см. стр.142)
2
2
Kξη = M [(ξ − M [ξ])(η − M [η])] = M [(ξ − 0)(η − )] = M [ξη − ξ] =
3
3
2
= M [ξ 3] − M [ξ] = M [ξ 3].
3
3
Для вычисления M [ξ ] восстановим закон распределения СВ ξ 3 :
0 1
3
¡ 3xi ¢ −1
1 1 ⇒ M [ξ ] = 0 = Kξη .
1
p ξ = xi
3
3 3
Таким образом, СВ ξ и η не коррелируют, тем не менее они связаны
функциональной зависимостью.
326
Свойства Kξη = M [(ξ − M [ξ])(η − M [η]), rξη =
1). Kξη = Kηξ ; rξη = rηξ .
327
Kξη
σξ ση .
Свойства Kξη = M [(ξ − M [ξ])(η − M [η]), rξη =
1). Kξη = Kηξ ; rξη = rηξ .
2). D[ξ] = Kξξ .
Действительно, Kξξ = M [(ξ − M [ξ])2] = D[ξ].
328
Kξη
σξ ση .
Свойства Kξη = M [(ξ − M [ξ])(η − M [η]), rξη =
1). Kξη = Kηξ ; rξη = rηξ .
2). D[ξ] = Kξξ .
Действительно, Kξξ = M [(ξ − M [ξ])2] = D[ξ].
3). Неравенство ковариации
Kξη
σξ ση .
2
Kξη
≤ D[ξ]D[η] ⇔ |Kξη | ≤ σξ ση ⇔ |rξη | ≤ 1.
329
Свойства Kξη = M [(ξ − M [ξ])(η − M [η]), rξη =
1). Kξη = Kηξ ; rξη = rηξ .
2). D[ξ] = Kξξ .
Действительно, Kξξ = M [(ξ − M [ξ])2] = D[ξ].
3). Неравенство ковариации
Kξη
σξ ση .
2
Kξη
≤ D[ξ]D[η] ⇔ |Kξη | ≤ σξ ση ⇔ |rξη | ≤ 1.
4). Kξη = M [ξη] − M [ξ]M [η].
Действительно, Kξη = M [(ξ − M [ξ])(η − M [η])] =
= M [ξη] − M [ξ]M [η] + M [ξ]M [η] − M [ξ]M [η] = M [ξη] − M [ξ]M [η].
330
Свойства Kξη = M [(ξ − M [ξ])(η − M [η]), rξη =
1). Kξη = Kηξ ; rξη = rηξ .
2). D[ξ] = Kξξ .
Действительно, Kξξ = M [(ξ − M [ξ])2] = D[ξ].
3). Неравенство ковариации
Kξη
σξ ση .
2
Kξη
≤ D[ξ]D[η] ⇔ |Kξη | ≤ σξ ση ⇔ |rξη | ≤ 1.
4). Kξη = M [ξη] − M [ξ]M [η].
Действительно, Kξη = M [(ξ − M [ξ])(η − M [η])] =
= M [ξη] − M [ξ]M [η] + M [ξ]M [η] − M [ξ]M [η] = M [ξη] − M [ξ]M [η].
Следствие.
(Обобщение свойства МО для независимых СВ)
½
M [ξ]M [η] + Kξη , если ξ и η коррелируют
M [ξη] =
M [ξ]M [η] ,
если ξ и η не коррелируют
331
5). Вычисление M [ξη] и D[ξ + η]
M [ξη] = M [ξ]M [η] + Kξη , D[ξ + η] = D[ξ] + D[η] + 2Kξη .
6). |rξη | = 1 ⇔ η = aξ + b, где a 6= 0, причем
a < 0 ⇔ rξη = −1; a > 0 ⇔ rξη = 1.
Замечание. Kξη и rξη оценивают степень стохастической зависимости, наличие и напрвление линейной зависимости пары СВ.
332
5). Вычисление M [ξη] и D[ξ + η]
M [ξη] = M [ξ]M [η] + Kξη , D[ξ + η] = D[ξ] + D[η] + 2Kξη .
6). |rξη | = 1 ⇔ η = aξ + b, где a 6= 0, причем
a < 0 ⇔ rξη = −1; a > 0 ⇔ rξη = 1.
Замечание. Kξη и rξη оценивают степень стохастической зависимости, наличие и напрвление линейной зависимости пары СВ.
Определение 61. Корреляционная (ковариационная) матрица
случайных величин ξ1, . . . , ξk есть K = (Kξiξj ) = (σij ).
333
Пример . СВ ξ распределена равномерно на отрезке (0, π). Найти
ковариацию случайных величин η1 = cos ξ и η2 = sin ξ.
334
Пример . СВ ξ распределена равномерно на отрезке (0, π). Найти
ковариацию случайных величин η1 = cos ξ и η2 = sin ξ.
Решение. Поскольку ξ равномерно распределена, ее функция
плотности имеет вид
½1
, x ∈ (0, π)
fξ (x) = π
.
0, x ∈
/ (0, π)
335
Решение. Поскольку ξ равномерно распределена, ее функция
плотности имеет вид
½1
, x ∈ (0, π)
fξ (x) = π
.
0, x ∈
/ (0, π)
Действуя по свойству 4, вычислим M [η1] и M [η2] (см. (17) на стр.142):
Zπ
1
sin x ¯¯π
M [η1] = cos x · dx =
¯ = 0,
π
π 0
0
Zπ
M [η2] =
0
1
cos x ¯¯π 2
sin x · dx = −
¯ = .
π
π 0 π
336
Zπ
M [η1] =
0
π
Z
M [η2] =
0
1
sin x ¯¯π
cos x · dx =
¯ = 0,
π
π 0
1
cos x ¯¯π 2
sin x · dx = −
¯ = .
π
π 0 π
СВ η1η2 = sin ξ cos ξ − функция СВ ξ, поэтому формуле (17)
Zπ
¯π
1
1
¯
M [η1η2] = sin x cos x · dx = − cos 2x¯ = 0.
0
π
4π
0
Окончательно получаем
2
= 0.
π
Итак, СВ η1 и η2 не коррелируют, хотя обе являются функциями одной и той же СВ ξ. Задача решена.
Kη1η2 = M [η1η2] − M [η1]M [η2] = 0 − 0 ·
337
Элементы регрессионного анализа
Определение 62. Условное математическое ожидание (УМО)
СВ ξ при условии, что СВ η принимает значение y есть математическое
ожидание условного закона распределения ξ|η = y (см. (44)):
P

xipij


P

i

xip(ξ = xi|η = y = yj ) = P
, если (ξ, η) − ДСВ

p
sj
i
.
M [ξ|η = y] =
s

∞

R


xfξ (x|η = y) dx, если (ξ, η) − НСВ

−∞
Предполагаем, что соответствующие интегралы и ряды абсолютно сходятся.
При фиксированном y, M [ξ|η = y] − постоянное число. Если же y
пробегает множество возможных значений СВ η, M [ξ|η = y] = ψ(y)
− функция переменной y. Аналогично M [η|ξ = x] = ϕ(x).
338
Определение 63. Функция ψ(y) = M [ξ|η = y] называется регрессией ξ на η. Соответственно ϕ(x) = M [η|ξ = x] − регрессиия η на ξ.
Графики функций ψ(y) и ϕ(x) − кривые регрессии.
В случае, если (ξ, η) − ДСВ, кривая регрессии есть дискретный набор точек (xi, mi), где mi = M [η|ξ = xi]. Тогда принято для наглядности соединять эти точки ломаной.
339
Пример. Пусть функция плотности СВ ξ имеет вид
1
fξ (x) = x2e−x, x > 0.
2
Условное распределение η|ξ = x подчиняется показательному закону с параметром x, т.е.
fη (y|ξ = x) = xe−xy , x > 0, y > 0.
Найти УМО M [η|ξ = x] и M [ξ|η = y].
Решение. Сначала найдем совместную функцию плотности:
1 2 −x x3 −x(1+y)
fξη (x, y) = fη (y|ξ = x)fξ (x) = xe · x e =
e
, x > 0, y > 0.
2
2
Далее считаем безусловный закон распределения СВ η, интегрируя
по частям
Z∞
1
3
fη (y) =
x3 e−x(1+y) dx =
, y > 0.
2
(1 + y)4
−xy
0
340
Находим условный закон распределения ξ|η = y
fξη (x, y) x3 −x(1+y) (1 + y)4 x3 −x(1+y)
fξ (x|η = y) =
=
e
·
=
e
(1+y)4, x > 0, y > 0.
fη (y)
2
3
6
Теперь находим УМО (функции регрессии):
Z∞
Z∞
1
M [η|ξ = x] =
yfη (y|ξ = x) dy = yxe−xy dy = , x > 0,
x
−∞
0
Z∞
Z∞
4
M [ξ|η = y] =
xfξ (x|η = y) dx = (1+y)
−∞
0
x3 −x(1+y)
4
e
, y > 0.
dx =
6
1+y
Таким образом, окончательно имеем
1
4
ϕ(x) = M [η|ξ = x] = , x > 0, ψ(y) = M [ξ|η = y] =
, y > 0.
x
1+y
Задача решена.
341
Свойства УМО.
1). Если СВ ξ и η независимы, то УМО совпадает с безусловным
МО. В частности, линии регрессии параллельны координатным осям
(обратное неверно): ψ(y) = M [ξ|η = y] = M [ξ] = const,
ϕ(x) = M [η|ξ = x] = M [η] = const.
342
Свойства УМО.
1). Если СВ ξ и η независимы, то УМО совпадает с безусловным
МО. В частности, линии регрессии параллельны координатным осям
(обратное неверно): ψ(y) = M [ξ|η = y] = M [ξ] = const,
ϕ(x) = M [η|ξ = x] = M [η] = const.
2). M [η1 + η2|ξ = x] = M [η1|ξ = x] + M [η2|ξ = x].
3). M [c · η|ξ = x] = c · M [η|ξ = x].
343
Свойства УМО.
1). Если СВ ξ и η независимы, то УМО совпадает с безусловным
МО. В частности, линии регрессии параллельны координатным осям
(обратное неверно): ψ(y) = M [ξ|η = y] = M [ξ] = const,
ϕ(x) = M [η|ξ = x] = M [η] = const.
2). M [η1 + η2|ξ = x] = M [η1|ξ = x] + M [η2|ξ = x].
3). M [c · η|ξ = x] = c · M [η|ξ = x].
4).Экстремальное свойство УМО: если ϕ(x) = M [η|ξ = x], то
для всякой функции g(ξ) верно неравенство
M [(η − g(ξ))2] ≥ M [(η − ϕ(ξ))2].
Другими словами, среди всех функций g(ξ) наименьшее отклонение
в среднем квадратическом от СВ η дает функция ϕ(ξ). УМО применяется в практике для прогнозов.
344
4).Экстремальное свойство УМО: если ϕ(x) = M [η|ξ = x], то
∀g(ξ) M [(η − g(ξ))2] ≥ M [(η − ϕ(ξ))2].
Приближение СВ η функцией g(ξ).
Пусть СВ ξ и η зависимы. Тогда либо эта зависимость функциональная, либо стохастическая.
В первом случае — η = g(ξ).
345
4).Экстремальное свойство УМО: если ϕ(x) = M [η|ξ = x], то
∀g(ξ) M [(η − g(ξ))2] ≥ M [(η − ϕ(ξ))2].
Приближение СВ η функцией g(ξ).
Пусть СВ ξ и η зависимы. Тогда либо эта зависимость функциональная, либо стохастическая.
В первом случае — η = g(ξ).
Во втором случае поставим задачу: найти функцию y = g(x), для
которой M [(η − g(ξ))2] минимально
(т.е. стохастическую зависимость приблизим функциональной в
смысле минимальности среднеквадратического отклонения).
346
4).Экстремальное свойство УМО: если ϕ(x) = M [η|ξ = x], то
∀g(ξ) M [(η − g(ξ))2] ≥ M [(η − ϕ(ξ))2].
Приближение СВ η функцией g(ξ).
Пусть СВ ξ и η зависимы стохастически.
Поставим задачу: найти функцию y = g(x), для которой
M [(η − g(ξ))2] минимально
(т.е. стохастическую зависимость приблизим функциональной в
смысле минимальности среднеквадратического отклонения).
Постановка №1: функция g(x) — любая , тогда
в силу экстремального свойства УМО , минимум отклонения достигается на функции регрессии ϕ(ξ).
347
4).Экстремальное свойство УМО: если ϕ(x) = M [η|ξ = x], то
∀g(ξ) M [(η − g(ξ))2] ≥ M [(η − ϕ(ξ))2].
Приближение СВ η функцией g(ξ).
Пусть СВ ξ и η зависимы стохастически.
Поставим задачу: найти функцию y = g(x), для которой
M [(η − g(ξ))2] минимально
Постановка №1: функция g(x) — любая , тогда
в силу экстремального свойства УМО , минимум отклонения достигается на функции регрессии ϕ(ξ).
Постановка №2: функция g(x) = ax + b — линейная, тогда
найдем значения коэффициентов a, b для которых M [(η − g(ξ))2] минимально.
348
Постановка №2: функция g(x) = ax + b — линейная, тогда
найдем значения коэффициентов a, b для которых M [(η − g(ξ))2] минимально.
Решение этой задачи − линейная среднеквадратическая регрессия
η на ξ :
ση
y = g(x) = M [η] + rξη (x − M [ξ]).
(56)
σξ
Симметричная формула для линейной среднеквадратической регрессии ξ на η
σξ
x = h(y) = M [ξ] + rξη (y − M [η]).
(57)
ση
Доказательство (56). Рассмотрим функцию
F (a, b) = M [(η − g(ξ))2] = M [(η − a − bξ)2].
1) Покажем, что
F (a, b) = ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2
349
Доказательство (56). Рассмотрим функцию
F (a, b) = M [(η − g(ξ))2] = M [(η − a − bξ)2].
1) Покажем, что
F (a, b) = ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2
F (a, b) = M [(η − a − bξ)2] =
= M [η 2 −2aη−2bηξ +a2 +2abξ+b2ξ 2]±M 2[η]±2bM [η]M [ξ]±b2M 2[ξ] =
350
Доказательство (56). Рассмотрим функцию
F (a, b) = M [(η − g(ξ))2] = M [(η − a − bξ)2].
1) Покажем, что
F (a, b) = ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2
F (a, b) = M [(η − a − bξ)2] =
= M [η 2 −2aη−2bηξ +a2 +2abξ+b2ξ 2]±M 2[η]±2bM [η]M [ξ]±b2M 2[ξ] =
³
´
³
´
2
2
2
2
2
2
= M [η ] − M [η] +M [η] + b M [ξ ] − M [ξ] +b2M 2[ξ]−
|
{z
}
{z
}
|
ση2
σξ2
³
´
−2b M [ξη] − M [ξ]M [η] −2bM [ξ]M [η] + a2 + 2abM [ξ] + 2aM [η] =
|
{z
}
Kξη =rξη ση σξ
351
1) Покажем, что
F (a, b) = ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2
F (a, b) = M [(η − a − bξ)2] =
= M [η 2 −2aη−2bηξ +a2 +2abξ+b2ξ 2]±M 2[η]±2bM [η]M [ξ]±b2M 2[ξ] =
³
´
³
´
2
2
2
2
2
2
= M [η ] − M [η] +M [η] + b M [ξ ] − M [ξ] +b2M 2[ξ]−
{z
}
|
{z
}
|
ση2
σξ2
³
´
−2b M [ξη] − M [ξ]M [η] −2bM [ξ]M [η] + a2 + 2abM [ξ] + 2aM [η] =
|
{z
}
Kξη =rξη ση σξ
³
= ση2 + b2σξ2 − 2brξη ση σξ +
2
2
2
2
´
+ M [η] + b M [ξ] − 2bM [ξ]M [η] + a + 2abM [ξ] + 2aM [η]
{z
}
|
(M [η]−a−bM [ξ])2
352
Доказательство (56).
1). F (a, b) = M [(η − g(ξ))2] =
= M [(η − a − bξ)2]ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2.
2). Исследуем F (a, b) на экстремум:
(
½ ∂F
σ
b0 = rξη ση
=
−2(M
[η]
−
a
−
bM
[ξ])
=
0
ξ
∂a
⇒
σ
∂F
2
a0 = M [η] − rξη ση M [ξ]
∂b = 2bσξ − 2rξη σξ ση = 0
ξ
Доказательство закончено.
353
Доказательство (56).
1). F (a, b) = M [(η − g(ξ))2] =
= M [(η − a − bξ)2]ση2 + b2σξ2 − 2brξη ση σξ + (M [η] − a − bM [ξ])2.
2). Исследуем F (a, b) на экстремум:
(
½ ∂F
σ
b0 = rξη ση
=
−2(M
[η]
−
a
−
bM
[ξ])
=
0
ξ
∂a
⇒
σ
∂F
2
a0 = M [η] − rξη ση M [ξ]
∂b = 2bσξ − 2rξη σξ ση = 0
ξ
Доказательство закончено.
Определение 64. Значение отклонения η от линейной регрессии:
2
Fmin(a0, b0) = ση2(1 − rξη
) называется остаточная дисперсия η относительно ξ.
354
Определение 64. Значение отклонения η от линейной регрессии:
2
Fmin(a0, b0) = ση2(1 − rξη
) называется остаточная дисперсия η относительно ξ.
Следствие.
2
1). |rξη | ≤ 1, т.к. Fmin(a0, b0) = ση2(1 − rξη
) ≥ 0.
355
Определение 64. Значение отклонения η от линейной регрессии:
2
Fmin(a0, b0) = ση2(1 − rξη
) называется остаточная дисперсия η относительно ξ.
Следствие.
2
1). |rξη | ≤ 1, т.к. Fmin(a0, b0) = ση2(1 − rξη
) ≥ 0.
2). Остаточная дисперсия минимальна, если
F (a, b) = 0 ⇔ rξη = ±1 ⇔ зависимость ξ η линейная, т.е. η = a + bξ
3). Если rξη = ±1, то обе линии регрессии совпадают.
4). Обе линии регрессии проходят через точку (M [ξ], M [η]) —
центр распределения.
356
Пример . (Продолжение примера на стр.340). Для СВ (ξ, η) из примера 1 найти линейные среднеквадратические регрессии η на ξ и ξ на
η.
Решение. Для того, чтобы использовать формулы (56) и (57), нужно вычислить следующие числовые характеристики: M [ξ], M [η], σξ ,
ση , rξη . Для счета понадобятся найденные в примере 1 функции плотности fξ (x), fη (y), fξη (x, y):
1
3
fξ (x) = x2e−x, x > 0; fη (y) =
, y > 0.
2
(1 + y)4
Находим безусловные математические ожидания и дисперсии (см.
формулу (21) на стр.152), опуская подробности интегрирования,
Z∞
Z∞
1
1
M [ξ] = x x2e−x dx = 3, D[ξ] = σξ2 = x2 x2e−x dx − 9 = 3;
2
2
0
0
357
Z∞
y
M [η] =
0
3
1
dy
=
, D[η] = ση2 =
4
(1 + y)
2
Z∞
y2
0
3
1 3
dy
−
= .
(1 + y)4
4 4
Далее (см. (??) на стр.??) вычислим математическое ожидание произведения компонент
Z∞ Z∞
Z∞ Z∞
x3 −x(1+y)
M [ξη] =
xy fξη (x, y) dxdy =
xy
e
dxdy = 1.
2
−∞ −∞
0
0
Теперь по формуле (54) считаем ковариацию и коэффициент корреляции
− 12
1
1
Kξη
1
Kξη = M [ξη]−M [ξ]M [η] = 1−3· = − ⇒ rξη =
=q
=− .
2
2
σξ ση
3
3 · 43
Подставляя все найденные значения в формулы (56) и (57), получим
358
y
1
6.
..
x6
4 ....... ψ(y) = 4/(1 + y)
ϕ(x) = 1/x
...
...
...
...
...
...
...
...
...
...
...
...
....
``` ...........
``......`
......... `
........... ``
................. ``
......................`
.........
...
...
...
..
Q......
...
Q
....Q
....
..... Q
...... Q
.......
......... Q
.......... Q
..............
..Q
..........................
..................
x = 10/3 − (2/3)y
y = 1 − x/6
1
x
Q
Q
Q
Q
-
y
-
Рис. 15: К примеру 2.
уравнения прямых (см. рис.15)
x
y = 1 − − линейная регрессия η на ξ,
6
10 2
x=
− y − линейная регрессия ξ на η.
3
3
Проведенное исследование позволяет сделать следующие выводы:
359
СВ ξ и η зависимы и коррелируют (rξη 6= 0), зависимость нелинейная
(|rξη | 6= 1), теснота корреляционной связи средняя (|rξη | = 1/3), направление корреляционной зависимости отрицательное (т.е. rξη < 0 и
с возрастанием значений СВ ξ = x среднее значение СВ η M [η|ξ = x]
уменьшается). Кроме того, найдено оптимальное линейное приближение обеих линий регрессии. Задача решена.
360
Пример . Закон распределения ДСВ (ξ, η) имеет вид
ξ\η
0
5
10
5
0.1
0
0
10
0.2
0.1
0.1
15 20
0.1 0
.
0.1 0.05
0.2 0.05
Найти регрессии ξ на η и η на ξ, а также соответствующие линейные
среднеквадратические регрессии.
Решение. Найдены необходимые числовые характеристики:
M [η] = 4.75, D[η] ≈ 18.688, M [ξ] = 12.5, D[ξ] = 16.25, rξη ≈ 0.466.
После подстановки в в формулы (56) и (57), получим уравнения прямых (см. рис.15)
y = 0.5x − 1.5 − линейная регрессия η на ξ,
x = 0.43y + 10.5 − линейная регрессия ξ на η.
361
10
0
r
6
0.1
r
0.2 ¢
@
¡ r¢
¡
@
ξ на η
© η
©
© e
©
©
¢
¢
¢ e ©©
¢
©©
0.1
©
r
r
@
¡ 0.1
@
©¢© ¡
©
¢
e©
©
©
¢
©©
¢
©©
0
r
5
0
0.1
©©
r
e
5
Рис. 16:
0.2 ¢
r¢
@
¡
¡
@
10
× — регрессия ξ на η,
362
0.05
r
0.1
r
15
° — регрессия η на ξ.
0.05
r
0
r-
20
на ξ
Теперь найдем УМО, т.е. M [ξ|η = yj ], M [η|ξ = xi]. Для этого понадобятся условные законы распределения (один из них найден в примере 1 на стр.301). Выпишем их для случая ξ|η = yj :
xi
5 10 15
, M [ξ|η = 0] = 10;
p (ξ = xi|η = 0) 1/4 2/4 1/4
xi
10 15 20
, M [ξ|η = 5] = 14;
p (ξ = xi|η = 5) 0.4 0.4 0.2
xi
10
15
20
, M [ξ|η = 10] = 14.286.
p (ξ = xi|η = 10) 10/35 20/35 5/35
Таким образом, полученное множество точек (на рис.16 помечены
крестиками)
(M [ξ|η = yj ], yj ) = {(10, 0), (14, 5), (14.286, 10)} есть регрессия ξ на η.
Аналогично просчитывается регрессия η на ξ (на рис.16 помечена
363
кружками)
(xi, M [η|ξ = xi]) = {(5, 0), (10, 3.75), (15, 6.25), (20, 7.5)}.
На рис.16 хорошо графически отображается то, что СВ ξ и η коррелируют (линии регрессии не параллельны координатным осям),
направление зависимости положительное (rξη > 0 и с возрастанием одной из СВ, средние значения другой возрастают), график линейной регрессии проходит максимально близко к точкам регрессии.
Заметим также, что точка пересечения прямых линий регрессии есть
центр распределения (M [ξ], M [η]) = (12.5, 4.75).
364
Download