Раздел: Теория вероятности и математическая статистика

advertisement
3
1. ОСНОВНЫЕ ПОНЯТИЯ И ЗАКОНОМЕРНОСТИ ТЕОРИИ
ВЕРОЯТНОСТЕЙ.
1.1. Элементы комбинаторики.
При решении многих практических задач приходится выбирать из
некоторой совокупности объектов элементы, обладающие тем или иным
свойством, и располагать эти элементы в определенном порядке. В этих
задачах речь идет о тех или иных комбинациях элементов. Такие задачи
называются комбинаторными, а раздел математики, изучающий эти задачи
называется комбинаторикой.
Определение:
Сочетаниями из n (различных) элементов по k элементов называют
комбинации, составленные из данных n элементов по k элементов, которые отличаются друг от друга хотя бы одним элементом.
n!
k
Cn = -----------k!*(n-k)!
Пример: Дано множество {a,b,c} . Составить сочетания по 2 элемента.
3!
2
2
C3 : ab, bc, ac
;
C3 = ----------- = 3 их количество
2!*1!
Пример: В ящике 20 шаров: 12 белых, остальные черные. Сколькими
способами можно отобрать 2 белых щара?
2 черных шара? 1
черный и 1 белый шар?
1) C12
2
12!
11*12
8!
8*7
2
= ------------- = ---------- = 66 ; 2) C8 = ------------ = ---------- = 28 ;
2!*10!
2
2!*6!
2
3) C12 *
1
С81
12!
8!
= --------- * ----------- = 12*8 = 96 .
1!*11!
1!*7!
Определение:
Размещениями из n различных элементов по k элементов называют
комбинации, составленные из данных n элементов по k элементов, которые различаются между собой либо самими элементами, либо их порядком.
n!
k
An = -----------(n-k)!
Пример:
Составить для множества {a,b,c} размещения по два элемента
и определить их количество.
4
2
A3 :
ab, ac, bc
ba, ca, cb
3!
A3 = --------- = 6
1!
2
;
- их количество.
Пример : Сколько различных 3-х значных чисел можно составить из
множества цифр {1, 2, 3, 4, 5} без повторений?
5!
А53 = ------- = 60 .
(5 – 3)!
Определение:
Перестановками из n различных элементов называют множества из
данных n элементов, каждое из которых отличается от другого порядком
элементов.
Pn = n!
Пример: Составить для множества {a,b,c} перестановки и определить их
количество:
P3 = 3! = 6 :
abc, bca, cba, bac, cab, acb.
1.2. Основные понятия теории вероятностей.
Основным понятием теории вероятности является понятие случайного события.
Случайным событием будем называть событие, которое при осуществлении некоторых условий может произойти или не произойти.
Теория вероятностей изучает закономерности, которым подчиняются случайные события.
Определение: Опыт, эксперимент, наблюдение, явление в теории вероятностей называют испытанием.
Примеры испытаний в теории вероятностей – подбрасывание монеты, выстрел по мишени и т.д..
Определение: Результат, исход испытания, называют событием.
События обозначают буквами:
А, В, С, ….
Примеры:
А = {выпадание орла} ;
В = {выпадание решки}.
Классификация событий.
Определение: Событие называется достоверным, если оно неизбежно
произойдет при данном испытании.
Пример: Событие C = {выпадание числа от 1 до 6} при подбрасывании
игральной кости.
Определение: Два события называются несовместными, если появление
одного из них исключает появление другого в одном и том же
испытании.
5
Пример: Выпадание «орла» или «решки» при подбрасывании монеты.
Определение: Два события А и В называют противоположными, если в
данном испытании они несовместны и одно из них обязательно
происходит (обозначают А и А ).
Пример: При выстреле по мишени противоположны:
А = {попадание}
и
А = {промах}.
Определение: Суммой двух событий “А” и “В” называют событие “С”,
состоящее в наступлении или события “А”, или события “В”.
Пример:
По мишени стреляют два стрелка одновременно.
А = {попадает первый стрелок},
В = {попадает второй стрелок},
С = А+В = {попадает в мишень хотя бы один из стрелков}.
Определение: Произведением двух событий “А” и “В” называют событие
“С”, состоящее в том, что события “А” и “В” произойдут одновременно.
Пример:
С = А*В = {попадают в мишень и первый и второй стрелок}.
Определение: Относительной частотой случайного события называют отношение числа m появлений события к общему числу n проведенных одинаковых испытаний.
m
*
P (A) =
.
n
Пример: Проводится 6 серий выстрелов. Относительная частота события
А = {попадание в мишень}:
в первой серии испытаний
P*1(A) = 4/10,
во второй
P*2(A) = 8/15,
в третьей
P*3(A) = 13/25,
в четвертой
P*4(A) = 27/50,
в пятой
P*5(A) = 51/100,
в шестой
P*6(A) = 74/150.
Опыт показывает, что относительная частота событий стремится к
некоторому числу P. Это число P в дальнейшем будем называть вероятностью события A. Для рассмотренного примера серий выстрелов P*(A)1/2.
1.3.
Классическое определение вероятности.
Возможные, исключающие друг друга результаты данного испытания будем называть элементарными событиями.
Определение:
Вероятностью события А ( P(А) ) называют отношение
числа m благоприятствующих исходов к общему числу n элементарных испытаний.
6
m
P(A) = ------ .
n
P(A) = 1, если
A - достоверно
P(A) = 0, если
A – невозможно
Очевидно в общем случае
0  P(A)  1 .
Пример:
Монета подбрасывается 2 раза. Найти вероятность того, что
оба раза выпадает герб? Событие А={два раза выпадает герб}
гг; гр; рг; рр
- 4 возможных исхода
гг
- 1 исход благоприятен ,
P(A) = 1/4.
Пример: Из колоды в 36 карт извлекают одну карту. Какова вероятность,
что эта карта дама?
B={извлекли даму}.
Возможных исходов
- 36
Благоприятных исходов
-4
P(B) = 4/36 = 1/9.
1.4. Сложение вероятностей.
События образуют полную группу событий, если при каждом испытании может появиться любое из них и не может появиться какое-либо
иное событие, несовместное с ними.
Теорема: Вероятность суммы двух несовместных событий равна сумме
вероятностей свершения каждого из этих событий.
P(A+B) = P(A) + P(B).
Доказательство: События A и B несовместны.
Пусть
ma
P(A) = ----n
,
mb
P(B) = ------ .
n
Т.к. события А и В несовместны, то число благоприятствующих случаев одновременного появления событий А и В равно нулю, а число случаев благоприятствующих повлению событий А или В равно ma + mb, тогда, по классическому определению вероятности:
ma + mb
ma
mb
P(A+B) = ------------- = ------- + ------ = P(A) + P(B) .
n
n
n
Теорема доказана.
Следствие 1: Если имеются А1, А2, А3, …., Аn несовместных событий, то
вероятность суммы этих событий равна сумме вероятностей каждого из этих событий.
P(А1+А2+А3+….+Аn) = P(А1)+P(А2)+….+P(Аn)
Пример: В ящике имеются 10 белых, 15 черных, 20 синих и 25 красных
шаров. Из ящика достают один шар.
Найти вероятность следующего события:
7
A = {из ящика достают белый или черный шар}.
Событие А представим как сумму двух несовместных событий:
A = A1 + A2 , где
A1 = {из ящика достают белый шар} ,
A2 = {из ящика достают черный шар} .
P(A1+A2) = P(A1) + P(A2) = 10/70 + 15/70 = 5/14 = 5 / 14 .
Следствие 2: Сумма вероятностей противоположных событий равна 1.
P(A) + P(A) = 1.
Доказательство: Поскольку А и А противоположные события, то сумма
событий А + А – является событием достоверным, а вероятность
достоверного события равна единице. Поэтому
P(A+ A) = P(A) + P( A ) = 1 .
Пример: Вероятность того, что день ясный равна 0,8. Какова вероятность
того, что день будет пасмурным?
A = {день ясный}
A = {день пасмурный}
P( A ) = 1 - P(A) = 1 – 0,8 = 0,2 .
Следствие 3: Сумма вероятностей событий образующих полную группу
равна 1.
Доказательство: Пусть А1, А2, А3, …., Аn – образуют полную группу событий. Тогда сумма этих событий есть событие достоверное и его
вероятность равна 1. Следовательно
P(А1+А2+А3+….+Аn) = P(A1) + P(A2) + P(A3) +…. + P(An) = 1 .
1.5. Геометрические вероятности.
Чтобы избежать недостатка классического определения вероятностей, состоящего в том, что оно неприменимо при испытаниях с бесконечным числом исходов, вводят понятие геометрической вероятности, т.е. вероятности попадания точки в заданную область, на заданный отрезок.
Пусть отрезок l является частью отрезка L . На отрезок L наугад
ставят точку. Вероятность попадания точки на отрезок l пропорциональна
его длине и не зависит от расположения отрезка на большом отрезке L.
длина l
Вероятность попадания точки на отрезок l
P = ------------- .
Длина L
Аналогично вводится геометрическая вероятность для плоских фигур. Пусть фигура g является частью фигуры G. Тогда
8
вероятность попадания точки в область фигуры g
площадь g
P = -----------------площадь G
Пример:
В сигнализатор поступают сигналы от двух устройств. Поступление каждого из сигналов равновозможно в любой момент
промежутка времени Т. Моменты поступления сигналов не зависят
друг от друга. Сигнализатор срабатывает, если разность между моментом поступления сигналов меньше t. Найти вероятность того,
что сигнализатор сработает за время Т, если каждое из устройств
пошлет по сигналу.
Решение: Обозначим через x, y моменты поступления сигналов, при
этом:
0  x  T, 0  y  T .
y
C
T
y=x+t
B y=x
y=x-t
O
A
x
T
Областью G является квадрат OABC. Сигнализатор сработает,
если x-y<t
при x  y,
и
если y-x<t
при x < y.
Область g будет задана:
y>x-t
y<x+t
,
,
при x  y,
при x < y.
Тогда по определению
T2 – (T – t)2
P = --------------- .
T2
1.6. Условные вероятности.
Случайным событием мы называем событие, которое может произойти либо не произойти. Если при этом существуют некоторые дополнительные условия, то при вычислении вероятности накладываются дополнительные ограничения и вероятность при этом называется условной
(иначе безусловной).
Например, требуется вычислить вероятность события А, но при условии,
что событие В уже произошло.
9
Пример: В ящике 3 белых и 3 черных шара. Из ящика извлекают 2 шара.
Найти вероятность появления белого шара при втором испытании,
если при первом испытании был извлечен черный шар:
А = {первый шар черный}
В = {второй шар белый}. При извлечении второго шара в ящике всего пять
шаров, при этом три из них белых, поэтому
PA(B) = 3/5 .
P(A*B)
Иначе вероятность можно вычислить:
PA(B) =------------ (без доказательства).
P(A)
Проверим на примере ( при этом примем во внимание, что общее число
исходов равно числу размещений из шести по два):
P(A) = 3/6 = 1/2; P(A*B) = m/n , n=A62 = 6!/4! = 30,
P(A*B) = 9/30 = 3/10, исходя из этого:
m=3*3 = 9,
3/10
PA(B) = --------- = 3/5 .
1/2
1.7. Теорема умножения.
Теорема: Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие уже произошло.
P(A*B) = P(A)* PA(B) или
P(A*B) = P(B)* PB(A) .
Из теоремы следует:
P(A)* PA(B) = P(B)* PB(A) .
Следствие: Вероятность совместного появления нескольких событий
равна произведению вероятности свершения одного из них на
условные вероятности всех оставшихся, причем вероятности последующих событий вычисляются в предположении, что все
предыдущие события уже произошли.
P(А1*А2*А3*….*Аn) = P(A1)*PA1(A2)*PA1A2(A3)*….*PA1A2A3…An-1(An) .
Пример: В корзине 5 белых, 4черных и 3 синих шара. Событие состоит
в том, что из корзины наугад извлекают 1 шар без возврата. Найти
вероятность последовательности событий, которая состоит в том,
что при первом испытании извлечен белый шар, при втором – черный, при третьем – синий.
А = {б.}
,
В = {ч.}
,
С = {син.} .
P(ABC) = P(A)*PA(B)*PAB(C) = 5/12 * 4/11 * 3/10 = 1/22
10
1.8. Независимые события. Теорема умножения для независимых
событий.
Определение: Событие В называется независимым относительно события
А, если появление события А не изменяет вероятность появления
события В, т.е. выполняется следующее равенство.
PA(B) = P(B)
Условие независимости является взаимным для события B.
P(A)*PA(B) = P(B)*PB(A),
P(A)*P(B) = P(B)*PB(A)
,
то
P(A) = PB(A).
Теорема: Вероятность совместного появления двух независимых событий
равна произведению их вероятностей.
P(AB) = P(A)*P(B).
Доказательство: P(AB) = P(A)*PA(B) = P(A)*P(B) .
Теорема доказана.
Пример: Найти вероятность поражения цели двумя орудиями, если для
первого орудия вероятность попадания P1 = 0.8, а для второго
P2 = 0.9
А = {попадает первое} ,
В = {попадает второе}.
P(AB) = P(A)*P(B) = 0,8*0,9 = 0,72 .
Определение:
Несколько событий называются попарно независимыми, если каждые два из них независимы.
Определение: Несколько событий называются независимыми в совокупности, если независимы каждые два из них и независимы каждое
событие и все возможные произведения остальных.
События A1, A2, A3 независимы в совокупности, если независимы
A1 и A2 , A2 и A3 , A3 и A1 , а также A1 и A2*A3 , A2 и A1*A3 , A3 и A1*A2 .
В практических заданиях независимость событий определяется по
смыслу задач.
Следствие: Вероятность произведения нескольких событий, независимых
в совокупности, равна произведению вероятностей данных событий.
P(A1A2…An) = P(A1)*P(A2)*….*P(An) .
1.9. Вероятность появления хотя бы одного события.
Теорема: Вероятность появления хотя бы одного из событий A1, A2, …,
An независимых в совокупности, равна разности между единицей
и произведением вероятностей противоположных событий:
P(A) = 1 - P(A1)*P(A2)*….*P(An)
11
Доказательство: Событие А состоит в том, что происходит хотя бы одно
из событий A1, A2, … , An. В этом случае А и A1, A2, …An будут
противоположными, т.е.
P(A) + P( A1*A2*А3*…*An) = 1 .
Тогда P(A) = 1 - P(A1)* P(A2)*…. *P(An) .
Пример: Вероятности попадания в цель при стрельбе каждого из трех орудий, соответственно равны
P1 = 0,8; P2 = 0,9; P3 = 0,7 .
Вычислить вероятность того, что в цель попадает хотя бы одно из орудий.
Решение. Обозначим события следующим образом:
A1 = {в мишень попадает первое орудие},
A2 = {в мишень попадает второе орудие},
A3 = {в мишень попадает третье орудие},
A = {в мишень попадает хотя бы одно орудие}.
1)
P(A) = 1 - P(A1)*P(A2)*P(A3) = 1 – 0,2*0,1*0,3 = 1 – 0,006 = 0,994 .
Можно иначе:
2) A = A1*A2*A3 + A1*A2*A3 + A1*A2*A3 +A1*A2*A3 + A1*A2*A3 +
+ A1*A2*A3 + A1*A2*A3 .
1.10. Теорема сложения вероятностей совместных событий.
Теорема: Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их
совместного появления.
P(A+B) = P(A) +P(B) – P(A*B) .
Доказательство: Так как А и В совместны, то А + В наступает, если
наступит хотя бы одно из следующих событий А*В, А*В, А*В, тогда по теореме о вероятности суммы несовместных событий вероятность события А + В будет равна сумме вероятностей
P(A+B) = P(A*B) + P(A*B) + P(A*B)
Событие А происходит в том случае, если происходит хотя бы одно из
следующих событий А*В и
А*В, то
P(A) = P(A*B) + P(A*B) => P(A*B) = P(A) – P(A*B) ,
аналогично
P(B) = P(A*B) + P(A*B) => P(A*B) = P(B) – P(A*B) =>
P (A+B) = P(A*B) + P(B) – P(A*B) + P(A) – P(A*B) = P(A) + P(B) – P(A*B).
12
Пример: Два стрелка стреляют одновременно, вероятности попадания в
мишень каждого из них равны соответственно P1 = 0,2
;
P2 = 0,8.
Найти вероятность того, что в мишень попал хотя бы один.
События А = {попал первый стрелок}; В = {попал второй стрелок}.
1)
P(A+B) = P(A) + P(B) – P(A*B) = 0,2 + 0,8 – 0,2*0,8 = 0,84 .
Можно иначе:
2)
P(A+B) = P(A*B) + P(A*B) + P(A*B)
0,2*0,2 + 0,8*0,8 + 0,2*0,8 = 0,04+0,64+0,16 = 0,84 .
1.11. Формула полной вероятности.
Пусть событие А может произойти при условии, что произошло одно
из несовместных событий H1, H2, … Hn, которые называют гипотезами.
Эти события должны образовывать полную группу событий.
Теорема: Вероятность события А, которое может наступить лишь при
условии появления одного из событий H1, H2, … Hn, равна сумме
произведений вероятностей каждого из них на соответствующую
условную вероятность события А, т.е.
P(A) = P(H1)*PH1(A) + P(H2)*PH2(A) + …..+ P(Hn)*PHn(A) .
Доказательство: По условию теоремы событие А может наступить, если
наступит одно из несовместных событий Н1, Н2,…., Нn. Следовательно по теореме о сумме и произведении вероятностей
A = A*H1 + A*H2 + …+ A*Hn ,
откуда
P(A) = P(H1)*PH1(A) + P(H2)*PH2(A) + …..+ P(Hn)*PHn(A) и т.д.
Пример: Есть два набора деталей одинаковых по количеству. Вероятность
того, что деталь 1-го набора стандартна равна 0,9; второго - 0,8.
Найти вероятность того, что наугад взятая деталь оказалась стандартной.
Решение:
A = {деталь стандартная},
H1 = {выбран первый набор деталей} ,
H2 = {выбран второй набор деталей} .
Тогда P(A) = P(H1)*PH1(A) + P(H2)*PH2(A) ,
P(H1) = 1/2 ,
P(H2) = 1/2,
PH1(A) = 0,9
Таким образом
,
PH2(A) = 0,8.
P(A) = 1/2 * 0,9 + 1/2 *0,8 = 0,85 .
1.12. Формула Байеса.
Пусть событие А может наступить при условии, что происходит одно из несовместных событий Н1, Н2,…., Нn. Предположим, что событие А
уже произошло и вычислим условные вероятности PA(H1), PA(H2), …,
PA(Hn).
По теореме умножения вероятностей
13
P(A* H1) = P(A)* PA(H1) = P(H1)*PH1(A) =>
P(H1)*PH1(A)
P(H1)*PH1(A)
=> PA(H1) = ----------------- = ------------------------------------------------------------- .
P(A)
P(H1)*PH1(A) + P(H2)*PH2(A) + ..+ P(Hn)*PHn(A)
Пример: Цех изготавливает детали. Их проверяют два контролера. Вероятность того, что деталь попадает к первому контролеру равна 0,6,
ко второму – 0,4. Вероятность того, что деталь признана стандартной первым контролером – 0,94 , вторым – 0,98.
Деталь при проверке оказалась стандартной.
Найти вероятность того, что ее проверял первый контролер.
Решение:
A = {деталь стандартная},
H1 = {деталь проверял первый контролер},
H2 = {деталь проверял второй контролер }.
Тогда
P(H1)*PH1(A)
0,6*0,94
PA(H1) = ----------------------------------- = -------------------------- = 0,589998 .
P(H1)*PH1(A)+P(H2)*PH2(A) 0,6*0,94+0,4*0,98
1.13. Повторные испытания. Формула Бернулли.
Если проводится несколько испытаний, причем вероятность события
А в каждом испытании не зависит от исходов других испытаний, то такие
испытания называются независимыми относительно события А.
Пусть в независимых испытаниях событие А имеет одну и ту же вероятность. Проводится n независимых испытаний, в каждом из которых
событие А может произойти и не произойти.
Вероятность события А в каждом испытании равна числу p, а вероятность ненаступления события А равна числу q = 1 – p .
Вычислим вероятность того, что в n испытаниях событие А произойдет ровно k раз - Pnk(A). Эта вероятность вычисляется по формуле
Бернулли.
Вероятность одного сложного события, состоящего в том, что в n
испытаниях событие А произойдет ровно k раз и не наступит n – k раз по
теореме умножения вероятностей независимых событий будет равна
pk * qn-k .
Таких событий будет столько, сколько можно составить сочетаний из n по
k
-
(Cnk ) .
Т.к. сложные события будут несовместны, то по теореме сложения вероятностей
Pnk(A) равна сумме вероятностей этих сложных событий
Pnk(A) = Cnk * pk * qn-k .
14
Пример: Пусть нам требуется вычислить вероятность того, что в четырех
независимых испытаниях событие А должно произойти 3 раза .
P43(A) = C43*p3*q
, где A = AAAA + AAAA + AAAA + AAAA .
Пример: Монета подбрасывается 10 раз. Найти вероятность того, что герб
выпадает 2 раза.
А = {герб} ,
n = 10,
k=2 ,
p=1/2
,
q=1/2
P102(A) = C102*(1/2)2*(1/2)8 = 45/1024 .
Пример: Проводится 8 независимых испытаний в каждом из которых вероятность события А равна 0,1. Найти вероятность того, что события
А в 8 испытаниях появится хотя бы 2 раза.
p = 0,1
,
q=0,9 ,
n=8.
Найдем вероятность противоположного события
P80(A)+P81(A) = C80*0,10*0,98+C81*0,11*0,97 = 1,7*0,97
Ответ:
1 - 1,7*0,97
1.14. Локальная теорема Лапласа.
Пользоваться формулой Бернулли при больших значениях n затруднительно. Поэтому в том случае, когда число независимых испытаний n
велико пользуются формулой Лапласа.
Теорема: Если вероятность появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность события, состоящего в том, что в n независимых испытаниях событие А произойдет ровно k раз приблизительно равна:
1
k
Pn (A)  ---------------- * (x), где
x = (k-n*p)/  n*p*q .
 n*p*q
Функция (x) табулирована. Функция четная (x) = (-x) .
Пример: Найти вероятность того, что при 400 испытаниях событие А
наступит ровно 104 раза, если дано, что вероятность появления события А в каждом отдельном испытании равна 0,2.
n = 400,
q = 0,8
,
p = 0,2
,
k = 104.
P400
104
1
(A) = --------------------- * ((104-400*0,2) /  400*0,2*0,8) =
 400*0,2*0,8
= 1/8*(3) = 0,0044
15
1.15. Интегральная теорема Лапласа.
Теорема: Если вероятность p появления события А в каждом испытании
постоянна и отлична от нуля и единицы, то вероятность того, что
событие А появится в n испытаниях от k1 до k2 раз вычисляется
по следующей формуле:
k2 –n*p
Pn(k1  k k2)   ------------- n*p*q
k1 –n*p
- ----------------- ,
 n*p*q
где (x) – функция Лапласа. Значения данной функции находятся по таблице. Функция четная - (x) = ( -x). Для x  5 значение функции
Лапласа равно 0,5.
Пример: Вероятность поражения мишени стрелком при 1 выстреле равна
0,75. Найти вероятность того, что при 100 выстрелах мишень будет
поражена не менее 70 и не более 80 раз.
n = 100,
q = 0,25
,
p = 0,75
,
k1 = 70 ,
k2 = 80.
80-100*0,75
70-100*0,75
P100(70  k  80)  ----------------------- - ---------------------- =
100*0,75*0,25
100*0,75*0,25
=  (5/4,33) - (-5/4,33) = 2*(1,15) = 2*0,0749 = 0,1498 .
2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.
2.1. Понятие случайных величин.
Мы рассматриваем события, состоящие в появлении того или иного
числа, например при бросании игральной кости может появиться число
очков от 1 до 6. Заранее определить число очков невозможно, поскольку
оно зависит от многих случайных факторов. В этом случае число очков
есть величина случайная, а числа 1,2, 3, 4, 5, 6 – возможные значения данной величины.
Определение: Случайной называют величину, которая в результате испытания принимает только одно возможное значение, заранее неизвестное и зависящее от случайных причин.
Случайные величины обычно обозначаются большими латинскими буквами, а их значения – малыми.
Определение: Дискретной случайной величиной (ДСВ)называют величину,
которая принимает отдельные изолированные значения.
Пример: Рассмотрим случайную величину Х – число очков при бросании
игральной кости. x = 1, 2, 3, 4, 5, 6.
Определение: Непрерывной случайной величиной называют величину, которая принимает все возможные значения из некоторого конечного или бесконечного интервала.
16
Пример: Рассмотрим случайную величину Y – температура в Новгороде
зимой. Y(-350C, +100C).
2.2. Законы распределения вероятностей для ДСВ .
Определение: Законом рапределения вероятностей ДСВ называют соответствие между возможными значениями величины и их вероятностями.
Закон распределения можно задавать либо аналитическим, либо табличным, либо графическим способами.
X
x1
x2
x3
……
xn
P
P1
P2
P3
……
Pn
P1 = P(Х = x1) , P2 = P(Х = x2) , ……., Pn = P(Х = xn) .
В одном испытании случайная величина принимает одно и только
одно возможное значение: x1, x2, x3, ….. xn, т.е. события {Х = x1}, {Х = x2,},
….., {Х = xn} будут образовывать полную группу событий, и сумма их вероятностей равна единице
,
P1 + P2 +…..+ Pn =1 .
Пример: Стрелок имеет 4 патрона и стреляет в цель до первого попадания.
Вероятность попадания при каждом выстреле равна 0,8. Составить
закон распределения случайной величины X – числа использованных патронов:
X
1
2
3
4
P
0,8
0,16
0,032 0,008
P(X=1) = 0,8
,
A = {попадание при одном выстреле} .
P(X=2) = P(A*A) = P(A)*P(A) = 0,2*0,8 = 0,16 ,
P(X=3) = P(A*A*A) = P(A)*P(A)* P(A) = 0,2*0,2*0,8 = 0,032 ,
P(X=4) = 1 – (0,8+0,16+0,032) = 0,008 .
2.3. Биноминальное распределение.
Пусть проводятся n независимых испытаний, в каждом из которых
событие А может произойти или нет. В каждом испытании вероятность
свершения события А равна p , а вероятность непоявления события А равна q=1-p.
Рассмотрим случайную величину X – число появлений события А в
n испытаниях.
Данная случайная величина имеет следующий закон распределения:
X
P
0
qn
1
Cn1*p*q(n-1)
2
Cn2*p2*q(n-2)
3
Cn3*p3*q(n-3)
Вероятности вычисляются по формуле Бернулли
….
….
n
pn
17
Pk = Pnk (А)= Cnk*pk*q(n-k) , P1 = P(X=0) = Cn0*p0*q(n) = q(n) ,……,
Pn = p n .
Закон распределения вероятностей, для которого вероятность вычислена по формуле Бернулли, называется биноминальным.
Пример: Монета подбрасывается 2 раза. Составить закон распределения
случайной величины X, где X – число выпаданий орла.
А = {выпадание орла при одном подбрасывании}.
X
0
1
2
P
1/4
1/2
1/4
0
0
0
(2-0)
P0 =P(X=0) = P2 (А)= C2 *(1/2) *(1/2)
= 1/4 ,
1
1
1
1
P1 = P2 (А)= C2 *(1/2) *(1/2) = 2*1/2*1/2 = 1/2 ,
P2 = P22 (А)= C22*(1/2)2*(1/2)0 = 1*(1/2)2*(1/2)0 =1/4 .
2.4. Распределение Пуассона.
Пусть проводится n независимых испытаний, в каждом из которых
вероятность появления события А равна p. Для определения вероятности
того, что в n независимых испытаниях событие А произойдет k раз используется формула Бернулли.
Если число испытаний n велико, то используется приближенная
формула Лапласа.
Если же число испытаний n велико, а вероятность свершения события А мала, то эту формулу использовать нецелесообразно (точность мала). В этом случае целесообразнее использовать формулу Пуассона, которая применяется в случае, когда
 = n*p  10 .
По формуле Бернулли вероятность того, что в n независимых испытаниях событие А происходит k раз:
Pnk(A) = Cnk*pk*(1-p)(n-k) , т.к. p*n =  , то p= /n и
n!
Pn (A) = -------------- * pk*(1-p)(n-k) =
k!*(n-k)!
k
n*(n-1)*(n-2)*…..*(n-k+1)
 k

= -------------------------------------- * ------ * 1 - --k!
n
n
где  = n*p .
(n- k)
,
18
Будем предполагать, что среднее число появлений А остается постоянным. Т.к. число испытаний у нас велико, то вычислим предел при n ,
стремящемся к бесконечности.
k
1
2
k
1
 -k
lim Pnk(A) = ---- * lim 1* 1- --- * 1- --- * ….* 1- ---- + --- * 1 - --- *
n
k ! n
n
n
n
n
n
 n
k
 n

* 1 - --= --- * lim 1 - --- * 1 - --n
k! n
n
n
-k
k
= ---- * e- * 1
k!
,
k*e (-)
Pnk(A)  -----------, где
 = n*p  10 .
k!
Закон распределения, вероятность для которого рассчитывается по
данной формуле, именуется закон Пуассона.
Пример: Завод отправил на базу 5 тысяч качественных изделий. Найти вероятность того, что на базу поступят 3 бракованных изделия. Вероятность того, что изделие повредится = 0,0002.
n = 5000,
p = 0,0002 ,
 = n*p = 1 < 10 .
3 * e (-1)
1
3
P 5000 (A)  ------------- = --------- = 0,06 .
3!
6*e
2.5. Числовые характеристики ДСВ. Математическое ожидание.
Закон распределения вероятности полностью характеризует случайную величину. Однако часто закон неизвестен и приходится ограничиваться меньшими сведениями - числовыми характеристиками.
К числовым характеристикам ДСВ относятся:
1) Математическое ожидание,
2) Дисперсия,
3) Среднее квадратическое отклонение.
Определение: Математическим ожиданием ДСВ называют сумму произведений всех возможных их значений на соответствующие им вероятности.
Пусть ДСВ задана законом распределения:
X
P
x1
P1
x2
P2
x3
P3
……
……
xn
Pn
.
Математическое ожидание данной ДСВ будет
M(X) = P1 * x1 + P2 * x2 + ….. + Pn * xn =
n
 xi  Pi
i=1
19
Пример: Вычислить математическое ожидание следующей случайной величины:
X
1
2
3
P
0,2
0,5
0,3
M(X) = 1*0,2+2*0,5+3*0,3 = 2,1 .
Вероятностный смысл математического ожидания.
Пусть произведено n испытаний, в которых случайная величина X
приняла значения
x1 – m1 раз,
x2 – m2 ,
x3 – m3, …., xk – mk раз,
при этом: m1 + m2 + ….+ mk = n .
Найдем среднее значение данной случайной величины:
x1*m1 + x2*m2 +…..+ xk*mk
X = ------------------------------------- =
n
= x1*(m1 /n) + x2*(m2 /n) + ….. + xk*(mk /n) .
Величина (mk /n) - - это относительная частота значения xk.
Относительная частота (mk /n)  pk - (примерно вероятность)
X  x1 * p1 + x2 * p2 + …. + xk * pk
X  M(X) , если n велико.
2.6. Свойства математического ожидания.
Свойство 1: M ( C ) = C, где C = const . Математическое ожидание постоянной величины равно самой постоянной.
X
P
С
P1
С
P2
С
P3
……
……
С
Pn
M ( C ) = С* P1 + С* P2 + …. + С* Pn + = С*( P1 + P2 + …. + Pn ) = С*1=С .
Определение: Произведением постоянной случайной величины С на случайную величину Х называют новую случайную величину, значения которой равняются произведениям значений случайной величины на константу (const).
C*X
P
С*x1
P1
С*x2
P2
С*x3
P3
……
……
С*xn
Pn
Свойство 2: M(C*X) = C* M(X) – постоянный множитель можно выносить за знак математического ожидания.
20
Определение: Две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие значения принимает другая величина.
Определение: Произведением независимых случайных величин X и Y
называют случайную величину, возможные значения которой
равняются произведениям каждого возможного значения случайной величины X на каждое возможное значение величины Y, а
вероятность равняется произведениям вероятностей возможных
значений.
Свойство 3: Математическое ожидания произведения независимых случайных величин равно произведению математических ожиданий.
M(X*Y) = M(X) * M(Y) .
Даны законы распределения вероятностей двух независимых случайных
величин:
X
P
x1
P1
x2
P2
Y
P
y1
Q1
y2
Q2
Тогда закон распределения произведения:
X*Y
P
x1*y1
P1*Q1
x1*y2
P1*Q2
x2*y1
P2*Q1
x2*y2
P2*Q2
M(X*Y) = x1*y1*P1*Q1 + x1*y2*P1*Q2 + x2*y1*P2*Q1 + x2*y2*P2*Q2 =
= x1* P1*(y1* Q1 + y2*Q2 ) + x2* P2*(y1* Q1 + y2*Q2 ) =
= ( x1*P1 + x2*P2 ) * (y1*Q1 + y2*Q2 +) = M(X)*M(Y) .
Свойство 4: Математическое ожидание суммы случайных величин равняется сумме математических ожиданий каждой из случайных величин
M(X+Y) = M(X) + M(Y) .
Доказательство: Имеем две случайные величины X и Y с законами распределения
X
x1
x2
Y
y1
y2
P
P1
P2
P
Q1
Q2
Составим закон распределения для суммы случайных величин
(X+Y):
X+Y
x1+y1
x1+y2
x2+y1
x2+y2
P
P11
P12
P21
P22
Вычислим математическое ожидание суммы случайных величин:
21
M(X+Y) = ( x1+y1 )* P11 + ( x1+y2 )* P12 + ( x2+y1 )* P21 + ( x2+y2 )* P22 =
= (P11 + P12)* x1 + (P21 + P22)* x2 +(P11 + P21)* y1 +(P12 + P22)* y2 .
Докажем, что сумма вероятностей (P11 + P12) = P1 .
Событие {X = x1} равно сумме событий:
X = x1
Y = y1
и
X = x1
Y = y2
Тогда по теореме сложения вероятностей, вероятность первого события равна P1 = P11 + P12 , где
P1 = P(X=x1),
P11 =P(X=x1,Y=y1) , P12 =P(X=x1,Y=y2)
Применив теорему сложения вероятностей к остальным событиям получим
M(X+Y) = x1* P1 + x2*P2 + y1 * Q1 + y2 * Q2 = M(X) + M(Y) .
Пример: производят 3 выстрела с вероятностями попадания при каждом:
№ выст.
P
1
0,4
2
0,3
3
0,6
Найти математическое ожидание общего числа попаданий при трех
выстрелах.
X – общее число попаданий при трех выстрелах.
P1 = 0,4 , P2 = 0,3 , P3 = 0,6 , X = X 1 + X 2 + X 3 ,
где
X 1 – число попаданий при первом выстреле , X 2 – число попаданий при
втором выстреле, X 3 – число попаданий при третьем выстреле.
X1
P
0
0,6
1
0,4
X2
P
0
0,7
1
0,3
X3
P
0
0,4
1
0,6
M(X) = M(X1)+M(X2)+M(X3) = 0*0,6+1*0,4+0*0,7+1*0,3+0*0,4+1*0,6 = 1,3.
Математическое ожидание числа появлений события в независимых испытаниях.
Пусть проводится n независимых испытаний в каждом из которых
вероятность свершения события А есть число p.
Теорема: Математическое ожидание числа появлений события А в n независимых испытаниях равна произведению числа независимых испытаний на вероятность появления события А в каждом из этих испытаний.
M(x) = n*p .
Доказательство: Рассмотрим случайную величину X – число свершений
события А в n независимых испытаниях. Данную случайную величину представляем как сумму n случайных величин, где случайная
2.7.
22
величина X1 – число появления события А в первом испытании, X2
– число появления события А в втором испытании, и так далее.
Составим закон распределения вероятности случайной величины X 1:
1
X1 0
P 1-p
p
M(X 1) = 0*(1-p) + 1*p = p .
Математическое ожидание каждой
случайной величины
M(X 1) = M(X 2) = …. = M(X n) = p .
M(X) = M(X 1) + M(X 2) + …. + M(X n) = n*p .
2.8. Дисперсия случайной величины.
Рассмотрим случайную величину Х и ее математическое ожидание
М(Х). Чтобы оценить, как рассеяны возможные значения случайной величины относительно математического ожидания, пользуются числовой характеристикой, именуемой дисперсией.
Определение: Отклонением случайной величины от ее математического
ожидания назовем новую случайную величину Х - М(Х) .
Если случайная величина Х имела закон распределения:
X
P
x1
P1
x2
P2
x3
P3
……
……
xn
Pn
Закон распределения новой случайной величины будет
X-M(X)
P
x1 – M(X) x 2 – M(X) x 3 – M(X)
P1
P2
P3
……
……
x n – M(X)
Pn
Теорема: Математическое ожидание отклонения случайной величины от
ее математического ожидания равно 0.
M(X-M(X)) = 0.
Доказательство: M(X-M(X)) = M(X) + M(-M(X)) = M(X) – M(X) = 0 . Теорема доказана.
Определение: Дисперсией (или рассеянием) СВ называют математическое
ожидание квадрата отклонения случайной величины от ее математического ожидания.
D(X) = M(X – M(X))2 .
X
P
X-M(X)
P
x1
P1
x1 – M(X)
P1
x2
P2
x2 – M(X)
P2
x3
P3
……
……
x3 – M(X)
P3
……
……
xn
Pn
xn – M(X)
Pn
23
D(X) = M(X – M(X))2 =
= (x1 – M(X))2 * P1 + (x2 – M(X))2 * P2 + … +(xn – M(X))2 * Pn =
n
=

(xi – M(X))2 * Pi .
i=1
2.9. Формула для вычисления дисперсии.
Теорема: Дисперсия равна разности между математическим ожиданием
квадрата случайной величины X2 и квадратом математического
ожидания случайной величины X.
D(X) = M(X2) – M2(X)
Доказательство: D(X) = M(X-M(X))2 = M(X2-2*X*M(X)+M2(X))=
= M(X2)-2*M(X*M(X))+M(M2(X)) = M(X2) – 2*M(X)*M(X) + M2(X) =
= M(X2) – M2(X), что и требовалось доказать.
Пример: Вычислить дисперсию следующей случайной величины:
X
P
2
0,1
3
0,6
5
0,3
M(X) = 2*0,1+3*0,6+5*0,3 = 3,5 ,
X2
P
4
0,1
9
0,6
25
0,3
M(X2) = 4*0,1+9*0,6+25*0,3 = 13,3 ,
D(X) = M(X2) – M2(X) = 13,3 – (3,5)2 = 1,05 .
2.10. Свойства дисперсии.
1) Дисперсия постоянной величины равна нулю.
D( C ) = 0 ,
C = const .
Доказательство:
D( C ) = M(C – M( C ) )2 = M(0) = 0 .
2) Постоянный множитель можно выносить за знак дисперсии.
D( C*X) = C2*D(X) .
Доказательство:
D( C*X) = M(C*X – M( C*X ) )2 = C2 *M(X – M(X ) )2 = C2*D(X) .
3) Дисперсия суммы двух независимых случайных величин равна сумме
дисперсий.
D(X+Y) = D(X) + D(Y),
где X,Y –независимые случайные величины.
Доказательство:
D(X+Y) = M(X+Y) 2 – M2(X+Y) = M(X2+2*X*Y +Y2) –(M(X)+M(Y)) 2 =
24
= M(X2)+2*M(X)*M(Y)+M(Y2)-M2(X) - 2*M(X)*M(Y) - M2(Y) =
= M(X2) -M2(X) + M(Y2) - M2(Y) = D(X) + D(Y) .
Дисперсия числа появлений событий в независимых испытаниях.
Теорема: Дисперсия числа появлений события А в n независимых испытаниях равна произведению числа испытаний на вероятность появления и непоявления события в каждом испытании.
D(X) = n*p*(1-p) .
2.11.
Доказательство: Рассмотрим случайную величину X – число появлений
события А в n независимых испытаниях.
X = X1 + X2 + … + Xn
, где
X 1 – число появлений события А в первом испытании,
….,
X n – в n-ном испытании.
X 2 – во втором,
В соответствии с последним свойством
D(X) = D(X 1) + D(X 2) +…..+ D(X n) .
Вычислим дисперсию для каждой случайной величины. Рассчитаем
закон распределения для первой случайной величины.
D(X 1) = M(X 12) – M2(X 1) = p – p2 = p*(1-p)
, то
M(X 12) = p ,
M(X 1) = p .
X1
0
1
P
1-p
p
Все остальные случайные величины имеют такие же дисперсии, тогда
D(X) = n*p*(1-p) ,
что и требовалось доказать.
2.12. Среднее квадратическое отклонение.
Для оценки рассеяния возможных значений случайной величины вокруг ее среднего значения служит среднее квадратическое отклонение.
Определение: Средним квадратическим отклонением случайной величины
Х называется корень квадратный из дисперсии данной случайной
величины.
 (X) =  D(X) .
Пример:
X
2
3
10
P
0,1
0,4
0,5
Вычислим среднее квадратическое отклонение.
Сначала найдем дисперсию: D(X) = M(X2) – M2(X) , M(X) = 6,4 .
Построим закон распределения для X2 :
X2
4
9
100
P
0,1
0,4
0,5
25
Определим M(X2) = 0,1*4+0,4*9+0,5*100 = 54 , D(X) = 54 – (6,4)2 = 13,04 ,
 (X) =  13,04  3,6 .
Среднее квадратическое отклонение суммы взаимно независимых случайных величин.
Теорема: Среднее квадратическое отклонение суммы взаимно независимых случайных величин равно корню квадратному из суммы квадратов средних квадратических отклонений каждой из величин.
2.13.
 (Х) =  2(Х 1) + 2(Х 2) + …. +2(Х n) .
Доказательство: Пусть случайная величина Х есть сумма взаимно независимых случайных величин Х = Х 1 + Х 2 + ….. + Х n .
Тогда D(X) = D(Х 1) + D(Х 2) + ….. + D(Х n) .
Следовательно  D(X) =  D(Х 1) + D(Х 2) + ….. + D(Х n).
Вычислив корень квадратный от обеих частей, получим
(X) =  2(Х 1) + 2(Х 2) + ….. + 2(Х n)
.
Теорема доказана.
2.14. Одинаково распределенные взаимно независимые величины.
Рассмотрим n взаимно независимых случайных величин Х 1 , Х 2 ,
… , Х n , которые имеют одинаковые распределения.
M(Х 1) = M(Х 2) = … = M(Х n) = a ,
D(Х 1) = D(Х 2) = …. = D(Х n) = D ,
( Х 1) = (Х 2) = ….. = (Х n) =  .
Рассмотрим случайную величину Х , равную среднему арифметическому
случайных величин
Х 1 + Х 2 +… + Х n
X = ----------------------------------
.
n
Свойства среднего арифметического.
1)
M(X) = a .
Х 1+Х 2 +…+Х n
M ---------------------- = 1/n* (M(X1) + M(X2) + ….+ M(Xn)) = 1/n * n*a = a.
n
2) D(X) = D/n .
Х 1+Х 2+…+Х n
D ---------------------- =1/n2*(D(Х 1)+ D(Х 2) + ... + D(Х n)) = 1/n2 * n*D = D/n.
n
3)  ( X ) = /  n
.
26
(X) =  D(X) =  D / n =  D /  n =  /  n .
2.15. Центральные и начальные моменты случайных величин.
Начальным моментом порядка k случайной величины Х называют
математическое ожидание случайной величины Xk ,
k = M(Х k) .
1 = M(Х) ,
2 = M(Х 2) ,
D(x) = M(Х 2) – M2(Х) = 2 - 12 .
Центральным моментом порядка k случайной величины Х называют математическое ожидание случайной величины (X-M(X))k:
k = M(Х -M(X))k ,
1 = M(Х -M(X))1 = 0 ,
2 = M(Х -M(X))2 = D(X) = 2 - 12 .
27
3. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.
3.1.
Функция распределения вероятностей случайной величины.
Определение: Функцией распределения вероятностей непрерывной случайной величины Х называют вероятность того, что случайная
величина Х принимает значение меньшее, чем значение х:
F(x) = P(X<x)
, где x – число
Геометрически это равенство можно истолковать так:
функция F(x) есть вероятность того, что случайная величина принимает
значение, которое изображается на числовой оси точкой, лежащей левее
точки x.
Непрерывной случайной величиной назовем такую величину, функция распределения вероятностей которой есть функция непрерывная, кусочно-дифференцируемая и имеющая непрерывную производную.
Свойства функции распределения.
1) F(x)  [0;1]
2) F(x2)  F(x1), если x2  x1 .
Доказательство: Пусть значение x2  x1 , тогда событие {X < x2} можно
представить в виде суммы двух событий: {X< x1 } и { x1  X < x2} .
В этом случае по теореме сложения вероятностей
P(X < x2) = P(X < x1) + P(x1  X < x2) ,
P(x1  X < x2) = P(X < x2) - P(X < x1)
F(x2) - F(x1) = P(x1  X < x2) ,
F(x2) - F(x1)  0
3) если X (a,b), то
F(x) = 0
F(x) = 1
,
, F(x2)  F(x1) .
при x  a ,
при x > b .
Следствие 1:
Вероятность того, что случайная величина примет значение из отрезка [a;b] равна приращению функции распределения
на этом отрезке.
P(a  X  b) = F(b) - F(a) .
Следствие 2: Вероятность того, что случайная величина примет значение
равное конкретному числу равна 0.
P(X = x1) = 0 .
3. Если непрерывная случайная величина может принимать значения
(- ;+) , то пределы
28
lim F(x) = 0
x-
,
lim F(x) = 1 .
x+
3.2.
График функции распределения.
Из свойств функции распределения следует, что ее график расположен в полосе между прямыми
y=0 ,
y=1 .
При возрастании x F(x) будет возрастать. При x  a график функции совпадает с y = 0
,
при x  b - с y = 1.
F(x)
1
0
x
a
b
Для дискретной случайной величины также можно ввести функцию распределения и ее график будет иметь ступенчатый вид:
X
P
1
0,3
4
0,1
8
0,6
Если x  1, F(x) = 0
1< x  4,
F(x) = 0.3
4<x8
F(x) = 0.4
x>8
F(x) = 1
1
0,4
0,3
x
1
4
8
Плотность распределения вероятностей непрерывной случайной величины.
Определение:
Плотностью распределения вероятностей непрерывной
случайной величины называют функцию f(x) , которая равна
первой производной от функции распределения вероятностей
случайной величины .
f(x) = F’(x) .
Из этого определения следует, что функция распределения является
первообразной для плотности распределения.
3.3.
29
Для дискретной случайной величины (ДСВ) плотность распределения неприменима.
Вероятность попадания непрерывной случайной величины в
заданный интервал.
Теорема: Вероятность того, что непрерывная случайная величина принимает значения из отрезка [a;b] равна определенному интегралу от
плотности распределения вероятности, взятого в пределах от a до
b.
3.4.
b
P(a X b) =  f(x)*dx .
a
Доказательство: По свойству функции распределения, вероятность того,
что
P(a X b) = F(b)-F(a), а т.к. функция распределения F(x) является первообразной для плотности распределения f(x), то по формуле НьютонаЛейбница
b

F(b) – F(a) =
Теорема доказана.
f(x)*dx .
a
0,
x 0
2
Пример: Найти P(0,5<X<1), если F(x) = x , 0< x 1
1,
x >1
Построить графики функции распределения вероятности и плотности распределения
P(0,5<X<1) = F(1) - F(0,5) = 1 –0,52 = 0,75
0,
x 0
f(x) = F’(x) = 2*x, 0 < x 1
0
x>1.
1
1
P(0,5<X<1) =
 2 * x * dx
 x
= 1 –0,52 = 0,75
2
0,5
0,5
F(X)
f(x)
2
1
1
X
1
2
x
30
Нахождение функции распределения по плотности вероятностей.
Пусть задана непрерывная случайная величина X и ее плотность
распределения f(x). Необходимо найти функцию распределения для этой
случайной величины.
x
F(x) = P(X<x) = p(-  <X < x) =
f ( x) * d x .
3.5.


0,
xa
f(x) = 1/(b-a), a < x  b
0,
x>b .
Пример:
xa,
x
F(x) =
x
 f ( x) * d x   0 * d x

= 0.

a<xb,
x
F ( x) 
a
x
 f ( x) * dx   0 * dx   1 /(b  a) * dx  1 /(b  a) * x |a 
x


= x / (b-a) – a / (b-a) =
a
( x  a)
.
(b  a )
x>b,
a
F ( x) 
b
x
 0 * dx   1 /(b  a) * dx   0 * dx  x /(b  a) |a 
b

a
b
= b / (b-a) – a / (b-a) = 1 .
F(x) =
0,
xa
(x-a) / (b-a), a < x  b
1,
x>b .
3.6. Свойства плотности распределения.
1) Плотность распределения есть функция неотрицательная, т.е. f(x)  0.
Доказательство: т.к. плотность есть производная от функции распределения, а функция распределения есть функция неотрицательная и
неубывающая, то плотность также будет функцией неотрицательной.
31
2) Интеграл от плотности распределения в бесконечных пределах равен
единице .

 f ( x)dx
=1.

Доказательство:

 f ( x)dx
= P( -  < x < +  ) = 1 .

Пример: Задана плотность распределения:
0
,
f(x) =
a *cosx ,
0
,
По 2-му свойству:
 /2



x  -/2 ,
-/2<x< /2 ,
x  +/2 ,
f ( x)dx = 1 ;
 a * cos x * dx = a * sin x
 / 2
= a *sin(/2) – a *sin (-/2) = 2* a = 1,
| // 22
определить a .
=
откуда
a = 1/2
3.7.
Вероятностный смысл плотности распределения.
Пусть непрерывная случайная величина X имеет функцию распределения F(x).
F(x+x) – F(x)
P(x<X<x+x)
f(x) = F’ (x) = lim ------------------------ = lim ---------------------x 0
x
x 0
x
Получили, что предел отношения вероятности того, что непрерывная случайная величина примет значение из интервала (x, x + x) к длине этого
интервала при x стремящемся к нулю, равен плотности распределения
вероятности, вычисленной в точке x.
F(x+x) – F(x)  d(F(x)) = F’(x)*x = f(x)*x, т.о. вероятность того, что непрерывная случайная величина принимает значение из интервала (x, x+x) примерно равна произведению плотности распределения
вероятности на длину данного интервала. Геометрически это равенство
можно истолковать таким образом: вероятность того, что случайная величина принимает значение из интервала от x до x+x равна площади прямоугольника (фигуры) с высотой f(x) и шириной x.
32
y
f(x)
x
a x
x+x
b
3.8. Числовые характеристики непрерывной случайной величины.
Все определения числовых характеристик для ДСВ распространяются и на непрерывные случайные величины. Пусть непрерывная случайная
величина Х принимает все свои возможные значения из интервала (a;b)
Интервал (a;b) разобьем на n интервалов, длины которых x1, x2,,xn .
В каждом из этих интервалов выберем произвольные точки x1, x2,,xn .
Составим сумму произведений возможных значений xi на вероятность
попадания в соответствующий интервал
n
S =  xi*f(xi)*xi .
i=1
Тогда M(X) непрерывной случайной величины будет равно (аналог M(X)
для ДСВ)
n
M(X) = lim  xi*f(xi)*xi ,
n   i=1
а это есть не что иное, как интегральная сумма на отрезке [a;b] для функции f(x):
b
M(X) =
 x*f(x)*dx .
a
Дисперсия непрерывной случайной величины:
b
D(X) = M(X – M(X))2 =
 (x – M(X))2*f(x)*dx .
a
Среднее квадратическое отклонение
(x) =

D(x) .
Все свойства доказанные для числовых характеристик ДСВ сохраняются и для непрерывных случайных величин. Для непрерывных случайных величин (НСВ) вводятся также понятия центральных и начальных моментов.
33
3.9. Равномерное распределение.
Определение: Плотности распределения НСВ называются законами
распределения.
Определение: Распределение вероятностей называется равномерным, если
на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения вероятностей сохраняет
постоянное значение.
Найдем плотность равномерного распределения f(x):
f(x)
если x  a или x > b, f(x) = 0
если a< x  b ,
f(x) = C , C – const .
С
x
a
Так как
b
xa
0,
 f(x)*dx = 1
,
то
f(x) =
a
b
 C * dx = C * x
Т.к.
|ba
1 / (b-a)
0,
= C * (b  a)  1 ,
b
a<x<b .
xb
получаем
a
C = 1 / (b-a) .
Вычислим числовые характеристики для равномерного распределения:
b
1
1
x 2 b 1 *1 / 2
ba
M(X) =
,
*  x * dx 
*
|a 
* (b 2  a 2 ) 
(b  a) a
ba 2
ba
2
b
D(X) =  x 2 * f ( x) * dx  [ M ( X )] 2 
a
1
1
ab 2
* * x 3 | ba (
) 
ba 3
2
( a  b) 2 1
1
3
3
* (b  a ) 
 * (4 * (b 2  a * b  a 2 ) 
=
3 * (b  a)
4
12
 3 * (a 2  2 * a * b  b 2 )) 
(b  a) 2
.
12
34
(x)=
ba
2* 3
.
3.10. Нормальное распределение.
Нормальным распределение называется такое распределени, плотность которого равна:
 ( x  a) 2 
f ( x) 
* exp 
,
2 
2
*

 * 2 *


1
где
a  M ( X ),    ( X ) .
Покажем, что параметр a  M (X ) , для чего вычислим:
xa

M (X ) 


x * f ( x) * dx 

=

1
 * 2 *
*


x*e
t
( xa)2
2* 2
* dx 

x  *t  a
dx   * dt
t2
t2






2
a


2
2
*   *t *e
* dt   a * e
* dt  
*  e t * dt 

2 *   
2 *  



1
=
a
2 *
* 2 *  a .
Вычислим дисперсию:
D( X ) 


( x  a) 2 * f ( x) * dx 

xa

=
1
 * 2 *

*  ( x  a) 2 * e
( xa)2
2* 2
* dx 

t
x  *t  a
dx   * dt
=
1
 * 2 *

* *  2 * t 2 * e


t2
2
* dt 
35
 u * dv  u * v   v * du
v   dv   t * e

t2




* t * e 2
2 * 


t2
2

2

u  t , du  dt
* dt   t * e

e

t2
2



t2
2
2
1
t2
*
* d (  )  e  t
(t )
2
=
2

2
 t


2
2
* dt  
* e
* dt 
* 2 *   2 .
2 *  
2 *


 ( X )  D( X )   2   .
Нормированным нормальным распределением называется нормальное
распределение с параметрами
 1 .
a  0,
 ( x) 
1
2 *
*e

x2
2
.
x
Ф( X )   f ( x) * dx
- Функция Лапласа.
0
3.11. Нормальная кривая.
График плотности нормального распределения называют нормальной кривой или кривой Гаусса.
 ( x  a) 2 
f ( x) 
* exp 
,
2 
2
*

 * 2 *


1
Исследуем эту функцию:
1) Область определения:
x(- ; +)
2) f(x) непрерывна в пределах области определения. Точек разрыва нет.
3)
4)

y  a;
a  lim f(x) = 0 ; y = 0 – горизонтальная асимптота.
x 
f ' ( x) 

1
 * 2 *
( x  a)
 * 2 * *
2
Знак производной:
*e
( xa)2
2* 2
1


*
* 2 * ( x  a)  
2
 2 *

( xa)2
*e
2* 2
0 ;
x  a  0; x  a - точка экстремума.
36
+
,
x
a
на интервале (-  ; a ) – функция возрастает, на интервале ( a ;+) – функция убывает, следовательно x = a - точка максимума .
1
fmax( a ) =
 * 2 *
( xa)2



1
2
*  ( x  a) * e 2*
5) f '' ( x)   3
 * 2 * 

'


 


( xa)2
  ( xa)2




2
*
(
x

a
)
1
2
2


 3
*  e 2*  ( x  a) * e 2* *  


2 *  2 
 * 2 * 





1
 3 * 2 *
*e
( xa)2
2* 2
 ( x  a) 2 
0 .
* 1 
2




Приравняли вторую производную к нулю для поиска точек перегиба. Решим уравнение:
(1  ( x  a) 2 ) /  2  0 , откуда
- точки перегиба.
x1, 2  a  
f (a   ) 
1
 * 2 *
*e

1
2
 f (a   )
y”

+
a- 
+
a +
x
6) График ось 0х не пересекает.
y
a
x
a - a +
Выясним, как влияют на форму и расположение графика значения
параметров a и :
1) f(x- a ) – получается из графика f(x) сдвигом всех точек вправо на a
единиц ( a >0) .
37
2) Влияние  сказывается на растяжение и сжатие графика функции вдоль
оси 0У. Если параметр убывает, график растягивается вдоль оси 0У. Кривая имеет острую вершину. В противном случае кривая становится более
плоской.
Вероятность попадания в заданный интервал нормальной
случайной величины.
Пусть величина Х имеет нормальное распределение, тогда вероятность того, что она
xa
t
3.12.


P(  X   )   f ( x) * dx 




 a

1
1
2 *
1
2 *

*
 * 2 *
e

t2
2
* e
 * 2 *

2* 2

* dx 
x  *t  a =
если x   ,
dx   * dt
 a
,
t
если x   ,
t

 a
.

*  * dt 
 a

2
0 t
e 2
*

 a


0
t2

e 2
* dt 
 a

1
* dt 
*
2 *
 a

*

1
( xa)2
1
2 *
e
t2
2
* dt 
0
 a

*



0
e

t2
2
   a
  a 
* dt  Ф
  Ф

  
  
,
где Ф(x) - функция Лапласа.
3.13.
Вероятность отклонения нормальной случайной величины
от ее математического ожидания.
Вычислим:
P X  a     P(  X  a   )  P(a    X  a   ) 
a   a
a   a
 
 
 
Ф
  Ф
  Ф   Ф
  2 * Ф ,






 
  
 
38
a  M (X ) .
где
Вероятность того, что случайная велиична отклоняется по модулю от
величины ее математического ожидания на величину  равна удвоенному
значению функции Лапласа в точке /.
3.14.
Используя формулу:
случая
  3 * 
Правило трех сигм.
 
P x  a     2 * Ф  ,
 
вычислим для
 3 * 
 P x  a  3 *    2 * Ф
  2 * Ф3  2 * 0,4985  0,997  1 .
  
Правило трех сигм: Если случайная величина имеет нормальное распределение, то абсолютная величина ее отклонения от M(X) не превосходит утроенного среднего квадратического отклонения.
3.15. Понятие о теореме Ляпунова.
Теорема: (Центральная предельная теорема.) Если случайная величина
Х представляет собой сумму большого числа взаимо независимых
случайных величин, то эта случайная величина Х имеет распределение близкое к нормальному.
3.16. Оценка отклонения распределения вероятностей от нормального. Мода, медиана, эксцесс, асимметрия случайной величины.
Для ДСВ модой называют такое ее значение, которое имеет
наибольшую вероятность.
Пример:
x
1
3
10
P
0,1
0,5
0,4
m0 = 3 .
Для НСВ модой называют точку максимума плотности распределения ее вероятностей.
y
m0 = a = M(X) .
Нормальное
распределение .
f (x)
x
a
Медианой случайной величины называют такое ее значение x1/2, что
выполняется следующее равенство:
P(X< x1/2 ) = P(X> x1/2 ) = 1/2 ,
me = x1/2 .
39
Из определения следует, что значение функции распределения
F(me) = 1/2 .
Пример: X – непрерывная случайная величина:
0,
если x  0 ,
3
F(x)= x ,
если 0<x<1,
1,
если x  1 .
1
1
1
1
F ( x)  ; x 3  ; x  3  me  3 .
2
2
2
2
Асимметрией для НСВ называют отношение центрального момента
третьего порядка к кубу среднего квадратического отклонения:
As = 3 / 3 .
Для нормального распределения асимметрия равна 0 (нулю):
y
As = 0 .
x
a
Если для случайной величины As > 0, то график плотности распределения смещен относительно моды вправо. Если As <0, то график смещается относительно моды влево. As > 0, если левая часть плотности распределения по сплошной линии, а правая - по пунктирной; As <0, если
наоборот.
Эксцессом для НСВ называют разность между отношением центрального момента четвертого порядка к четвертой степени среднего квадратического отклонения и тройкой:
Ek = (4 / 4 - 3)
Ek > 0
Для нормального распределения эксцесс равен 0.
Ek < 0
Ek=0
m0
Если для случайной величины Ek > 0, то график ее плотности поднимается
выше графика нормального распределения.
3.17. Показательное распределение.
Показательным распределением НСВ называют распределение,
плотность которого равна:
,
40
если x < 0 ,
*e(-*x) ,
если x  0,
0
f (x) =
где  > 0 .
f(x)

x
Найдем функцию распределения для данной случайной величины:
F ( x) 
x


x
f ( x) * dx    * e


x
0
  e  *x
x
0
e  *x
* dx   *

x

0
 1  e  *x ;
0
,
если x < 0 ,
1 - e(-*x)
,
если x  0 .
F(x) =
F(x)
1
x
Найдем вероятность попадания показательной случайной величины в заданный интервал:
P(  X   )  F (  )  F ( )  e   *  e   * .
Найдем числовые характеристики показательного распределения:
 u * dv  u * v  v * du
M (X ) 


0
0
 x * f ( x) * dx   x *  * e
 *x
* dx  u  x; dv  e *x * dx
du  dx; v 
1
* e  *x

41

  x * e  *x
  *



  x*e
 *x 
0



0
e  *x

e  *x
 
0

* dx    x * e  *x



00
0
1


1



  e  *x * dx 
0
0
.
D( X )  M ( X 2 )  M 2 ( X ) .
u  x 2 ; dv  e  *x * dx


M ( X )   x * f ( x) * dx   x 2 *  * e  *x * dx 
2
2
0
du  2 * x * dx;
0
v
  x 2 * e  *x
  *







0
0
0
e  *x
2
*
1
 


* 2 * x * dx    x 2 * e  *x


2
2

0

,
2
D( X )  M ( X 2 )  M 2 ( X ) 
 ( X )  D( X ) 
e *x

1
2

1

2
.

1
2

1
2
.
2


*  e  *x * x *  * dx 
0
42
4. ЗАКОНЫ БОЛЬШИХ ЧИСЕЛ.
Нельзя заранее предвидеть какое из возможных значений примет
случайная величина, но при некоторых условиях можно установить закономерности суммарного поведения большого числа случайных величин.
Эти закономерности указываются в теоремах, которые называются законами больших чисел:
- теорема Чебышева,
- теорема Бернулли,
- неравенство Чебышева.
4.1.
Неравенство Чебышева.
Неравенство Чебышева справедливо для ДСВ и НСВ.
Докажем для ДСВ:
Пусть дана ДСВ Х и ее закон распределения.
X
P
x1
P1
x2
P2
x3
P3
……
……
xn
Pn
Теорема: Вероятность абсолютного отклонения случайной величины от
M(X) на число не превосходящее  не меньше разности
1- ( D(X) / 2)
P( x – M(X)  <  )  (1 - ( D(X) / 2) )
Доказательство: События { x – M(X)  <  } и { x – M(X)    } противоположны. Тогда вероятность первого события:
P( x – M(X)  <  ) = 1 - P( x – M(X)    ) .
Вычислим
D( X )  ( x1  M ( X )) 2 * p1  ( x 2  M ( X )) 2 * p 2  ....  ( x n  M ( X )) 2 * p n .
Все слагаемые D(X) положительные. Отбросим из данной суммы те
слагаемые, для которых ( xi – M(X)) <  ,
тогда:
D( X )  ( x k 1  M ( X )) 2 * p k 1  ....  ( x n  M ( X )) 2 * p n
В последнем неравенстве в правой части остались те слагаемые, для которых
( xi – M(X))   , ( xi – M(X))2  2 , откуда D(X)  2 *( pk+1 + pk+2 +…+ pn ) .
Сумма вероятностей pk+1 + pk+2 + …. + pn - есть не что иное, как вероятность того, что:
P(X – M(X)    ),
тогда D(X)  2 * P(X – M(X)    ) ,
P(X – M(X)   )  D(X)/2 ;
P(X – M(X)< )  1 - D(X)/2 ,
43
что и требовалось доказать.
4.2. Теорема Чебышева.
Теорема: Если случайные величины X1 , X2 , … , Xn , попарно независимы
и дисперсии этих величин ограничены, (D(Xi)  C)
то
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

lim P 1

    1
n 
n
n


Доказательство: Рассмотрим случайную величину
X  X 2  ...  X n
X 1
.
n
Тогда по свойству математического ожидания:
M (X ) 
D( X ) 
M ( X 1 )  M ( X 2 )  ...  M ( X n )
,
n
D( X 1 )  D( X 2 )  ...  D( X n )
n2

C*n
n2

C
.
n
Воспользуемся неравенством Чебышева:
P x  M ( X )     1  D( X ) /  2 ,
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

C
P 1

    1 
n
n
n * 2


.
Вычислим предел от данного неравенства:
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

lim P 1

   
n 
n
n


C 

 lim 1 

n  
n * 2 
,
откуда
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

lim P 1

    1;
n 
n
n


Так как
0  P  1 , то
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

lim P 1

    1;
n 
n
n


что и требовалось доказать.
Из данной теоремы следует, что если отдельные случайные величины могут принимать значения далекие от их математического ожидания,
44
то среднее арифметическое случайных величин принимает значение очень
близкое к значению среднего арифметического их математических ожиданий.
4.3. Теорема Бернулли.
Пусть проводится n независимых испытаний, в каждом из которых
вероятность наступления события А равна p .
Теорема: Если в каждом из n независимых испытаний вероятность p появления события А постоянна, то
m

lim P  p     1,
n 
 n

 0
где m/n - относительная частота события А.
Доказательство: Рассмотрим следующие случайные величины:
X1 – число появлений события А в первом испытании,
X2 – число появлений события А в втором испытании, … ,
Xn – число появлений события А в n испытании .
Для всех этих случайных величин М(Xi) одинаковы.
М(Xi) = p,
D(Xi) = p*q ,
Так как в сумме p+q = 1,
Рассмотрим X 
q = 1-p
то D(Xi)  1 / 4
X 1  X 2  ...  X n
,
n
тогда
M (X ) 
p*n
p
n
Поскольку D(X) ограничены, можно применить теорему Чебышева:
 X  X 2  ...  X n M ( X 1 )  M ( X 2 )  ...  M ( X n )

lim P 1

    1;
n 
n
n


 X  X 2  ...  X n

lim P 1
 p     1;
n 
n


Величина
то есть
X 1  X 2  ...  X n m

относительная частота события А,
n
n
m

lim P  p     1; что и требовалось доказать.
n 
 n

45
5. СИСТЕМА СЛУЧАЙНЫХ ВЕЛИЧИН.
5.1. Понятие о системе нескольких случайных величин.
Ранее рассматривались величины, возможные значения которых выражались одним числом. Такие величины называют одномерными. Кроме
одномерных случайных величин изучают величины, значения которых
определяются двумя, тремя и т.д. числами. Такие величины называют многомерными.
Двумерной случайной величиной называют величину, значение которой определяется двумя числами, обозначают (X,Y), где случайные величины
X и Y называют компонентами или составляющими двумерной случайной величины.
Закон распределения вероятностей для дискретных двумерных случайных величин.
Определение: Законом распределения называется перечень возможных
значений двумерной случайной величины и их вероятностей.
Обычно закон распределения записывают в виде следующей таблицы:
X
Y
x1
x2
….
xn
y1
P(x1,y1)
P(x2,y1)
…..
P(xn,y1)
y2
P(x1,y2)
P(x2,y2)
….
P(xn,y2)
…
…..
…..
…..
…..
ym
P(x1,ym)
P(x2,ym)
…..
P(xn,ym)
Так как события {X= xi , Y= yj } ,
i = 1….n
j = 1….m ,
образуют полную группу событий, то сумма всех вероятностей в таблице
равна 1.
Зная закон распределения двумерной случайной величины можно
найти законы распределения для ее составляющих, например:
P(X= x1) = P(x1, y1) + P(x1, y2) + ….. + P(x1, ym),
P(X= x2) = P(x2, y1) + P(x2, y2) + ….. + P(x2, ym),
5.2.
…………………………………………………………….,
P(X= xn) = P(xn, y1) + P(xn, y2) + ….. + P(xn, ym).
5.3. Функция распределения двумерной случайной величины и
плотность распределения вероятностей непрерывной двумерной
случайной величины.
Пусть (X,Y) – двумерная случайная величина дискретная или непрерывная.
Определение: Функцией распределения двумерной случайной величины
(X,Y) называется функция F(x,y) , которая определена для любой
пары чисел x,y:
F(x,y) = P(X<x, Y<y) .
Свойства функции распределения:
46
1) 0 F(x,y)  1
2) F(x,y) – функция неубывающая по каждому из аргументов, т.е.
F(x1,y)  F(x2,y),
x1  x2 ,
F(x, y1)  F(x, y2),
y1  y2 .
Доказательство:
Пусть значение x1> x2 , тогда событие {X<x1,Y<y} можно представить в
виде суммы двух событий {X< x2,Y<y) (x2  X< x1,Y<y}, тогда по теореме
сложения вероятностей P(X<x1,Y<y) = P(X< x2,Y<y) + P(x2  X< x1,Y<y).
F(x1,y)=F(x2,y)+ P(x2  X< x1,Y<y),
F(x1,y) - F(x2,y)  0,
F(x1,y)  F(x2,y)
- функция неубывающая по аргументу x.
Следствия:
1) F(-, y) = 0
2) F(x, -) = 0
3) F(-,-) = 0
4) F(+,+) = 1
3) F(x,+) = F1(x) ,
F(+,y) = F2(y) .
Доказательство:
,
,
,
.
Y<+ , тогда
F(x; +)=P(X<x)=F1(x) .
4) P(x1  X x2,Y<y)= F(x2,y) - F(x1,y),
P(x1  X x2, y1  Y y2)= F(x2,y2) - F(x1,y2) – (F(x2,y1) - F(x1,y1)) .
Пусть дана двумерная непрерывная случайная величина (X,Y).
Определение: Плотность распределения случайной величины (X,Y) называют вторую смешанную производную по переменным x и y от
функции распределения .
 2 F ( x, y )
f ( x, y ) 
 Fxy" ( x, y ) .
x * y
Свойства плотности распределения:
1) f ( x, y )  0 ,

2) 

 f ( x, y) * dx * dy  1 .
 
Условные законы распределения составляющих двумерных
случайных величин.
Рассмотрим двумерную ДСВ (X,Y), возможные значения которой
следующие:
x1 , x2 , x3 , … , xn
5.4.
47
y1 , y2 , y3 , … , ym .
Обозначим условную вероятность того, что случайная величина X=x1
при условии, что случайная величина Y=y1 через P(x1/y1) .
Определение: Условным распределением составляющей Х при условии что
Y = yj называют совокупность условных вероятностей:
P(x1/yj), P(x2/yj) , ….. , P(xn/yj),
вычисленных в предположении, что событие {Y = yj } уже наступило.
Аналогично можно определить условное распределение составляющей Y .
Зная законы распределения дискретных двумерных случайных величин,
можно вычислить условные законы распределения составляющих, используя формулу:
PB ( A) 
P( AB )
P( B)
;
P( x i / y j ) 
P( x i , y j )
P( y j )
.
Пусть дана двумерная непрерывная случайная величина (X,Y) .
Определение: Условной плотностью (x/y) распределения составляющих
Х при данном значении Y=y называют отношение плотности
совместного распределения (X,Y) к плотности распределения составляющей Y :
 ( x / y) 
f ( x, y )
.
f 2 ( y)
5.5. Условное математическое ожидание.
Условным математическим ожиданием ДСВ Y при условии, что
ДСВ Х приняла значение равное х, называют сумму произведений возможных значений Y на их условные вероятности, т.е.:
m
M (Y / X  x)   y i * P( y i / x) .
i 1
Для непрерывных случайных величин:
M (Y / X  x) 

 y *  ( y / x) * dy .

M (Y / X  x)  f ( x)
-
функция регрессии Y на X .
M ( X / Y  y)  f1 ( y)
-
функция регрессии X на Y.
48
5.6. Зависимые и независимые случайные величины.
Определение: Две случайные величины называются независимыми, если
закон распределения одной из них не зависит от того, какие значения принимает другая величина.
Теорема 1: Для того, чтобы случайные величины X и Y были независимыми необходимо, чтобы функция распределения двумерной случайной величины (X,Y) была равна произведению функции распределения составляющих X и Y , т.е.
F(x,y) = F1(x) * F2(y)
Доказательство:
Необходимость: Пусть случайные величины X и Y независимы, тогда независимы события {X<x}, {Y<y}.
Используя теорему о произведении вероятности независимых событий получим:
P(X<x, Y<y) = p(X<x)*p(Y<y) ,
то
F(x,y) = F1(x) * F2(y).
Достаточность:
Пусть
F(x,y) = F1(x) * F2(y)
,
отсюда
P(X<x, Y<y) = p(X<x)*p(Y<y)
Получили, что вероятность совместного свершения событий равна
произведению вероятностей этих событий. Это значит, что независимы
события
{X<x}, {Y<y}, независимы X,Y ,
теорема доказана.
Теорема 2: Для того, чтобы две непрерывные случайные величины X и
Y были независимы, необходимо и достаточно, чтобы плотность
их совместного распределения была равна произведению плотностей распределения каждой из них, т.е.
f(x,y) = f1(x) * f2(y) .
Доказательство:
Необходимость Если X и Y независимы, то по первой теореме
F(x,y) = F1(x) * F2(y) .
Продифференцируем (возьмем производную) последнее равенство по x и
y последовательно:
F ( y )  F2 ( y ) F1 ( x)
 2 F ( x, y )  

  F1 ( x) * 2
*
,
x * y
x 
y 
y
x
f ( x, y )  f 2 ( y ) * f 1 ( x ) .
49
Достаточность:
Пусть f(x,y) = f1(x) * f2(y) .
попеременно по x и y, получим:
x
y
y
Проинтегрируем это равенство
x
  f ( x, y) * dx * dy   f 2 ( y) * dy *  f1 ( x) * dx
 

,
то

F(x,y) = F1(x) * F2(y)
.
Тогда по первой теореме из данного
равенства следует, что случайные величины X и Y независимы.
Что и требовалось доказать.
5.7. Корреляционный момент. Коэффициент корреляции.
Определение: Корреляционным моментом случайных величин X и Y
называют математическое ожидание от произведения отклонения
данных случайных величин:
 xy  M (( X  M ( X )) * (Y  M (Y ))) .
Эту формулу можно переписать следующим образом:
 xy  M ( X * Y )  M ( X ) * M (Y ) .
Для вычисления корреляционного момента ДСВ используется следующая формула:
n
m
 xy    ( x i  M ( X )) * ( y j  M (Y )) * p( x i , y j ) .
i 1 j 1
Для непрерывной случайной величины корреляционный момент будет равен:
 xy 
x
y
  ( x  M ( X )) * ( y  M (Y )) * f ( x, y) * dx * dy .
 
Корреляционный момент служит для характеристики связи между
случайными величинами X и Y.
Теорема 1: Корреляционный момент двух независимых случайных величин X и Y равен 0 (нулю).
Доказательство: Пусть случайные величины независимы. Вычислим их
корреляционный момент в соответствии с определением:
 xy  M ( X * Y )  M ( X ) * M (Y ) .
По свойству математического ожидания независимых случайных величин:
M ( X * Y )  M ( X ) * M (Y )  M ( X ) * M (Y )  M ( X ) * M (Y )  0 .
Теорема доказана.
50
Следствие: Если корреляционный момент  xy  0 (не равен нулю), то
случайные величины X и Y зависимые.
Определение: Коэффициентом корреляции случайных величин X и Y
называется отношение корреляционного момента к произведению средних квадратических отклонений случайных величин X и
Y,
rxy 
 xy
 x * y
.
Из определения следует, что коэффициент корреляции для независимых случайных величин равен нулю.
Теорема 2: Модуль корреляционного момента двух случайных величин не
превосходит среднего геометрического дисперсий данных величин:
 xy  D( X ) * D(Y ) .
Доказательство: рассмотрим случайную величину : z1   y * X   x * Y
Вычислим дисперсию:
D( Z 1 )  M ( Z 1 ) 2  M 2 ( Z 1 )  M ( y * X   x * Y ) 2  M 2 ( y * X   x * Y ) 
  y * M ( X 2 )  2 *  y *  x * M ( X * Y )   x * M (Y 2 )   y * M 2 ( X ) 
2
2
2
 2 *  x *  y * M ( X ) * M (Y )   x * M 2 (Y ) 
2
 2 *  y *  x * ( M ( X * Y )  M ( X ) * M (Y ))   y * ( M ( X 2 )  M 2 ( X )) 
2
  x * ( M (Y 2 )  M 2 (Y ))  2 *  y *  x *  xy   y *  x   x *  y 
2
2
 2 *  y *  x *  xy  2 *  y *  x  0
2
2
т.о.
,
Аналогично, используя случайную величину
можно получить:  xy   x *  y
;
2
2
2
 xy   x *  y .
z2   x * Y   y * X ,
 xy   x *  y ,
 xy  D( X ) * D(Y ) ,
что и требовалось доказать.
Теорема 3: Коэффициент корреляции по модулю не превосходит единиrxy  1 .
цы.
51
Доказательство: Из теоремы 1 имеем:
Поделим все части на
1
 xy
 x * y
1 ,
 x * y
откуда
  x *  y   xy   x *  y .
получим:
 1  rxy  1
и
rxy  1 ,
что и требовалось доказать.
Определения: Две случайные величины X и Y называют коррелированными, если их корреляционный момент отличен от 0 (нуля).
Две случайные величины X и Y называют некоррелированными,
если их корреляционный момент равен 0 (нулю).
Из этих определений следует, что две коррелированные величины
будут также зависимы. Обратное утверждение не всегда справедливо: если
две случайные величины зависимы, то они могут быть как коррелированными, так и некоррелированными.
Линейная регрессия. Прямые линии среднеквадратической регрессии.
Пусть даны две случайные величины (X, Y), где X и Y зависимые.
Предположим, что одна величина может быть выражена через другую величину линейно, т.е. представим случайную величину Y как линейную
функцию от Х:
5.8.
Y  g (X) = a + b*X
.
Найдем коэффициенты a и b , используя метод наименьших квадратов.
Функция g(X) = a + b*X, называется наилучшим приближением случайной величины Y. Для того, чтобы эта функция давала более точное
приближение, достаточно, чтобы математическое ожидание отклонения
квадрата случайной величины Y от данной функции было бы наименьшим:
M(Y – a – b*X)2 .
Функцию g (X) называют среднеквадратической регрессией случайной величины Y на X .
Теорема: Линейная среднеквадратическая регрессия случайной величины
Y на X имеет следующий вид:
g( X )  my  r *
y
x
* ( X  m x ) , где
m x  M ( X ); m y  M (Y ); r  rxy .
Доказательство: Рассмотрим функцию от двух переменных равную:
F (a, b)  M (Y  a  b * X ) 2 .
Данную функцию можно представить в виде:
52
F ( a, b )   y  b 2 *  x  2 * r *  x *  y * b  ( m y  a  b * m x ) 2
2
2
Исследуя данную функцию F(a,b) на экстремум, вычислим частные
производные первого порядка и приравняем их к нулю:
Fa  2 * (m y  a  b * m x )  0
'
Fb  2 * b *  x  2 * r *  x *  y  2 * (m y  a  b * m x ) * (m x )  0
'
2
 2 * (m y  a  b * m x )  0
2 * b *  x  2 * r *  x *  y  2 * ( m y  a  b * m x ) * ( m x )  0
2
Решая, получим:
b
r * x
y
a  m y  b * mx  m y  r *
;
y
x
* mx
F(a, b) имеет наименьшее значение, тогда получим, что
g( X )  a  b * X  my  r *
g( X )  my  r *
y
x
y
x
* ( X  mx ) ,
* mx  r *
x
*X ,
что и требовалось доказать.
 r*
Коэффициент, равный
y
y
,
называют коэффициx
ентом регрессии случайной величины Y на X , а прямую
y
y  my  r *
x
* (x  mx )
прямой среднеквадратической регрессии случайной величины Y на случайную величину X .
Если в F(a, b) подставить найденные коэффициенты, то получим
наименьшее значение данной функции
F (a, b)   y * (1  r 2 ),
2
которое называется остаточной дисперсией Y относительно X, и которая
характеризует величину ошибки, которая допускается при замене случайной величины Y на g (X).
Если коэффициент корреляции r  1 , то F(a,b) = 0 и ошибка не
возникает. Это значит, что X и Y связаны функциональной линейной зависимостью.
53
Аналогично можно получить прямую среднеквадратической регрессии случайной величины X на Y . Она имеет вид:
x  mx  r *
x
* (y  my ) .
y
Обе прямые среднеквадратической регрессии Y на X и X на Y пересекаются в точке с координатами (mx, my), которая называется центром
совместного распределения случайных величин X , Y .
Если коэффициент r =  1 , то прямые регрессии будут совпадать.
6. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА.
6.1. Задачи математической статистики.
Задача математической статистики состоит в том, чтобы создать методы сбора и обработки статистических данных для получения научных и
практических выводов.
Выборочной совокупностью (или выборкой) называется совокупность случайно отобранных объектов.
Генеральной совокупностью называют совокупность объектов из
которой производят выборку.
Объемом совокупности называют число объектов данной совокупности.
Из 1000 деталей отбирают 100:
N = 1000
объем генеральной совокупности,
n = 100
объем выборки.
Виды выборок:
Повторной называют выборку при которой отобранный объект перед новым отбором следует возвратить в генеральную совокупность.
Безповторной называют выборку при которой отобранный объект перед
новым отбором не следует возвращать в генеральную совокупность.
Для того, чтобы по данным выборки можно было достаточно правильно
судить об интересующем признаке генеральной совокупности необходимо, чтобы выбранные объекты правильно ее представляли.
Другими словами выборка должна правильно представлять пропорции генеральной совокупности. Эти требования формулируются следующим образом: выборка должна быть репрезентативной.
В силу закона больших чисел можно утверждать, что выборка будет
репрезентативной, если ее осуществить случайно, т.е. каждый объект выборки отобран случайным образом из генеральной совокупности, если все
объекты имеют одинаковую вероятность попасть в выборку.
54
Способы отбора.
Отбор, не требующий разбиения генеральной совокупности на части,
бывает двух видов:
 Простой, случайный, бесповторный отбор
 Простой, случайный, повторный отбор .
Отбор, при котором генеральная совокупность разбивается на части
бывает трех видов:
1) Типический,
2) Механический,
3) Серийный.
Простым случайным отбором называют отбор, при котором объекты извлекаются из генеральной совокупности по одному.
Типическим называют отбор, при котором объекты избираются не из генеральной совокупности, а из каждой ее типической части ( если
детали производятся на нескольких станках, то при типическом
отборе отбор производится из продукции каждого станка в отдельности).
Серийным отбором называют отбор, при котором объекты отбираются из
генеральной совокупности не по одному, а целыми сериями, которые подвергаются сплошному исследованию.
Механическим отбором называют отбор, при котором генеральная совокупность делится на столько групп, сколько объектов должно
войти в выборку. И из каждой группы выбирается один объект .
6.2. Статистическое распределение выборки.
Пусть из генеральной совокупности извлечена выборка, причем значение некоторого признака, равное:
х1 встречается n1 раз ,
х2 встречается n2 раз ,
……………………… ,
хk встречается nk раз .
При этом n1 + n2 + n3 ….+ nk = n – объем выборки.
Значения xi называют вариантами, а последовательность вариант,
записанная в возрастающем порядке, называется вариационным рядом.
Числа наблюдений n1 , n2 , n3 , …, nk называют частотами.
Отношение (ni / n ) называется относительной частотой:
Wi = ni/n .
Статистическим распределением выборки называется перечень
вариант и соответствующих им частот или относительных частот, записанные в таблицу:
x
ni
x2
n2
x3
n3
…..
…..
xk
nk
Статистическое распределение можно задавать в виде последовательности интервалов и соответствующих им частот (в качестве частот,
55
соответствующих интервалу, принимают сумму частот, попавших в это
интервал).
Пример:
x
ni
x
wi
 Wi
1 ;
6
8
3
7
10
объем выборки статистического распределе-
n = 3+7+10 = 20 ния частот.
k
2
2
6
8
3/20
7/20
10/20
2,2,2 , 6,6,6,6,6,6,6 , 8,8,8,8,8,8,8,8,8,8
- вариационный ряд
i 1
выборки.
6.3. Эмпирическая (опытная) функция распределения.
Пусть известно статистическое распределение частот некоторого
признака. Обозначим nx - число наблюдений, при котором наблюдалось
значение признака меньше чем x.
n - общее число наблюдений (объем выборки). Относительная частота следующего события {X < x} равна nx / n .
Эмпирической функцией распределения выборки называют функцию
F*(x), которая для каждого значения x определяет относительную частоту событий {X < x }.
F*(x) = ( nx / n ) , где
nx - число вариант, которые меньше x,
n - объем выборки.
В отличии от эмпирической функции распределения выборки функция распределения F(x) генеральной совокупности называется теоретической функцией распределения.
Различие между этими функциями в том, что функция F(x) определяет вероятность события F(x) = P(X<x)
, а F*(x) определяет относительную частоту этого события:
F*(x) = nx / n .
В силу теоремы Бернулли имеем, что при больших значениях n эти
функции мало отличаются друг от друга:
m

lim P  p     1
n 
 n

или


lim P F * ( x)  F ( x)    1 .
n
Свойства эмпирической функции распределения:
1) F*(x)  [0,1] ,
2) F*(x) – неубывающая, т.е. если x1  x2 , то F*(x1)  F*(x2) ,
56
3) если x1 - наименьшая варианта, то F*(x) = 0, если x  x1 ,
если x2 - наибольшая варианта, то F*(x) = 1, если x > x2 .
Пример:
x
ni
F * ( x) 
nx
,
n
2
6
8
3
7
10
X  x,
n  20 .
x  2,
F * ( x)  0 ;
2  x  6,
F * ( x) 
3
 0.15 ;
20
6  x  8,
F * ( x) 
37
 0.5 ;
20
8  x,
F * ( x)  1 .
0,
при
0,15 , при
x  2,
2  x  6,
при
при
6  x  8,
8  x, .
1,0
F * ( x) 
0,5 ,
1,0 ,
0,5
0,25
0,15
2
4
6
8
10
6.4. Полигон и гистограмма для статистического распределения.
Для наглядного изображения статистических распределений служат
графики, которые называются полигонами и гистограммами.
Полигоном частот называют ломаную линию, отрезки которой соединяют
следующие точки (x1 n1), (x2 n2), ….( xk nk) .
Полигоном относительных частот называют ломаную линию, отрезки которой соединяют точки (x1 w1), (x2 w2), ….( xk w k ) .
Пример:
x
wi
1
3
5
7
1/10
2/10
4/10
3/10
57
Wi
0,4
0,2
0,1
x
1
3
5
7
Полигон относительных частот.
В случае непрерывного признака (интервальное распределение) целесообразно строить гистограмму, для чего в интервал, в который заключены все наблюдаемые значения признака, разбивают на несколько интервалов одинаковой длины h и находят для каждого частичного интервала
сумму частот вариант, попавших в данный интервал.
Гистограммой частот называют ступенчатую фигуру, состоящую из
прямоугольников, основаниями которых служат частичные отрезки длиной h , а высотами величины равные (ni / h) (плотность частоты). Аналогично гистограмма относительных частот.
Пример:
x
ni
n=50,
2-5
5-8
8-11
11-14
9
10
25
6
h=3 .
ni
h
25/3
10/3
x
2
5
8
11
14
6.5. Статистические оценки параметров распределения.
Пусть требуется изучить количественный признак генеральной совокупности. Допустим, что распределение генеральной совокупности известно и необходимо оценить параметры данного распределения. Обозначим:
Q - оцениваемый параметр,
Q* - его оценка (оценка параметра),
|Q – Q*| - точность оценки .
58
Статистической оценкой Q* параметра распределения Q называется приближенное значение параметра, зависящее от характеристик выборки из генеральной совокупности, т.е. статистическая оценка есть функция
от характеристик выборки :
(x1, x2 , x3, … xk , n1, n2 , n3, … nk ) ,
Q* ≈ Q .
Для того, чтобы оценка давала наиболее точное приближение, она
должна обладать следующими свойствами:
Статистическая оценка Q* называется несмещенной, если математическое ожидание этой оценки равно оцениваемому параметру, т.е.
M(Q*) = Q. (Статистическая оценка Q* называется смещенной, если
M(Q*)  Q).
Статистическая оценка Q* называется эффективной, если при заданном объеме выборки она имеет наименьшую дисперсию.
Статистическая оценка Q* называется состоятельной, если при n
  оценка по вероятности стремится к оцениваемому параметру.
lim
P( |Q-Q*|<  ) = 1 .
n 
6.6. Генеральная и выборочная средняя.
Пусть изучается количественный признак Х генеральной совокупности.
Генеральной средней x г называется среднее арифметическое значений признака генеральной совокупности.
x1 , x 2 ,....x n , то
Если значения генеральной совокупности все различны
N
x
x1  x 2  ...  x n i 1 i
xг 

N
N
Если же значения признака таковы, что
x1
встречается
n1 раз ,
x2
встречается
n2 раз ,
……………………………….
xk
встречается
nk раз ,
то
k
xг 
 x i * ni
i 1
N
т.е. в этом случае x г есть средняя взвешенная значений с весами равными соответствующим частотам.
59
Выборочной средней x в называется среднее арифметическое значение признака выборочной совокупности.
Пусть из генеральной совокупности объемом N производится выборка объемом n , если при этом все значения признака выборки различны,
то
n
xв 
 xi
i 1
.
n
Если выборочные значения
встречаются в количестве:
x1 , x2 , …, xk ,
n1 , n2 , … , n k ,
k
то выборочная средняя x в 
при этом
 x i * ni
i 1
,
n
n1 + n2 +… +nk = n .
6.7. Оценка генеральной средней по выборочной средней.
Теорема: Выборочная средняя есть несмещенная и состоятельная оценка
для генеральной средней
xв  x г .
Доказательство: Пусть из генеральной совокупности извлечена выборка
n, все значения которой различны (x1 , x2 , …, xn). В этом случае выборочная средняя равна
xв 
x1  x 2  ...  x n
.
n
Будем рассматривать выборочную среднюю как среднее арифметическое
случайных величин X1 , X2 , …, Xn
xв 
X 1  X 2  ...  X n
.
n
Т.к. выборка извлечена из генеральной совокупности, то каждая из этих
величин X1 , X2 , …, Xn имеет одно и то же распределение. Эти случайные величины независимы, тогда математическое ожидание
 X  X 2  ...X n 
M 1
  M (X1)  a .
n


Поскольку
M ( X )  xг  a
, получаем
 
M xв  x г .
60
Таким образом x в
- несмещенная оценка для генеральной средней.
Покажем, что выборочная средняя состоятельная оценка.
Используем теорему Чебышева
 X  X 2  ...  X n

lim P 1
 a     1 ,
откуда
n 
n




lim P xв  x г    1 .
n
Теорема доказана.
6.8. Групповая и общая средняя.
Пусть все значения количественного признака генеральной совокупности разбиты на несколько групп. Рассмотрим каждую группу, как
самостоятельную совокупность.
Групповой средней называется среднее арифметическое значений признака, принадлежащих данной группе.
Общей средней x назовем среднее арифметическое значений признака,
принадлежащих всей совокупности.
Теорема: Общая средняя равна средней арифметической групповых средних взвешенной по объемам групп.
x * n  x2 * n2
, (в случае двух групп).
x 1 1
n1  n 2
Пример: Найти общую среднюю для совокупности:
x
ni
x1 
1
6
10
15
x
ni
1 * 10  6 * 15
4
25
x
1
5
20
30
x2 
;
,
n1 = 25 ,
n2 = 50 .
1 * 20  5 * 30
 3,4 ;
50
4 * 25  3,4 * 50
 3,6 .
25  50
6.9. Отклонение значений признака от общей средней.
Рассмотрим совокупность значений количественных признаков Х.
x
x1
x2
x3
…..
xk
n
n1
n2
n3
…..
nk
61
k
x
 x i * ni
i 1
k
x * n   x i * ni
n1  n 2  ...  n k  n ;
,
i 1
k
k
i 1
i 1
откуда
,
n
x *  ni   x i * ni
k
k
i 1
i 1
 x * ni   x i * ni
,
 x*n .
Определение: Отклонением называется разность между значением признака и общей средней x i  x.
Теорема: Сумма произведений отклонений на соответствующие частоты
равна нулю:
 xi
k
i 1
Доказательство:
 x
k
i 1
i

 x * ni  0 .

k
 x * ni   xi * ni   x * ni  0 , что и требоваi 1
лось доказать.
Следствие: Среднее значение отклонений равно нулю:
 xi
k
i 1

 x * ni
k
0 .
 ni
i 1
6.10. Генеральная и выборочная дисперсия.
Определение: Генеральной дисперсией называется среднее арифметическое квадратов отклонений значений признака генеральной совокупности от их среднего значения x г .
Если все значения генеральной совокупности различны x1 , x 2 ,....x N ,
 xi
N
Dг 
i 1
 xг

2
.
N
Если же значения генеральной совокупности повторяются:
x
ni
x1
n1
x2
n2
x3
n3
…..
…..
xk
nk
62
 xi
k
то Dг 
i 1
 xг

2
* ni
где
,
N
N = n1 + n2 +… +nk .
В этом случае генеральная дисперсия есть средняя взвешенная квадратов отклонений с весами равными соответствующим частотам.
Пример:
2
4
5
6
x
8
9
10
3
ni
N  n1  n 2  ...  n k  30
,
2 * 8  4 * 9  5 * 10  6 * 3 120
xг 

4
30
30
Dг
2
2
2
2

2  4 * 8  4  4 * 9  5  4 * 10  6  4 * 3 54 9



30
30
5
Определение: Генеральным средним квадратическим отклонением называют
 г  Dг .
Определение: Выборочной дисперсией называют среднее арифметическое
квадратов отклонения наблюдаемого значения признака выборки от среднего выборочного x в .
Если значения выборки различны, то
Dв 
x
1
 xв
  x
2
2
 xв
n

2

 ...  x n  x в

 xi
n
2

i 1
 xв
n

2
,
где n - объем выборки.
Если же значения признака повторяются, то
 xi
k
Dв 
i 1
 xв

2
* ni
n
Определение: Выборочным средним квадратическим отклонением называется корень квадратный из дисперсии выборочной:  в  Dв .
Пример: дана выборка
x
1
20
ni
Найти выборочную дисперсию.
2
15
3
10
4
5
63
n  20  15  10  5  50 ,
Dв
20 * 1  15 * 2  10 * 3  5 * 4
 2,
50
xв 
2
2
2
2

1  2 * 20  2  2 * 15  3  2 * 10  4  2 * 5

 1,
50
 в 1 .
Формула для вычисления дисперсии.
Теорема: Дисперсия равна разности между средним квадратов значений и
квадратом среднего значения.

D  x2  x
2
Доказательство: Вычислим дисперсию:
 xi
k
D
i 1

k
2
 x * ni
n

 xi
k
k
i 1
i 1
* ni  2 * x i * x * ni   ( x) 2 * ni
2
i 1
n

n

=x  2* x *
2
 x i * ni
i 1
n

 x
2

 x2  2 * x * x  x
2

 x2  x
2
Пример:
x
ni
n  10
2
4
3
3 *1  3 * 4  4 * 3
 2,7 ,
10
1 * 3  9 * 4  16 * 3
 8,7 ,
10
 
Dв  x в  x в
2
3
4
xв 
,
xв 
1
3
2
 8,7  2,7   8,7  7,29  1,41 .
2
6.11. Групповая, внутригрупповая, межгрупповая, общая дисперсии.
Пусть все значения некоторого признака Х разбиты на несколько
частей (групп).
Групповой дисперсией называют дисперсию значений признака,
принадлежащих данной группе, относительно групповой средней.
64
 xi
m
D j.г р. 
i 1
 xj

2
* ni
Nj –объем группы,
,
Nj
j - номер группы,
x j – групповая средняя для j группы.
Пример:
x
ni
1-я группа
2
4
1
7
N 1  10
,
5
2
x1 
2-я группа
3
x
2
ni
;
8
3
2 *1  4 * 7  5 * 2
4 ,
10
3* 2  8*3
6 .
5
Найти групповые дисперсии:
N2  5
,
x2 
D1г р.
2
2
2

2  4 * 1  4  4 * 7  5  4 * 2

 0,6 ,
D2 г р.
2
2

3  6 * 2  8  6 * 3 18  12


6 .
10
5
5
Внутригрупповой дисперсией называют среднюю арифметическую
дисперсий групп, взвешенную по их объемам:
k
 D j.г р. * N j
Dв.г р. 
j 1
,
k
Nj
j 1
Пример:
для примера выше:
0,6 * 10  6 * 5 36 12
.


15
15 5
Межгрупповой дисперсией называют дисперсию групповых средних относительно общей средней.
Dв.г р. 
 x j

k
D м.г р. 
x *Nj
j 1
k
.
Nj
j 1
Пример:
x
x1 * N 1  x 2 * N 2 4 * 10  6 * 5 70 14
.



N1  N 2
15
15 3
65
2
2

4  10 / 3 * 10  6  14 / 3 * 5 40 / 9  80 / 9



D м.г р.
15
15
120
8
 .
9 * 15 9
Общая дисперсия – это дисперсия значений признака всей совокупности относительно общей средней:
 xi
k
D
i 1

2
 x * ni
Пример:
D
.
n
 214 / 32 *1614 / 32 *7514 / 32 *2814 / 32 *3314 / 32 *2
15

n = N1 + N2 .
=444/(3*15) = 148/15,
Теорема: Если совокупность состоит из нескольких групп, то общая дисперсия равна
D  Dв.гр.  D м.гр. .
Доказательство: Пусть вся совокупность признака разбита на две группы.
1-я группа
2-я группа
x
mi
x1
m1
x2
m2
N 1  m1  m 2
x
ni
x1
n1
,
n  N1  N 2 .
N 2  n1  n 2
,
x2
n2
Вычислим общую дисперсию:
 x

k
D
 x
2
i 1
2

i 1
i
2
2
i

n

 x
2
2
 x * ni
i 1

i
n

 

 x * mi   xi  x1  x1  x
i 1

2
2




 xi
2
2
 x * mi
i 1

2
 x * ni
n

2
* mi 

2


2
  xi  x1 * mi  2 *  xi  x1 * x1  x * mi   x1  x * mi 
i 1
i 1


2
i 1


 D1Гр. * N 1  2 * x1  x *  xi  x1 * mi  x1  x * N 1 
i 1
2


2
 D1 Гр. * N 1  x1  x * N 1 .
Аналогично:
 xi  x 
2
i 1
2


2
* ni  D2 Гр. * N 2  x 2  x * N 2 .
66
Дисперсия
D




2
D1гр. * N1  x1  x * N1

n
D1г р. * N 1  D2 г р. * N 2
n
x

1

2
D2 гр. * N 2  x 2  x * N 2
n


2


2
 x * N1  x 2  x * N 2

n
 Dв.г р.  D м.г р. , что и требовалось доказать.
Пример:
12
,
5
12 8 148
.
D  
5 9 45
Dв.г р. 
Для примера выше:
тогда
8
9
D м.г р. 
,
6.12. Оценка генеральной дисперсии по исправленной выборочной.
Пусть из генеральной совокупности извлечена повторная выборка
объема n.
…..
x1
x2
x3
xk
x
ni
n1
n2
…..
n3
k
 ni
nk
n .
i 1
Требуется по данной выборке оценить генеральную дисперсию D Г .
Если в качестве оценки брать выборочную дисперсию, то получим
заниженное значение генеральной дисперсии, т.к. эта оценка будет смещенной:
n 1
M ( Dв . ) 
* DГ.
n
Поэтому в роли оценки генеральной дисперсии берется исправленная выборочная дисперсия:
 xi
k
DГ.
n
n
S 
* Dв . 
* i 1
n 1
n 1
 xв

2
 xi
k
* ni
2
n

i 1
 xв

n 1
2
* ni
.
В качестве оценки генерального среднего квадратического отклонения будем брать исправленное среднее квадратическое отклонение:
 xi
k
 Г.  S
, где
S S 
2
i 1
 xв

n 1
2
* ni
.
67
6.13. Точность оценки. Доверительная вероятность и доверительный интервал.
Определение: Точечной оценкой называют статистическую оценку, которая определяется одним числом.
При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра.
Определение: Интервальной оценкой называют оценку, которая определяется двумя числами - концами интервала.
Пусть найденная по данным выборки статистическая характеристика
* (тета со звездочкой) служит оценкой неизвестного параметра .
Ясно, что оценка * будет тем точнее, чем меньше разность | - *|.
Если >0 и | - *| < , то чем меньше , тем точнее оценка. Число
 характеризует точность оценки.
Надежностью (доверительной вероятностью) оценки * называют  (вероятность), с которой осуществляется следующее неравенство:
 - * <  ,
т.е.
P( - * < ) =  ,
P (* -  <  < * + ) =  .
В статистике  = 0,95; 0,99; 0,999 .
Доверительным интервалом называют интервал (*- ; *+), который
покрывает неизвестный параметр с надежностью  (гамма).
6.14. Доверительный интервал для математического ожидания
нормального распределения при известном  .
Пусть Х (количественный признак) генеральной совокупности распределен по нормальному закону. При этом среднее квадратическое отклонение равно
 . Требуется оценить математическое ожидание
M ( X )  a по выборочной средней x в .
Найдем доверительный интервал с надежностью  (гамма), который
покрывает параметр a . Т.к. генеральная совокупность распределена по
нормальному закону, то
 
 
 xв 
M xв  a ,

n
.
Используя формулу для нормального распределения имеем:


 * n 
  ;
P x в  a    2 * Ф




68
 * n 
 * n  
   ; Ф

2 * Ф

   2





;t

* n
; Фt   .

2
По таблице функции Лапласа вычисляем t , откуда  
t * 

P x в  a 
 
n 

t* n

, значит:
t *
 t *

P 
 xв  a 
 xв    .
n
n


;
Таким образом доверительный интервал для конкретного параметра
a таков:
t *
t * 

; xв 
 xв 
.
n
n


6.15. Доверительный интервал для математического ожидания
нормального распределения при неизвестном среднем квадратическом отклонении  .
Пусть Х (количественный признак) распределен по нормальному закону и среднее квадратическое отклонение  неизвестно. Тогда с надежностью  доверительный интервал для математического ожидания генеральной совокупности M ( X )  a
по выборочной средней x в
будет
иметь следующий вид:
xв 
t * S
n
 a  xв 
t * S
n
,
где
S - исправленное выборочное среднее квадратическое отклонение,
t  - находится по таблице распределения Стьюдента по значениям
доверительной вероятности  и объему выборки n .
6.16. Другие характеристики вариационного ряда.
Модой (mo) называют варианту, которая имеет наибольшую частоту.
Пример 1:
x
ni
Из таблицы:
2
10
3
12
4
1
mo = 3 .
Медианой (mе) называют варианту, которая делит вариационный ряд на 2
части, равные по числу вариант.
Если число вариант нечетно, т.е. n  2 * k  1 , то m e  x k 1 ;
69
n  2*k
При четном
me 
,
x k  x k 1
.
2
Пример 2: Если дан ряд 2,3,5,6,7, то me  5
Для ряда 2,3,5,6,7,8 , me 
Размахом варьирования называют
наименьшей вариантой:
R  x max  x min .
Для примера 1: R  4  2  2 .
;
56
 5,5 .
2
R разность между наибольшей и
Средним абсолютным отклонением называют среднее арифметическое
абсолютных отклонений:
k

Для примера 1: x в 

 xi
i 1
2 * 10  3 * 12  4 * 1 60

3 ,
10  12  1
23
2  3 * 10  3  3 * 12  4  3 * 1
23

 x в * ni
.
n
11
.
23
Коэффициентом вариации (V) называют отношение выборочного среднего квадратического отклонения к выборочной средней, выраженное в %:
V
в
* 100% .
xв
Коэффициент вариации служит для сравнения величин рассеяния по
отношению к выборочной средней для вариационного ряда.
Пример:
x
ni
1
4
3
10
6
5
16
1
 xi
k
1 * 4  3 * 10  6 * 5  16 * 1
xв 
4 ;
20
Dв 
i 1

 x в * ni
n
2
2
2
2

1  4 * 4  3  4 * 10  6  4 * 5  16  4 * 1

 10,5
20
 в  Dв  3,24
;
V
3.24
* 100%  81%
4
;

70
7. СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ.
Статистическая гипотеза. Нулевая и конкурирующая гипотезы. Простая и сложная гипотезы.
Статистической гипотезой называется гипотеза или предположение
о виде неизвестного распределения или о параметрах неизвестного распределения, например: "Генеральная совокупность распределена по нормальному закону.", "Дисперсии двух нормальных распределений равны между
собой.".
Нулевой (основной) гипотезой называют выдвинутую гипотезу (H0).
Конкурирующей гипотезой называют гипотезу, которая противоречит нулевой гипотезе (H1).
7.1.
Пример:
H0:
a = 5 , тогда
H1:
a5
Простой гипотезой называют гипотезу, содержащую только одно
предположение.
Сложной гипотезой называют гипотезу, состоящую из конечного
или бесконечного числа простых гипотез.
Выдвинутая гипотеза может быть правильной, либо неправильной.
Необходима ее проверка. В итоге статистической проверки может быть
приняты неправильные решения.
Ошибкой первого рода называют ошибку, возникающую в результате того, что была отвергнута правильная гипотеза.
Ошибка второго рода – принимается неправильная гипотеза.
В зависимости от ситуации та или иная ошибка вызывает серьезные
последствия. Для проверки нулевой гипотезы выбирают специальную
случайную величину, точное или приближенное значение которой известно.
Статистическим критерием K называют случайную величину, которая служит для проверки нулевой гипотезы.
Для проверки гипотезы по данным выборки вычисляют частные значения входящих в критерий величин и, таким образом, получают частное
или наблюдаемое значение критерия.
Наблюдаемым значением критерия K набл. называют значение критерия, вычисленное по данным выборки.
После выбора определенного критерия множество всех его возможных значений разбивается на два непересекающихся подмножества. Одно
из них содержит значения критерия, при которых H0 отвергается, а другое,
- при которых H0 принимается.
Критической областью называют совокупность значений критерия,
при которых H0 отвергается.
Областью принятия гипотезы называют совокупность значений
критерия, при которых H0 принимается.
71
Основной принцип проверки статистических гипотез звучит так:
если наблюдаемое значение критерия принадлежит критической области,
то выдвинутая гипотеза отвергается. Если же наблюдаемое значение критерия принадлежит области принятия гипотезы, то выдвинутая гипотеза
принимается.
Критерий - это есть одномерная случайная величина, все возможные
значения которой принадлежат некоторому интервалу.
Критическими точками (границами) называют точки, которые отделяют критическую область от области принятия гипотезы.
Различают одностороннюю и двустороннюю критические области.
Правосторонней называют критическую область, которая определяется
следующим неравенством:
K > kкр ,
где kкр > 0
K.
0
kкр
Левосторонней называют критическую область, которая определяется следующим неравенством:
K < kкр , где kкр < 0
K.
kкр
0
Двусторонней называют критическую область, которая определяется неравенствами:
K < k1 ,
K > k2
, где k2 > k1
K.
k1
k2
7.2. Отыскание критических точек и критических областей.
Найдем правостороннюю область, которая определяется следующим
неравенством
K > kкр > 0 .
Для этого достаточно определить критическую точку kкр.. Для ее
нахождения задают уровень значимости  - это вероятность события
{K > kкр}, т.е.
 = P (K > kкр) .
В статистике  = 0,05; 0,01; 0,001 (редко).
Для каждого критерия существуют специальные таблицы, по которым находятся значения kкр .
Для нахождения левосторонней области, которая определяется следующим неравенством
K < kкр < 0
достаточно найти критическую точку kкр , которая находится исходя из
требования:
P (K < kкр) =  - заданному уровню значимости.
Для нахождения двусторонней критической области, которая определяется следующим неравенством
72
K < k1 ,
достаточно найти критические точки
условия:
K > k2 ,
k1 и k2 , используя следующие
P (k < k1) + P (k > k2)=  .
Мощностью критерия называют вероятность попадания критерия
K в критическую область при условии, что справедлива конкурирующая
гипотеза H1.
Сравнение двух дисперсий нормальных генеральных совокупностей.
Пусть X и Y это две генеральные совокупности, распределенные
по нормальному закону. По выборкам объемами n1 и n2 , извлеченным из
из этих совокупностей, находятся исправленные выборочные дисперсии
Sx2 и Sy2 .
Требуется по исправленным дисперсиям при заданном уровне значимости  проверить гипотезу H0 , состоящую в том, что генеральные
дисперсии совокупностей равны между собой.
H0 : D(X) = D(Y)
7.3.
Учитывая, что исправленные дисперсии являются несмещенными
оценками генеральных дисперсий, получим:
M(Sx2) = D(X)
M(Sy2) = D(Y) .
Тогда H0 можно записать в следующем виде:
H0 :
M(Sx2) = = M(Sy2) .
В качестве критерия для проверки гипотезы H0 выбирают следующий критерий F, равный отношению большей исправленной дисперсии к
меньшей исправленной дисперсии.
F = Sб2 / Sм2
Величина F имеет распределение Фишера-Снедекора со степенями
свободы:
k1 = n1 – 1 ,
k2 = n2 - 1 , где
- объем выборки, которая имеет большую исправленную дисперсию,
- объем выборки, которая имеет меньшую исправленную дисперсию.
Конкурирующая гипотеза H1 может иметь два разных вида. В зависимости от вида гипотезы H1 строится либо правосторонняя, либо двусторонняя критическая область.
n1
n2
1) H1: D(X) > D(Y), в этом случае строят правостороннюю критическую
область. Строят, исходя из следующего условия:
P( F > Fкр ) =  .
73
Критическую точку Fкр находят по таблице Фишера-Снедекора. В этом
случае правосторонняя критическая область задается неравенством: F>Fкр
, а область принятия гипотезы F<Fкр . Обозначим через наблюдаемое значение критерия:
Fнабл. = Sб2 / Sм2 .
Тогда правило проверки H0 можно сформулировать так:
Если
Fнабл.>Fкр , то
H0 отвергается.
Если
Fнабл.<Fкр , то
H0 принимается.
2) Рассмотрим конкурирующую гипотезу
H1: D(X)  D(Y) .
В этом случае строится двусторонняя критическая область:
F1 - левая критическая точка области,
F2 - правая критическая точка области.
0
F1
F2
Для нахождения F1 и F2 используется следующие равенства:
P(F < F1) =  / 2 ,
P(F > F2) =  /2 .
Для нахождения правой критической точки F2 находим по таблице
Фишера-Снедекора по данным выборки это значение, т.е.:
F2 = Fкр( / 2, k1,k2)
.
Тогда
если Fнабл. > F2 то H0 отвергается,
если Fнабл. < F2 то H0 принимается.
Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны.
Пусть генеральные совокупности X и Y распределены нормально и
их дисперсии известны. По независимым выборкам, объемы которых n и
m найдем выборочные средние x и y .
Требуется по выборочным средним при заданном уровне значимости
 проверить нулевую гипотезу H0 , состоящую в том, что генеральные
средние (математические ожидания) рассматриваемых совокупностей равны:
7.4.
H0:
M(X) = M(Y)
Так как выборочные средние являются несмещенными оценками для
генеральных средних, т.е.:
M( X ) = M(X) , M ( Y ) = M(Y),
тогда H0:
M( X ) = M( Y ).
В качестве критерия для проверки данной гипотезы используется
следующая случайная величина (СВ):
74
Z
X Y
 X  Y 

X Y

D X Y


X Y
 

D X DY

X Y
D X  DY 

n
m
.
Эта СВ будет являться нормированной нормальной величиной, т.к.:
M(Z) = 0
, а
(Z) = 1.
Критическую область для проверки H0 будем строить в зависимости
от конкурирующей гипотезы:
1)
H0 :
M(X) = M(Y),
H1 :
M(X)  M(Y).
В этом случае строится двусторонняя критическая область, исходя из
того , что вероятность попадания критерия в эту область равна уровню
значимости  :
Z
-zкр
0
zкр
Обозначим правую критическую точку таким образом, что для нее выполняется следующее условие:
P (Z > zкр) = /2 = P( Z < - zкр ) .
Достаточно найти правую критическую точку zкр , тогда область
принятия H0 будет иметь следующий вид: (-zкр ; zкр).
Так как генеральные совокупности X и Y распределены нормально,
то используя соответствующую формулу:
P(0<Z<z)= Ф(z) - Ф(0) = Ф(z),
получим:
P0  Z  z кр.   PZ  z кр.   Фz кр.  

2

1
.
2
Так как распределение нормальное и оно симметрично относительно нуля,
то:
P0  Z    
1
, следовательно
2
Фz кр.  
1
2
.
Тогда используя таблицу функции Лапласа можно найти критическую точку zкр . Неравенство |Z| < zкр будет определять область принятия
гипотезы, а |Z| > zкр определяет критическую область.
Правило проверки гипотезы.
Для того, чтобы при заданном уровне значимости  проверить H0
при конкурирующей гипотезе H1 : M(X)  M(Y) ,
необходимо вычислить:
75
z набл. 
x y
.
D ( X ) D (Y )

n
m
Далее по таблице функции Лапласа следует найти значение zкр используя:
Ф(zкр) =
1
2
Теперь,
.
если | zнабл | > zкр, то H0 отвергается,
если | zнабл | < zкр, то H0 принимается.
2)
H0 :
M(X) = M(Y),
H1 :
M(X) > M(Y).
В этом случае строим правостороннюю критическую область, исходя:
P ( Z > zкр) = 
Z
0
zкр
Используя функцию Лапласа получим:
P(0  Z  z кр. )  P( Z  z кр. )  Ф( z кр. )   
Ф( z кр. ) 
1  2 *
.
2
1
2
,
откуда
Тогда используя таблицу функции Лапласа можно найти критическую точку.
Неравенство Z > zкр будет определять критическую область.
Неравенство Z < zкр будет определять область принятия гипотезы.
Правило: Для того, чтобы проверить H0 при H1 вычисляем наблюдаемое
значение критерия:
x y
z набл. 
.
D ( X ) D (Y )

n
m
Далее по таблице функции Лапласа находим zкр из условия, что:
Фz кр.  
1  2 *
.
2
Если zнабл > zкр, то H0 отвергается,
если zнабл < zкр, то H0 принимается.
3)
H0 :
H1 :
M(X) = M(Y),
M(X) < M(Y).
76
В этом случае будем строить левостороннюю критическую область, учитывая:
P ( Z < z ' кр. ) = 
Z
0
z ' кр. = - zкр .
z ' кр.
Очевидно, что достаточно найти точку zкр как и для второго случая, исходя из того, что:
1  2 *
.
2
Далее искомая критическая точка определяется из условия: z ' кр. = - zкр .
Таким образом,
если zнабл > - zкр, то H0 принимается,
если zнабл < - zкр, то H0 отвергается.
Фz кр.  
Сравнение выборочной средней с генеральной средней нормальной совокупности.
1) Дисперсия генеральной совокупности известна.
Пусть генеральная совокупность Х распределена по нормальному
закону, причем генеральная средняя данной совокупности неизвестна, но
имеется предположение о том, что она равна a  a 0 .
7.5.
Найдем выборочную среднюю по данным выборки x . Требуется при
заданном уровне значимости  проверить нулевую гипотезу :
H0: a  a 0 .
Учитывая, что выборочное среднее x является несмещенной оценкой для генеральной средней , то M( X ) = a , можно нулевую гипотезу
переписать в следующем виде:
H0: M ( X )  a 0 .
В качестве критерия для проверки гипотезы используем:
U
X  a0
 X 

X  a  *
0
 X 
n
.
Данная случайная величина является нормированной, нормальной:
M(U) = 0
,
 (U) = 1.
Для проверки нулевой гипотезы в зависимости от конкурирующей гипотезы строится соответствующая критическая область.
a)
H0 :
H1 :
a  a0 ,
a  a0 .
77
u
u набл. 
x  a *
0
 X 
- uкр
n
0
uкр
.
По таблице функции Лапласа находим критические точки:
Фu кр.  
1
2
.
Если | uнабл | < uкр, то H0 принимается,
если | uнабл | > uкр, то H0 отвергается.
a  a0 ,
H0 :
H1 : a  a 0 .
Для того, чтобы проверить H0 вычислим:
x  a0 * n
.
u набл. 
 X 
b)


По таблице функции Лапласа находим uкр из следующего условия:
Фu кр.  
1  2 *
2
.
Если uнабл > uкр, то H0 отвергается,
если uнабл < uкр, то H0 принимается.
a  a0 ,
H0 :
H1 : a  a 0 .
Для того, чтобы проверить H0 вычислим значение критерия:
c)
u набл. 
x  a *
0
 X 
n
.
Находим критическую точку uкр из следующего условия:
Фu кр.  
1  2 *
2
Если uнабл < - uкр, то H0 отвергается,
если uнабл > - uкр, то H0 принимается.
.
78
2) Дисперсия генеральной совокупности неизвестна.
Если дисперсия генеральной совокупности неизвестна (в случае малых выборок), то в качестве критерия проверки H0 принимается случайная
величина T:
T
X  a *
0
n
S
,
где S - направленное среднее квадратическое отклонение.
Критерий Т имеет распределение Стьюдента со степенями свободы
k = n – 1.
Критическая область строится в зависимости от конкурирующей гипотезы.
Возможны 3 случая:
a)
H0 :
H1 :
a  a0 ,
a  a0 .
Чтобы проверить H0 вычисляем наблюдаемое значение критерия
Tнабл. 
x  a *
0
n
S
.
По таблице критических точек распределения Стьюдента по заданному уровню значимости  и по числу степеней свободы находим критическую двустороннюю точку
t кр.дв.  t  , k  .
Если | Tнабл | < tкр.дв.
если | Tнабл | > tкр.дв.
то H0 принимается,
то H0 отвергается.
a  a0 ,
H0 :
H1 : a  a 0 .
Строится правосторонняя критическая область. Для проверки H0 вычисляем Tнабл:
b)
Tнабл. 
x  a *
0
n
S
.
По таблице критических точек распределения Стьюдента находим
t кр.пр.  t  , k 
если Tнабл > tкр.пр. ,
.
И, далее,
то H0 отвергается.
Если Tнабл < tкр.пр. ,
79
то H0 принимается.
a  a0 ,
H0 :
H1 : a  a 0 .
Строится левосторонняя критическая область, симметричная правосторонней. Для проверки H0 вычисляем наблюдаемое значение критерия
Tнабл
c)
Tнабл. 
x  a *
n
0
S
.
По таблице критических точек распределения Стьюдента находим tкр.пр.
t кр.пр.  t  , k 
если Tнабл < - tкр.пр. ,
Если Tнабл > - tкр.пр. ,
Далее,
.
то H0 отвергается.
то H0 принимается.
Проверка гипотезы о нормальном распределении. Критерий
согласия Пирсона.
Раньше закон распределения генеральной совокупности был известен. Если закон распределения неизвестен, то можно предположить, что
он имеет определенный вид. Проверка гипотезы о предполагаемом законе
неизвестного распределения производится также, как и проверка гипотезы
о параметрах распределения, т.е. при помощи специально подбираемых
случайных величин (СВ).
Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения.
Имеется несколько критериев согласия:
- критерий Пирсона,
- критерий Колмогорова,
- критерий хи-квадрат.
Остановимся на критерии Пирсона. Этот критерий применяется для
проверки гипотезы о нормальном распределении генеральной совокупности.
С этой целью сравнивают эмпирические (наблюдаемые) и теоретические частоты, вычисленные в предположении нормального распределения.
Критерий Пирсона не доказывает справедливость гипотезы, а лишь
устанавливает ее согласие либо несогласие с данными наблюдений.
Пусть по выборке объема n получено следующее эмпирическое распределение:
7.6.
x
ni
x1
n1
x2
n2
…
…
xk
nk
80
Допустим, что исходя из нормального распределения генеральной
совокупности вычислены теоретические частоты соответствующих значений:
n1‘ , n2‘ , …,
nk'
При уровне значимости  требуется проверить гипотезу H0 , состоящую в том, что генеральная совокупность распределена нормально.
В качестве критерия проверки H0 принимают случайную величину
k
2 
n
 ni'
i
ni'
i 1

2
.
При условии, что n  закон распределения случайной величины
 независим от того, какому закону подчиняется генеральная совокупность, стремится к закону распределения Хи-квадрат cо степенью свободы k.
Число степеней свободы k находят:
k = S – 1 – r,
где
S – число групп выборки ( число частичных отрезков),
r – число параметров предполагаемого распределения, которое оценивается по данной выборке.
Если предполагаемое распределение нормальное, то оцениваются
только : M(X) и (X),
т.е. r = 2 ,
k = S – 3.
Построим правостороннюю критическую область исходя из того, что
вероятность попадания критерия в эту область равна заданному уровню
значимости 
2


2
P  2   пр
.  , k   
.
Правило: Для того, чтобы проверить H0, состоящую в том, что генеральная совокупность распределена нормально, необходимо:
- вычислить теоретические частоты n i' ,
- затем вычислить наблюдаемое значения критерия

2
набл.
k

n
i
 ni'
ni'
i 1

2
,
- по таблице распределения  2 определить критическую точку, которая зависит от  и k :
2
 кр
.  , k 
,
k=S-3.
Если
2
2
 набл
.   кр. ,
то H0 принимается.
Если
2
2
 набл
.   кр. ,
то H0 отвергается.
81
Замечание:
2
Преобразуем формулу для  набл
.:

2
набл.
k

n
i
 ni'
ni'
i 1
k
ni2
i 1
ni'


2
k
ni2  2 * ni * ni'  (ni' ) 2
i 1
ni'

k
ni2
i 1
ni'
 2*n  n  
k

ni2
'
i 1 ni
k
k
i 1
i 1
 2 *  ni   ni' 
n .
Схема вычисления теоретических частот для нормального
распределения.
1) Делят интервал наблюдаемых значений признака Х на S частичных интервалов (xi, xi+1) одинаковой длины.
Находят середины частичных интервалов:
x  xi 1
xi*  i
.
2
В качестве частоты ni варианты x i* принимают число вариант, попавших в данный интервал.
В итоге получают следующие распределения вариант:
7.7.
x*
x1*
x 2*
…
x s*
ni
n1
n2
…
nS
где
,
n1+n2+….+nS = n .
2) Вычисляют выборочную среднюю x * и выборочное среднее квадратическое отклонение *.
3) Вычисляют значение новой СВ Z:
Z
X  x*

*
,
и вычисляют концы интервала ( zi, zi+1)
zi 
xi  x *
z i 1 
x i 1  x *
,
.
*
*
При этом наименьшее значение СВ принимают за z1 =-, а наибольшее значение СВ zS =+.
4) Вычисляем теоретические частоты через вероятности Pi попадания СВ
Х в частичный интервал (xi, xi+1) по следующей формуле:
Pi  Ф z i 1   Ф z i  .
Тогда теоретическая частота n i' :
n i'  Pi * n .
82
8. ТЕОРИЯ КОРРЕЛЯЦИИ.
8.1. Основные понятия.
Две СВ могут быть связаны либо функциональной зависимостью,
либо зависимостью другого вида, называемой статистической, либо могут
быть независимыми.
Статистической зависимостью называют зависимость, при которой
изменение одной из величин влечет за собой изменение распределения
другой величины.
Статистическая зависимость проявляется в том, что при изменении
одной из величин изменяется среднее значение другой. В этом случае статистическая зависимость будет называться корреляционной.
Пример: пусть Y – урожай зерна, Х – количество внесенных удобрений.
С одинаковых по площади участков земли при одинаковых количествах внесенных удобрений снимают разные урожаи. В этом случае Y не
является функцией от Х.
Вместе с тем, средний урожай – есть функция от количества внесенных
удобрений, т.е. Y и Х связаны между собой корреляционной зависимостью.
8.2. Условные средние и выборочные уравнения регрессии.
В качестве оценок условных МО (математических ожиданий) принимают условные средние, найденные по выборкам. Условным средним
y x называют среднее арифметическое наблюдаемых значений случайной
величины Y, соответствовавших значениям СВ X = x.
Аналогично определяется условное среднее x y .
Уравнением регрессии ( Y на X ) и ( X на Y ) мы называем условные МО:
M(X/y) =  (y)
- уравнение регрессии X на Y,
M(Y/x) = f (x)
- уравнение регрессии Y на X.
Условные МО являются функциями от переменных x и y , следовательно
условные средние также будут являться функциями от этих переменных,
т.е.
y x = f(x) - выборочное уравнение регрессии Y на X,
x y = (y) - выборочное уравнение регрессии X на Y.
Отыскание параметров выборочного уравнения среднеквадратической регрессии по несгруппированным данным..
Пусть изучается система количественных признаков (X,Y). В результате n наблюдений получены n пар чисел:
(x1, y1);
(x2, y2);
(x3, y3);
…;….. (xn, yn) .
По данным наблюдений найдем выборочное уравнение прямой линии регрессии:
8.3.
83
yx  k * x  b .
Т.к. различные значения X и Y встречаются по одному разу, то
группировать данные нет необходимости, следовательно, условную среднюю использовать тоже нет необходимости, поэтому:
yk*xb
Угловой коэффициент k прямой регрессии Y на X называют выборочным коэффициентом регрессии Y на X и обозначают  yx :
y   yx * x  b
Подберем коэффициенты  yx и b таким образом, чтобы точки:
(x1, y1);
(x2, y2);
(x3, y3);
…….. (xn, yn);
лежали на плоскости как можно ближе к прямой
y   yx * x  b
.
Разность между y i и (  yx * x  b) назовем отклонением, где
y i – ордината, соответствующей точки,
(  yx * x  b) – ордината соответствующей точки, вычисленная по
y   yx * x  b .
Далее будем писать вместо  yx просто  .
Подбираем  и b таким образом, чтобы сумма квадратов отклонений была минимальной:
n
F (  , b)    y i    * x i  b 
2
i 1
Наименьшее значение данной функции будем считать, используя метод наименьших квадратов. Для этого вычисляем частные производные от
этой функции и приравниваем их к нулю.
n
F   2 *  y i   * xi  b  *  xi   0
'
i 1
n
Fb'   2 *  y i    * xi  b  *  1  0
i 1
n
n
n
i 1
i 1
i 1
 y i * xi   *  xi2  b *  xi  0
n
n
n
 y i   *  xi   b  0
i 1
i 1
i 1
,
,
84
n
n
i 1
i 1
 y i * xi   * 
n
n
i 1
i 1
 y i   *  xi
x i2
n
 b *  xi
i 1
b*n
.
Полученная система - нормальная система метода наименьших квадратов. Используя систему, получаем:
yx   * x  b .
Аналогичным образом можем получить уравнение прямой линии
среднеквадратической регрессии X на Y:
x y   xy * y  c .
8.4. Корреляционная таблица.
При большом числе наблюдений одно и то же значение x может
встречаться n x раз, а одно и то же значение y - n y раз. Одна и та же
пара  x, y  может встречаться n xy раз. Поэтому такие данные группируют, т.е. подсчитывают частоты n x , n y , n xy .
Все сгруппированные данные записывают в виде таблицы, которую
называют корреляционной:
y
x
10
5
3
8
0,4
0,6
0,8
nx
20
2
19
21
30
7
6
13
40
14
4
18
ny
26
12
22
n=60
Отыскание параметров выборочного уравнения линейной регрессии в случае сгруппированных данных.
В случае, когда данные наблюдений заданы в виде кореляционной
таблицы для нахождения параметров уравнений линейной регрессии будем
использовать следующую систему.
В предыдущем (8.3) параграфе получена система:
8.5.
n
n
n
i 1
i 1
i 1
 *  xi2  b *  xi   y i * xi
n
n
i 1
i 1
 *  xi  b * n   y i
.
Если воспользуемся:
85
n
n
 xi  n * x ;
n
 yi  n * y
i 1
 xi2  n * x 2
;
i 1
n
;
i 1
k
 xi * y i  x * y * n xy   xi * y i * n xi yi
i 1
;
i 1
система примет вид:
k
 * n * x 2  b * n * x   n xi yi * xi * y i
i 1
 * n * x  b * n  y * n,
k
 * n * x  b * n * x   n xi yi * xi * y i
2
i 1
*xb y .
Решив данную систему мы найдем уравнение прямой линии регрессии:
yx   * x  b .
Преобразуем данное уравнение.
Из
y*xb
имеем
yx   * x  y   * x
;
b y*x
,
y x  y   * ( x  x)
тогда
.
 * n * x 2  ( y   * x) * n * x   * n * x 2  y * n * x   * ( x) 2 * n 
k
  xi * y i * n xi yi
i 1
k

 xi * y i * n xi yi  n * y * x

i 1

n* x  x
2
2
k

 xi * y i * n xi yi
 n* y*x
i 1
.
n *  x2
Получим
k
x 
*
 i 1
y
x i * y i * n xi yi  n * y * x
n * x * y
 rв
,
rв
это выборочный коэффициент корреляции.
Тогда коэффициент регрессии равен:
где
86
  rв *
Значит:
y
y x  y   * ( x  x)
y x  y  rв *
y
x
.
x
а
,
* ( x  x)
- выборочное уравнение прямой линии
регрессии Y на X .
Аналогичным образом можно получить уравнение линейной регрессии X на Y. Оно будет иметь следующий вид:
x y  x  rв *
x
* ( y  y)
y
, где
rв *
x
  xy .
y
8.6. Выборочный коэффициент корреляции.
Выборочный коэффициент корреляции равен:
k
rв 
 xi * y i * n xi yi
 n* y*x
i 1
.
n * x * y
Если коэффициент корреляции равен нулю, то X и Y независимы.
Если rв = 1 , то X и Y связаны функциональной линейной зависимостью.
Т.о. rв показывает тесноту линейной связи между случайными величинами
X и Y. Коэффициент корреляции
| rв |  1 .
8.7. Простейшие случаи криволинейной корреляции.
Если уравнение регрессии задается в следующем виде:
y x  f (x)
,
x
y

  y
,
то график регрессии изображается кривой линией. В этом случае говорят о
криволинейной корреляции. Например, функция регрессии Y на X может
иметь следующий вид:
yx  a * x2  b * x  c
(параболическая корреляция второго порядка).
Используя метод наименьших квадратов можно получить систему
относительно неизвестных параметров:
87
a *  nx * x 4  b *  nx * x 3  c *  nx * x 2   nx * y x * x 2
a *  nx * x3  b *  nx * x 2  c *  nx * x   nx * y x * x
a *  nx * x 2  b *  nx * x  n * c   nx * y x .
Примером еще одной криволинейной корреляции является уравнение регрессии:
yx = A*ex .
8.8. Понятие о множественной корреляции.
Определение: Если исследуется связь между несколькими признаками, то
такая корреляция будет называться множественной. В простейшем случае число признаков может быть равно 3 и связь между
ними может быть линейной.
В этом случае возникает следующие задачи:
1) Найти по данным наблюдения выборочное уравнение связи
z  a*x b* y  c .
2) Оценить тесноту связи между признаком Z и X, Y .
3) Оценить тесноту связи между Z и X при постоянном Y (Y = const), Z
и Y при постоянном X (X = const).
Первая задача решаются методом наименьших квадратов. Уравнение
связи будет иметь вид




Z  z  A* X  x  B * Y  y .
Коэффициенты A и B вычисляются по следующим формулам:
A
rxz  ryz * rxy
1
rxz , ryz , rxy и Z , X и Y.
rxy2
*
z
x
,
B
ryz  rxz * rxy
1
rxy2
*
z
y
,
где
коэффициенты корреляции между признаками X и Z , Y
Тесноту связи между признаком Z и признаками X, Y оценивает
выборочный совокупный коэффициент корреляции:
88
R
rxz2  2 * rxy * rxz * ryz  ryz2
1  rxy2
,
0  R 1
.
Тесноту связи Z и X (Y = const) оценивает частный выборочный коэффициент корреляции:
rxz ( y ) 
rxz  rxy * ryz
.
1  * 1  
rxy2
ryz2
А для Z и Y (при X=const):
r yz ( x ) 
ryz  rxy * rxz
1  * 1  
rxy2
rxz2
.
Эти коэффициенты имеют те же свойства и тот же смысл, что и
обыкновенный выборочный коэффициент корреляции, т.е. служат для
оценки линейной связи между признаками.
Литература
1) Гмурман В.Е. Теория вероятности и математическая статистика.
М.:Высшая школа. 2002г.
2) Гмурман В.Е. Руководство по решению задач теории вероятностей и
математической статистики. М.:Высшая школа. 1998г.
89
Приложение 1
x2
 ( x) 
Значения функции
0
1
2
3
4

1
*e 2
2 *
5
6
7
8
9
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,3989
3970
3910
3814
3683
3521
3332
3123
2897
2661
3989
3965
3902
3802
3668
3503
3312
3101
2874
2637
3989
3961
3894
3790
3653
3485
3292
3079
2850
2613
3988
3956
3885
3778
3637
3467
3271
3056
2827
2589
3986
3951
3876
3765
3621
3448
3251
3034
2803
2565
3984
3945
3867
3752
3605
3429
3230
3011
2780
2541
3982
3939
3857
3739
3589
3410
3209
2989
2756
2516
3980
3932
3847
3726
3572
3391
3187
2966
2732
2492
3977
3925
3836
3712
3555
3372
3166
2943
2709
2468
3973
3918
3825
3697
3538
3352
3144
2920
2685
2444
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
0,2420
2179
1942
1714
1497
1295
1109
0940
0790
0656
2396
2155
1919
1691
1476
1276
1092
0925
0775
0644
2371
2131
1895
1669
1456
1257
1074
0909
0761
0632
2347
2107
1872
1647
1435
1238
1057
0893
0748
0620
2323
2083
1849
1626
1415
1219
1040
0878
0734
0608
2299
2059
1826
1604
1394
1200
1023
0863
0721
0596
2275
2036
1804
1582
1374
1182
1006
0848
0707
0584
2251
2012
1781
1561
1354
1163
0989
0833
0694
0573
2227
1989
1758
1539
1334
1145
0973
0818
0681
0562
2203
1965
1736
1518
1315
1127
0957
0804
0669
0551
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0,0540
0440
0355
0283
0224
0175
0136
0104
0079
0069
0529
0431
0347
0277
0219
0171
0132
0101
0077
0058
0519
0422
0339
0270
0213
0167
0129
0099
0075
0056
0508
0413
0332
0264
0208
0163
0126
0096
0073
0055
0498
0404
0325
0258
0203
0158
0122
0093
0071
0053
0488
0396
0317
0252
0198
0154
0119
0091
0069
0051
0478
0387
0310
0246
0194
0151
0116
0088
0067
0050
0468
0379
0303
0241
0189
0147
0112
0086
0065
0048
0459
0371
0297
0235
0184
0143
0110
0084
0063
0047
0449
0363
0290
0229
0180
0139
0107
0081
0061
0046
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,0044
0033
0024
0017
0012
0009
0006
0004
0003
0002
0043
0032
0023
0017
0012
0008
0006
0004
0003
0002
0042
0031
0022
0016
0012
0008
0006
0004
0003
0002
0040
0030
0022
0016
0011
0008
0005
0004
0003
0002
0039
0029
0021
0015
0011
0008
0005
0004
0003
0002
0038
0028
0020
0015
0010
0007
0005
0004
0002
0002
0037
0027
0020
0014
0010
0007
0005
0003
0002
0002
0036
0026
0019
0014
0010
0007
0005
0003
0002
0002
0035
0025
0018
0013
0009
0007
0005
0003
0002
0001
0034
0025
0018
0013
0009
0006
0004
0003
0002
0001
90
Приложение 2
Таблица значений функции Лапласа
Ф( x ) 
1
2 *
x
*e

z2
2
* dz
0
x
Ф(x)
x
Ф(x)
x
Ф(x)
x
Ф(x)
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,43
0,44
0,0000
0,0040
0,0080
0,0120
0,0160
0,0199
0,0239
0,0279
0,0319
0,0359
0,0398
0,0438
0,0478
0,0517
0,0557
0,0596
0,0636
0,0675
0,0714
0,0753
0,0793
0,0832
0,0871
0,0910
0,0948
0,0987
0,1026
0,1064
0,1103
0,1141
0,1179
0,1217
0,1255
0,1293
0,1331
0,1368
0,1406
0,1443
0,1480
0,1517
0,1554
0,1591
0,1628
0,1664
0,1700
0,45
0,46
0,47
0,48
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,88
0,89
0,1736
0,1772
0,1808
0,1844
0,1879
0,1915
0,1950
0,1985
0,2019
0,2054
0,2088
0,2123
0,2157
0,2190
0,2224
0,2257
0,2291
0,2324
0,2357
0,2389
0,2422
0,2454
0,2486
0,2517
0,2549
0,2580
0,2611
0,2642
0,2673
0,2703
0,2734
0,2764
0,2794
0,2823
0,2852
0,2881
0,2910
0,2839
0,2967
0,2995
0,3023
0,3051
0,3078
0,3106
0,3133
0,90
0,91
0,92
0,93
0,94
0,95
0,96
0,97
0,98
0,99
1,00
1,01
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
1,19
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
0,3159
0,3186
0,3212
0,3238
0,3264
0,3289
0,3315
0,3340
0,3365
0,3389
0,3413
0,3438
0,3461
0,3485
0,3508
0,3531
0,3554
0,3577
0,3599
0,3621
0,3643
0,3665
0,3686
0,3708
0,3729
0,3749
0,3770
0,3790
0,3810
0,3830
0,3849
0,3869
0,3883
0,3907
0,3925
0,3944
0,3962
0,3980
0,3997
0,4015
0,4032
0,4049
0,4066
0,4082
0,4099
1,35
1,36
1,37
1,38
1,39
1,40
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
1,49
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
1,60
1,61
1,62
1,63
1,64
1,65
1,66
1,67
1,68
1,69
1,70
1,71
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
0,4115
0,4131
0,4147
0,4162
0,4177
0,4192
0,4207
0,4222
0,4236
0,4251
0,4265
0,4279
0,4292
0,4306
0,4319
0,4332
0,4345
0,4357
0,4370
0,4382
0,4393
0,4406
0,4418
0,4429
0,4441
0,4452
0,4463
0,4474
0,4484
0,4495
0,4505
0,4515
0,4525
0,4535
0,4545
0.4554
0,4564
0,4573
0,4582
0,4591
0,4599
0,4608
0,4616
0,4625
0,4633
91
x
Ф(x)
x
Ф(x)
x
Ф(x)
x
Ф(x)
1,80
1,81
1,82
1,83
1,84
1,85
1,86
1,87
1,88
1,89
1,90
1,91
1,92
1,93
1,94
1,95
1,96
1,97
1,98
1,99
0,4641
0,4649
0,4656
0,4664
0,4671
0,4678
0,4686
0,4693
0,4699
0,4706
0,4713
0,4719
0,4726
0,4732
0,4733
0,4744
0,4750
0,4756
0,4761
0,4767
2,00
2,02
2,04
2,06
2,08
2,10
2,12
2,14
2,16
2,18
2,20
2,22
2,24
2,26
2,28
2,30
2,32
2,34
2,36
2,38
0,4772
0,4783
0,4793
0,4803
0,4812
0,4821
0,4830
0,4838
0,4846
0,4854
0,4861
0,4868
0,4875
0,4881
0,4887
0,4893
0,4898
0,4904
0,4909
0,4913
2,40
2,42
2,44
2,46
2,48
2,50
2,52
2,54
2,56
2,58
2,60
2,62
2,64
2,66
2,68
2,70
2,72
2,74
2,76
2,78
0,4918
0,4922
0,4927
0,4931
0,4934
0,4938
0,4941
0,4945
0,4948
0,4951
0,4953
0,4956
0,4959
0,4961
0,4963
0,4965
0,4967
0,4969
0,4971
0,4973
2,80
2,82
2,84
2,86
2,88
2,90
2,92
2,94
2,96
2,98
3,00
3,20
3,40
3,60
3,80
4,00
4,50
5,00
0,4974
0,4976
0,4977
0,4979
0,4980
0,4981
0,4982
0,4984
0,4985
0,4986
0,49865
0,49931
0,49966
0,499841
0,499928
0,499968
0,499997
0,499997
0,5

92
СОДЕРЖАНИЕ.
Основные понятия и закономерности теории вероятностей. ................ 3
1.1. Элементы комбинаторики.
3
1.2. Основные понятия теории вероятностей.
4
1.3. Классическое определение вероятности.
5
1.4. Сложение вероятностей.
6
1.5. Геометрические вероятности.
7
1.6. Условные вероятности.
8
1.7. Теорема умножения.
9
1.8. Независимые события. Теорема умножения для независимых
событий.
10
1.9. Вероятность появления хотя бы одного события.
10
1.10. Теорема сложения вероятностей совместных событий.
11
1.11. Формула полной вероятности.
12
1.12. Формула Байеса.
12
1.13. Повторные испытания. Формула Бернулли.
13
1.14. Локальная теорема Лапласа.
14
1.15. Интегральная теорема Лапласа.
15
2.
Случайные величины. .............................................................................. 15
2.1. Понятие случайных величин.
15
2.2. Законы распределения вероятностей для ДСВ .
16
2.3. Биноминальное распределение.
16
2.4. Распределение Пуассона.
17
2.5. Числовые характеристики ДСВ. Математическое ожидание.
18
2.6. Свойства математического ожидания.
19
2.7. Математическое ожидание числа появлений события в независимых
испытаниях.
21
2.8. Дисперсия случайной величины.
22
2.9. Формула для вычисления дисперсии.
23
2.10. Свойства дисперсии.
23
2.11. Дисперсия числа появлений событий в независимых испытаниях. 24
2.12. Среднее квадратическое отклонение.
24
2.13. Среднее квадратическое отклонение суммы взаимно независимых
случайных величин.
25
2.14. Одинаково распределенные взаимно независимые величины.
25
2.15. Центральные и начальные моменты случайных величин.
26
3.
Непрерывные случайные величины. ...................................................... 27
3.1. Функция распределения вероятностей случайной величины.
27
3.2. График функции распределения.
28
3.3. Плотность распределения вероятностей непрерывной случайной
величины.
28
3.4. Вероятность попадания непрерывной случайной величины в
заданный интервал.
29
3.5. Нахождение функции распределения по плотности вероятностей 30
1.
93
3.6. Свойства плотности распределения.
30
3.7. Вероятностный смысл плотности распределения.
31
3.8. Числовые характеристики непрерывной случайной величины.
32
3.9. Равномерное распределение.
33
3.10. Нормальное распределение.
34
3.11. Нормальная кривая.
35
3.12. Вероятность попадания в заданный интервал нормальной случайной
величины.
37
3.13. Вероятность отклонения нормальной случайной величины от ее
математического ожидания.
37
3.14. Правило трех сигм.
38
3.15. Понятие о теореме Ляпунова.
38
3.16. Оценка отклонения распределения вероятностей от нормального.
Мода, медиана, эксцесс, асимметрия случайной величины.
38
3.17. Показательное распределение.
39
4.
Законы больших чисел. ............................................................................ 42
4.1. Неравенство Чебышева.
42
4.2. Теорема Чебышева.
43
4.3. Теорема Бернулли.
44
5.
Система случайных величин. .................................................................. 45
5.1. Понятие о системе нескольких случайных величин.
45
5.2. Закон распределения вероятностей для дискретных двумерных
случайных величин.
45
5.3. Функция распределения двумерной случайной величины и
плотность распределения вероятностей непрерывной двумерной
случайной величины.
45
5.4. Условные законы распределения составляющих двумерных
случайных величин.
46
5.5. Условное математическое ожидание.
47
5.6. Зависимые и независимые случайные величины.
48
5.7. Корреляционный момент. Коэффициент корреляции.
49
5.8. Линейная регрессия. Прямые линии среднеквадратической
регрессии.
51
6.
Математическая статистика. ................................................................... 53
6.1. Задачи математической статистики.
53
6.2. Статистическое распределение выборки.
54
6.3. Эмпирическая (опытная) функция распределения.
55
6.4. Полигон и гистограмма для статистического распределения.
56
6.5. Статистические оценки параметров распределения.
57
6.6. Генеральная и выборочная средняя.
58
6.7. Оценка генеральной средней по выборочной средней.
59
6.8. Групповая и общая средняя.
60
6.9. Отклонение значений признака от общей средней.
60
6.10. Генеральная и выборочная дисперсия.
61
6.11. Групповая, внутригрупповая, межгрупповая, общая дисперсии. 63
94
6.12. Оценка генеральной дисперсии по исправленной выборочной.
66
6.13. Точность оценки. Доверительная вероятность и доверительный
интервал.
67
6.14. Доверительный интервал для математического ожидания
нормального распределения при известном  .
67
6.15. Доверительный интервал для математического ожидания
нормального распределения при неизвестном среднем квадратическом
отклонении  .
68
6.16. Другие характеристики вариационного ряда.
68
7.
Статистическая проверка гипотез. .......................................................... 70
7.1. Статистическая гипотеза. Нулевая и конкурирующая гипотезы.
Простая и сложная гипотезы.
70
7.2. Отыскание критических точек и критических областей.
71
7.3. Сравнение двух дисперсий нормальных генеральных
совокупностей.
72
7.4. Сравнение двух средних нормальных генеральных совокупностей,
дисперсии которых известны.
73
7.5. Сравнение выборочной средней с генеральной средней нормальной
совокупности.
76
7.6. Проверка гипотезы о нормальном распределении. Критерий
согласия Пирсона.
79
7.7. Схема вычисления теоретических частот для нормального
распределения.
81
8.
Теория корреляции. .................................................................................. 82
8.1. Основные понятия.
82
8.2. Условные средние и выборочные уравнения регрессии.
82
8.3. Отыскание параметров выборочного уравнения среднеквадратической регрессии по несгруппированным данным..
82
8.4. Корреляционная таблица.
84
8.5. Отыскание параметров выборочного уравнения линейной регрессии
в случае сгруппированных данных.
84
8.6. Выборочный коэффициент корреляции.
86
8.7. Простейшие случаи криволинейной корреляции.
86
8.8. Понятие о множественной корреляции.
87
Литература
88
Приложение 1
Значения функции
89
Приложение 2
Таблица значений функции Лапласа
91
Download