ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

реклама
Теория вероятностей и математическая статистика
Федеральное агентство по образованию
ГОУ ВПО «Иркутский государственный университет»
В. Н. Докин
Т. Г. Тюрнева
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Учебное пособие
Иркутск
2007
1
В. Н. Докин, Т. Г. Тюрнева
2
УДК 45.65.789
ББК 6.937
Д63
Печатается по решению ученого совета ИМЭИ
Иркутского государственного университета
Рецензенты:
д-р. физ.-мат. наук, проф. В. Н. Сенаторов,
канд. техн. наук, доц. Л. Н. Ежова
Д63
Докин В. Н.
Теория вероятностей и математическая статистика :
учеб. пособие / В. Н. Докин, Т. Г. Тюрнева. – Иркутск :
Иркут. гос. ун-т, 2007. – 183 с.
ISBN 978-5-9624-0141-6
В основе учебного пособия курсы лекций по теории вероятностей и математической статистике, читавшиеся в течение ряда
лет студентам специальностей 010503 – «Математическое обеспечение и администрирование информационных систем» и
010501 – «Прикладная математика и информатика». Помимо
теоретического материала по каждой теме приводятся примеры с
их полным решением. Кроме того, в конце каждой главы предлагаются вопросы для самопроверки и задачи. В Приложениях помещены таблицы основных распределений, необходимые для
решения наиболее типичных задач теории вероятностей и математической статистики. Биографический словарь содержит краткие сведения о математиках, имена которых упоминаются в настоящем пособии.
Предназначено для студентов естественнонаучных, технических, экономических и педагогических специальностей вузов, а
также может быть использовано преподавателями и инженерами.
Библиогр. 11 назв. Ил. 25. Прил. 5.
УДК 45.65.789
ББК 6.937
ISBN 978-5-9624-0141-6
© Докин В. Н., Тюрнева Т. Г., 2007
© ГОУ ВПО «Иркутский государственный
университет», 2007
Теория вероятностей и математическая статистика
Оглавление
ВВЕДЕНИЕ ………………………………………………………… 6
Глава 1. СЛУЧАЙНЫЕ СОБЫТИЯ …………………………… 8
§ 1.1. Случайные события и соотношения между ними.
Непосредственный подсчет вероятностей ……….. 8
§ 1.2. Геометрическая вероятность ………………………... 13
§ 1.3. Статистическая вероятность ………………………… 15
§ 1.4. Условные вероятности. Теорема умножения
вероятностей ……………………………………………. 17
§ 1.5. Теорема сложения вероятностей для совместных
событий …………………………………………….…… 20
§ 1.6. Формула полной вероятности ……………………….. 22
§ 1.7. Теорема гипотез (формула Байеса) ……………….. 23
§ 1.8. Последовательные независимые испытания.
Схема Бернулли ………………………………………. 25
1.8.1. Вычисление вероятностей Рn(m) в схеме
Бернулли ……………………………………………… 26
1.8.2. Наивероятнейшее число наступлений события
при повторных независимых испытаниях ……… 28
Вопросы для самопроверки ……………………………………… 29
Задачи к главе 1 …………………………………………………… 29
Глава 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ………………………….. 32
§ 2.1. Понятие случайной величины ………………………. 32
§ 2.2. Закон распределения вероятностей дискретной
случайной величины ………………………………….. 33
§ 2.3. Функция распределения ……………………………… 36
§ 2.4. Плотность распределения …………………………… 40
§ 2.5. Понятие о системе случайных величин ……………. 44
§ 2.6. Закон распределения системы случайных величин.
Таблица распределения ……………………………… 45
§ 2.7. Функция распределения системы двух случайных
величин ………………………………………………….. 46
§ 2.8. Плотность распределения системы двух
случайных величин ……………………………………. 47
§ 2.9. Условные законы распределений …………………... 50
§ 2.10. Зависимые и независимые случайные величины 52
§ 2.11. Системы произвольного числа случайных величин 54
§ 2.12. Числовые характеристики случайных величин
56
2.12.1. Понятие числовых характеристик ……………. 56
2.12.2. Математическое ожидание случайной величины 57
3
4
В. Н. Докин, Т. Г. Тюрнева
2.12.4. Свойства математического ожидания ………… 61
2.12.5. Мода и медиана случайной величины ………….... 64
§ 2.13. Ковариация. Коэффициент корреляции ………..… 69
§ 2.14. Моменты случайных величин ……………………… 73
§ 2.15. Нормальное распределение ……………………….. 74
§ 2.16. Биноминальное распределение …………………… 79
§ 2.17. Распределение Пуассона (закон распределения
редких явлений) ……………………………………….. 81
Вопросы для самопроверки …………………………………….. 83
Задачи к главе 2 …………………………………………………… 84
Глава 3. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ
СЛУЧАЙНЫХ АРГУМЕНТОВ ………………………………….. 87
§ 3.1. Закон распределения функции одной случайной
величины ………………………………………………… 88
3.1.1. Закон распределения монотонной функции
одного случайного аргумента ……………………. 88
3.1.2. Закон распределения немонотонной функции
одного случайного аргумента …………………… 91
§ 3.2. Закон распределения функции двух случайных
величин ………………………………………………….
§ 3.3. Закон распределения суммы двух случайных
величин. Композиция законов распределения ……
Вопросы для самопроверки ……………………………………..
Задачи к главе 3 …………………………………………………..
93
95
97
97
Глава 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ
ВЕРОЯТНОСТЕЙ ………………………………………………… 99
§ 4.1. Неравенство Чебышева …………………………….… 99
§ 4.2. Закон больших чисел: теорема Маркова
и ее следствия ……………………………………….… 101
§ 4.3. Понятие о центральной предельной теореме ….… 104
§ 4.4. Характеристические функции ……………………….. 105
§ 4.5. Центральная предельная теорема для одинаково
распределенных случайных величин ………………. 108
§ 4.6. Центральная предельная теорема Муавра-Лапласа 112
Вопросы для самопроверки ……………………………………... 114
Задачи к главе 4 …………………………………………………… 115
Глава 5. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 117
§ 5.1. Генеральная совокупность и выборка …………..…. 117
§ 5.2. Эмпирические распределения и их графические
представления ……………………………………..…… 120
§ 5.3. Числовые характеристики эмпирических
распределений …………………………………………. 123
Теория вероятностей и математическая статистика
5
§ 5.4. Статистическое оценивание параметров ………….. 127
5.4.1. Свойства точечных оценок ………………………… 127
5.4.2. Определение приближенного значения измеряемой
величины и приближенного значения дисперсии
в случае прямых равноточных измерений ……… 129
5.4.3. Метод наибольшего правдоподобия для
нахождения оценок параметров распределений 133
5.4.4. Метод моментов …………………………………….. 137
5.4.5. Понятие об интервальном оценивании.
Построение доверительных областей …………. 140
§ 5.5. Сглаживание экспериментальных зависимостей
по методу наименьших квадратов ………………….. 144
§ 5.6. Статистическая проверка гипотез …………………… 151
5.6.1. Общая задача проверки гипотез ………………….. 151
5.6.2. Понятие о критериях согласия …………………… 153
5.6.3. Критерий
5.6.4. Критерий
χ 2 в случае простой гипотезы ………. 156
χ 2 в случае сложной гипотезы ………. 158
Вопросы для самопроверки ……………………………………… 163
Задачи к главе 5 …………………………………………………… 163
ОТВЕТЫ К ЗАДАЧАМ …………………………………………….. 165
БИОГРАФИЧЕСКИЙ СЛОВАРЬ ………………………………… 167
1
2π
Приложение 1. Значения функции Ф0(х) =
Приложение 2. Значения функции f(t) =
Приложение 3.
1
2π
e
−
x
∫e
−
u2
2
du …. 176
0
t2
2
…………. 178
χ 2 -распределение ……………………………
180
Приложение 4. Распределение Стьюдента ………………..… 182
Приложение 5. Распределение Колмогорова ………………… 184
БИБЛИОГРАФИЧЕСКИЙ СПИСОК …………………………….. 185
В. Н. Докин, Т. Г. Тюрнева
6
ВВЕДЕНИЕ
В научных исследованиях, технике, массовом производстве
часто приходится встречаться с явлениями, которые при неоднократном воспроизведении одного и того же опыта в неизменных
условиях протекают каждый раз несколько по иному. Такие явления называются случайными. Так, например, при стрельбе по мишени результат каждого отдельного выстрела будет случайным.
Совершенно очевидно, что в природе нет ни одного физического явления, в котором не присутствуют в той или иной мере
элементы случайности. Как бы точно и подробно ни были фиксированы условия опыта, невозможно достигнуть того, чтобы при
повторении опыта результаты полностью и в точности совпадали.
Например, при подбрасывании монеты эксперимент имеет всего
два исхода, монета выпадает вверх либо гербом, либо цифрой, при
этом до получения результата эксперимента нельзя сказать, какой
именно исход осуществится. Это происходит оттого, что мы практически не в состоянии учесть все факторы, влияющие на положение монеты в момент её падения. Примерно то же самое будет
происходить, если каждую лотерею покупать один билет и пытаться предугадать выиграет он или нет. В таких ситуациях при
рассмотрении отдельных опытов бывает очень трудно обнаружить какие-либо закономерности. Однако если обратить внимание
на последовательность большого числа такого рода одинаковых
экспериментов, то обнаружится интересное явление. Если индивидуальные результаты ведут себя очень «неправильно», то средние результаты обнаруживают устойчивость.
Предметом теории вероятностей и является математическая
наука, изучающая закономерности массовых случайных явлений.
Возникновение теории вероятностей как науки относится к
середине XVII в. и связано с именами Гюйгенса, Паскаля, Ферма
и Якоба Бернулли. В переписке Паскаля и Ферма (см., например,
[6]), вызванной задачами, связанными с азартными играми и не
укладывающимися в рамки математики того времени, выкристаллизовывались постепенно такие важные понятия, как вероятность
и математическое ожидание. Однако вследствие низкого уровня
развития естествознания того времени, азартные игры, а также
Теория вероятностей и математическая статистика
7
вопросы страхования и демографии ещё долго продолжали оставаться тем единственным конкретным материалом, на основе которого создавались понятия и методы теории вероятностей. Последующее развитие теории вероятностей, а также широкое привлечение её результатов и методов исследования в естествознание
и в первую очередь в физику показали, что классические понятия
и классические методы не потеряли своего интереса и в настоящее время.
Серьёзные требования со стороны естествознания (теория
ошибок наблюдения, задачи теории стрельбы, теория массового
обслуживания, проблемы статистики, в первую очередь статистики народонаселения) привели к необходимости более развитого
аналитического аппарата. Особенно значительную роль в развитии аналитических методов теории вероятностей сыграли Муавр,
Лаплас, Гаусс, Пуассон.
С середины XIX столетия и приблизительно до двадцатых
годов ХХ в. развитие теории вероятностей связано в большей степени с именами русских учёных: П. Л. Чебышева, А. А. Маркова,
А. М. Ляпунова. Основное непреходящее значение работ этих выдающихся ученых в области теории вероятностей состоит в том,
что именно ими было введено и широко использовано понятие
случайной величины.
Современное развитие теории вероятностей характеризуется
всеобщим подъёмом интереса к ней, а также расширением круга
её практических приложений. В США, Франции, Швеции, Японии
и других странах мира имеются немало ученых, обогащающих
теорию вероятностей важными результатами. В этой напряжённой работе российская школа теории вероятностей продолжает
занимать видное место. Среди представителей российских ученых, прежде всего, должны быть названы имена А. Я. Хинчина,
Б. В. Гнеденко, Ю. В. Прохорова и многих других.
Особое значение в развитии теории вероятностей и математической статистики имеют работы А. Н. Колмогорова. Он дал
наиболее совершенное аксиоматическое построение теории вероятностей. Работы А. Н. Колмогорова в области теории случайных
функций являются основой всех исследований в данной области.
8
В. Н. Докин, Т. Г. Тюрнева
Глава 1. СЛУЧАЙНЫЕ СОБЫТИЯ
§ 1.1. Случайные события и соотношения между ними.
Непосредственный подсчет вероятностей
В основе теории вероятностей, как и в основе любой другой
науки, лежат некоторые определения, основные понятия. При помощи этих понятий даётся логическое определение последующих
более сложных понятий.
В качестве одного из основных понятий, которым оперирует
теория вероятностей, является событие.
Событием (или «случайным событием») называется всякий
факт, который в результате опыта может произойти или не произойти. События принято обозначать заглавными буквами латинского алфавита. Например, событие А – выпадение трех очков на
верхней грани игральной кости.
Различные события отличаются между собой по степени
возможности их появления и по характеру взаимосвязи.
Для правильной ориентировки в теоремах теории вероятностей необходимо разобраться в существующей классификации
событий.
Если при всех опытах (испытаниях) рассматриваемое событие всегда наступает, то оно называется достоверным. Если же
при всех опытах рассматриваемое событие никогда не наступает,
то оно называется невозможным. Все достоверные события обозначаются буквой U, все невозможные буквой V.
Суммой двух событий А и В называется событие С=А+В, состоящее в появлении хотя бы одного из событий А или В.
Суммой нескольких событий называется событие, состоящее
в появлении хотя бы одного из этих событий.
Произведением двух событий А и В называется событие С=АВ,
состоящее в совместном появлении события А и события В.
Произведением нескольких событий называется событие, состоящее в совместном появлении всех этих событий.
Теория вероятностей и математическая статистика
9
Если каждое появление события А сопровождается появлением события В, то пишут А ⊂ В и говорят, что событие А влечет
за собой событие В, или А есть частный случай В.
События А и В называются несовместными, если АВ= V.
Два события А и В называются совместными, если появление
одного из них не исключает появление другого.
Если А=В1+В2+…+Вn и события Вi попарно несовместные,
т. е. ВiBj=V при i ≠ j, то говорят, что событие А подразделяется на
частные случаи В1,В2,…,Вn.
События А и A называются противоположными, если
А A = V и А + A = U.
События А1,А2, . . ., Аn образуют полную группу событий, если в
результате опыта непременно должно произойти хотя бы одно из
них, т. е. А1 +А2 + . . .+Аn = U.
Два или несколько событий в данном опыте называются равновозможными, если по условиям симметрии опыта нет оснований считать, какое-либо из них более возможным, чем любое другое.
Математической вероятностью называется числовая характеристика степени возможности появления какого-либо определенного события в тех или иных определенных, могущих повторяться неограниченное число раз условиях. Вероятность события
А обозначается символом Р(А).
Несовместные, равновозможные события, образующие полную группу событий называются случаями (или «шансами»).
Если какой-либо опыт по своей структуре обладает симметрией возможных исходов, то случаи представляют собой исчерпывающую систему равновозможных и исключающих друг друга
исходов опыта. Про такой опыт говорят, что он «сводится к системе случаев» (иначе – к «схеме урн»).
Схема случаев по преимуществу имеет место в искусственно
организованных опытах, в которых заранее и сознательно обеспечена одинаковая возможность исходов опыта (как, например, в
азартных играх). Для таких опытов возможен непосредственный
подсчет вероятностей, основанный на оценке доли так называемых «благоприятных» случаев в общем числе случаев.
В. Н. Докин, Т. Г. Тюрнева
10
Случай называется благоприятным (или «благоприятствующим») некоторому событию, если появление этого случая влечет
за собой появление данного события.
Если опыт сводится к схеме случаев, то вероятность события
А в данном опыте можно оценить по относительной доле благоприятных случаев. Вероятность события А вычисляется как отношение числа благоприятных случаев к общему числу случаев:
Р( А ) =
m
,
n
(1.1.1)
где n – общее число случаев, m – число случаев благоприятных
событию А.
В общем случае рассмотрим какую-либо группу G, состоящую из n несовместных равновозможных событий (назовём их
элементарными событиями):
Е1, Е2, …,Еn.
Образуем теперь систему S, состоящую из невозможного события V, всех событий Ek группы G и всех событий A, которые
могут быть подразделены на частные случаи, входящие в состав
группы G.
Легко установить, что система S есть поле событий. В самом
деле, очевидно, что сумма, разность и произведение событий из S
входят в S; невозможное событие V входит в S по определению, а
достоверное событие U входит в S, так как оно представляется в
виде
U=E1+E2+…+ En.
Классическое определение вероятности дается для событий
системы S и может быть сформулировано так:
Если событие А подразделяется на m частных случаев, входящих в полную группу из n попарно несовместных и равновозможных событий, то вероятность Р(А) события А равна
Р( А ) =
m
n .
Например, при однократном бросании игральной кости полная группа несовместных и равновероятных событий состоит из
Теория вероятностей и математическая статистика
11
событий Е1, Е2, Е3, Е4, Е5, Е6, которые состоят соответственно в
выпадении 1, 2, 3, 4, 5, 6 очков. Событие С= Е2+Е4+Е6, состоящее
в выпадении четного числа очков, подразделяется на три частных
случая, входящих в состав полной группы несовместных и равновероятных событий. Поэтому
Р(С ) =
3 1
=
6 2.
В соответствии с приведенным определением каждому событию А, принадлежащему построенному сейчас полю событий S,
приписывается вполне определенная вероятность
Р( А ) =
m
,
n
где m есть число тех событий Е исходной группы, которые являются частными случаями события А. Таким образом, вероятность
Р(А) можно рассматривать как функцию от события А, определенную на поле событий S.
Функция эта обладает следующими свойствами:
1. Для каждого события А поля S
Р(А)≥0.
2. Для достоверного события U
Р(U)=1.
3. Если событие А подразделяется на частные случаи В и С и
все три события А, В и С принадлежат полю S, то
Р(А)=Р(В+С)=Р(В)+Р(С).
Это свойство называется теоремой сложения вероятностей.
Свойство 1 очевидно, так как дробь
m
не может быть отриn
цательна.
Свойство 2 не менее очевидно, так как достоверному событию U благоприятствуют все n возможных результатов испытания, и поэтому
Р( U ) =
n
= 1.
n
В. Н. Докин, Т. Г. Тюрнева
12
Докажем свойство 3. Пусть событию В благоприятствует m′ ,
а событию С – m′′ событий Ei группы G. Так как события В и С
по допущению несовместны, то события Ei , благоприятствующие одному из них, отличны от событий Ei , благоприятствующих другому. Всего таким образом, имеется m ′ + m′′ событий Ei ,
благоприятствующих появлению одного из событий В или С, т. е.
благоприятствующих событию В+С=А. Следовательно,
P( A) =
m′ + m′′ m′ m′′
=
+
= P( A) + P(C ).
n
n
n
Отметим ещё несколько свойств вероятности.
Методом полной математической индукции свойство 3 легко
обобщается на произвольное число несовместных событий.
Теорема сложения вероятностей. Вероятность появления
одного из нескольких несовместных событий равна сумме вероятностей этих событий
Р(А1+А2+…+Аn)= Р(А1)+Р(А2)+…+Р(Аn).
(1.1.2)
4. Bероятность события А , противоположного событию А
равна
Р( А ) = 1 – Р(А).
Действительно, так как А+ А = U, то согласно свойству 2
Р(А+ А )=Р(U)=1,
а так как события А и А несовместны, то по свойству 3
Р(А+ А )=Р(А)+Р( А ).
Два последних равенства доказывают наше предположение.
5. Вероятность невозможного события равна нулю.
Так как U+V= U и события U и V несовместны, то
Р(U)=Р(U+ V)=Р(U)+Р(V),
откуда следует, что Р(V)=0.
6. Если событие А влечет за собой событие В, то
Теория вероятностей и математическая статистика
13
Р(А) ≤ Р(В).
Очевидно, что В=А+ А В. В силу свойств 3 и 1 получаем
Р(В)=Р(А+ А В)=Р(А)+Р( А В) ≥ Р(А).
7. Вероятность любого события заключена между нулем и
единицей.
Из того, что для любого события А имеют место соотношения
V ⊂ А+ V =А=А·V ⊂ U,
следует, в силу предыдущего свойства, что имеют место неравенства
0=Р(V) ≤ Р(А) ≤ Р(U)=1.
§ 1.2. Геометрическая вероятность
В классическом определении вероятности рассматривается
полная группа конечного числа равновозможных событий. На
практике же очень часто встречаются такие испытания, число
возможных исходов которых бесконечно. В таких случаях классическое определение неприменимо. Однако иногда в таких случаях можно воспользоваться другим методом вычисления вероятности, в котором по-прежнему основную роль играет понятие
равновозможности некоторых событий. Применяется этот метод в
задачах, сводящихся к случайному бросанию точки на конечный
участок прямой, плоскости или пространства. Отсюда и возникает
само название метода – геометрическая вероятность.
Для определенности ограничимся двумерным случаем. Одномерный и трехмерный случаи отличаются только тем, что вместо площадей в них нужно говорить о длинах и объемах.
Итак, пусть на плоскости имеется некоторая область D, площадь
D
которой SD, и в ней содержится
другая область D, площадь которой
d
Sd (рис. 1.2.1). В область D наудачу
бросается точка. Спрашивается,
чему равна вероятность того, что
точка попадет в область d?
Рис. 1.2.1
В. Н. Докин, Т. Г. Тюрнева
14
При этом предполагается, что наудачу брошенная точка может попасть в любую точку области D, и вероятность попадания в
какую-либо часть области D пропорциональна площади этой части и не зависит от её расположения и формы. В таком случае вероятность попадания в область D при бросании наудачу точки в
область D равна
Р=
Sd
.
SD
Таким образом, в общем случае, если возможность случайного появления точки внутри некоторой области на прямой, плоскости или в пространстве определяется не положением этой области
и её границами, а только её размером, т. е. длиной, площадью или
объёмом, то вероятность появления случайной точки внутри некоторой области определяется как отношение размера этой области к размеру всей области, в которой может появляться данная
точка.
Пример. Задача о встрече. Два лица договорились о встрече,
которая должна произойти в определенном месте в любой промежуток времени Т. Определить вероятность того, что встреча состоится, если моменты прихода каждого лица независимы и время
ожидания одним другого не более τ.
Решение. Обозначим
момент прихода одного лиY
ца через x , а другого – через y. Будем рассматривать
x и y как декартовы коордиТ
наты на плоскости. Все
возможные исходы изобразятся точками квадрата со
стороной Т. Встреча состоится в том и том случае,
если случайная точка (x,y)
τ
лежит в этом квадрате и
x − y ≤ τ . Этим условиям
0
Т
τ
X
Рис. 1.2.2
удовлетворяют точки, лежащие в заштрихованной
части квадрата (рис. 1.2.2).
Теория вероятностей и математическая статистика
15
Искомая вероятность равна отношению площади заштрихованной
фигуры к площади всего квадрата, т. е.
2
τ⎞ .
T 2 − ( T − τ )2
⎛
P=
= 1 − ⎜1 − ⎟
T2
T⎠
⎝
§ 1.3. Статистическая вероятность
Формула (1.1.1) для непосредственного подсчета вероятностей применима только тогда, когда опыт, в результате которого
может появиться интересующее нас событие, обладает симметрией возможных исходов (сводится к системе случаев). Очевидно,
что далеко не всякий опыт может быть сведен к схеме случаев, и
существует обширный класс событий, вероятности которых нельзя вычислить по формуле (1.1.1).
Давно замечено, что частота появления событий (относительная частота) не сводящихся к схеме случаев, при многократно
повторяющихся опытах имеет тенденцию стабилизироваться около какой-то постоянной величины. Это свидетельствует о том, что
данные события также обладают определенной степенью объективной возможности появления в опыте, меру которой можно
представить в виде относительной частоты.
Знаменитый швейцарский ученый Якоб Бернулли привел математическое доказательство того, что при большем числе испытаний относительная частота стремится воспроизвести вероятность и в пределе при большом числе опытов должна практически
совпадать с ней. Это положение носит название закона больших
чисел (этот закон будет рассмотрен в § 4.2). Многие ученые проводили опыты для проверки закона Бернулли, вычисляя относительную частоту появления событий, сводящихся к схеме случаев
и сравнивая её с вероятностью, вычисленной по классическому
определению вероятности (1.1.1). Так французский натуралист
Бюффон и английский статистик Пирсон проводили опыты с бросанием монеты (подсчитывали число случаев выпадения «герба»).
Результаты их опытов приведены в следующей таблице.
В. Н. Докин, Т. Г. Тюрнева
16
Опыты
Вероятность
Опыт Бюффона
Первый опыт Пирсона
Второй опыт Пирсона
0,5000
0,5000
0,5000
Отклонение
Относительная относительной
Число
частота
частоты от
испытаний
вероятности
0,5069
0,5016
0,5005
0,0069
0,0016
0,0005
4040
12 000
24 000
Как следует из данных таблицы, уже 4040 испытаний достаточно для совпадения эмпирической относительной частоты и вероятности до сотого знака, а 24 000 испытаний дают практически
полное совпадение относительной частоты и вероятности. Таким
образом, можно считать эмпирически подтвержденным, что относительная частота событий, сводящихся к схеме случаев, при
большом числе произведенных опытов стремится к их вероятности. Это свойство случайных событий, известное под названием
устойчивости частот, можно перенести и на другие типы случайных событий, не обладающих симметрией исходов и не составляющих полную группу. Правда, подсчет теоретической вероятности для таких событий представляет известные трудности.
Так возникло понятие статистической вероятности события, под которой понимается относительная частота появления
события А в N произведенных опытах. Статистическая вероятность вычисляется на основании результатов опытов по следующей формуле
ω ( A) =
M
N ,
где М – число появлений события А в N опытах.
В § 1.1. было показано, что вероятность достоверного события равна единице, а вероятность невозможного события равна
нулю. Однако на практике приходится сталкиваться с событиями,
вероятности которых не точно равны единице или нулю, а весьма
близки к этим значениям. Первые из этих событий называют
практически достоверными, а вторые – практически невозможными. Если события имеют такие вероятности, то можно предсказать результат опыта, руководствуясь так называемым принципом
практической уверенности, который заключается в следующем:
если вероятность некоторого события А в данном опыте весьма
Теория вероятностей и математическая статистика
17
мала, то можно быть практически уверенным в том, что при однократном выполнении этого опыта событие А не произойдет.
Вопрос о том насколько мала или велика должна быть вероятность, решается в каждом отдельном случае в зависимости от
важности исследуемого явления и не является предметом обсуждения в теории вероятностей.
§ 1.4. Условные вероятности. Теорема
умножения вероятностей
Определение. Вероятность события А, найденная в предположении, что событие В наступило, называется условной вероятностью события А относительно события В.
Условную вероятность события А относительно события В
обозначают символом Р(А/В).
Теорема умножения вероятностей. Вероятность произведения двух событий равна произведению вероятности одного из них
на условную вероятность другого, вычисленную при условии, что
первое имело место:
Р(АВ)=Р(А)Р(В/А).
(1.4.1)
Докажем теорему умножения для схемы случаев. Пусть возможные исходы опыта сводятся к n случаям. Предположим, что
событию А благоприятны m случаев, а событию В благоприятны k
случаев. Так как мы не предполагали события А и В несовместными, то вообще существуют случаи, благоприятные и событию
А, и событию В одновременно. Пусть число таких случаев l. Тогда
P( AB ) =
l
m
, P( A ) = .
n
n
Вычислим Р(В/А), т. е. условную вероятность события В в
предположении, что событие А имело место. Если известно, что
событие А произошло, то из ранее возможных n случаев остаются
возможными только m, которые благоприятствовали событию А.
Из них l случаев благоприятны событию В. Следовательно,
P( B / A ) =
l
.
m
В. Н. Докин, Т. Г. Тюрнева
18
Подставляя выражения Р(АВ), Р(А) и Р(В/А) в формулу
(1.4.1), получим тождество. Теорема доказана.
Очевидно, при применении теоремы умножения вполне безразлично, какое из событий А или В считать первым, а какое вторым и теорему умножения можно записать и в таком виде:
Р(АВ) = Р(В)Р(А/В).
(1.4.2)
Теорема. Вероятность произведения, или совместного наступления, нескольких событий равна произведению вероятности
одного из них на условные вероятности остальных событий, вычисленные в предположении, что все предшествующие события
имели место.
Р(А1 ·А2·…·Аn) = Р(А1)·Р(А2/ А1)·…·Р(Аn/ А1А2…Аn-1). (1.4.3.)
Доказательство. Для доказательства теоремы применим метод полной математической индукции.
Пусть теорема имеет место для n-1 событий:
Р(А1 ·А2·…·Аn-1 )= Р(А1)·Р(А2/ А1)·…·Р(Аn-1 / А1А2…Аn-2).
Введем событие С как произведение n-1 событий А1А2…Аn-1:
С = А1 А2…Аn-1.
Тогда в силу теоремы умножения для двух событий
Р(А1А2 …А n-1Аn) = Р(С Аn) = Р(С)Р(Аn /С).
Но
Р(С)=Р(А1А2 …Аn-1) = Р(А1)Р(А2/ А1)…Р(Аn-1 / А1А2…Аn-2).
Следовательно,
Р(А1А2 …A n-1Аn) =Р(А1)Р(А2 /А1)…Р(Аn /А1А2…Аn-1).
Теорема доказана.
Из теоремы умножения для двух событий следует, что если
событие А не зависит от события В, то и событие В не зависит от
события А. Так как событие А не зависит от события В, то
Р(А/В) = Р(А).
Предположим, что Р(А)≠ 0.
Напишем теорему умножения в двух формах:
(1.4.4)
Теория вероятностей и математическая статистика
19
Р(АВ) = Р(А)Р(В/А),
Р(АВ) = Р(В)Р(А/В),
откуда
Р(А)Р(В/А) = Р(В)Р(А/В),
или, согласно условию (1.4.4)
Р(А)Р(В/А) = Р(В)Р(А).
Разделив обе части последнего равенства на Р(А), получим
Р(В/А) = Р(В),
т. е. событие В не зависит от события А.
Таким образом, зависимость или независимость событий всегда взаимны. В связи с этим можно дать следующее новое определение независимых событий.
Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого, в противном случае события А и В называются зависимыми.
Теорема умножения для двух независимых событий А и В
принимает наиболее простой вид.
Р(АВ) = Р(А)Р(В).
(1.4.5)
Независимость более чем двух событий может иметь различный характер.
События А1, А2, …Аn называются попарно независимыми, если
любые два из них независимы между собой.
События А1, А2, …Аn называются независимыми в совокупности, если каждое из них и любая комбинация остальных событий,
содержащая либо все остальные, либо часть из них, есть события
независимые. Например, если события А1, А2, А3 независимы в совокупности, то это значит, что будут независимы следующие события:
А1 и А2, А1 и А3 , А2 и А3, А1А2 и А3, А1А3 и А2, А3А2 и А1.
Теорема умножения (соотношение (1.4.3)) для независимых в
совокупности событий принимает вид
Р(А1А2…Аn) = Р(А1)Р(А2)…Р(Аn).
(1.4.6)
В. Н. Докин, Т. Г. Тюрнева
20
Соотношения (1.4.5) и (1.4.6) иногда принимают в качестве
определения попарной независимости и независимости в совокупности (см., например, [7]).
Нижеследующий пример показывает, что независимость событий А1, А2, …Аn в совокупности – более сильное свойство, чем
попарная их независимость.
Пример. Пусть из чисел 2, 3, 5 и 30 выбирается одно число,
причем каждое из чисел может быть выбрано с вероятностью 1 .
4
Обозначим через Аk события, состоящее в том, что выбранное
число делится на k. Легко видеть, что события А2, А3, А5 попарно
независимы, но зависимы в совокупности, так как
Р(А2)=Р(А3)=Р(А5)=
1
,
2
Р(А2 А3)=Р(А2 А5)=Р(А5 А3)=
Р(А2А3А5)=
1
,
4
1
.
4
§ 1.5. Теорема сложения вероятностей
для совместных событий
В § 1.1. была рассмотрена теорема сложения вероятностей
для несовместных событий. Пользуясь теоремой сложения вероятностей для несовместных событий, вместе с теоремой умножения докажем следующую теорему сложения вероятностей для совместных событий.
Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без
вероятности их совместного появления:
Р(А+В) = Р(А)+Р(В) – Р(АВ).
(1.5.1)
Доказательство. Для наступления события А+В достаточно,
чтобы произошло хотя бы одно из следующих несовместных событий А или А В . Аналогично, для наступления события В доста-
Теория вероятностей и математическая статистика
21
точно, чтобы произошло хотя бы одно из следующих несовместных событий А В или АВ.
Поэтому на основании правила сложения вероятности для
несовместных событий имеем:
(1.5.2)
Р(А+В) = Р(А)+Р( А В )
и
(1.5.3)
Р(В) = Р(АВ)+Р( А В ).
Вычитая из равенства (1.5.2) равенство (1.5.3), найдем
Р(А+В)–Р(В)=Р(А)–Р(АВ).
Отсюда следует, что
Р(А+В) = Р(А)+Р(В) – Р(АВ).
Теорема доказана.
Методом полной математической индукции полученную
формулу (1.5.1) можно обобщить на случай вероятности суммы
произвольного числа совместных событий. При этом будем иметь:
Р(А1+А2+…+Аn) = Р(А1)+Р(А2)+…+Р(Аn) – Р(А1А2) – Р(А1А3) –…
…– Р(Аn-1Аn)+Р(А1А2А3)+…+Р(Аn-2Аn-1Аn) – …
…+(-1) n+1Р(А1А2…Аn).
(1.5.4)
Заметим, что при решении задач с использованием формулы
(1.5.4) часто приходится производить громоздкие вычисления,
поэтому лучше перейти к противоположному событию. В таком
случае
Р(А1+А2+…+Аn) =1 – Р( А1 ⋅ А2 ⋅ ... ⋅ Аn ).
(1.5.5)
Пример. Производится три независимых выстрела по одной
и той же мишени. Вероятность попадания при первом выстреле
равна 0,7, при втором – 0,8, для третьего – 0,9. Найти вероятность
того, что в мишени будет хотя бы одна пробоина.
Решение. Рассмотрим событие А – попадание при первом выстреле, событие В – попадание при втором выстреле и событие
С – попадание при третьем выстреле. Их вероятность Р(А)=0,7,
Р(В)=0,8, Р(С)=0,9.
В. Н. Докин, Т. Г. Тюрнева
22
Так как А, В и С являются совместными и независимыми событиями, то вероятность того, что в мишени будет хотя бы одна
пробоина, согласно формуле (1.5.4), равна
Р(А+В+С) = Р(А)+Р(В)+Р(С)–Р(А)Р(В)–Р(А)Р(С)–
–Р(В)Р(С)+Р(А)Р(В)Р(С)=
=0,7+0,8+0,9–0,7×0,8–0,7×0,9–0,8×0,9+0,7×0,8×0,9=0,994.
Если же перейти к противоположному событию, то, применяя формулу (1.5.5) для случая трех событий, получим
Р(А+В+С)=1– Р( А )Р( В )Р( С )=1 – 0,3×0,2×0,1=0,994.
§ 1.6. Формула полной вероятности
Следствием обеих основных теорем – теоремы сложения вероятностей и теоремы умножения вероятностей – является так
называемая формула полной вероятности.
Пусть требуется определить вероятность некоторого события
А, которое может произойти вместе с одним из событий
Н1, Н2, …Нn, образующих полную группу несовместных событий.
Будем эти события называть гипотезами. Вероятности всех гипотез известны. Известны также условные вероятности наступления
события А при осуществлении каждой из указанных гипотез, т. е.
даны Р(А/ Н1), Р(А/ Н2), …,Р(А/ Нn). Вероятность интересующего
нас события А определяется по следующей теореме.
Теорема. Вероятность события А, которое может произойти
вместе с одной из гипотез Н1, Н2, …Нn, равна сумме парных произведений вероятностей каждой из этих гипотез на отвечающие
им условные вероятности наступления события А:
n
Р(А)= ∑ Р( Н i )P( A / H i ) .
i =1
(1.6.1)
Формула (1.6.1) носит название формулы полной вероятности.
Доказательство. Так как гипотезы Н1, Н2, …Нn образуют
полную группу событий, то событие А можно представить в виде
следующей суммы событий:
A=AU=A(H1+H2+…+Hn)=AH1+AH2+…+AHn.
Теория вероятностей и математическая статистика
23
Поскольку события Hi несовместны, то и события AHi
(i=1, 2, …, n) также несовместны. Это обстоятельство позволяет
применить для определения вероятности события А теорему сложения вероятностей несовместных событий (1.1.2.)
P(A) =
n
∑ Р( АН
i =1
i
).
Применяя к вероятности произведения AHi теорему умножения вероятностей (1.4.2), получим
n
Р(А)= ∑ Р( Н i )P( A / H i ) .
i =1
Пример. Имеются две одинаковые на вид урны: в первой урне три белых и два черных шара; во второй – один белый и четыре
черных шара. Некто выбирает наугад одну из урн и вынимает из
неё шар. Найти вероятность того, что этот шар белый.
Решение. Рассмотрим две гипотезы. Н1 – выбрана первая урна, Н2 – выбрана вторая урна и событие А – появление белого шара из наудачу выбранной урны.
Так как гипотезы по условию задачи равновозможны, то
Р(Н1)=Р(Н2)=
1
.
2
Условные вероятности события А при этих гипотезах соответственно равны:
Р(А/ Н1) =
3
1
, Р(А/ Н2) = .
5
5
По формуле полной вероятности
Р(А)=
1 3 1 1 4
. + . =
2 5 2 5 10.
§ 1.7. Теорема гипотез (формула Байеса)
Следствием теоремы умножения и формулы полной вероятности является так называемая теорема гипотез или формула Байеса.
Поставим теперь следующую задачу. Имеется полная группа
несовместных гипотез Н1, Н2, …, Нn. Известны вероятности каждой из гипотез Р(Н1), Р(Н2), …, Р(Нn). Произведен опыт, в резуль-
В. Н. Докин, Т. Г. Тюрнева
24
тате которого наблюдено появление некоторого события А.
Спрашивается, как следует изменить вероятности гипотез в связи
с появлением этого события?
Здесь, по существу, речь идет о том, чтобы найти условную
вероятность Р(Нi/А) для каждой гипотезы.
Ответ на поставленную задачу дает следующая теорема гипотез.
Теорема гипотез. Вероятность гипотезы после испытания
равна произведению вероятности гипотезы до испытания на соответствующую ей условную вероятность события, которое произошло при испытании, деленному на полную вероятность этого
события:
P( H i / A ) =
P( H i )P( A / H i )
n
∑ P( H
k =1
k
, i = 1, 2, …, n.
(1.7.1)
)P( A / H k )
Формула (1.7.1) носит название формулы Байеса.
Доказательство. По теореме умножения имеем
Р(АНi) = Р(А) Р(Нi/А) = Р(Нi) Р(А/Нi), i = 1, 2, …, n
или, отбрасывая левую часть,
Р(А) Р(Нi/А) = Р(Нi) Р(А/Нi), i = 1, 2, …, n,
откуда
P( H i / A ) =
P( H i )P( A / H i )
, i = 1, 2, …, n.
P( A )
Выражая Р(А) с помощью полной вероятности (1.6.1), имеем
P( H i / A ) =
P( H i )P( A / H i )
n
∑ P( H
k =1
k
, i = 1, 2, …, n.
)P( A / H k )
Пример. Два автомата производят одинаковые детали, которые сбрасываются на общий конвейер. Производительность первого автомата вдвое больше производительности второго. Первый
автомат производит в среднем 80 % деталей отличного качества, а
второй – 90 %. Наудачу взятая с конвейера деталь оказалась от-
Теория вероятностей и математическая статистика
25
личного качества. Найти вероятность того, что эта деталь произведена вторым автоматом.
Решение. Обозначим через А событие, состоящее в том, что с
конвейера взята деталь отличного качества. Можно сделать два
предположения (выдвинуть две гипотезы) о способах происхождения события А:
Н1 – деталь произведена первым автоматом, причем (поскольку первый автомат производит вдвое больше деталей, чем
первый), Р(Н1) =
2
;
3
Н2 – деталь произведена вторым автоматом, причем
Р(Н2) =
1
.
3
Условные вероятности события А при гипотезах Н1 и Н2 соответственно равны Р(А/Н1) = 0,8, Р(А/Н2) = 0,9.
По формуле Байеса (1.7.1) находим вероятность гипотезы Н2
после испытания
P( H 2 )P( A / H 2 )
=
P( H 2 / A ) =
P( H1 )P( A / H1 ) + P( H 2)P( A / H 2 )
1
⋅ 0 ,9
9
3
=
= .
2
1
⋅ 0 ,8 + ⋅ 0 ,9 25
3
3
§ 1.8. Последовательные независимые испытания.
Схема Бернулли
Проводится n независимых испытаний, каждое из которых
имеет k несовместных исходов A1( S ) , A2( S ) ,…, Ak( S ) , причем вероятность исхода Ai( S ) не зависит от номера испытания S и равна pi
(i=1, 2, …, k). В силу несовместности и единственной возможно(S)
i
сти исходов A
k
, очевидно, имеем
∑p
i =1
i
= 1. Описанная схема
испытаний носит название схемы последовательных независимых
испытаний. Эта схема для случая k=2 впервые была рассмотрена
В. Н. Докин, Т. Г. Тюрнева
26
Я. Бернулли. В схеме Бернулли обычно полагают р1 = р,
р2 = 1 – р = q.
Подробное исследование таких последовательностей испытаний заслуживает исключительного внимания, как в силу непосредственного их значения в теории вероятностей и в приложениях, так и в силу выявившейся в процессе развития теории вероятностей возможности обобщения тех закономерностей, которые
впервые были открыты при изучении схемы последовательных
независимых испытаний, в частности схемы Бернулли. Многие
факты, подмеченные на этой частной схеме, впоследствии служили путеводной нитью при изучении более сложных схем.
1.8.1. Вычисление вероятностей Рn(m) в схеме Бернулли
Пусть проводятся n независимых испытаний, в каждом из которых может произойти либо событие А с вероятностью р, либо –
противоположное ему событие Ā с вероятностью q = 1 – p.
Рассмотрим событие Вm, состоящее в том, чтобы событие А в
этих n испытаниях наступит ровно m раз и, следовательно, не наступит ровно n–m раз. Событие А может появиться m раз в разных
последовательностях или комбинациях, чередуясь с противоположным событием Ā. Число возможных комбинаций такого рода
равно числу сочетаний из n элементов по m, т. е.
Cnm =
n!
. Следовательно, событие Вm можно предстаm! ( n − m )!
вить в виде суммы различных комбинаций событий, несовместимых между собой, причем число слагаемых равно C nm :
Bm = A1A2…AmĀm+1…Ān + Ā1A2A3…Am+1Ām+2…Ān + …
… + Ā1Ā2…Ān–mAn–m+1…An,
(1.8.1)
где в каждое произведение событие А входит m раз, а событие Ā
входит n–m раз. Вероятность каждой последовательности, входящей в формулу (1.8.1), по теореме умножения вероятностей для
независимых событий, равна pm(1–p)n–m = pmqn–m. Так как общее
число таких последовательностей равно C nm , то, используя теорему сложения вероятностей для несовместных событий, получим
вероятность события Вm (обозначим ее Pn(m)):
Теория вероятностей и математическая статистика
Pn(m) = C nm pmqn–m.
27
(1.8.2)
Полученная формула (1.8.2) носит название формулы Бернулли.
Так как события, состоящие в различном числе появлений
события А в серии из n испытаний, несовместны и образуют полную группу, то
n
n
∑ P ( m ) = ∑C
m=0
n
m=0
m
n
p m q n − m = ( p + q )n .
(1.8.3)
Учитывая, что p+q = 1, имеем
n
∑ P ( m ) = 1.
m=0
n
Так как члены суммы (1.8.3) совпадают с членами разложения бинома, вероятности Pn(m), вычисляемые по формуле Бернулли (1.8.2) иногда называют биномиальными, а последовательность
вероятностей Pn(m), m = 1, 2, …, n – биномиальным распределением.
Во многих случаях практики, кроме вероятности Pn(m) ровно
m раз появлений события А, приходится рассматривать вероятность не менее m появлений события А.
Обозначим Cm событие, состоящее в том, что событие А появится не менее m раз, а вероятность события Cm обозначим Rm,n.
Очевидно, что
Cm = Вm + Вm+1 + …+ Вn,
откуда по теореме сложения вероятностей для несовместных событий
Rm,n = Pn(m) + Pn(m+1) + … + Pn(n).
(1.8.4)
При вычислении Rm,n часто бывает удобнее не пользоваться
непосредственно формулой (1.8.4), а переходить к противоположному событию и вычислять вероятность Rm,n по формуле
m −1
Rm,n = 1 –
∑P (i ).
i =0
n
Если же при проведении n последовательных, независимых
испытаний в условиях схемы Бернулли возникает необходимость
в вычислении вероятности того, что событие А появится не менее
В. Н. Докин, Т. Г. Тюрнева
28
m1 и не более m2 (включая m2 раз), то на основании теоремы сложения вероятностей следует воспользоваться формулой
m
Р(m1 ≤ m ≤ m2) =
∑C
m = m1
m
n
pmqn–m.
1.8.2. Наивероятнейшее число наступлений события
при повторных независимых испытаниях
Определение. Наивероятнейшим числом m0 появления события А в n независимых испытаниях называется то значение m,
при котором вероятность Pn(m), рассматриваемая как функция
аргумента m, достигает своего наибольшего значения.
Для определения наивероятнейшего числа m0 не обязательно
вычислять вероятности всех возможных чисел появления события
А, достаточно знать число испытаний n и вероятность появления
события А в отдельном испытании.
Действительно, пусть наивероятнейшему числу m0 соответствует вероятность
Pn ( m0 ) = C nm0 p m0 q n − m0 =
n!
p m0 q n − m0 . (1.8.5)
m0 ! ( n − m0 )!
Тогда согласно определению наивероятнейшего числа m0
должны выполняться условия Pn(m0) ≥ Pn(m0+1) и Pn(m0) ≥ Pn(m0-1).
Разрешая эти неравенства относительно m0 и учитывая при
этом формулу (1.8.5), получаем двойное неравенство, которое и
служит для определения наивероятнейшего числа:
np – q ≤ m0 ≤ np + p.
(1.8.6)
Так как длина интервала, определяемого неравенством
(1.8.6), равна единице, а событие А может произойти в n испытаниях только целое число раз, то следует иметь в виду, что:
а) если np+p – целое число, то существует два значения наивероятнейшего числа, а именно m′0 = np-q = np+p–1 и m″0 = np+p;
б) если np+p – нецелое число, то существует одно наивероятнейшее число m0 =[np+p], где [np+p] – целая часть числа np+p.
Пример. Производится n бросаний правильной монеты. Найти наиболее вероятное число появлений «герба», если: а) n=6,
b) n=5.
Теория вероятностей и математическая статистика
Решение. Для обеих задач р =
29
1
1
. В случае (а) np+p = 6· +
2
2
1
1
= 3 , следовательно, имеем одно наивероятнейшее число
2
2
1
m0 = [3 ] = 3.
2
1 1
В задаче (b) np+p = 5· +
= 3, поэтому существует два наи2 2
+
вероятнейших числа: m′0 = np+p–1 = 2 и m″0 = np+p = 3, причем,
Р5(2) = Р5(3) =
10
.
5
2
Вопросы для самопроверки
1. Какие события называются случайными? Приведите примеры случайных событий.
2. Какие события образуют полную группу несовместных
событий?
3. Сформулируйте классическое определение вероятности
события. В каких пределах изменяется вероятность события?
4. Сформулируйте теорему сложения вероятностей для событий, образующих полную группу?
5. Как следует вычислять вероятность появления хотя бы одного из нескольких совместных событий?
6. При решении каких задач применяется формула Байеса
(теорема гипотез)?
7. Дайте определение наивероятнейшего числа при повторных
независимых испытаниях и приведите правило его вычисления.
Задачи к главе 1
1. Пусть А, В, С – три произвольных события. Найти выражения для событий, состоящих в том, что из А, В, С:
1) произошло только А;
2) произошли А и В, но С не произошло;
3) все три события произошли;
4) произошло, по крайней мере, одно из событий;
5) произошло одно и только одно событие;
30
В. Н. Докин, Т. Г. Тюрнева
6) ни одно событие не произошло;
7) произошло не больше двух событий.
2. В лотерее разыгрывается тысяча билетов. Среди них один
выигрыш в 1000 рублей, пять выигрышей в 500 рублей, двадцать
выигрышей по 100 рублей и пятьдесят выигрышей по 10 рублей.
Некто покупает один билет. Найти вероятность: а) выиграть не
менее 100 рублей; б) какого-либо выигрыша.
3. В урне шесть белых и четыре чёрных шара. Из урны вынимают наугад два шара. Найти вероятность того, что шары не
одного цвета.
4. Какова вероятность того, что трёхзначный номер случайно
отобранного автомобиля в большом городе а) имеет все цифры
разные? б) имеет только две одинаковые цифры?
5. Брошено пять игральных костей. Предполагается, что все
комбинации выпавших очков равновероятны. Найти вероятности
событий:
а) не выпало ни одной «6»;
б) выпало ровно три «6»;
в) выпала хотя бы одна «6».
6. Из карточек разрезной азбуки составлено слово
«КАРЕТА». Затем из этих шести карточек по схеме случайного
выбора без возвращения отобрано пять карточек. Найти вероятность того, что из отобранных карточек можно составить слово
«АРТЕК».
7. Найти вероятность того, что при случайной расстановке
двух ладей на шахматной доске они не будут угрожать друг другу.
8. Случайная точка Х равномерно распределена в квадрате
А={(x,y): x + y ≤ a }. Найти вероятность того, что квадрат с центром А и сторонами длины b, параллельными осям координат, целиком содержатся в квадрате А.
9. Случайная точка Х равномерно распределена в круге
S={(x, y): x 2 + y 2 ≤ R 2 }. Найти вероятность того, что параллельный оси абсцисс отрезок длины R с серединой в точке X целиком
содержится в круге S.
10. У квадратного трёхчлена x2+px+q коэффициенты p и q
выбраны наудачу из отрезка [-1,1]. Какова вероятность того, что
квадратный трёхчлен имеет действительные корни?
Теория вероятностей и математическая статистика
31
11. В первой урне находится 1 белый и 9 чёрных шаров, а во
второй 1 чёрный и 5 белых шаров. Из каждой урны случайным
образом удалили по одному шару, а оставшиеся шары ссыпали в
третью урну. Определить вероятность того, что вынутый из третьей урны шар, окажется белым.
12. В стройотряде 70 % первокурсников и 30 % студентов
второго курса. Среди первокурсников 10 % девушек, а среди студентов второго курса – 5 % девушек. Все девушки по очереди дежурят на кухне. Найти вероятность того, что в случайно выбранный день на кухне дежурит первокурсница.
13. Известно, что 95 % выпускаемой продукции удовлетворяет стандарту. Упрощенная схема контроля признает пригодной
стандартную продукцию с вероятностью 0,98 и нестандартную – с
вероятностью 0,06. Определить вероятность того, что изделие,
прошедшее упрощенный контроль, удовлетворяет стандарту.
14. Из урны, содержащей 3 белых и 2 черных шара, по схеме выбора без возвращения отобрали 2 шара. Шар, взятый наудачу из этих двух, оказался белым. Какова вероятность того, что
второй шар тоже белый?
15. Проведено 20 независимых испытаний, каждое из которых заключается в одновременном подбрасывании трёх монет.
Найти вероятность того, что хотя бы в одном испытании появятся
три «герба».
16. По цели производятся пять независимых выстрелов. Вероятность попадания в цель при одном выстреле равна 0,4. Для
получения зачета по стрельбе требуется не менее трёх попаданий.
Найти вероятность получения зачета.
17. В посёлке 2500 жителей. Каждый из них примерно 6 раз
в месяц ездит на поезде в город, выбирая дни поездок по случайным мотивам независимо от остальных. Какой наименьшей вместимостью должен обладать поезд, чтобы он переполнялся в
среднем не чаще одного раза в 100 дней (поезд ходит раз в сутки).
18. Вероятность отказа каждого прибора при испытании
равна 0,3. Сколько таких приборов нужно испытать, чтобы с вероятностью 0,99 получить хотя бы один отказ.
19. Вероятность появления события А в опыте равна 0,25.
Опыт повторили 8 раз независимым образом. Чему равно наиболее вероятное число появлений события А?
32
В. Н. Докин, Т. Г. Тюрнева
Глава 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
§ 2.1. Понятие случайной величины
До сих пор мы имели дело со случайными событиями. Событие является качественной характеристикой случайного результата опыта. Но случайный результат опыта можно характеризовать
и количественно. Например, число выпадений «герба» при десяти
бросаниях монеты, число вызовов, поступающих на телефонную
станцию в течение суток и т. д. Количественной характеристикой
случайного результата опыта является случайная величина.
Определение. Случайной величиной называется величина,
которая в результате опыта может принять то или иное значение,
неизвестно заранее, какое именно.
Понятие случайной величины является фундаментальным
понятием и играет очень большую роль в теории вероятностей.
Случайные величины обычно обозначаются заглавными буквами конца латинского алфавита X, Y, …, а их возможные значения – соответствующими прописными буквами x, y, ….
Как видно из определения случайной величины, она характеризуется множеством числовых значений, которые способна принимать. Это множество называется спектром случайной величины, а совокупность вероятностей, с которыми реализуются различные числовые значения случайной величины из ее спектра,
дает распределение вероятностей вдоль этого спектра.
Среди случайных величин, с которыми чаще всего приходится встречаться в практике, можно выделить два основных типа:
дискретные величины и непрерывные величины.
Дискретной случайной величиной называется такая величина,
спектр возможных значений которой – либо конечное, либо бесконечное счетное множество (множество, элементы которого могут быть перенумерованы).
Приведем примеры дискретных случайных величин.
Число попаданий при трех выстрелах.
Теория вероятностей и математическая статистика
33
Возможные значения случайной величины Х, выражающей
число попаданий при трех выстрелах будут следующие:
х1 = 0, х2 = 1, х3 = 2, х4 = 3.
1. Число вызовов, поступающих на телефонную станцию в
течение суток.
Случайная величина Х в данном примере может принять следующие числовые значения.
х1 = 0, х2 = 1, х3 = 2, …
Непрерывной случайной величиной называется такая величина, возможные значения которой непрерывно заполняют некоторый интервал (конечный или бесконечный) числовой оси.
Примеры непрерывных случайных величин:
1. Время безотказной работы электролампы.
2. Ошибка при измерении дальности радиолокатором.
§ 2.2. Закон распределения вероятностей
дискретной случайной величины
Рассмотрим дискретную случайную величину Х, возможные
значения которой х1, х2, …, хn нам известны. Очевидно, что знание
возможных значений случайной величины еще не позволяет полностью описать случайную величину, так как мы не можем сказать, как часто следует ожидать появления тех или других возможных значений случайной величины в результате повторения
опыта в одних и тех же условиях. Для этой цели необходимо знать
закон распределения вероятностей случайной величины.
В результате опыта случайная величина Х может принять одно из своих возможных значений, т. е. может произойти одно из
событий:
Х = х1, Х = х2, …, Х = хn.
(2.2.1)
Очевидно, что события (2.2.1) составляют полную группу,
так как в результате опыта случайная величина Х может принять
только одно значение, и никаких других событий, кроме перечисленных, в результате опыта произойти не может.
Обозначим вероятности этих событий через pk:
Р(Х = х1) = р1, Р(Х = х2) = р2, …, Р(Х = хn) = рn.
В. Н. Докин, Т. Г. Тюрнева
34
На основании того, что события (2.2.1) образуют полную
группу несовместных событий,
n
∑p
k =1
k
= 1.
Эта суммарная вероятность каким-то образом распределена
между отдельными значениями случайной величины. Дискретная
случайная величина будет полностью описана с вероятностной
точки зрения, если будет указано, какую вероятность имеет каждое из событий (2.2.1). Этим мы установим закон распределения
случайной величины.
Определение. Законом распределения случайной величины
называется всякое соотношение, устанавливающее связь между
возможными значениями случайной величины и соответствующими вероятностями.
Зная распределение вероятностей между возможными значениями случайной величины, можно до опыта судить о том, какие
значения случайной величины будут появляться чаще и какие –
реже.
Заметим, что способы или формы представления закона распределения случайной величины могут быть различными (некоторые из них будут рассмотрены позже).
Простейшей формой задания распределения дискретной случайной величины Х является таблица распределения, в которой
перечислены возможные значения случайной величины и соответствующие им вероятности.
xi
pi
x1
p1
x2
p2
…
…
xn
pn
(2.2.2)
Если в таблице (2.2.2) возможные значения случайной величины упорядочены: x1 < x2 < … < xn (или x1 > x2 > … > xn), то такая таблица называется рядом распределения. В дальнейшем под
рядом распределения будем понимать такой ряд распределения, в
котором возможные значения упорядочены в порядке возрастания
x1 < x2 < … < xn.
Чтобы придать ряду распределения более наглядный вид,
часто прибегают к его графическому изображению: по оси абсцисс откладываются все возможные значения случайной величи-
Теория вероятностей и математическая статистика
35
ны, по оси ординат – вероятности этих значений. Для наглядности
полученные точки соединяются отрезками прямых. Такая фигура
называется многоугольником распределения (рис. 2.2.1).
рi
р3
р4
р1
р2
р5
р6
хi
0
х1
х2
х3
х4
х5
х6
Рис. 2.2.1
Многоугольник распределения, так же как и ряд распределения, полностью характеризует случайную величину; он является
одной из форм закона распределения.
рi
0,4
0,3
0,2
0,1
хi
0
Рис. 2.2.2
1
2
3
Пример. Составить
закон распределения числа
попаданий при трех выстрелах, если вероятность
попадания при одном выстреле равна 0,4.
Решение. Обозначим
Х число попаданий. Возможные значения величины Х: х1=0, х2=1, х3=2, х4=3.
Вероятности этих значений находим по формуле Бернулли
(1.8.2): р1 = 0,63 = 0,216; р2 = C31 · 0,4 · 0,62 = 0,432;
р3 = C32 · 0,42 · 0,6 = 0,288; р4 = 0,43 = 0,064.
Ряд распределения случайной величины Х имеет вид:
В. Н. Докин, Т. Г. Тюрнева
36
xi
pi
0
0,216
1
0,432
2
0,288
3
0,064
Многоугольник распределения изображен на рис. 2.2.2.
§ 2.3. Функция распределения
Рассмотренный ряд распределения является удобной формой
представления закона распределения для дискретной случайной
величины с конечным числом возможных значений. Однако ряд
распределения вообще нельзя построить для непрерывной случайной величины. Действительно, непрерывная случайная величина имеет бесчисленное множество возможных значений, которые сплошь заполняют некоторый промежуток, и перечислить их
в какой-либо таблице нельзя. Кроме того (как будет показано в
конце этого параграфа), каждое отдельное значение непрерывной
случайной величины обычно не обладает никакой отличной от
нуля вероятностью. Следовательно, для непрерывной случайной
величины не существует ряда распределения в том смысле, в каком он существует для дискретной случайной величины. Однако
различные области возможных значений случайной величины все
же не являются одинаково вероятными, и для непрерывной величины существует «распределение вероятностей», хотя и не в том
смысле как для дискретной.
Для количественной характеристики распределения вероятностей удобно пользоваться не вероятностью события Х = х, а вероятностью события Х < х, где х – некоторая текущая переменная.
Вероятность этого события, очевидно, зависящая от х, есть некоторая функция от х. Эта функция называется функцией распределения, или интегральным законом распределения случайной величины Х и обозначается F(х):
F(х) = Р(Х< х).
Функция распределения – самая универсальная характеристика случайной величины. Она существует для всех случайных величин: как дискретных, так и непрерывных. Функция распределения
полностью характеризует случайную величину с вероятностной
точки зрения, т. е. является одной из форм закона распределения.
Теория вероятностей и математическая статистика
37
Геометрическая интерпретация функции распределения
очень проста. Если случайную величину рассматривать как случайную точку Х оси Ох (рис. 2.3.1), которая в результате испытания может занять то или иное положение на этой оси, то функция
распределения F(x) есть вероятность того, что случайная точка Х в
результате испытания попадает левее точки х. Для дискретной
случайной величины Х, которая может принимать значения
х1, х2, …. хn, … функция распределения имеет вид
F(x) =
∑ P( X = x ) ,
xi < x
i
где неравенство xi < x под знаком суммы означает, что суммирование распространяется на все те значения xi, которые по своей
величине меньше х.
х
0
Х
Рис. 2.3.1
х
Функция распределения дискретной случайной величины с законом распределения вида (2.2.2) имеет скачки в точках х1, х2, …. Хn,
где случайная величина принимает конкретные числовые значения.
В интервалах между значениями случайной величины функция F(x)
постоянна. Величина скачка в точке xi равна вероятности
pi = P(X = xi). Сумма всех скачков функции распределения равна
единице. График функции распределения дискретной случайной
величины – разрывная ступенчатая ломаная линия (рис. 2.3.2).
1
х1
х2
F(x)
хn-1
0 х3
Рис. 2.3.2
хn
В. Н. Докин, Т. Г. Тюрнева
38
Непрерывная случайная величина имеет непрерывную функцию распределения; график этой функции имеет форму плавной
кривой (рис. 2.3.3).
F(x)
1
х
0
Рис. 2.3.3
Отметим основные свойства функции распределения.
1. Функция распределения F(x) есть неотрицательная функция, заключенная между нулем и единицей:
0 ≤ F(x) ≤ 1.
Это свойство вытекает из определения функции распределения как вероятности осуществления события, заключающегося в
выполнении неравенства. Функция распределения, как и всякая
вероятность, есть величина безразмерная.
2. Функция распределения случайной величины есть неубывающая функция своего аргумента, т. е. при х2 > х1
F(x2) ≥ F(x1),
так как вероятность попасть на отрезок (–∞, х2) не меньше, чем
вероятность попасть на отрезок (–∞, х1) при х2 > x1.
3. F(–∞) = 0, F(+∞) = 1.
Свойство становится очевидным при геометрической интерпретации функции распределения (см. рис. 2.3.1). Если точка х
неограниченно перемещается влево, то попадание случайной точки Х левее х в пределе становится невозможным событием. По-
Теория вероятностей и математическая статистика
39
этому естественно полагать, что вероятность этого события стремится к нулю, т. е. можно записать F(–∞) = 0.
При неограниченном перемещении точки х вправо попадание
случайной точки Х левее х в пределе – достоверное событие. Поэтому естественно полагать, что вероятность этого события стремится к единице, т. е. F(+∞) = 1.
4. Вероятность того, что случайная величина Х примет какоенибудь значение, удовлетворяющее неравенству α ≤ X < β, равна
приращению ее функции распределения F(x) на этом интервале.
Действительно, событие X < β эквивалентно наступлению
одного из двух несовместимых событий, состоящих в том, что
случайная величина Х примет какое-нибудь значение, удовлетворяющее неравенствам X < α и α ≤ X < β. Поэтому согласно теореме сложения вероятностей, имеем
Р(X < β) = Р(X < α) + Р(α ≤ X < β),
откуда
Р(α ≤ X < β) = Р(X < β) – Р(X < α).
Используя для записей вероятностей функцию распределения F(x), получим
Р(α ≤ X < β) = F(β) – F(α).
(2.3.1)
5. Вероятность любого отдельного значения непрерывной
случайной величины равна нулю.
Полагая, что в (2.3.1) β → α, будем неограниченно уменьшать
интервал [α, β). В пределе вместо вероятности попадания случайной величины Х в интервал [α, β) получим вероятность того, что
эта величина примет отдельно взятое значение α:
Р(Х = α) = lim Р(α ≤ X < β) = lim [F(β) – F(α)].
β →α
β →α
(2.3.2)
Значение этого предела зависит от того, является ли функция
F(x) в точке α непрерывной или же терпит разрыв. Если в точке α
функция F(x) имеет разрыв, то предел (2.3.2) равен значению
скачка функции F(x) в точке α. Если же функция F(x) в точке α
непрерывна, то этот предел равен нулю.
Так как непрерывная случайная величина Х имеет непрерывную функцию распределения F(x), то из равенства (2.3.2) следует,
40
В. Н. Докин, Т. Г. Тюрнева
что вероятность любого отдельного значения непрерывной случайной величины равна нулю. На первый взгляд, этот вывод кажется парадоксальным, так как события, вероятности которых
равны нулю, в предыдущей главе рассматривались нами как невозможные. Из изложенного в настоящем параграфе следует, что
нулевой вероятностью обладают не только невозможные, но и
возможные события. Действительно, событие, состоящее в том,
что непрерывная случайная величина Х принимает значение α,
возможно, но вероятность этого события равна нулю. Этим непрерывная случайная величина отличается от дискретной (так называемый парадокс непрерывности).
На основании этого свойства для непрерывной случайной величины можно записать формулу (2.3.1) не включая в рассматриваемый интервал [α, β) левый конец
Р(α ≤ X < β) = Р(α < X < β) = F(β) – F(α).
§ 2.4. Плотность распределения
Функция распределения непрерывной случайной величины
является ее исчерпывающей вероятной характеристикой. Но она
имеет недостаток, заключающийся в том, что по ней трудно судить о характере распределения случайной величины в небольшой
окрестности той или другой точки числовой оси. Более наглядное
представление о характере распределения непрерывной случайной величины в окрестностях различных точек дается функцией,
которая называется плотностью распределения вероятности или
дифференциальным законом распределения случайной величины.
Пусть имеется непрерывная случайная величина Х с функцией распределения F(x), которую мы предположим непрерывной и
дифференцируемой. Вычислим вероятность попадания этой случайной величины на участок от х до х+∆х
Р(х < X < х+∆х) = F(х+∆х) – F(х),
т. е. приращение функции распределения на этом участке. Рассмотрим отношение этой вероятности к длине участка, т. е. среднюю вероятность, приходящуюся на единицу длины на этом участке
Теория вероятностей и математическая статистика
41
P( x < X < x + ∆x ) F ( x + ∆x ) − F ( x ) .
=
∆x
∆x
Переходя в последнем равенстве к пределу при ∆х →0, получим
lim
∆x → 0
P( x < X < x + ∆x ) =
F ( x + ∆x ) − F ( x ) = F'(x).
lim
∆x → 0
∆x
∆x
(2.4.1)
Введем обозначение
f(x) = lim P( x < X < x + ∆x ) .
∆x → 0
∆x
(2.4.2)
Функция f(x) характеризует как бы плотность, с которой распределяются значения случайной величины в данной точке. Эта
функция называется плотностью распределения или («плотностью
вероятности») непрерывной случайной величины Х. Иногда
функцию f(x) называют также «дифференциальной функцией распределения» или «дифференциальным законом распределения»
величины Х.
Из соотношения (2.4.1) следует, что
f(x) = F'(x).
(2.4.3)
Иногда в качестве определения плотности распределения выбирают последнее равенство.
Свойства плотности распределения непосредственно вытекают из ее определения.
В частности, если для непрерывной случайной величины Х с
плотностью распределения f(x) вычислить вероятность попадания
этой величины на отрезок от α до β, то получим (используя свойства функции распределения)
β
Р(α ≤ X < β) = F(β) – F(α) =
∫α dF ( x ) .
А так как из (2.3.4) следует, что dF(x) = f(x)dx, то
β
Р(α ≤ X < β) = F(β) – F(α) =
∫α f ( x )dx .
(2.4.4)
В. Н. Докин, Т. Г. Тюрнева
42
Если в (2.4.4) положить α = –∞, β = х и учесть свойство 3
функции распределения F(x), то получим
x
F(x) =
∫ f ( t )dt .
−∞
Если же в (2.4.4) считать α = –∞, β = +∞, то
+∞
F(+∞) – F(–∞) = 1 =
∫ f ( x )dx .
−∞
Полученное равенство
+∞
∫ f ( x )dx =1.
(2.4.5)
−∞
иногда называют условием нормировки массы вероятности (или
просто условием нормировки).
И, наконец, из (2.4.3) сразу же следует, что f(x) ≥ 0, так как
производная от неубывающей функции всегда неотрицательна.
График плотности распределения иногда называют кривой
распределения.
Пример. Случайная величина Х подчинена закону распределения с плотностью
⎧ 0 , при x < 1
⎪
f(х) = ⎨ c
.
⎪⎩ x 2 , при x ≥ 1
Требуется:
1. Найти коэффициент с.
2. Построить график плотности распределения.
3. Найти функцию распределения F(x) и построить ее график.
4. Вычислить вероятность попадания случайной величины Х
на участок от 2 до 4.
Решение. 1. Значение коэффициента с находится из условия
нормировки
Теория вероятностей и математическая статистика
43
∞
c
∫1 x 2 dx = 1 .
Отсюда
с=
1
= 1.
1
dx
2
х
∞
∫
1
3. Функция распределения F(x) определяется по формуле
x
F(x) =
∫ f ( t )dt .
(2.4.6)
−∞
x
При х ≤ 1 F(x) = 0; при х > 1 F(x) =
dt
1
=
1
–
.
∫1 t 2
х
Таким образом,
⎧ 0,
при x ≤ 1
⎪
F(x) = ⎨ 1
.
1
−
,
при
x
>
1
⎪⎩ x
4. Вероятность Р(2 < X < 4) попадания случайной величины Х
в заданный промежуток вычисляется по формуле (2.4.4).
Р(2 < X < 4) = F(4) – F(2) = (1 –
1
1
1
) – (1 – ) = .
4
4
2
Графики функций f(х) и F(x) изображены на рис. 2.4.1 и
рис. 2.4.2 соответственно.
f(x)
F(x)
1
1
х
0
1
х
0
Рис. 2.4.1
1
Рис. 2.4.2
44
В. Н. Докин, Т. Г. Тюрнева
§ 2.5. Понятие о системе случайных величин
В практических применениях теории вероятностей очень
часто приходится сталкиваться с задачами, в которых результат
опыта описывается не одной случайной величиной, а двумя или
более случайными величинами, образующими систему случайных
величин. Например, точка попадания снаряда определяется не одной, а двумя случайными величинами: абсциссой и ординатой.
Случайное отклонение точки разрыва от цели при дистанционной
стрельбе определяется системой трех случайных величин – тремя
координатами этой точки.
Совместное распределение двух или нескольких случайных
величин приводит к системе случайных величин. Условимся систему нескольких случайных величин Х, Y, …, W обозначать
(X, Y, …, W). При изучении системы случайных величин недостаточно изучить в отдельности случайные величины, составляющие
систему, необходимо учитывать еще и связи или зависимости между этими величинами. Здесь возникают новые, отличные от рассмотренных ранее, задачи.
При рассмотрении системы случайных величин удобно пользоваться геометрической интерпретацией системы. Так, например,
систему двух случайных величин (Х,Y) можно рассматривать как
случайную точку на плоскости хОу с координатами Х и Y или как
случайный вектор на плоскости со случайными составляющими Х
и Y. Систему трех случайных величин (X,Y,Z) можно рассматривать как случайную точку в трехмерном пространстве или как
случайный вектор в пространстве. По аналогии, систему n случайных величин (Х1,Х2, …,Хn) можно рассматривать как случайную точку в n-мерном пространстве или как n-мерный случайный
вектор.
В зависимости от типа случайных величин, образующих систему, могут быть системы дискретных и непрерывных случайных
величин, а также смешанные системы, в которые входят случайные величины различных типов.
При изучении систем случайных величин ограничимся подробным изучением системы двух случайных величин, так как все
положения, касающиеся системы двух случайных величин, можно
легко распространить на систему n случайных величин.
Теория вероятностей и математическая статистика
45
§ 2.6. Закон распределения системы случайных
величин. Таблица распределения
При изучении одной случайной величины мы познакомились
с законом ее распределения и рассмотрели различные его формы.
Аналогичную роль играет закон распределения системы случайных величин.
Определение. Законом распределения системы случайных
величин называется любое соотношение, устанавливающее связь
между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.
Из этого определения следует, что закон распределения системы случайных величин может быть задан в различных формах.
Рассмотрим сначала такую форму задания закона распределения,
как таблица распределения системы двух случайных величин.
Пусть X и Y – дискретные случайные величины, составляющие систему (X, Y), возможные значения которых (xi, yj), где i = 1,
2, …, n, а j = 1, 2, …, m. Тогда распределение системы случайных
величин (X, Y) может быть охарактеризовано указанием вероятностей pi,j = P (X = xi, Y = yj) того, что случайная величина Х, входящая в систему, примет значение xi и совместно с этим случайная величина Y примет значение yj.
Вероятности pi,j могут быть сведены в таблицу вида
хi
уj
у1
у2
…
уm
х1
х2
…
хn
p1,1
p1,2
…
p1,m
p2,1
p2,2
…
p2,m
…
…
…
…
pn,1
pn,2
…
pn,m
Такая таблица называется таблицей распределения системы
двух дискретных случайных величин с конечным числом возможных значений.
Все возможные события (X = xi, Y = yj), i = 1, 2, …, n, j = 1, 2, …, m
составляют полную группу несовместных событий, поэтому
n
n
m
∑∑ p
i =1 j =1
i, j
=
m
∑∑ P( Х = х , Y = y
i =1 j =1
i
j
) = 1.
В. Н. Докин, Т. Г. Тюрнева
46
При этом
m
∑p
j =1
i, j
n
∑p
i =1
i, j
=
m
∑ P( Х = х , Y = y
j =1
=
i
j
) = P( X = xi ) .
(2.6.1)
j
) = P( Y = y j ) .
(2.6.2)
n
∑ P( Х = х , Y = y
i =1
i
§ 2.7. Функция распределения системы
двух случайных величин
Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F(x,у), равная вероятности совместного выполнения двух неравенств Х<x и
Y<y, т. е.
F(x,у) = Р(Х<x, Y<y).
(2.7.1)
Геометрически функция распределения системы двух случайных величин представляет собой вероятность попадания случайной точки (Х,Y) в левый нижний бесконечный квадрант плоскости (рис. 2.7.1) с вершиной в точке (х,у).
Указанная геометрическая интерпретация системы двух
случайных
величин
в
соответствии
с
исходным
у
определением (2.7.1) позволяет
наглядно
иллюстрировать
следующие свойства функции
(х,у)
распределения F(x,у), которые
мы приведем без доказательств.
1о. Если один из аргуменх
тов стремится к плюс бесконечности, то функция распре0
деления системы двух случайных величин F(x,y) стремится к
функции распределения одной
случайной величины, соответРис. 2.7.1
ствующей другому аргументу,
т. е.
Теория вероятностей и математическая статистика
47
lim F(x,y) = F(x,+∞) = FХ(x), lim F(x,y) = F(+∞,y) = FY(y).
х→+∞
y →+∞
2о. Если оба аргумента стремятся к плюс бесконечности, то
функция распределения системы двух случайных величин стремится к единице, т. е.
lim F(x,y) = F(+∞,+∞) = 1.
y →+∞
x →+∞
3о. При стремлении хотя бы одного из аргументов к минус
бесконечности функция распределения системы двух случайных
величин стремится к нулю, т. е.
lim F(x,y) = lim F(x,y) = lim F(x,y) = 0,
х → −∞
y → −∞
y → −∞
x → −∞
или
F(–∞,y) = F(x,–∞) = F(–∞,–∞) = 0.
4о. Функция распределения системы двух случайных величин
является неубывающей по каждому аргументу, т. е.:
F(x2,y) ≥ F(x1,y), если х2 > х1;
F(x,y2) ≥ F(x,y1), если у2 > у1.
5о. Вероятность попадания случайной точки (X,Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле
Р (a ≤ X < b, c ≤ Y < d) = F(b,d) – F(a,d) – F(b,c) + F(a,c).
(2.7.2)
§ 2.8. Плотность распределения системы
двух случайных величин
Рассмотренная в предыдущем параграфе функция распределения является универсальной характеристикой системы случайных величин. Она может быть применена для описания систем
как дискретных, так и непрерывных случайных величин. Основное практическое значение имеют системы непрерывных случайных величин, распределение которых может характеризоваться не
только функцией распределения, но и плотностью распределения.
В. Н. Докин, Т. Г. Тюрнева
48
Плотность распределения является исчерпывающей характеристикой системы непрерывных случайных величин, с помощью
которой расчет вероятностей попадания системы в различные области производится проще, а описание распределения системы
становится более наглядным.
Вводя в рассмотрение плотность распределения для одной
случайной величины, мы определяли ее как предел отношения
вероятности попадания на малый участок к длине этого участка
при ее неограниченном уменьшении. Аналогично определим
плотность распределения системы двух
у
величин.
у+∆у
Пусть
имеется
система двух непрерывных
случайных
у
величин (Х, Y). Расх
смотрим вероятность
х
0
попадания случайной
х+∆х
точки (Х,Y) в элеменРис. 2.8.1
тарный прямоугольник со сторонами
длины ∆х и ∆у, примыкающий к точке с координатами (х,у) (рис.
2.8.1). Применяя формулу (2.7.2), получим
Р(х≤X<x+∆x, y≤Y<y+∆y) = F(x+∆х,y+∆у) – F(x,y+∆у) –
– F(x+∆х,y) + F(x,y).
Разделим полученную вероятность на площадь этого прямоугольника и перейдем к пределу при ∆х → 0 и ∆у → 0:
lim P( x ≤ X < x + ∆x , y ≤ Y < y + ∆y ) =
∆x ⋅ ∆y
∆x→0
∆y →0
= lim F ( x + ∆x , y + ∆y ) − F ( x , y + ∆y ) − F ( x + ∆x , y ) + F ( x , y ) .
∆x ⋅ ∆y
∆x → 0
∆y → 0
(2.8.1)
Этот предел и полагают по определению равным плотности
распределения f(x,y) системы двух случайных величин:
f(x,y) = lim P( x ≤ X < x + ∆x , y ≤ Y < y + ∆y ) .
∆x→0
∆y →0
∆x ⋅ ∆y
Теория вероятностей и математическая статистика
49
Предположим, что функция F(x,y) не только непрерывна, но
и дважды дифференцируема; тогда правая часть формулы (2.8.1)
представляет собой вторую смешанную частную производную
функции F(x,y) по х и у. Поэтому
2
f(x,y) = ∂ F ( x , y ) = Fx′′, y ( x , y ) .
∂x ⋅ ∂y
(2.8.2)
Если воспользоваться «механической» интерпретацией распределения единичной массы по плоскости хОу, функция f(x,y)
представляет собой плотность распределения массы в точке (х,у).
Легко убедиться в следующих свойствах плотности распределения системы двух случайных величин:
1о. f(x,y) ≥ 0.
x y
2о. F(x,y) =
∫ ∫ f ( x , y )dxdy .
− ∞− ∞
b d
о
3 . Р(a≤X<b, c≤Y<d) =
∫ ∫ f ( x , y )dxdy .
a c
+∞ +∞
4о .
∫ ∫ f ( x , y )dxdy = 1.
− ∞− ∞
5о. Если D – произвольная область на плоскости хОу, то
Р((X,Y) ⊂ D) =
∫∫ f ( x , y )dxdy .
D
+∞
о
6 . fX(x) =
∫ f ( x , y )dy ,
−∞
+∞
fY(y) =
∫ f ( x , y )dx .
−∞
(2.8.3)
В. Н. Докин, Т. Г. Тюрнева
50
§ 2.9. Условные законы распределений
Последнее свойство плотности системы двух случайных величин говорит о том, что для того, чтобы получить плотность
распределения одной из величин, входящих в систему, нужно
плотность распределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной
величине.
Перейдем теперь к решению обратной задачи: по известным
законам распределения отдельных величин, входящих в систему,
найти закон распределения системы. Как легко видеть, в общем
случае эта задача неразрешима. Действительно, законы распределения отдельных случайных величин, входящих в систему, характеризуют каждую из случайных величин в отдельности, но ничего
не говорят о том, как они связаны между собой. С другой стороны, искомый закон распределения системы должен содержать все
сведения о случайных величинах системы, в том числе и о характере связей между ними.
Таким образом, если случайные величины Х и Y зависимы
между собой, то закон распределения системы не может быть выражен через законы распределения отдельных случайных величин, входящих в систему. Это приводит к необходимости введения условных законов распределения.
Определение. Распределение одной случайной величины,
входящей в систему, найденное при условии, что другая случайная величина, входящая в систему, приняла определенное значение, называется условным законом распределения.
Условный закон распределения можно задавать как функцией распределения, так и плотностью распределения. Будем обозначать условную функцию распределения F(x/y), а условную
плотность распределения f(x/y). Так как системы непрерывных
величин имеют основное практическое значение, ограничимся
рассмотрением условных плотностей распределения.
Согласно определению плотности распределения для случайной величины Х при условии, что случайная величина Y приняла определенное значение, имеем
f(x/y) = lim
∆x→0
P( x ≤ X < x + ∆x / Y = y )
.
∆x
(2.9.1)
Теория вероятностей и математическая статистика
51
Но в силу непрерывности случайной величины Y
Р(Y = у) = 0,
и поэтому на основании теоремы умножения вероятностей условная вероятность Р(x≤X<x+∆x/Y=y) не определена. Следовательно,
правую часть равенства (2.9.1) нужно усовершенствовать, не меняя, однако, ее смысла. Это можно сделать, заменив первоначальное условие Y=y новым y≤Y<y+∆y и устремив затем ∆у к нулю.
Таким образом, примем следующее определение условной плотности распределения
f(x/y) = lim
∆x →0
∆y →0
P( x ≤ X < x + ∆x / y ≤ Y < y + ∆y )
. (2.9.2)
∆x
По теореме умножения вероятностей
Р(x≤X<x+∆x/у≤Y<y+∆y) =
P( x ≤ X < x + ∆x , y ≤ Y < y + ∆y )
.
P( y ≤ Y < y + ∆y )
Следовательно, равенство (2.9.2) можно переписать так
f(x/y) = lim P( x ≤ X < x + ∆x , y ≤ Y < y + ∆y ) .
∆x →0
∆y →0
∆x ⋅ P( y ≤ Y < y + ∆y )
Разделив числитель и знаменатель на ∆у получим
P( x ≤ X < x + ∆x , y ≤ Y < y + ∆y )
f ( x, y )
∆x ⋅ ∆y
=
.
f(x/y) = lim
∆x → 0
fY ( y )
P( y ≤ Y < y + ∆y )
∆y → 0
∆y
(2.9.3)
Аналогично можно получить:
f(у/х) =
f ( x, y )
.
fX ( y )
(2.9.4)
В. Н. Докин, Т. Г. Тюрнева
52
Используя оба последних соотношения, можно записать, что
f(x,y) = fX(x) · f(y/x) = fY(y) · f(х/у).
(2.9.5)
Отсюда видно, что для нахождения плотности распределения
системы двух случайных величин необходимо в общем случае
знание плотности распределения одной случайной величины, входящей в систему, и условной плотности распределения другой
случайной величины, входящей в эту систему.
Подобное соотношение имеет место и для функций распределения:
F(x,y) = FX(x) · F(y/x) = FY(y) · F(х/у).
(2.9.6)
Равенства (2.9.5) и (2.9.6) часто называют теоремами умножения законов распределения.
Условные законы распределений обладают всеми теми же
свойствами, что и безусловные законы. В частности,
+∞
+∞
−∞
−∞
∫ f ( x / y )dx = 1 , ∫ f ( y / x )dy = 1 ,
dF ( y / x )
dF ( x / y )
= f ( x / y ),
= f ( y / x ),
dx
dy
x
y
−∞
−∞
∫ f ( x / y )dx = F ( x / y ) , ∫ f ( y / x )dy = F ( y / x ) .
§ 2.10. Зависимые и независимые случайные
величины
Понятие зависимости или независимости случайных величин
является одним из важнейших понятий теории вероятностей.
Определение. Случайная величина Х называется независимой
от случайной величины Y, если закон распределения величины Х
не зависит от того, какое значение приняла величина Y.
Для непрерывных случайных величин условие независимости Х от Y может быть записано в виде f(x/y) = fX(x) при любом у.
Теория вероятностей и математическая статистика
53
Из равенства (2.9.5) следует, что если величина Х не зависит
от Y, то и величина Y не зависит от Х, т. е. зависимость или независимость случайных величин всегда взаимны.
Действительно, пусть Х не зависит от Y, т. е.
f(x/y) = fX(x).
(2.10.1)
Из равенства (2.9.5) имеем:
fX(x)f(y/x) = fY(y) · f(x/y),
откуда, принимая во внимание (2.10.1), получим:
f(у/х) = fY(у),
что и требовалось доказать.
Теорема. Для того чтобы непрерывные случайные величины
Х и Y были независимыми, необходимо и достаточно, чтобы выполнялось соотношение
f(x,y) = fX(x) · fY(у).
(2.10.2)
Доказательство. Необходимость. Пусть Х и Y – независимые случайные величины, тогда
f(x/y) = fX(x), f(у/х) = fY(у),
и, следовательно, равенство (2.9.5) принимает вид
f(x,y) = fX(x) · fY(у).
Достаточность. Пусть соотношение (2.10.2) выполняется.
Тогда, используя равенства (2.9.3) и (2.9.4), получаем
fX(x) =
f ( x, y )
f ( x, y )
= f(x/y) или fY(у) =
= f(у/х).
fY ( y )
fX ( y )
Теорема доказана.
Следствие. Если плотность распределения f(x,y) представима
в виде произведения двух сомножителей, один из которых содержит только х, а второй – только у, то случайные величины Х и Y
независимы.
Действительно, пусть
f(x,y) = α(х) · β(у).
(2.10.3)
В. Н. Докин, Т. Г. Тюрнева
54
Тогда в силу свойств 4о и 6о плотности распределения системы имеем
+∞ +∞
+∞
+∞
−∞
−∞
∫ ∫ f ( x , y )dxdy = ∫ α ( x )dx ⋅ ∫ β ( y )dy = 1 ,
− ∞− ∞
+∞
fX(x) = α(х)
α( x )
,
β
(
y
)
dy
=
+∞
∫−∞
∫ α ( x )dx
−∞
+∞
fY(y) = β(y)
β( y )
α
(
x
)
dx
=
.
+∞
∫−∞
∫ β ( y )dy
−∞
Отсюда
fX(x) · fY(y) =
α( x ) ⋅ β( y )
+∞
+∞
−∞
−∞
= α(х) · β(у) = f(x,y),
∫ α ( x )dx ⋅ ∫ β ( y )dy
и, следовательно, величины Х и Y независимы.
Заметим, что функции α(х) и β(у) в разложении (2.10.3) с точностью до постоянных сомножителей совпадают с плотностями
распределения fX(x) и fY(y).
§ 2.11. Системы произвольного числа
случайных величин
На практике часто приходится рассматривать системы более
чем двух случайных величин. Эти системы интерпретируются как
случайные точки или случайные векторы в пространстве того или
иного числа измерений.
Например, точка разрыва дистанционного снаряда в пространстве характеризуется тремя декартовыми координатами
(X, Y, Z), совокупность n последовательных измерений изменяющейся величины Х – это система n случайных величин (Х1, Х2, …, Хn).
Полной характеристикой системы произвольного числа случайных величин служит закон распределения системы, который
Теория вероятностей и математическая статистика
55
может быть задан функцией распределения или плотностью распределения.
Определение 1. Функцией распределения системы n случайных величин (Х1, Х2, …, Хn) называется вероятность совместного
выполнения n неравенств вида Xi < xi:
F(x1, x2, …, xn) = P(Х1<x1, Х2<x2, …, Хn<xn).
Определение 2. Плотностью распределения системы n непрерывных случайных величин называется n-я смешанная частная
производная функции F(x1, x2, …, xn), взятая один раз по каждому
аргументу:
∂ n F ( x1 , x2 ,..., xn )
f(x1, x2, …, xn) =
.
∂x1∂x2 ...∂xn
Зная закон распределения системы, можно определить законы распределения отдельных величин, входящих в систему.
Функция распределения каждой из величин, входящих в систему, получится, если в функции распределения системы положить все остальные аргументы равными +∞:
FX 1 (x1) = F(x1, ∞,∞, …, ∞).
Если выделить из системы величин (Х1, Х2, …, Хn) частную
систему (Х1, Х2, …, Хk) k≤n, то функция распределения этой системы определяется по формуле
+∞
FX 1 , X 2 ,..., X k (х1, х2, …, хk) =
∞
∫ ... ∫ f (х , х , …, х )dx
1
−∞
2
n
k+1…dxn.
−∞
Условным законом распределения частной системы (Х1, Х2,
…, Хk) называется ее закон распределения, вычисленный при условии, что остальные величины приняли значения xk+1, xk+2, …, xn.
Условная функция распределения F(х1, х2, …, хk / xk+1, xk+2, …, xn)
и условная плотность распределения f(х1, х2, …, хk / xk+1, xk+2, …, xn)
могут быть вычислены по формулам
F(х1, х2, …, хk / xk+1, xk+2, …, xn) =
F ( x1, x2 ,..., xn )
,
F ( xk +1 , xk + 2 ,..., xn )
В. Н. Докин, Т. Г. Тюрнева
56
f(х1, х2, …, хk / xk+1, xk+2, …, xn) =
f ( x1, x2 ,..., xn )
.
f ( xk +1 , xk + 2 ,..., xn )
Закон распределения системы независимых случайных величин равен произведению законов распределений отдельных величин, входящих в систему, в частности,
F(x1, x2, …, xn) = FX 1 (x1) FX 2 (x2) … FX n (xn),
f(x1, x2, …, xn) = f X 1 (x1) f X 2 (x2) … f X n (xn),
Вероятность попадания случайной точки (Х1, Х2, …, Хn) в
пределы n-мерной области D выражается n-кратным интегралом:
Р((Х1, Х2, …, Хn) ⊂ D) =
∫∫ f
(х1, х2, …, хn)dx1dx2…dxn.
D
§ 2.12. Числовые характеристики случайных величин
2.12.1. Понятие числовых характеристик
Как уже отмечалось ранее, закон распределения полностью
характеризует случайную величину с вероятностной точки зрения. Однако при решении многих прикладных задач нет необходимости характеризовать случайную величину полностью, а достаточно иметь о случайной величине только некоторое общее
представление. Зачастую достаточно бывает указать не весь закон
распределения, а только лишь некоторые характерные черты закона распределения.
В теории вероятностей для общей характеристики случайной
величины используются некоторые величины, которые носят название числовых характеристик случайной величины.
Основное их назначение – в сжатой форме выразить наиболее существенные особенности, характерные для того или иного
распределения.
О каждой случайной величине необходимо, прежде всего,
знать ее некоторое среднее значение, около которого группируются возможные значения случайной величины, а также какоелибо число, характеризующее степень разбросанности этих значений относительно среднего. Кроме указанных числовых харак-
Теория вероятностей и математическая статистика
57
теристик, для более полного описания случайной величины используют и ряд других числовых характеристик.
2.12.2. Математическое ожидание случайной величины
Математическое ожидание является важнейшей характеристикой положения случайной величины. Математическое ожидание случайной величины иногда называют просто средним значением случайной величины.
Рассмотрим сначала дискретную случайную величину Х,
способную принимать числовые значения х1, х2, …, хn, … с соот∞
ветствующими вероятностями р1, р2, …, рn, …, причем
∑p
n =1
n
= 1.
Если ряд
∞
∑x
n =1
n
pn
(2.12.1)
сходится абсолютно, то его сумма называется математическим
ожиданием случайной величины и обозначается МХ.
В том случае, когда дискретная случайная величина Х способна принимать лишь конечное число возможных значений
х1, х2, …, хn, соответственно с вероятностями р1, р2, …, рn, ее математическое ожидание определяется равенством
n
МХ =
∑x
k =1
k
pk .
(2.12.2)
Рассмотрим теперь непрерывную случайную величину Х, все
возможные значения которой принадлежат отрезку [a,b]. Пусть
f(x) – плотность распределения величины Х. Разобьем отрезок
[a,b] на n частичных отрезков, длины которых обозначим через
∆х1, ∆х2, …, ∆хn. Возьмем в каждом частичном отрезке по одной
точке, абсциссы которых обозначим соответственно х1, х2, …, хn.
Так как произведение f(xi)·∆xi (i = 1, 2, …, n) приближенно
равно вероятности попадания случайной величины Х на элементарный участок ∆xi, то сумма произведений
n
∑ x f ( x )∆x ,
i =1
i
i
i
(2.12.3)
составленная по аналогии с определением (2.12.2) математического ожидания для дискретной случайной величины, приближенно
В. Н. Докин, Т. Г. Тюрнева
58
равна математическому ожиданию непрерывной случайной величины Х.
Переходя к пределу в сумме (2.12.3) при стремлении к нулю
длины наибольшего из частичных отрезков ∆xi, получим определенный интеграл
b
n
lim
∑ x f ( x )∆x = ∫ xf ( x )dx ,
max ∆x i → 0 i =1
i
i
i
a
который и полагают по определению равным математическому
ожиданию непрерывной случайной величины Х.
Итак, математическим ожиданием непрерывной случайной
величины Х, возможные значения которой принадлежат отрезку
b
∫
[a,b], называют определенный интеграл МХ = xf ( x )dx .
a
Если возможные значения непрерывной случайной величины
Х принадлежат всей числовой оси Ох, то математическое ожидание определяется интегралом
∞
МХ =
∫ xf ( x )dx .
(2.12.4)
−∞
Следует заметить, что встречаются и такие случайные величины, для которых математические ожидания не существуют, так
как соответствующая сумма (2.12.1) или соответствующий интеграл (2.12.4) могут расходиться.
2.12.3. Математическое ожидание функций от случайных аргументов
Рассмотрим задачу: случайная величина Y есть функция нескольких случайных величин Х1, Х2, …, Хn:
Y = Y(Х1, Х2, …, Хn).
Известен закон распределения системы аргументов (Х1, Х2, …, Хn),
требуется найти математическое ожидание величины Y.
Предположим, что нам удалось тем или иным способом найти закон распределения G(y) = P(Y<y) случайной величины Y. Тогда задача об определении математического ожидания становится
Теория вероятностей и математическая статистика
59
тривиальной, оно находится по формулам, приведенным в предыдущем параграфе.
Однако, сама задача нахождения закона распределения G(y)
величины Y часто оказывается довольно сложной. К тому же для
решения поставленной задачи нахождение закона распределения
величины Y как такового вовсе и не нужно: чтобы найти математическое ожидание величины Y нет надобности знать ее закон
распределения, достаточно знать только закон распределения аргументов (Х1, Х2, …, Хn).
Рассмотрим задачу об определении математического ожидания функции при заданном законе распределения аргументов.
Начнем с самого простого случая – функции одного аргумента – и
поставим следующую задачу.
Имеется случайная величина Х с заданным законом распределения; другая случайная величина Y связана с Х функциональной зависимостью Y = Y(X). Требуется, не находя закона распределения величины Y, найти ее математическое ожидание
МY = MY(X).
Рассмотрим сначала случай, когда Х есть дискретная случайная величина с рядом распределения
xi
рi
x1
р1
x2
р2
…
…
xn
рn
Выпишем возможные значения величины Y и вероятности
этих значений в виде таблицы
Y(xi)
рi
Y(x1)
р1
Y(x2)
р2
…
…
Y(xn)
рn
(2.12.5)
Эта таблица не является в строгом смысле слова рядом распределения величины Y, так как в общем случае некоторые из
значений
Y(x1), Y(x2), …, Y(xn).
(2.12.6)
могут совпадать между собой; к тому же эти значения в верхней
строке таблицы (2.12.5) не обязательно идут в возрастающем порядке. Для того чтобы от таблицы (2.12.5) перейти к подлинному
ряду распределения величины Y, нужно было бы расположить
значения (2.12.6) в порядке возрастания, объединить столбцы, со-
В. Н. Докин, Т. Г. Тюрнева
60
ответствующие равным между собой значениям Y и сложить соответствующие вероятности. Но в данном случае нас не интересует закон распределения величины Y как таковой; для нашей цели –
определения математического ожидания – достаточно такой «неупорядоченной» формы распределения, как (2.12.5). Математическое ожидание величины Y можно определить по формуле
n
МY(X) =
∑Y( x ) p .
i
i =1
(2.12.7)
i
Очевидно, что величина MY(X), определяемая по формуле
(2.12.7), не может измениться от того, что под знаком суммы некоторые члены будут объединены заранее, а порядок членов изменен.
Пусть теперь Х – непрерывная случайная величина, все возможные значения которой принадлежат отрезку [a,b], а f(x) ее
плотность распределения. Как и в предыдущем параграфе разобьем отрезок [a,b] на n частичных отрезков, длины которых обозначим через ∆х1, ∆х2, …, ∆хn. В каждом из частичных отрезков
возьмем по одной точке, абсциссы которых обозначим соответственно х1, х2, …, хn.
Сумма
n
∑ Y ( x ) f ( x )∆x ,
i
i =1
i
i
(2.12.8)
составленная по аналогии с определением (2.12.7) математического ожидания функции Y(X) для дискретного аргумента Х, приближенно равна математическому ожиданию случайной величины
Y = Y(X).
Переходя к пределу в сумме (2.12.8) при стремлении к нулю
длины наибольшего из частичных отрезков ∆xi, получим определенный интеграл
b
n
lim
∑ Y ( x ) f ( x )∆x = ∫ Y ( x ) f ( x )dx ,
max ∆xi →0 i =1
i
i
i
a
который и полагают по определению равным математическому
ожиданию случайной величины Y = Y(X).
Таким образом,
Теория вероятностей и математическая статистика
61
b
∫
MY(X) = Y ( x ) f ( x )dx .
(2.12.9)
a
В формулах (2.12.8) и (2.12.9) для математического ожидания
функции не содержится в явном виде закона распределения самой
функции, а содержится только закон распределения аргумента.
Если аргумент Х является дискретной случайной величиной
со счетным спектром, то математическое ожидание Y(X) находится по формуле:
∞
∑Y( x ) p ,
MY(X) =
i
i =1
i
где pi = P(X = xi), i = 1, 2, …
Если же Х – непрерывная случайная величина с плотностью
распределения f(x), заданной на всей числовой оси Ох, то
∞
MY(X) =
∫ Y ( x ) f ( x )dx .
−∞
Аналогично определяется математическое ожидание функции Y(X,Y) от двух случайных аргументов Х и Y.
Для дискретных величин
MY(X,Y) =
∑∑ Y ( x , y ) p
i
i
i
i, j
,
(2.12.10)
j
где pi,j = P(X = xi, Y = yj).
Для непрерывных величин
∞
MY(X,Y) =
∞
∫ ∫ Y ( x , y ) f ( x , y )dxdy ,
(2.12.11)
−∞ −∞
где f(x,y) – плотность распределения системы (X,Y).
Совершенно аналогично определяется математическое ожидание функции от произвольного числа случайных аргументов.
2.12.4. Свойства математического ожидания
Основные свойства математического ожидания вытекают непосредственно из свойств суммы и интеграла.
Свойство 1. Математическое ожидание постоянной величины равно самой этой постоянной, т. е.
В. Н. Докин, Т. Г. Тюрнева
62
МС = С.
Доказательство. Постоянную величину С можно рассматривать как частный случай величины, которая с вероятностью, равной единице, принимает только одно значение С. Но тогда, в соответствии с формулой (2.12.2)
МС = С · 1= С.
Свойство 2. Постоянный множитель можно выносить за
знак математического ожидания, т. е.
М(СХ) = СМХ.
Доказательство.
а) Для дискретных случайных величин
∞
М(СХ) =
∞
∑ Cx
k
k =1
pk = С ∑ xk p k = СМХ.
k =1
б) Для непрерывных случайных величин
∞
∞
∫
М(СХ) = Cxf ( x )dx = С
∫ xf ( x )dx = СМХ.
−∞
−∞
Свойство 3. Математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий, т. е.
М(Х+Y) = MX + MY.
Доказательство.
а) Пусть X и Y – дискретные случайные величины. На основании формулы (2.12.10)
M(X+Y) =
( xi + y j ) pi , j ,
∑∑
i
где pi,j = P(X = xi, Y = yj).
Отсюда
M(X+Y) =
j
∑x ∑ p
i
i
i, j
j
+
∑y ∑p
j
j
i, j
.
i
Используя теперь свойство (2.6.1) вероятностей pi,j, окончательно получаем
Теория вероятностей и математическая статистика
M(X+Y) =
∑ x P( X = x ) + ∑ y P( Y = y
i
i
j
i
63
j
) = MX + MY.
j
б) Пусть теперь (X,Y) – система непрерывных случайных величин с плотностью распределения f(x,y). Используя определение
(2.12.11) и учитывая свойство (2.8.3), находим
∞ ∞
∫ ∫ ( x + y ) f ( x , y )dxdy ,
M(X+Y) =
− ∞− ∞
∞
⎞
⎞
⎛∞
⎛∞
M(X+Y) = ∫ x⎜⎜ ∫ f ( x , y )dy ⎟⎟dx + ∫ y⎜⎜ ∫ f ( x , y )dx ⎟⎟dy ,
−∞ ⎝ −∞
−∞ ⎝ −∞
⎠
⎠
∞
∞
∫ xf
M(X+Y) =
−∞
∞
X
∫ yf
( x )dx +
Y
( y )dy = MX + MY.
−∞
Свойство 4. Математическое ожидание произведения двух
независимых случайных величин равно произведению их математических ожиданий, т. е.
M(XY) = MX · MY,
если X и Y – независимы.
Доказательство.
а) Пусть X и Y – независимые дискретные величины. Тогда
M(XY) = ∑ ∑ xi y j pi , j ,
i
j
где pi,j = P(X = xi, Y = yj).
Так как X и Y независимы, то
pi,j = P(X = xi, Y = yj) = P(X = xi) · P(Y = yj),
поэтому
M(XY) = ∑ ∑ xi y j P( X = xi )P( Y = y j ) ,
i
j
M(XY) = ∑ xi P( X = xi ) ⋅ ∑ y j P( Y = y j ) = MX·MY.
i
j
б) Если X и Y – независимые непрерывные случайные величины с плотностью распределения f(x,y), то
В. Н. Докин, Т. Г. Тюрнева
64
+∞+∞
M(XY) =
∫ ∫ x⋅ y⋅ f ( x , y )dxdy .
− ∞− ∞
Из независимости величин Х и Y следует, что
f(x,y) = fX(x) · fY(y).
Поэтому
M(XY) =
+∞
+∞
−∞
−∞
∫ x f X ( x )dx ⋅ ∫ y f Y ( y )dy = MX · MY.
Из свойств 1–4 непосредственно вытекают следующие соотношения, которым удовлетворяют математические ожидания:
⎞
⎞
⎛ n
⎛ n
1 . М ⎜ ∑ ± ak X k + b ⎟ = ⎜ ∑ ± ak MX k + b ⎟ .
⎠
⎠
⎝ k =1
⎝ k =1
о
2о. Если Х1, Х2, …, Хn – независимые случайные величины, то
М(Х1 Х2 … Хn) = МХ1 · МХ2 · … МХn.
Последнее соотношение иногда называют теоремой умножения математических ожиданий.
2.12.5. Мода и медиана случайной величины
Кроме математического ожидания, которое является основной числовой характеристикой положения случайной величины,
на практике применяются и другие характеристики положения, в
частности мода и медиана случайной величины.
Определение 1. Модой Мо дискретной случайной величины
называется ее наиболее вероятное значение. Для непрерывной
случайной величины мода есть такое значение случайной величины, при котором плотность распределения имеет максимум, т. е.
f ( M 0 ) = max f ( x ) .
x
Если многоугольник распределения (кривая распределения) имеет два или более максимумов, то такое распределение
называется полимодальным.
Определение 2. Медианой Ме случайной величины Х называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины,
т. е. Р(Х<Ме) = Р(Х>Ме).
Теория вероятностей и математическая статистика
65
Геометрически медиана – это абсцисса точки, в которой
площадь, ограниченная кривой распределения, делится пополам.
Каждая из этих площадей равна 0,5, так как вся площадь, ограниченная кривой распределения, равна единице. Поэтому функция
распределения в точке Ме равна 0,5, т. е. F(Me) = P(X<Me) = 0,5.
Заметим, что если распределения одномодальное и симметрично относительно некоторой точки х = х0, то все три характеристики положения случайной величины Х – математическое ожидание, мода и медиана – совпадают и при этом МХ = Мо = Ме = х0.
2.12.6. Дисперсия случайной величины
Для характеристики случайной величины совершенно недостаточно знать только числовые характеристики положения, так
как одному и тому же заданному математическому ожиданию
(моде, медиане) может соответствовать бесчисленное множество
случайных величин, различных не только по своим значениям, но
и по их характеру и природе.
Значения наблюдаемых в практике случайных величин всегда
более или менее колеблются около среднего значения. Это явление
называется рассеянием величины около ее среднего значения.
Числовые характеристики, характеризующие рассеяние случайно величины, т. е. показывающие, насколько тесно сгруппированы возможные значения случайной величины около центра рассеивания (математического ожидания), называются характеристиками рассеивания.
Основными характеристиками рассеивания случайной величины являются дисперсия и среднее квадратическое отклонение.
Определение. Дисперсией DX случайной величины Х называется число
DX = М(Х–МХ)2,
(2.12.12)
если математическое ожидание в правой части (2.12.12) существует.
Если воспользоваться свойствами математического ожидания, то правую часть (2.12.12) можно привести к следующему виду:
М(Х–МХ)2 = М[Х2–2Х·МХ+(МХ)2] = МХ2–2·МХ·МХ+(МХ)2.
Отсюда и из (2.12.12) следует, что
DХ = МХ2 – (МХ)2.
(2.12.13)
В. Н. Докин, Т. Г. Тюрнева
66
Если Х – непрерывная случайная величина с плотностью распределения f(x), то
+∞
DХ =
2
(
x
−
MX
)
f ( x )dx .
∫
(2.12.14)
−∞
Для дискретной случайной величины Х
DХ =
( xi − MX )2 pi ,
∑
(2.12.15)
i
где pi = P(X=xi).
Дисперсия случайной величины является очень удобной характеристикой рассеивания возможных значений случайной величины. Однако она лишена наглядности, так как имеет размерность
квадрата случайной величины.
Для большего удобства желательно иметь характеристику, по
размерности совпадающую с размерностью случайной величины.
Такой характеристикой является среднее квадратическое отклонение случайной величины, которое представляет собой положительный квадратный корень из ее дисперсии. Обозначают среднее
квадратическое отклонение случайной величины Х символом σх:
σх =
DX .
Рассмотрим простейшие свойства дисперсии.
Свойство 1. Дисперсия постоянной величины равна нулю:
DC = 0.
Действительно, из первого свойства математического ожидания следует, что МС = С. Поэтому на основании (2.12.12)
DC = M (C – MC)2 = M (C – C)2 = 0.
Свойство 2. Дисперсия произведения постоянной величины
на случайную величину равна произведению квадрата постоянной
величины на дисперсию случайной величины:
D(CX) = C2DX.
Доказательство. На основании определения дисперсии и
второго свойства математического ожидания имеем
D(CX) = M [(CX – M(CX)]2 = M [CX – CMX]2 =
= M [C2 (X – MX)2] = C2M (X – MX)2 = C2DX.
Теория вероятностей и математическая статистика
67
Свойство 3. Дисперсия суммы двух независимых случайных
величин равна сумме дисперсий слагаемых:
D(X + Y) = DX + DY.
(2.12.16)
Доказательство. Используя определение дисперсии (2.12.12)
и третье свойство математического ожидания, имеем
D(X+Y) = M [(X + Y) – M(X+Y)]2 = M [X + Y – MX – MY]2 =
= M [(X – MX) + (Y – MY)]2 =
= M [(X – MX)2 + (Y – MY)2 + 2(X – MX)(Y – MY)] =
= M(X – MX)2 + M(Y – MY)2 + 2M [(X – MX)(Y – MY)] =
= DX + DY + 2M [(X – MX)(Y – MY)].
Так как случайные величины Х и Y независимы, то независимыми будут и величины Х – МХ и Y – YM. Поэтому на основании
четвертого свойства математического ожидания и первого следствия из этих свойств, находим
M [(X – MX)(Y – MY)] = [М(X – MX)]·[M(Y – MY)] =
= [МX – MX]·[MY – MY] = 0.
Откуда следует
D(X + Y) = DX + DY.
Что и требовалось доказать.
Из этих свойств непосредственно вытекает справедливость
следующего соотношения
⎞ n 2
⎛ n
D ⎜ ∑ ± ak X k ⎟ = ∑ ak DX k ,
⎠ k =1
⎝ k =1
если Х1, Х2, …, Хn – независимые случайные величины.
Пример 1. Найти дисперсию случайной величины Х, имеющей следующий закон распределения
xi
pi
0
0,3
1
0,2
2
0,4
3
0,1
Решение. Находим математическое ожидание случайной величины Х и ее квадрата.
МХ = 0 · 0,3 + 1 · 0,2 + 2 · 0,4 + 3 · 0,1 = 1,3.
МХ2 = 12 · 0,2 + 22 · 0,4 + 32 · 0,1 = 2,7.
В. Н. Докин, Т. Г. Тюрнева
68
Применяя формулу (2.12.13), получим
DX = 2,7 – 1,32 = 1,01.
Пример 2. Случайная величина Х распределена равномерно
на [a,b], т. е. плотность распределения имеет вид
⎧С, при a ≤ x ≤ b
⎨
f(x) =
⎩0, при x<a или x>b .
Найти ее дисперсию.
Решение. Сначала определим значение постоянной С. Для
этого воспользуемся условием нормировки (2.4.5)
∞
a
b
∞
∫ f ( x )dx = ∫ f ( x )dx + ∫ f ( x )dx + ∫ f ( x )dx
−∞
−∞
a
= 1.
b
Отсюда
1=
b
b
a
a
∫ f ( x )dx = C ∫ dx = C (b – a).
Следовательно, С =
1
.
b−a
Вычисляя математическое ожидание величины Х, находим
b
МХ =
b
a+b
x
.
dx =
−
2
b
a
a
∫ xf ( x )dx = ∫
a
Определяя математическое ожидание квадрата случайной величины Х, получаем
b
b
a 2 + ab + b 2
x2
МХ = ∫ x f ( x )dx = ∫
.
dx =
3
b−a
a
a
2
2
И, следовательно,
2
2
a 2 + ab + b 2 ⎛ a + b ⎞ ⎛ b − a ⎞
2
2
DX = MX – (MX) =
–⎜
⎟ .
⎟ =⎜
3
⎝ a ⎠ ⎝ 12 ⎠
Теория вероятностей и математическая статистика
69
§ 2.13. Ковариация. Коэффициент корреляции
При доказательстве формулы (2.12.14) нам потребовалось
вычислить M [(X – MX)(Y – MY)]. Это число называется ковариацией случайных величин Х, Y и обозначается cov(X,Y). Таким
образом,
cov(X,Y) = M [(X – MX)(Y – MY)].
(2.13.1)
Отсюда, используя свойства математического ожидания, легко получить следующую формулу:
cov(X,Y) = M (XY) – MX · MY.
(2.13.2)
Очевидно, что
cov(X,Х) = DX, cov(X,Y) = cov(Y,Х).
Теорема 1. Если для случайных величин Х1, Х2, …, Хn существуют cov(Xi,Xj) = Ki,j, i,j = 1, 2, …, n, то при любых постоянных
C1, C2, …, Cn
n
D (C1X1 + C2X2 + … + CnXn) =
n
∑∑ K
i =1 j =1
i, j
CiC j .
(2.13.3)
Доказательство. Положим
Yn = C1X1 + C2X2 + … + CnXn.
Нетрудно проверить, что
n
Yn – MYn =
∑C
i
i =1
(Xi – MXi)
и
2
(Yn – MYn) =
n
n
∑∑ C C
i =1 j =1
i
j
(Xi – MXi) (Xj – MXj).
Вычисляя математическое ожидание от обеих частей последнего равенства, получим утверждение теоремы.
При i≠j величину Ki,j = cov(Xi,Xj) иногда называют корреляционным моментом или моментом связи, который помимо рассеивания величин Xi, Xj может характеризовать взаимное влияние
этих величин друг на друга.
В. Н. Докин, Т. Г. Тюрнева
70
Правую часть (2.13.3) можно рассматривать как квадратичную форму от переменных C1, C2, …, Cn. Так как при любых
C1, C2, …, Cn дисперсия в левой части (2.13.3) неотрицательна, то
квадратичная форма в правой части (2.13.3) неотрицательно определена. Квадратичная форма неотрицательно определена тогда и
только тогда, когда неотрицательны все главные миноры матрицы, составленной из ее коэффициентов.
Таким образом, из теоремы 1 вытекает следующее утверждение.
Определитель
cov( X 1 , X 1 )
cov( X 2 , X 1 )
...
cov( X 1 , X 2 ) ... cov( X 1 , X m )
cov( X 2 , X 2 ) ... cov( X 2 , X m )
≥ 0 (2.13.4)
...
...
...
cov( X m , X 1 ) cov( X m , X 2 ) ... cov( X m , X m )
для любых случайных величин Х1, Х2, …, Хm; m = 1, 2, …
При m = 2 неравенство (2.13.4) имеет вид
DX 1
cov( X 1 , X 2 )
≥0
cov( X 2 , X 1 )
DX 2
Отсюда, учитывая, что cov(X2,X1) = cov(X1,X2), получаем неравенство
DX1·DX2 – cov2(X1,X2) ≥ 0,
откуда следует, что
cov(X1 , X2 ≤ DX1 ⋅ DX2 .
(2.13.5)
При доказательстве формулы (2.12.16) было попутно получено, что для независимых случайных величин X1, X2 имеет место
равенство
cov(X1,X2) = 0.
(2.13.6)
Таким образом, если cov(X1,X2) ≠ 0, то величины X1 и X2 зависимы. В качестве количественной характеристики степени зависимости случайных величин X1, X2 используется так называемый
коэффициент корреляции k1,2, определяемый равенством
Теория вероятностей и математическая статистика
k1,2 =
cov( X 1 , X 2 )
D( X 1 ) ⋅ D( X 2 )
71
.
(2.13.7)
Отметим основные свойства коэффициента корреляции.
Свойство 1. k1,2 ≤ 1.
Доказательство следует из (2.13.7) и (2.13.5).
Свойство 2. Если Х1 и Х2 независимы, то k1,2 = 0.
Доказательство вытекает из определения (2.13.7) и соотношения (2.13.6).
k1,2
Свойство 3. Если Х2 = АХ1 + В, где А и В постоянные, то
= 1.
Доказательство. Положим МХ1 = a, DX1 = σ2. Тогда
МХ2 = Аа + В, DX2 = А2σ2,
cov(X1,X2) = М [(Х1 – а)(Х2 – МХ2)] = М {(Х1 – а)[А(Х1 – а)]}=
= ADX1 = Аσ2
и, следовательно,
k1,2 =
Aσ 2
A2σ 2σ 2
=
A
.
A
Таким образом, k1,2 = 1.
Равенство нулю коэффициента корреляции является только
необходимым, но не достаточным условием для независимости
случайных величин. Это значит, что может существовать система
зависимых случайных величин, коэффициент корреляции которых
равен нулю.
Рассмотрим, например, систему двух непрерывных случайных величин (X,Y), равномерно распределенных внутри круга радиуса R, т. е. имеющих плотность распределения вида
⎧ 1
⎪ 2 , при x 2 + y 2 ≤ R 2
.
f ( x , y ) = ⎨πR
2
2
2
⎪⎩ 0 ,
при x + y > R
(2.13.8)
В. Н. Докин, Т. Г. Тюрнева
72
Найдем плотности распределения величин Х и Y, входящих в
систему. Для этого подставим выражение (2.13.8) в формулы
(2.8.3):
⎧ R 2 − x 2 dy
2
=
⎪ ∫
f X ( x ) = ⎨− R 2 − x 2 πR 2 πR 2
⎪
0,
⎩
R2 − x2 ,
при x ≤ R
. (2.13.9)
при x > R
Аналогично вычисляя fY(y), получим
⎧ 2
⎪
f Y ( y ) = ⎨πR 2
⎪⎩
R 2 − y 2 , при y ≤ R
0,
(2.13.10)
при y > R
Подставляя найденные значения fX(x) и fY(y) соответственно в
формулу (2.9.5), убеждаемся, что
f(x,y) ≠ fX(x) · fY(y), при х2+у2 ≤ R2,
а это и означает, что величины X и Y зависимы.
Используя (2.13.9) и (2.13.10), нетрудно убедиться в том, что
МХ = MY = 0 и поэтому
+∞ +∞
cov(X,Y) = M(X,Y) =
∫ ∫ xyf ( x , y )dxdy =
− ∞− ∞
⎡
1
x⎢
=
2 ∫
πR − R ⎢−
⎣
R
⎤
⎥dx .
∫2 ydy
⎥
R − x2 ⎦
R2 − x2
Здесь внутренний интеграл равен нулю (подынтегральная
функция нечетна, пределы интегрирования отличаются только
знаком), следовательно cov(X,Y) = 0, или, что то же, коэффициент
корреляции kX,Y = 0.
Две случайные величины Х и Y называются некоррелированными, если их коэффициент корреляции (ковариация) равен
нулю и коррелированными в противном случае.
Таким образом, если случайные величины Х и Y независимы,
то они и некоррелированы, но из некоррелированности случайных
Теория вероятностей и математическая статистика
73
величин (как показывает последний пример) нельзя в общем случае сделать вывод об их независимости.
§ 2.14. Моменты случайных величин
Обобщением основных числовых характеристик случайных
величин является понятие моментов случайной величины.
Определение. Моментом k-го порядка случайной величины
Х относительно начала моментов А называется математическое
ожидание величины (Х – А)k:
νk(A) = M(X – A)k.
Если А = 0, то момент называется начальным Легко видеть,
что начальный момент первого порядка есть математическое
ожидание величины Х.
Если А=МХ, то момент называется центральным. Легко видеть, что центральный момент первого порядка равен нулю, а центральный момент второго порядка есть не что иное, как дисперсия.
Величина
mk(A) = M X − A
k
носит название абсолютного момента k-го порядка.
Условимся обозначать начальные моменты буквой αk, а центральное – буквой µk.
Моменты различных порядков характеризуют ту или иную
черту распределения случайной величины.
Так третий центральный момент µ3 служит характеристикой
асимметрии («скошенности») распределения относительно математического ожидания. Нетрудно проверить, что если случайная
величина Х распределена симметрично относительно своего математического ожидания, то µ3 = 0.
Так как третий центральный момент имеет размерность куба
случайной величины, то обычно рассматривают безразмерную
величину
ax =
µ3
.
σ x3
Величина ax носит название коэффициента асимметрии.
В. Н. Докин, Т. Г. Тюрнева
74
Четвертый центральный момент µ4 служит для характеристики островершинности или плосковершинности распределения.
Эти свойства распределения описываются с помощью так называемого эксцесса. Эксцессом случайной величины Х называется
величина
cх =
µ4
– 3.
σ x4
(2.14.1)
Кривая нормального закона распределения (с которым мы
познакомимся в следующем параграфе) принята как бы за эталон,
с которым сравниваются другие распределения. Кривые более
островершинные имеют положительный эксцесс; кривые более
плосковершинные – отрицательный эксцесс.
§ 2.15. Нормальное распределение
Среди распределений непрерывных случайных величин центральное место занимают нормальный закон (распределение Гаусса), плотность вероятности которого имеет вид:
f(x) =
1
σ x 2π
e
−
( x − m x )2
2σ x2
, (–∞ < x < +∞),
(2.15.1)
где mx и σх – параметры нормального распределения.
Нормальное распределение широко распространено в природе. В большинстве задач практики распределение случайной величины можно считать нормальным. Поэтому нормальное распределение обычно применяется за эталон для сравнения распределений. Коэффициент асимметрии и эксцесс вводятся для того,
чтобы характеризовать отклонение распределения от нормального. Поэтому их определяют так, чтобы для нормального распределения они были равны нулю. Этим и объясняется ввод слагаемого
– 3 в определение (2.14.1) эксцесса.
Основная особенность, выделяющая нормальный закон среди
других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения.
Функция распределения случайной величины, имеющей
нормальное распределение, согласно формуле (2.4.6), будет иметь
вид
Теория вероятностей и математическая статистика
F(x) =
x
1
∫
σ x 2π
e
−
75
( t − m x )2
2σ x2
dt .
(2.15.2)
−∞
Вычисляя по формулам (2.12.4) и (2.12.14) математическое
ожидание и дисперсию нормального распределения, нетрудно
найти, что
МХ =
DX =
1
+∞
σ x 2π
−∞
1
+∞
σ x 2π
−∞
∫ xe
−
( x − m x )2
2σ x2
2
∫ ( x − mx ) e
−
dx = mx,
( x − m x )2
2σ x2
dx = σ x2 . (2.15.3)
Отсюда следует, что mx является математическим ожиданием, а σх = DX – средним квадратическим отклонением случайной величины, распределенной по нормальному закону.
Замечание. При вычислении дисперсии по формуле (2.15.3)
применяется замена переменной
x − mx
= t и используется так
σx 2
называемый интеграл Пуассона
+∞
−t
∫ e dt = π .
2
−∞
График плотности распределения нормального закона (рис.
2.15.1) называют нормальной кривой (кривой Гаусса).
Отметим некоторые свойства нормальной кривой (нормального распределения):
1. Кривая распределеf(x)
ния симметрична относительно ординаты, проходящей через точку mx.
2. Кривая имеет один
максимум при х = mx, равх
0
mx
Рис. 2.15.1
ный
1
σ x 2π
.
В. Н. Докин, Т. Г. Тюрнева
76
3. При x → ∞ ветви кривой асимптотически приближаются
к оси Ох.
4. Изменение математического ожидания mx при σх = const
приводит к смещению кривой распределения вдоль оси Ох. При
этом кривая распределения сохраняет свой вид.
5. При изменении среднего квадратического отклонения σх и
mx = const кривая распределения, сохраняя свой общий вид, либо
сжимается, либо растягивается относительно прямой х = mх (рис.
2.15.1).
На рис. 2.15.2 кривые I, II, III соответствуют случаю σI > σII > σIII.
Формула (2.3.1), полученная в § 2.3, для нормального распределения
случайных величин имеет
III
f(x)
большое
самостоятельное значение, поэтому остановимся на
II
ней подробнее.
Итак, пусть слуI
чайная величина Х
х
распределена по нор0
mx
мальному закону с
Рис. 2.15.2
функцией распределения (2.15.2). Тогда
вероятность того, что Х примет значение, принадлежащее интервалу (α,β), согласно (2.3.1) имеет вид
Р(α<X<β) = F(β) – F(α) =
=
1
σ x 2π
β −
∫e
( t − m x )2
2σ x2
dt –
−∞
1
α
σ x 2π
−∞
∫e
−
( t − m x )2
Так как интегралы вида
1
∫e
σ 2π − ∞
x
−
( t − m )2
2σ 2
dt .
2σ x2
dt .
(2.15.4)
Теория вероятностей и математическая статистика
77
не выражаются через элементарные функции, то для вычисления
вероятности (2.15.4) в каждом из интегралов, стоящих в правой
части, произведем замену переменной вида
t − mx
σx
= u.
Тогда
Р(α<X<β) =
β −mx
σx
1
2π
∫ e
u2
−
2
α −mx
σx
1
2π
du –
−∞
∫ e
−
u2
2
du . (2.15.5)
−∞
Обозначив
2
Ф(х) =
1 x − u2
∫ e du ,
2π − ∞
(2.15.6)
из (2.15.5), получим
⎛ α − mx ⎞
⎛ β − mx ⎞
⎟⎟ .
⎟⎟ – Ф ⎜⎜
σ
σ
x
⎠
⎝
x
⎝
⎠
Р(α<X<β) = Ф ⎜⎜
(2.15.7)
Функция Ф(х), определенная равенством (2.15.6) носит название функции Лапласа. Она связана с нормированной функцией Лапласа
1
Ф0(х) =
2π
x
∫e
−u 2
2
du .
0
равенством Ф(х)= 0,5 + Ф0(х). Формулу (2.15.7) можно переписать
так:
⎛ α − mx ⎞
⎛ β − mx ⎞
⎟⎟ .
⎟⎟ – Ф0 ⎜⎜
⎝ σx ⎠
⎝ σx ⎠
Р(α<X<β) = Ф0 ⎜⎜
(2.15.8)
Таблицы значений Ф0(х) приведены в Приложении 1. Чтобы
пользоваться этой таблицей, необходимо знать свойства функции Ф0(х):
1. Ф0(–х) = – Ф0(х).
2. Функция Ф0(х) монотонно возрастающая.
3. lim Ф0(х) = 0,5.
∆x → +∞
В. Н. Докин, Т. Г. Тюрнева
78
4. При практических расчетах по формуле (2.15.8) можно
считать, что для всех значений х > 3 Ф0(х) ≈ 0,5. В самом деле,
Ф0(3) = 0,499 ≈ 0,5, а тем более Ф0(х) ≈ 0,5, если х >3, так как при
увеличении х функция Ф0(х) возрастает, но не может превосходить 0,5 (см. свойства 2 и 3). Поэтому в Приложении 1 таблица не
продолжена для значений х > 3.
Пример. Случайная величина Х имеет нормальное распределение с математическим ожиданием 1 и дисперсией 4. Что больше:
Р(–0,6<X<0,8) или Р(1<X<1,6)?
Решение. Используя формулу (2.15.7), находим
0,8 − 1 ⎞
⎛ − 0,6 − 1 ⎞ = Ф (–0,1) – Ф (–0,8).
0
0
⎟ – Ф0 ⎜
⎟
2 ⎠
⎝ 2 ⎠
⎝
Р(–0,6<X<0,8) = Ф0 ⎛⎜
Учитывая свойство 1 функции Ф0(х), получаем
Р(–0,6<X<0,8) = Ф0(0,8) – Ф0(0,1).
Из Приложения 1 находим
Ф0(0,8) = 0,2881, Ф0(0,1) = 0,0398.
Следовательно,
Р(–0,6<X<0,8) = 0,2881 – 0,0398 = 0,2483.
(2.15.9)
Вычисляя аналогично Р(1<X<1,6), нетрудно установить,
Р(1<X<1,6) = Ф0(0,3) – Ф0(0) = 0,1179 – 0,0 = 0,1179. (2.15.10)
Из сравнения (2.15.9) и (2.15.10) следует, что
Р(–0,6<X<0,8) > Р(1<X<1,6).
Теория вероятностей и математическая статистика
79
§ 2.16. Биноминальное распределение
Среди законов распределения для дискретных случайных величин одним из наиболее распространенных является биномиальное распределение. Это распределение имеет место в следующих
условиях.
Пусть случайная величина Х выражает число появлений события А при n независимых испытаниях, проводимых в одинаковых условиях. Вероятность появления события А в каждом испытании постоянна и равна р. Следовательно, вероятность непоявления события А равна q = 1 – р.
Возможными значениями случайной величины Х являются
m = 0, 1, …, n. Вероятности этих возможных значений Рn(m) определяются по формуле Бернулли (1.8.2)
Р(Х=m) = Рn(m) = Cnm рmqn-m, m = 0, 1, …, n.
(2.16.1)
Распределение дискретной случайной величины, для которой
ряд распределения задается формулой (2.16.1) носит название биномиального распределения. Постоянные n и р, входящие в выражение (2.16.1), – параметры биномиального распределения.
В качестве упражнения читателю предлагается самостоятельно доказать, что для биномиального распределения МХ = np,
DX = npq .
При большом числе испытаний n биномиальное распределение весьма близко к нормальному. Обоснование и доказательство
этого положения содержится в локальной и центральной предельных теоремах Муавра-Лапласа. Впервые эти теоремы были доказаны Муавром в 1730 г. для частного случая схемы Бернулли при
p = q = 1/2 , а затем были обобщены Лапласом на случай произвольного р, отличного от 0 и 1.
Локальная теорема Муавра-Лапласа. Если вероятность р
наступления события А в n независимых испытаниях постоянна и
отлична от нуля и единицы, то при условии, что число испытаний
достаточно велико, вероятность того, что в этих испытаниях событие А наступит ровно m раз,
В. Н. Докин, Т. Г. Тюрнева
80
Pn(m) ≈
1
f(t),
npq
(2.16.2)
2
t
−
1
m − np
где f(t) =
.
e 2 ,t=
npq
2π
Таким образом, из локальной теоремы Муавра-Лапласа следует, что распределение нормированной случайной величины
X − np
стремится к нормальному распределению при n→∞.
npq
Таблица значений функции f(t) приведена в Приложении 2.
Центральная предельная теорема Муавра-Лапласа и ее доказательство будут рассмотрены в § 4.6.
Пример. Вероятность того, что станок-автомат производит
годную деталь, равна
8
. За смену изготовлено 280 деталей. Оп9
ределить вероятность того, что среди них 20 бракованных.
Решение. Согласно условию задачи, n = 280, m = 20, p =
1
,
9
8
9
q = . По формуле (2.16.2) находим
Р280(20) = lim f(t) =
∆x → 0
1
f(t),
5,2588
1
20 − 280
m − np
9 = –2,11.
где t =
=
npq
1 8
280 ⋅ −
9 9
По таблице Приложения 2 находим f(–2,11) = 0,0431, следовательно, искомая вероятность равна
1 · 0,0431 = 0,0082.
Р280(20) =
5,2588
Теория вероятностей и математическая статистика
81
§ 2.17. Распределение Пуассона
(закон распределения редких явлений)
Дискретная случайная величина Х, которая может принимать
только целые неотрицательные значения с вероятностями
Р(Х=m) = Pm =
λm
m!
e − λ , m = 0, 1, 2, …
(2.17.1)
называется распределенной по закону Пуассона с параметром λ.
Типичным примером случайной величины, имеющей распределение Пуассона, является число вызовов, поступающих на телефонную станцию, за единичный отрезок времени.
В отличие от биномиального распределения, случайная величина, распределенная по закону Пуассона уже может принимать
бесконечное число значений. Такое распределение получается в
схеме Бернулли при больших n и малых p.
Теорема Пуассона. Если в схеме Бернулли n →∞, p→∞, так
что np→λ=const, то биномиальное распределение (2.16.1) сходится к закону Пуассона с параметром λ, т. е.
m
n
m n-m
Pn(m) = C p q
→
λm
m!
e − λ , m = 0, 1, 2, …
(2.17.2)
Доказательство. Преобразуем выражение для вероятности
Pn(m)
n( n − 1 )...( n − m + 1 ) m
p (1–p)n(1–p)-m =
m!
n( n − 1 )...( n − m + 1 )
1
(np)m
(1–p)n(1–p)-m . (2.17.3)
=
m
m!
n
Pn(m) = Cnm pmqn-m =
Так как при выполнении условий, указанных в формулировке
теоремы
np→λ,
и
n( n − 1 )...( n − m + 1 )
→1, (1 – p) -m→0
m
n
В. Н. Докин, Т. Г. Тюрнева
82
np
1
⎡
⎤
p
n
(1-p) = ⎢( 1 − p ) ⎥ → e − λ ,
⎢⎣
⎥⎦
то из (2.17.3) следует соотношение (2.17.2).
Покажем, что для случайной величины Х, распределенной по
закону Пуассона (2.17.1)
МХ = λ, DX = λ.
Действительно, по определению математического ожидания
МХ =
λk −1
∞
λ
∞
m
∑ m · m! e λ
−
= λе-λ
m =1
∑ ( k − 1 )! = λе
-λ
k =1
· еλ = λ.
При выводе этой формулы мы воспользовались известным из
курса математического анализа равенством
n
∞
x
е = ∑ n! .
n =0
х
Вывод формулы для дисперсии начнем с вычисления МХ2:
МХ2 =
∞
= е-λ
∞
∑m
m =1
2
·
λ
m!
λ
e − λ = е-λ ∑ [m( m − 1 ) + m] m! =
m =1
m
∑ m( m − 1 ) m!
m =1
λm
∞
m
∞
+ е-λ
λm
∑ m m!
m =1
∞
= λ2е-λ
λm − 2
∑ ( m − 2 )! + λ =
m=2
= е-λ · еλ · λ2 + λ = λ2 + λ.
Теперь легко получается формула
DX = МХ2 – (МХ)2 = λ2 + λ – λ2 = λ .
Таким образом, дисперсия случайной величины, имеющей
распределение Пуассона, численно равна ее математическому
ожиданию. Равенство математического ожидания и дисперсии
является характерной особенностью распределения Пуассона.
Пример. Завод отправил на базу 500 доброкачественных
компьютеров. Вероятность того, что в пути компьютер повредится, равна 0,002. Найти вероятность того, что на базу прибудут три
негодных компьютера.
Решение. Задача приближенно решается с помощью формулы Пуассона (2.17.2). Пусть Х – число поврежденных компьюте-
Теория вероятностей и математическая статистика
83
ров, прибывших на базу. Величина Х распределена по биномиальному закону. Определяя для данного случая математическое ожидание и дисперсию негодного числа компьютеров, найдем
МХ = np = 500 · 0,02 = 1,
DX = npq = 500 · 0,002 · 0,098 = 0,998.
Так как МХ ≈ DX, то полагая λ=1 найдем приближенно искомую вероятность по формуле Пуассона
P500(3) ≈
λ3
3!
e− λ =
1 −1 1
e =
≈ 0,06.
3!
6e
Вопросы для самопроверки
1. Какая величина называется случайной величиной?
2. Что называется законом распределения случайной величины?
3. Как, зная функцию распределения, найти вероятность попадания случайной величины в заданный интервал?
4. Дайте определение плотности распределения вероятностей. Пригодно ли понятие плотности распределения вероятностей для дискретной случайной величины?
5. Как, зная плотность распределения, найти вероятность попадания случайной величины в заданный интервал?
6. Что называется математическим ожиданием случайной
величины?
7. Как вычисляется математическое ожидание дискретной
(непрерывной) случайной величины?
8. Как можно истолковать математическое ожидание механически?
9. Что называется модой случайной величины? Что называется медианой случайной величины?
10. Дайте определение дисперсии случайной величины. Какую черту распределения характеризует дисперсия?
11. Что называется функцией Лапласа и каковы её свойства?
12. Что называется системой случайных величин?
13. Дайте определение функции распределения системы
двух случайных величин.
14. Дайте определение плотности распределения вероятностей системы двух случайных величин.
В. Н. Докин, Т. Г. Тюрнева
84
15. Как определить вероятность попадания в данную область?
16.Как выражается плотность распределения каждой из величин, входящих в систему, через плотность распределения системы?
17. Что называется корреляционным моментом (коэффициентом корреляции)?
18. Чему равен коэффициент корреляции для независимых
случайных величин?
19. Чему равен коэффициент корреляции случайных величин, связанных между собой линейной зависимостью?
20. Следует ли из некоррелированности случайных величин
их независимость и наоборот?
21. Как определяется функция распределения системы n
случайных величин?
22. С помощью каких числовых характеристик может быть
охарактеризована система n случайных величин?
Задачи к главе 2
2
всей
3
1
продукции станок-автомат выпускает первым сортом и
– вто3
1. При установившемся технологическом процессе
рым сортом. Построить ряд распределения, найти математическое
ожидание и дисперсию числа изделий первого сорта среди 5 штук,
отобранных случайным образом.
2. Распределение случайной величины Х задано рядом распределения
хi
pi
-2
0,2
-1
0,2
0
0,2
1
0,2
2
0,2
Найти распределение случайной величины Y = X
⎛
⎜
⎝
числить вероятность ⎜ P Y − MY ≤ 4
DX
14
и вы-
⎞
⎟.
⎟
⎠
3. Распределение случайной величины Х задано таблицей
распределения
Теория вероятностей и математическая статистика
xi
pi
0
0,25
-x
p1
85
x
p2
Известно, что МХ=2, DX=8, p1<p2. Найти значения х, p1,p2 и
вычислить вероятность P X − MX < DX .
(
)
4. Закон распределения случайной величины задан таблицей
p1–р2
p1
xi
pi
р1–р3
р2
Известно, что МХ=0, DX=
р2–р3
р3
p1
, p1–р2 < р1–р3 < р2–р3. Найти
8
значения p1 , р2 , р3 и вычислить вероятность Р(Х>0).
5. Случайная величина Х задана функцией распределения
0,
при х < 0,
⎧
⎪
F ( x ) = ⎨a( 1 − cos 2 x ), при 0 ≤ х ≤ π / 2,
⎪ 1,
при х > π / 2.
⎩
Найти коэффициент а. Написать выражение для плотности
распределения. Определить математическое ожидание и дисперсию случайной величины.
6. Плотность распределения случайной величины Х имеет
вид
f(x)=ae-x +be-2x (x>0).
Известно, что МХ=0,75. Найти значения постоянных a и b,
записать выражение для функции распределения F(x) и вычислить
⎛
⎜
⎝
вероятность ⎜ P X − 1,5a ≥
DX
11
⎞
⎟.
⎟
⎠
7. Функция распределения случайной величины Х имеет вид
⎧ a bx
⎪ b e , при х ≤ 0
.
F( x ) = ⎨
a
⎪ ( 2 − e − bx ), при х > 0
⎩ b
Известно, что DX=2. Найти значения постоянных a и b, написать выражение для плотности распределения вероятностей и вычислить вероятность P(|X –MX |≥2b).
86
В. Н. Докин, Т. Г. Тюрнева
8. Система двух случайных величин (Х,Y) характеризуется
математическими ожиданиями МХ=2, МY=0, дисперсиями DX=1,
DY=2 и корреляционным моментом Кх,у = -1 . Определить математическое ожидание и дисперсию случайной величины Z=X–2Y.
9. Имеются две случайные величины Х и Y, связанные соотношением Y= 4–Х. Найти корреляционный момент, если известно,
что МХ=3, DX=2.
10. Непрерывная случайная величина Х подчинена закону
распределения с плотностью f(x)=ae-|x|. Найти коэффициент а, определить математическое ожидание, дисперсию, коэффициент
асимметрии и эксцесс случайной величины Х.
11. Случайная величина Х имеет нормальное распределение с
математическим ожиданием 0 и дисперсией 1. Найти М(cosX),
D(cosX).
12. Рост взрослого мужчины является случайной величиной,
распределённой по нормальному закону. Пусть её математическое
ожидание равно 170 см, а дисперсия равна 36 см2. Вычислить вероятность того, что хотя бы один из наудачу выбранных четырёх
мужчин имеет рост от 168 см до 172см.
13. Вероятность обрыва нити на одном веретене в течение
одной минуты равна 0,002. Прядильщица обслуживает 2000 веретён. Найти вероятность того, что в течение одной минуты обрыв
произойдёт на трёх веретенах.
14. Книга издана тиражом 20 тыс. экземпляров. Вероятность
брака равна 0,0001. Какова вероятность того, что тираж содержит
не менее двух бракованных книг?
Теория вероятностей и математическая статистика
87
Глава 3. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ
СЛУЧАЙНЫХ АРГУМЕНТОВ
При решении задач, связанных с оценкой точности работы
различных автоматических систем, точности производства отдельных элементов систем и др. часто приходится рассматривать
функции одной или нескольких случайных величин. Такие функции тоже являются случайными величинами. Поэтому при решении подобных задач необходимо знать законы распределения фигурирующих в них случайных величин. При этом обычно закон
распределения системы случайных аргументов известен и известна функциональная зависимость.
Таким образом, возникает задача, которую можно сформулировать следующим образом.
Дана система случайных величин (Х1, Х2, …, Хn), закон распределения которой известен. Рассматривается некоторая случайная величина Y как функция случайных величин Х1, Х2, …, Хn
Y = φ(Х1, Х2, …, Хn).
Требуется определить закон распределения случайной величины Y, зная вид функции φ(х1, х2, …, хn) и закон совместного распределения (Х1, Х2, …, Хn).
§ 3.1. Закон распределения функции
одной случайной величины
Рассмотрение сформулированной выше задачи начнем с наиболее простого случая, когда случайная величина Y является
функцией одного случайного аргумента
Y = φ(X).
В дискретном случае решение этой задачи очень просто.
Действительно, пусть Х – дискретная случайная величина, имеющая ряд распределения
В. Н. Докин, Т. Г. Тюрнева
88
xi
pi
x1
p1
x2
p2
…
…
xn
pn
Тогда Y = φ(X) – также дискретная случайная величина с
возможными значениями y1 = φ(x1), y2 = φ(x2), …, yn = φ(xn). Если
все значения y1,y2,…,yn различны, то для каждого k=1,2,…,n события {X=xk} и {Y=yk=φ(xk)} тождественны. Следовательно,
Р(Y=yk) = Р(X=xk ) = pk
и искомый закон распределения имеет вид
yk
pk
y1= φ(x1)
p1
y2 = φ(x2)
p2
…
…
yn= φ (xn)
pn
Если же среди чисел y1 = φ(x1), y2 = φ(x2), …, yn = φ(xn) есть
одинаковые, то каждой группе одинаковых значений yk=φ(xk) нужно отвести один столбец и соответствующие вероятности сложить.
Для непрерывных случайных величин задача ставится так:
зная плотность распределения f(x) случайной величины Х, найти
плотность g(y) случайной величины Y = φ(X).
При решении поставленной задачи рассмотрим два случая.
3.1.1. Закон распределения монотонной функции одного
случайного аргумента
Предположим сначала, что функция y = φ(x) является монотонно возрастающей (рис. 3.1.1), непрерывной и дифференцируемой на интервале и все возможные значения величины Х лежат на
(a, b), т. е. Р(а<Х<b)=1.
В частном случае, когда область возможных значений Х ничем не ограничена, а = −∞, b = +∞. Тогда обратная функция
х=ψ(у) существует, при этом является также монотонно возрастающей, непрерывной и дифференцируемой функцией.
Когда величина Х принимает различные значения на участке
(a, b), случайная точка (Х,Y) перемещается только по кривой
y = φ(x); ордината этой случайной точки полностью определяется
её абсциссой.
Для того чтобы определить плотность распределения g(y) величины Y найдём сначала её функцию распределения
G(y)=P(Y<y).
Теория вероятностей и математическая статистика
89
Проведём прямую АВ, параллельную оси абсцисс на расстоянии у от неё (рис. 3.1.1). Для того чтобы выполнялось условие
Y<y, случайная точка (Х,Y) должна попасть на тот участок кривой,
который лежит ниже прямой АВ; для этого необходимо и достаточно, чтобы случайная величина Х попала на участок оси абсцисс от а до х, где х – абсцисса точки пересечения кривой
y = φ(x) и прямой АВ. Следовательно,
x
G(y)=P(Y<y)=Р(a<X<x)= ∫ f ( x )dx .
a
y
y=φ(x)
A
B
y
a
x
b
x
Рис. 3.1.1
Верхний предел интеграла х можно выразить через у:
х=ψ(у),
где ψ – функция, обратная функции φ. Тогда
ψ( y)
G(y)=
∫ f ( x )dx .
(3.1.1)
a
Дифференцируя интеграл (3.1.1) по переменной у, входящей
в верхний предел, получим:
g( y ) = G ′( y ) = f (ψ ( y ))ψ ′( y ).
(3.1.2)
Если функция y = φ(x) на участке (a, b) монотонно убывает
(рис. 3.1.2), то
В. Н. Докин, Т. Г. Тюрнева
90
G(y)=P(Y<y)=Р(х<X<b)=
откуда
b
b
x
(y)
∫ f ( x )dx = ψ ∫ f ( x )dx ,
g ( y ) = G ′( y ) = − f (ψ ( y ))ψ ′( y ).
(3.1.3)
Сравнивая формулы (3.1.2) и (3.1.3), замечаем, что они могут
быть объединены в одну:
(3.1.4)
g ( y ) = f (ψ ( y )) ⋅ ψ ′( y ) .
Действительно, когда ϕ возрастает, её
производная (а значит,
и ψ ′ ) положительна.
При убывающей функции ϕ производная ψ ′
A
B
отрицательна, но зато
y
y=φ(x)
перед ней в формуле
(3.1.3) стоит минус.
x
a
b
x
Следовательно, формула (3.1.4), в которой
Рис. 3.1.2
производная берётся по
модулю, верна в обоих
случаях. Таким образом, задача о законе распределения монотонной функции решена.
y
Пример. Случайная величина Х распределена по закону с
3
( x ≥ 1 ) . Найти плотность
x4
1
распределения случайной величины Y = .
X
1
Решение. Так как функция ϕ ( x ) =
является монотонной,
x
плотностью распределения f ( x ) =
то можно воспользоваться формулой (3.1.4). Учитывая, что
ψ( y ) =
1
1
,ψ ′( y ) = − 2 получаем
y
y
Теория вероятностей и математическая статистика
g( y ) =
91
3
1
2
(0<y<1).
⋅
=
3
y
2
4
1
(
) y
y
3.1.2. Закон распределения
одного случайного аргумента
немонотонной
функции
Имеется непрерывная случайная величина Х с плотностью
распределения f(x); другая случайная величина Y связана с Х
функциональной зависимостью
Y = φ(X),
причём функция y = φ(x) на участке (a, b) возможных значений
аргумента не монотонна.
y
A
B
a
∆1 ( y )
b
∆2( y )
∆3( y )
∆n( y )
x
Рис. 3.1.3
Найдём функцию распределения G(y) величины Y. Для этого
снова проведём прямую АВ, параллельную оси абсцисс, на расстоянии y от неё и выделим те участки кривой y = φ(x), на которых выполняется условие Y<y. Пусть этим участкам соответствуют участки оси абсцисс: ∆1(y), ∆2(y),…, ∆n(y). Событие {Y<y} равносильно попаданию случайной величины Х на один из участков
∆1(y), ∆2(y),…, ∆n(y) – безразлично, на какой именно. Поэтому
В. Н. Докин, Т. Г. Тюрнева
92
G(y)=P(Y<y)=
= P(( X ⊂ ∆1( y )) + ( X ⊂ ∆ 2 ( y )) + ... + ( X ⊂ ∆ n ( y ))) =
n
= ∑ P( X ⊂ ∆ i ( y )) = ∑
i =1
i
∫ f ( x )dx .
(3.1.4)
∆i ( y )
Границы интервалов ∆i(y) зависят от у и при заданном конкретном виде функции у = Y(x) могут быть выражены как явные
функции y. Дифференцируя G(y) по величине у, входящей в пределы интегрирования, получим плотность распределения величины Y:
G(y) = G' (y).
Пример. Случайная величина Х распределена по нормальному закону с математическим ожиданием m=0 и дисперсией
σ2=1. Найти плотность распределения случайной величины
Y=1– X .
Решение. Функция
у = 1 – X немонотонна
у
1
А
В
(рис. 3.1.4).
Применяя формулу
(3.1.4), имеем:
x1
G(y) =
∫ f ( x )dx +
−∞
∞
–1
х1
0
х2
1
+
∫ f ( x )dx
x2
Рис. 3.1.4
Выразим пределы х1 и х2 через у:
х1 = у –1, х2 = 1 – у.
Отсюда
G(y) =
y −1
∞
−∞
1− y
∫ f ( x )dx + ∫ f ( x )dx .
Теория вероятностей и математическая статистика
93
Чтобы найти плотность распределения g(y) продифференцируем G(y) по у:
g(y) = G'(y) = f(y–1) + f(1–y).
Имея в виду, что
x2
−
1
f(x) =
e 2 , (–∞ < x < +∞),
2π
получим
g(y) =
1
e
2π
−
( y −1 ) 2
2
+
1
e
2π
−
( 1− y ) 2
2
=
2
e
2π
−
( y −1 ) 2
2
, (–∞ < у ≤ 1).
§ 3.2. Закон распределения функции
двух случайных величин
Задача определения закона распределения функции нескольких случайных аргументов значительно сложнее аналогичной задачи для функции одного аргумента. Изложим общий метод решения этой задачи для наиболее простого случая функции двух
аргументов.
Имеется система двух непрерывных случайных величин (X,Y)
с плотностью распределения f(x,y).
Случайная величина Z связана с Х
и Y функциональной зависимостью
Z = Y(X,Y).
Требуется найти закон распределения величины Z.
Для решения этой задачи
воспользуемся
геометрической
интерпретацией, аналогичной той,
которую мы применяли в случае
одного
аргумента.
Функция
Z = Y(x,y) изобразится уже не кривой, а поверхностью (рис. 3.2.1).
Рис. 3.2.1
В. Н. Докин, Т. Г. Тюрнева
94
Найдем функцию распределения величины Z:
G(z) = P(Z<z) = P(Y(X,Y)<z).
Проведем плоскость Q параллельную плоскости хОу, на расстоянии Z от нее. Эта плоскость пересечет поверхность z=Y(x,y)
по некоторой кривой К. (На рис. 3.2.1 кривая К замкнута; вообще
она может быть и незамкнутой, а может состоять и из нескольких
ветвей). Спроецируем кривую К на плоскость хОу. Эта проекция,
уравнение которой z = Y(x,y), разделит плоскость хОу на две области; для одной из них высота поверхности z = Y(x,y) над плоскостью хОу будет меньше, а для другой – больше z. Обозначим D
ту область, для которой эта высота меньше z. Чтобы выполнялось
неравенство Y(x,y) < z, случайная точка (X,Y), очевидно, должна
попасть в область D; следовательно
G(z) = P((X,Y) ⊂ D) =
∫∫ f ( x , y )dxdy .
(3.2.1)
(D)
В выражение (3.2.1) величина z входит неявно, через пределы
интегрирования.
Дифференцируя G(z) по z, получим плотность распределения
величины Z:
g(z) = G'(z).
Зная конкретный вид функции z = Y(x,y), можно выразить
пределы интегрирования через z и написать выражение g(z) в явном виде.
Для того чтобы найти закон распределения функции двух аргументов, нет необходимости каждый раз строить поверхность
z = Y(x,y), подобно тому, как это сделано на рис. 3.2.1, и пересекать ее плоскостью, параллельной хОу. На практике достаточно
построить на плоскости хОу кривую, уравнение которой
z = Y(x,y), отдать себе отчет в том, по какую сторону этой кривой
Z < z, а по какую Z > z, и интегрировать по области D, для которой
Z < z.
Пример. Случайные величины Х и Y независимы и имеют
одно и то же показательное распределение: P(X<x) = P(Y<x) =
=1 – e-x, x≥0. Найти плотность распределения случайной величины
Z = X −Y .
Теория вероятностей и математическая статистика
Решение. Так как X и Y
независимы, то плотность
распределения системы (X,Y)
имеет вид:
z=y–x
y
f(x,y) = e-(x+y), x≥0, y≥0.
D
z
Строим на плоскости
хОу линию, уравнение которой z = x − y и определяем
z=х–у
x
0
95
область D, т. е. ту область,
где выполняется неравенство
x − y <z. В нашем случае
z
Рис. 3.2.2
область D – часть первой четверти, заключенная между прямыми
z = y – x и z = x – y (рис. 3.2.2). Функция распределения величины
Z имеет вид:
G(z) =
∫∫
(D)
z
−x
x+ z
0
0
f ( x , y )dxdy = ∫ dx ∫ e
= ∫ e (1 − e
0
z
−( x + z )
−( x + y )
∞
x+ z
z
x− z
dy + ∫ dx ∫ e −( x + y )dy =
∞
)dx + ∫ e − x ( e −( x − z ) − e −( x + z ) )dx = 1 – e-z.
z
Дифференцируя это выражение по z, имеем
g(z) = e-z, z ≥ 0.
§ 3.3. Закон распределения суммы двух случайных
величин. Композиция законов распределения
Воспользуемся изложенным выше общим методом для решения одной важной для практики частной задачи, а именно для нахождения закона распределения суммы двух случайных величин.
В. Н. Докин, Т. Г. Тюрнева
96
Имеется система двух
случайных величин (X,Y)
y
с плотностью распределения f(x,y).
z
Рассмотрим сумму
случайных величин X и Y:
Z = X + Y,
и найдем закон распредеz = x+y
ления величины Z. Для
этого построим на плосD
кости хОу линию, уравнеx
ние которой x+y=z (рис.
z
3.3.1). Прямая x+y=z де0
лит плоскость хОу на две
Рис. 3.3.1
части: правее и выше ее
X+Y > z, левее и ниже
X+Y < z. Область D в данном случае левая нижняя часть плоскости хОу, заштрихованная на рис. 3.3.1. Следовательно функция
распределения величины Z имеет вид:
G(z) =
∫∫ f ( x , y )dxdy
(D)
∞ z−x
=
∫ ∫ f ( x , y )dxdy .
−∞ −∞
Дифференцируя это выражение по переменной z, получим
∞
g(z) =
∫ f ( x , z − x )dx .
(3.3.1)
−∞
Из соображений симметричности задачи относительно X и Y
можно написать другой вариант той же формулы:
∞
g(z) =
∫ f ( z − y , y )dy ,
(3.3.2)
−∞
который равносилен первому и может применяться вместо него.
Особое практическое значение имеет случай, когда складываемые случайные величины (X,Y) независимы. Тогда говорят о
композиции законов распределения.
Произвести композицию двух законов распределения – это
значит найти закон распределения суммы двух независимых случайных величин, подчиненных этим законам распределениям.
Теория вероятностей и математическая статистика
97
Формула для композиции двух законов распределений имеет
простой вид, так как из независимости величин X и Y следует, что
f(x,y) = fX(x) · fY(y)
и поэтому (3.3.1) и (3.3.2) принимают вид
∞
g(z) = ∫ f X ( x ) fY ( z − x )dx ,
(3.3.3)
−∞
∞
g(z) =
∫f
X
( z − y ) fY ( y )dy .
(3.3.4)
−∞
Формулы (3.3.3) и (3.3.4) для композиции законов распределения удобны только тогда, когда законы распределения fX(x) и
fY(y) заданы одной формулой на всем диапазоне значений аргумента (от –∞ до ∞). Если оба закона заданы на различных участках различными уравнениями, то удобнее пользоваться непосредственно общим методом, изложенным в § 3.2, т. е. вычислить
функцию распределения G(z) величины Z = X + Y и продифференцировать эту функцию.
Вопросы для самопроверки
1. Как находится закон распределения монотонной функции
одного случайного аргумента?
2. Как находится закон распределения немонотонной функции одного случайного аргумента?
3. Как определяется закон распределения функции нескольких случайных аргументов?
4. Что значит, произвести композицию двух законов распределения?
Задачи к главе 3
1. Дана плотность распределения f(x) случайной величины Х
(0<x<∞). Найти плотность распределения случайной величины
Y = lnX.
2. Случайная величина Х распределена равномерно на (1,2).
Найти плотность распределения случайной величины Y = e-X.
98
В. Н. Докин, Т. Г. Тюрнева
3. Случайная величина Х имеет нормальное распределение с
параметрами mx = 0 и σх = 1. Найти плотность распределения случайной величины Y = Х2.
4. Случайные величины Х и Y независимы и имеют равномерное распределение на отрезке [0,а]. Найти плотности распределения случайных величин а) Z1 = X – Y, б) Z2 = X · Y.
5. Случайные величины Х и Y независимы и имеют показательное распределение с плотностью е-х (х≥0). Найти плотность
распределения величины Z = X + Y.
6. Найти плотность распределения суммы Х+Y, если Х и Y
независимы, Х имеет равномерное распределение в отрезке [0,1], а
Y – равномерное распределение в отрезке [0,2].
Теория вероятностей и математическая статистика
99
Глава 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ
ВЕРОЯТНОСТЕЙ
Теория вероятностей изучает закономерности, свойственные
массовым случайным явлениям. Предельные теоремы теории вероятностей устанавливают зависимость между случайностью и
необходимостью. Изучение закономерностей, проявляющихся в
массовых случайных явлениях, позволяют научно предсказывать
результаты будущих испытаний. При достаточно большом числе
испытаний характеристики случайных событий и случайных величин, наблюдаемых при испытании, становятся почти неслучайными. Так, например, частота события при большом числе испытаний становится устойчива, то же самое относится к средним
значениям случайных величин.
Группа теорем, устанавливающих соответствие между теоретическими и экспериментальными характеристиками случайных
событий и случайных величин при большом числе испытаний над
ними, а также касающихся предельных законов распределения,
объединяются под общим названием предельных теорем теории
вероятностей.
В настоящей главе мы познакомимся с двумя типами предельных теорем: законом больших чисел и центральной предельной теоремой.
Закон больших чисел состоит из нескольких теорем, в которых доказывается приближение средних характеристик при соблюдении определенных условий к некоторым постоянным значениям. При доказательстве теорем, относящихся к группе «закона больших чисел», мы воспользуемся неравенством Чебышева.
§ 4.1. Неравенство Чебышева
Теорема. Для любого положительного числа ε и случайной
величины Х справедливо неравенство
В. Н. Докин, Т. Г. Тюрнева
100
Р( X − MX ≥ ε) ≤
DX
ε
2
.
(4.1.1)
Доказательство: проведем отдельно для непрерывной случайной величины и для дискретной (мы ограничимся случаем конечного множества значений случайной величины).
Пусть непрерывная случайная величина Х имеет плотность
распределения f(x). Тогда
∞
∫
DX = ( x − MX )2 f ( x )dx ≥
∫ ( xε − MX )
2
f ( x )dx . (4.1.2)
x − MX ≥
−∞
Заменяя X − MX под знаком интеграла (4.1.2) через ε, мы
можем только уменьшить величину интеграла. Следовательно,
DX ≥
∫ ε ε f ( x )dx = ε
2
x − MX ≥
2
∫ f ( x )dx = ε Р( X − MX ≥ε).
2
x − MX ≥ ε
Отсюда непосредственно следует неравенство Чебышева
(4.1.1).
Пусть теперь случайная величина Х дискретная с рядом распределения
хk
рk
x1
р1
x2
р2
…
…
xn
рn
Тогда
n
DX =
∑( x
k =1
k
− MX )2 pk .
(4.1.3)
Очевидно, все слагаемые этой суммы не отрицательны. Отбросим те слагаемые, у которых X − MX < ε, вследствие чего
сумма (4.1.3) может только уменьшиться, т. е.
DX ≥
∑ ( εx
x k − MX ≥
k
− MX )2 pk ,
(4.1.4)
Теория вероятностей и математическая статистика
101
где запись xk − MX ≥ ε под знаком суммы означает, что суммирование распространяется только на те значения k, для которых xk
отклоняется от МХ на величину не меньшую, чем ε.
Заменим под знаком суммы (4.1.4) выражение xk − MX через ε. Так как для всех членов суммы имеем xk − MX ≥ ε, то от
такой замены сумма может только уменьшиться, значит
DX ≥
∑ εε p
2
x k − MX ≥
k
= ε2
∑
x k − MX ≥ ε
pk = ε2Р( X − MX ≥ε)
откуда непосредственно вытекает доказываемое неравенство
(4.1.1).
Если в (4.1.1) перейти к вероятности противоположного события, то неравенство Чебышева можно записать в другой форме
Р( X − MX <ε) > 1 –
DX
ε2
.
(4.1.5)
§ 4.2. Закон больших чисел: теорема Маркова
и ее следствия
Теорема Маркова. Если последовательность случайных величин Х1, Х2, …, Хn, … такова, что при n→∞
⎞
1 ⎛ n
D
X
⎜
∑ k ⎟ → 0,
n 2 ⎝ k =1 ⎠
(4.2.1)
то, каково бы ни было положительное постоянное ε,
⎛1 n
⎞
1 n
lim Р ⎜⎜ ∑ X k − ∑ MX k < ε ⎟⎟ = 1 .
n →∞
n k =1
⎝ n k =1
⎠
Доказательство. Рассмотрим случайную величину
1 n
Yn = ∑ X k .
n k =1
Найдем числовые характеристики случайной величины Yn.
Пользуясь свойствами математического ожидания, получим
В. Н. Докин, Т. Г. Тюрнева
102
⎞ 1 n
⎛1 n
MYn = M ⎜ ∑ X k ⎟ = ∑ MX k .
⎝ n k =1 ⎠ n k =1
Вычисляя дисперсию случайной величины Yn, найдем
1 ⎛ n
⎞
⎛1 n
⎞
DYn = D ⎜ ∑ X k ⎟ = 2 D⎜ ∑ X k ⎟ .
⎝ n k =1 ⎠ n ⎝ k =1 ⎠
Применим теперь к случайной величине Yn неравенство Чебышева в форме (4.1.5)
Р( Yn − MYn <ε) > 1 –
DY n
ε
2
.
Подставляя в это неравенство выражения для случайной величины Yn и ее числовых характеристик, получим
n
⎛1 n
⎞
1 n
1
⎛
⎜
⎟
Р ⎜ ∑ X k − ∑ MX k < ε ⎟ > 1 – 2 2 D⎜ ∑ X k ⎞⎟ .
⎝ k =1 ⎠
n k =1
nε
⎝ n k =1
⎠
(4.2.2)
Каково бы ни было малое число ε>0, при увеличении числа n
1
n
⎛
величина 1 – 2 2 D⎜ ∑ X k ⎞⎟ , в силу (4.2.1) стремится к единице.
⎝ k =1 ⎠
nε
Поэтому, переходя в неравенстве (4.2.2) к пределу и учитывая, что
вероятность не может быть больше единицы, получим
⎛1 n
⎞
1 n
lim Р ⎜⎜ ∑ X k − ∑ MX k < ε ⎟⎟ = 1.
n →∞
n k =1
⎝ n k =1
⎠
Теорема доказана.
Следствие 1 (теорема Чебышева). Если Х1, Х2, …, Хn, … –
последовательность попарно некоррелированных случайных величин, имеющих конечные дисперсии, ограниченные одной и той
же постоянной
DX1 ≤ C, DX2 ≤ C, …, DXn ≤ C, …
то, каково бы ни было постоянное ε>0,
Теория вероятностей и математическая статистика
103
⎛1 n
⎞
1 n
⎜
⎟⎟ = 1.
Р
X
MX
ε
−
<
lim ⎜ ∑ k
∑
k
n →∞
n k =1
⎝ n k =1
⎠
Доказательство. В условиях теоремы
1
1 ⎛ n
⎞
0 ≤ 2 D⎜ ∑ X k ⎟ = 2
n ⎝ k =1 ⎠ n
n
C
1 n
DX
≤
C
=
.
∑
k
2 ∑
n
n
k =1
k =1
Переходя в этом неравенстве к пределу при n→∞, получаем
1 ⎛ n
⎞
D
X
⎜
⎟ → 0. А это означает, что теорема Чебышева явля∑
k
2
n ⎝ k =1 ⎠
ется частным случаем теоремы Маркова.
Следствие 2 (теорема Пуассона). Если в последовательности независимых испытаний вероятность появления события А в
k-м испытании равна рk, то
⎛m 1 n
⎞
lim Р ⎜⎜ − ∑ p k < ε ⎟⎟ = 1,
n →∞
⎝ n n k =1
⎠
где через m обозначено число появлений события А в первых n
испытаниях.
Доказательство. Вводя в рассмотрение случайные величины
Хk, равные числу появлений события А в k-м испытании, и заметив, что
МХk = pk, DXk = pk(1 – pk) ≤
1
.
4
Убеждаемся, что теорема Пуассона является частным случаем теоремы Чебышева.
Следствие 3 (теорема Бернулли). Пусть m – число наступлений события А в n независимых испытаниях и р есть вероятность наступления события А в каждом из испытаний. Тогда, каково бы ни было ε>0
⎛m
⎞
lim Р ⎜⎜ − p < ε ⎟⎟ = 1.
n →∞
⎝ n
⎠
В. Н. Докин, Т. Г. Тюрнева
104
Доказательство непосредственно следует из теоремы Пуассона, если в последней положить pk = p.
Сопоставляя между собой рассмотренные в этом параграфе
теоремы, нетрудно заметить между ними большое сходство. Если
воспользоваться широко применяемым в теории вероятности понятием сходимости по вероятности*, то можно сказать, что разнообразные формы закона больших чисел, как бы они ни были различны, утверждают одно: факт сходимости по вероятности тех
или иных случайных величин к определенным постоянным.
§ 4.3. Понятие о центральной предельной теореме
Ни в одной из форм закона больших чисел мы не имели дела
с законами распределений случайных величин. Предельные законы распределений составляют предмет другой группы теорем –
центральной предельной теоремы.
Определение. Пусть X1, X2, …, Xn, … – какая-либо последовательность независимых случайных величин, Sn – сумма первых n
из них
Sn = X1+ X2+… +Xn,
2
аn и Bn – соответственно математическое ожидание
аn = МSn = МX1 + МX2 + … + МXn
и дисперсия
Bn2 = DSn = DX1 + DX2 + … + DXn
суммы Sn.
Говорят, что к исходной последовательности применима
центральная предельная теорема, если для любых действительных
чисел α и β, α<β
⎛
⎞
S n − an
1
⎜
⎟⎟ =
Р
α
β
≤
<
lim ⎜
n→∞
Bn
2π
⎝
⎠
*
β
∫α e
−
x2
2
dx .
(4.3.1)
Говорят, что последовательность случайных величин X1, X2, …, Xn, …
сходится по вероятности к величине А, если для любого ε>0
lim Р( X n − A <ε) = 1.
n →∞
Теория вероятностей и математическая статистика
105
Как следует из определения, все формы центральной предельной теоремы посвящены установлению условий, при которых
возникает нормальный закон распределения, т. е. при которых
выполняется соотношение (4.3.1).
Наиболее общие достаточные условия центральной предельной теоремы были указаны П. Л. Чебышевым (1887), но в его доказательстве обнаружились пробелы, восполненные позже
А. А. Марковым (1898). Решение вопроса, близкое к окончательному, было получено А. М. Ляпуновым (1901). Окончательное
решение вопроса об условиях приложимости центральной предельной теоремы получено в основных чертах С. Н. Бернштейном
(1926) и дополнено У. Феллером (1935).
§ 4.4. Характеристические функции
Для доказательства одной из наиболее общих форм центральной предельной теоремы А. М. Ляпунов создал специальный
метод характеристических функций. Прежде чем приводить предельные теоремы, сообщим здесь необходимые сведения о характеристических функциях.
Пусть имеется вещественная случайная величина Х. Образуем комплексную случайную величину U, функционально связанную с величиной Х по следующему закону:
U = eitX,
где i = − 1 , а аргумент t принимает вещественные значения на
интервале (–∞,∞).
Определение. Характеристической функцией g(t) случайной величины Х называется математическое ожидание комплексной случайной величины U = eitX, т. е.
g(t) = MeitX.
Зная закон распределения случайной величины Х, можно
найти ее характеристическую функцию.
Для дискретной случайной величины с законом распределения
Р(Х=хk) = рk, k = 1, 2, …, n
характеристическая функция
В. Н. Докин, Т. Г. Тюрнева
106
n
g(t) =
∑
к=1
eitxk pk .
Для непрерывной случайной величины Х с плотностью распределения f(x) характеристическая функция
+∞
∫
g(t) = eitx f ( x )dx .
(4.4.1)
−∞
Как видно из формулы (4.4.1) характеристическая функция
g(t) является преобразованием Фурье соответствующей ей плотности вероятности f(x). Из теории преобразований Фурье известно,
что функция f(x), или в данном случае плотность распределения,
может быть определена путем обратного преобразования Фурье:
+∞
1
f(x) =
2π
∫e
−itx
−∞
g ( t )dt .
(4.4.2)
Формула (4.4.2) позволяет сделать вывод о том, что плотность распределения случайной величины однозначно определяется ее характеристической функцией.
Пример 1. Случайная величина Х распределена по нормальному закону с математическим ожиданием a и дисперсией σ2.
Найти ее характеристическую функцию.
Решение. Плотность распределения величины Х имеет вид:
f(x) =
1
e
σ 2π
−
( x − a )2
2σ x2
.
(4.4.3)
По формуле (4.4.1) имеем
g(t) =
1
∫ e
σ 2π − ∞
+∞
Подстановкой
z=
g(t) приводится к виду
x−a
σ
itx −
( x − a )2
2σ 2
– itσ
dx .
Теория вероятностей и математическая статистика
g(t) = e
iat −
σ 2t 2
+∞ − itσ
1
2π
2
∫ σe
−
z2
2
107
dz .
− ∞ − it
Известно, что при любом вещественном α
+∞ − iα
∫ αe
−
z2
2
2π ,
dz =
− ∞ −i
следовательно,
iat −
σ 2t 2
2
.
g(t) = e
В частности, если в нормальном распределении (4.4.3) а = 0,
σ = 1, то
g(t) = e
−
t2
2
.
Отметим основные свойства характеристических функций.
Свойство 1. Характеристическая функция однозначно определяет распределение вероятностей случайной величины. Другими словами, если две случайные величины имеют также и одинаковые характеристические функции, то они имеют также и
одинаковые распределения вероятностей.
Свойство 2. Если характеристическая функция g(t) непрерывной случайной величины Х является пределом последовательности характеристических функций gn(t) каких угодно случайных
величин Хn (n = 1, 2, …), то функция распределения F(x) = Р(Х<х)
является пределом последовательности функций распределения
Fn(x) = Р(Хn<х); таким образом, из сходимости lim gn(t) = g(t)
n →∞
следует сходимость lim Fn(x) = F(x) для всех х. (Более общие
n →∞
теоремы этого рода см. в [3].)
Свойства 1–2 мы примем без доказательства.
Свойство 3. Характеристическая функция суммы независимых случайных величин равна произведению характеристических
функций слагаемых.
Доказательство. Пусть Х1, Х2, …, Хn – независимые случайные
величины, имеющие соответственно характеристические функции
g1(t), g2(t), …, gn(t).
Найдем характеристическую функцию случайной величины
В. Н. Докин, Т. Г. Тюрнева
108
n
Y=
∑X
k =1
k
.
Имеем
it ( X + X + ...+ X n )
itX
gY(t) = M eitY = M e 1 2
= M eitX 1 ⋅ eitX 2 ⋅ ... ⋅ e n .
Так как случайные величины Хk (k = 1, 2, …) независимы, то
itX
независимы и их функции e k . По теореме умножения математических ожиданий (п. 2.12.4) получим
(
gY(t) = (M e
itX 1
)·(М e
itX 2
)·…·(М e
itX n
)
) = g1(t)· g2(t)·…·gn(t).
Свойство 4. При линейном преобразовании случайной величины, т. е. при переходе от случайной величины Х к величине
Y = AX+B, характеристическая функция преобразуется по формуле
gY(t) = eiBt ⋅ gХ(Аt).
Эта формула проверяется непосредственно:
M eitY = M eit ( AX + B ) = eiBt ⋅ М eiAtX = eiBt ⋅ gХ(Аt).
§ 4.5. Центральная предельная теорема для одинаково
распределенных случайных величин
Как отмечалось в § 4.2 различные формы центральной предельной теоремы отличаются между собой условиями, накладываемыми на распределения образующих сумму случайных слагаемых. Здесь мы сформулируем и докажем одну из самых простых форм центральной предельной теоремы, относящуюся у случаю одинаково распределенных слагаемых.
Теорема. Если случайные величины Х1, Х2, …, Хn, … независимы, одинаково распределены и имеют конечные математические ожидания МХn = a и дисперсии DXn = σ2 > 0, то
1
⎛ X 1 + X 2 + ... + X n − na
⎞
Р
=
<
x
⎜
⎟
lim
n →∞ ⎝
2π
σ n
⎠
x
∫e
−∞
−
t2
2
dt .
(4.5.1)
Теория вероятностей и математическая статистика
109
Доказательство. Проведем доказательство для случая непрерывных случайных величин Х1, Х2, …, Хn, … (для дискретных
оно будет аналогичным).
Обозначим
Sn = Х1 + Х2 + … + Хn, Zn =
S n − na
.
σ n
Введем в рассмотрение последовательность новых случайных величин Y1, Y2, …, Yn, …, каждая из которых связана с соответствующей случайной величиной исходной последовательности
Х1, Х2, …, Хn, … по формуле
Yk = Xk – a.
Так как случайные величины Х1, Х2, …, Хn, … одинаково распределены, то и случайные величины Y1, Y2, …, Yn, … тоже будут
одинаково распределенными, причем MYk = 0, DYk = σ2.
Нетрудно заметить, что случайная величина Zn может быть
представлена в виде
Zn =
Y1 + Y2 + ... + Yn
.
σ n
Пусть
∞
gу(t) = M e
itYk
=
itx
e
∫ f y ( x )dx .
(4.5.2)
−∞
– характеристическая функция случайной величины Yk. Здесь через fу(x) обозначена плотность распределения случайной величины Yk, k = 1, 2, …
Согласно свойствам 3 и 4 характеристической функции
(§ 4.4)
n
⎡ ⎛ t ⎞⎤
g Z n ( t ) = M eitZ n = ⎢ g y ⎜
⎟⎥ .
⎣ ⎝ σ n ⎠⎦
(4.5.3)
Исследуем более подробно функцию gу(t). Представим ее в
окрестности точки t = 0 по формуле Маклорена с тремя членами
⎡ g ′y′( 0 )
⎤
gу(t) = gу(0) + g'у(0) + ⎢
+ o( t )⎥ , (t→0).
⎣ 2!
⎦
(4.5.4)
В. Н. Докин, Т. Г. Тюрнева
110
Найдем величины gу(0), g'у(0), g''у(0). Полагая в формуле
(4.5.2) t = 0, имеем
∞
∫ f ( x )dx = 1.
gу(0) =
y
−∞
Продифференцируем (4.5.2) по t:
∞
g'у(t) =
∫ ixe
−∞
∞
itx
f y ( x )dx = i ∫ xeitx f y ( x )dx .
(4.5.5)
−∞
Полагая здесь t = 0, получим
∞
g'у(0) = i
∫ xf ( x )dx = iMY
k
y
= 0.
−∞
Продифференцируем (4.5.5) еще раз по t:
∞
g''у(t) = –
2 itx
x
∫ e f y ( x )dx .
−∞
Отсюда
∞
g''у(0) = –
∫x
2
f y ( x )dx = –σ2.
−∞
чим
Подставляя gу(0) = 1, g'у(0) = 0 и g''у(0) = –σ2 в (4.5.4), полу-
⎡σ 2
⎤
gу(0) = 1 – ⎢
+ o( t )⎥t 2 , (t→0).
⎣ 2
⎦
(4.5.6)
Из формул (4.5.3) и (4.5.6) получаем
1
⎧⎪ ⎡σ 2
−
g Z n ( t ) = ⎨1 − ⎢ + o( n 2
⎪⎩ ⎣ 2
n
⎤ t 2 ⎫⎪
)⎥
=
2⎬
n
σ
⎪⎭
⎦
3
−
⎡ t2
⎤
= ⎢1 −
+ o( n 2 )⎥ , (n→∞)
⎣ 2n
⎦
(4.5.7)
Прологарифмируем выражение (4.5.7)
3
−
⎡ t2
ln g Z n ( t ) = n ⋅ ln ⎢1 −
+ o( n 2
⎣ 2n
⎤
)⎥ ,
⎦
(4.5.8)
Теория вероятностей и математическая статистика
111
Представим функцию ln(1–æ) в окрестности точки æ = 0 по
формуле Маклорена с одним членом:
ln(1–æ) = –æ + ο (æ), (æ→0).
Применяя это соотношение к логарифму, стоящему в правой
части выражения (4.5.8), получим
1
−
t2
ln g Z n ( t ) = − + o( n 2 ) , (n→∞).
2
Отсюда следует, что
t2
lim ln g Z n ( t ) = − ,
n→∞
2
откуда
lim g Z n ( t ) = e
−
t2
2
n →∞
.
А это есть не что иное, как характеристическая функция
нормального закона распределения с математическим ожиданием
равным нулю и дисперсией равной единице.
Таким образом, доказано, что при увеличении n характеристическая функция случайной величины Zn неограниченно приближается к характеристической функции нормального закона;
отсюда заключаем, что и закон распределения величины Zn неограниченно приближается к нормальному закону. Теорема доказана.
Мы доказали центральную предельную теорему для частного, но важного случая одинаково распределенных слагаемых. Однако в достаточно широком классе условий она справедлива и для
неодинаково распределенных слагаемых. Например, А. М. Ляпунов доказал, что к последовательности независимых случайных
величин Х1, Х2, …, Хn, … применима центральная предельная теорема, если
∑M (X
n
lim
n →∞
k =1
k
− MX k
⎛
⎞
⎜ ∑ DX k ⎟
⎝ k =1
⎠
n
3
3
)
= 0.
2
В. Н. Докин, Т. Г. Тюрнева
112
§ 4.6. Центральная предельная теорема МуавраЛапласа
Если считать, что случайные величины Х1, Х2, …, Хn, …, фигурирующие в центральной предельной теореме для одинаково
распределенных величин, одинаково распределены, дискретны и
принимают только два возможных значения 0 или 1, то мы придем к теореме Муавра-Лапласа.
Теорема Муавра-Лапласа. Если производится n независимых испытаний, в каждом из которых событие А появляется с вероятностью р (0<p<1), то
⎛ S n − np
⎞
⎜
⎟ =
<
P
x
lim ⎜
⎟
n→∞
⎝ npq
⎠
1
2π
x
∫e
−
t2
2
dt ,
(4.6.1)
−∞
где Sn – число появлений события А в n испытаниях, q = 1 – p.
Доказательство. Пусть производится n независимых испытаний, в каждом из которых может появиться событие А с вероятностью р.
Обозначим Хk случайную величину, выражающую число появлений события А в k-м испытании. Тогда случайную величину
Sn можно представить в виде суммы
n
Sn =
∑X
k =1
k
.
Очевидно, что каждая из величин Xk, k = 1, 2, …, n имеет распределение вида
0
q
xi
pi
1
p
Нетрудно показать, что
MXk = p, DXk = pq.
Следовательно, случайная величина Sn является суммой независимых случайных величин Xk, имеющих один и тот же закон
распределения с математическим ожиданием р и дисперсией pq. В
таком случае, на основании центральной предельной теоремы для
Теория вероятностей и математическая статистика
113
одинаково распределенных случайных величин, имеет место соотношение (4.6.1)
⎛ S n − np
⎞
⎜
< x ⎟⎟ =
lim P⎜
n →∞
⎝ npq
⎠
x
1
2π
∫e
−
t2
2
dt .
−∞
Теорема доказана.
Замечание 1. Правая часть соотношения (4.6.1) может быть
преобразована к следующему виду
1
2π
x
∫e
−∞
−
t2
2
1
dt =
2π
0
∫e
−∞
−
t2
2
1
dt +
2π
x
∫e
−
t2
2
dt =
0
1
+ Ф0(х), (4.6.2)
2
где Ф0(х) – нормированная функция Лапласа, определенная в
§ 2.15.
Следовательно, утверждение теоремы Муавра-Лапласа (4.6.1)
можно представить в виде
⎛ S n − np
⎞ 1
⎜
< x ⎟⎟ = + Ф0(х).
lim P⎜
n →∞
⎝ npq
⎠ 2
(4.6.3)
Замечание 2. Теорема Муавра-Лапласа описывает поведение
биномиального распределения при больших n. Это обстоятельство
позволяет существенно упростить вычисления, связанные с биномиальным распределением при больших n. В самом деле, подсчет
вероятности попадания случайной величины Sn в полуинтервал
[α, β) по точной формуле
Р(α≤ Sn<β) =
C
∑
α
β
≤k ≤
k
n
pk qn−k
связан при больших n с громоздкими вычислениями. В этом случае значительно проще воспользоваться формулой (4.6.3):
⎛ α − np Sn − np β − np ⎞
⎟ =
Р(α≤Sn<β) = P⎜
≤
<
⎜ npq
npq
npq ⎟⎠
⎝
В. Н. Докин, Т. Г. Тюрнева
114
⎛ S n − np β − np ⎞
⎛ S n − np α − np ⎞
⎜
⎟
⎟ ≈
<
<
= P
– P⎜
⎜ npq
⎜
⎟
npq ⎠
npq ⎟⎠
⎝
⎝ npq
⎡
1
⎞⎤
⎛
≈
+ Ф0 ⎛⎜ β − np ⎞⎟ – ⎢ 1 + Ф0 ⎜ α − np ⎟⎥ =
⎜ npq ⎟
⎜
2
npq ⎟⎠
⎢⎣ 2
⎠⎥⎦
⎝
⎝
⎛
⎞
⎞
⎛
= Ф0 ⎜ β − np ⎟ – Ф0 ⎜ α − np ⎟ .
⎜ npq ⎟
⎜
npq ⎟⎠
⎝
⎠
⎝
(4.6.4)
Напомним, что таблица значений функции Ф0(х) приведена в
Приложении 1.
Пример. Найти вероятность того, что из 1000 новорожденных окажется от 455 до 545 мальчиков, если вероятность рождения мальчика равна 0,515.
Решение. В этой задаче n = 1000, p = 0,515, q = 1–p = 0,485,
α = 455, β = 545. Следовательно, np = 515, npq = 249,775.
Используя формулу (4.6.4), находим
⎛ 545 − 515 ⎞
⎛ 455 − 515 ⎞
⎟ – Ф0 ⎜
⎟=
⎜ 249,775 ⎟
⎜ 249,775 ⎟
⎝
⎠
⎝
⎠
Р(455≤Sn<545) ≈ Ф0 ⎜
= Ф0(1,898) – Ф0(–3,797).
Учитывая нечетность функции Ф0(х), имеем
Р(455≤Sn<545) = Ф0(1,898) + Ф0(3,797).
По таблице Приложения 1 находим значения функции Ф0(х)
при х1 = 1,898 и х2 = 3,797
Ф0(1,898) = 0,471, Ф0(3,797) = 0,5
и окончательно получаем
Р(455≤Sn<545) ≈ 0,471 + 0,5 = 0,971.
Вопросы для самопроверки
1. В чем заключается сущность закона больших чисел?
2. Как записывается неравенство Чебышева?
Теория вероятностей и математическая статистика
115
3. Какая функция называется характеристической функцией
случайной величины?
4. В чем заключается сущность теоремы Муавра-Лапласа?
5. Приведите примеры задач, при которых применяется теорема Муавра-Лапласа.
Задачи к главе 4
1. Вероятность появления события в каждом испытании равна 0,3. Используя неравенство Чебышева, оценить вероятность
того, что число появлений события заключено в пределах от 190
до 230, если будет произведено 700 испытаний.
2. Суточная потребность электроэнергии в населенном пункте является случайной величиной, математическое ожидание которой равно 3000 кВт/ч, а дисперсия составляет 2500(кВт/ч)2.
Оценить вероятность того, что в ближайшие сутки расход электроэнергии в этом населенном пункте будет от 2500 кВт/ч до 3500
кВт/ч.
3. Пусть случайная величина Х имеет нормальное распределение с математическим ожиданием mx и дисперсией σ x2 . Оце-
(
)
нить по неравенству Чебышева P X − mx > 2σ x .
Сравнить с точным значением этой вероятности.
4. Применим ли закон больших чисел к последовательности
независимых
случайных
величин
Х1, Х2, …, Хn, …,
если
Р(Хk =
k ) = Р(Хk = – k ) =
1
2 k
, Р(Хk = 0) = 1 –
1
?
k
5. Применим ли закон больших чисел к последовательности
независимых
случайных
величин
Х1, Х2, …, Хn, …,
если
Р(Хk = –kα) = Р(Хk = kα) =
1
1
,
Р(Х
=
0)
=
1
–
(α – постоянk
2k 2
k2
ная величина)?
6. Найти характеристическую функцию случайной величины
распределенной по закону Пуассона с параметром λ.
7. Вероятность опоздания пассажира на поезд равна 0,007.
Найти вероятность того, что из 20 тыс. пассажиров окажется от
100 до 160 опоздавших.
116
В. Н. Докин, Т. Г. Тюрнева
8. Случайная величина Yn равна сумма очков, выпавших при
n независимых бросаниях симметричной игральной кости. Используя центральную предельную теорему, выбрать n так, чтобы
⎛Y
⎞
P⎜⎜ n − 3,5 ≥ 0,1⎟⎟ ≤ 0 ,1 .
⎝ n
⎠
9. В предположении, что размер одного шага пешехода равномерно распределен в интервале от 70 см до 80 см и размеры
разных шагов независимы, найти вероятность того, что за 10 000
шагов он пройдет расстояние не менее 7,49 км и не более 7,51 км.
Теория вероятностей и математическая статистика
117
Глава 5. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ
СТАТИСТИКИ
Математическая статистика – наука, занимающаяся разработкой методов получения, описания и обработки опытных
данных с целью изучения закономерностей случайных массовых
явлений.
Типичными задачами математической статистики, которые
наиболее важны для нас по своим практическим применениям,
являются следующие.
1. Оценка на основании результатов измерений неизвестной функции распределения. Задача ставится так: в результате
независимых измерений (испытаний, опытов) над случайной величиной Х получены следующие ее значения: х1, х2, …, хn. Требуется приближенно оценить неизвестную функцию распределения
F(x) случайной величины Х.
2. Оценка неизвестных параметров распределения. Задача
ставится так: случайная величина Х имеет функцию распределения определенного вида, зависящую от k параметров, значения
которых неизвестны. Требуется на основании опытных данных
оценить значения этих параметров.
3. Статистическая проверка гипотез. Одна из основных
задач статистической проверки гипотез ставится так: на основании некоторых соображений можно считать, что функция распределения исследуемой случайной величины Х есть F(x). Спрашивается: совместимы ли наблюденные значения с гипотезой, что случайная величина Х действительно имеет распределение F(x).
§ 5.1. Генеральная совокупность и выборка
Пусть требуется исследовать какой-нибудь признак, свойственный большой группе однотипных изделий. Совокупность значений признака всех N изделий данного типа называется генеральной совокупностью. При этом предполагается, что число N в
В. Н. Докин, Т. Г. Тюрнева
118
генеральной совокупности весьма велико (но конечно). В некоторых случаях количество значений, образующих генеральную совокупность, можно мыслить и бесконечным. Но понятие бесконечной генеральной совокупности – математическая абстракция,
как и представление о том, что измерить случайную величину
можно бесконечное число раз. Приближено бесконечную генеральную совокупность можно истолковать как предельный случай
конечной генеральной совокупности.
На практике, однако, сплошное обследование применяется
сравнительно редко. Например, если совокупность содержит
очень большое число изделий, то провести сплошное обследование физически невозможно. Тем более, если обследование изделий связано с их уничтожением (например, проверка электронного оборудования на продолжительность работы) или требует
больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно
отбирают из всей совокупности ограниченное число объектов (изделий) и подвергают их изучению.
Выборочной совокупностью, или просто выборкой называют
совокупность случайно отобранных объектов.
Число объектов в генеральной совокупности и в выборке называют их объемами.
Выборка из данной генеральной совокупности – это результаты ограниченного ряда наблюдений случайной величины. Выборку можно рассматривать как некий эмпирический аналог генеральной совокупности, поскольку, как отмечалось выше, обследование всей генеральной совокупности либо слишком трудоемко,
либо принципиально невозможно.
Для наглядности введенных определений воспользуемся следующей урновой схемой. Пусть имеется урна с карточками, на
которых нанесены числа Х1, Х2, …, Хn. Из урны случайно выбираются n карточек с числами х1, х2, …, хn.
Полученный набор чисел
(х1, х2, …, хn).
(5.1.1)
называется выборкой объема n из генеральной совокупности
(Х1, Х2, …, ХN).
объема N.
(5.1.2)
Теория вероятностей и математическая статистика
119
Выборка может осуществляться без возвращения, когда каждое подмножество xi1 , xi2 ,..., xin мощности n из всего множества
(
)
1
, и с возвращением, если
n
CN
каждый упорядоченный набор xi1 , xi2 ,..., xin , где могут быть по(5.1.2) появляется с вероятностью
(
вторения, появляется с вероятностью
)
1
. Нетрудно видеть, что в
n
N
случае выборки с повторением (возвращением) х1, х2, …, хn являются независимыми случайными величинами с законом распределения случайной величины Х, которая с одной и той же вероятностью
1
принимает каждое из значений (5.1.2), если все Хj разN
личны:
Р(Х=Хj) =
1
, j = 1, 2, …, N.
N
В этом случае говорят, что (5.1.1) есть независимая выборка
объема n. или независимая реализация объема n случайной величины Х.
Если объем выборки n велик (n >50) и при этом мы имеем
дело с одномерной непрерывной величиной (или с одномерной
дискретной, число возможных значений которой достаточно велико), то часто удобнее, с точки зрения упрощения дальнейшей
статистической обработки результатов наблюдений, перейти к так
называемым «группированным» выборочным данным. Этот переход осуществляется следующим образом:
а) отмечаются наименьшее xmin и наибольшее xmax значения в
выборке (4.1.1);
б) весь обследованный диапазон [xmin, xmax] разбивается на
определенное число k равных интервалов группирования; выбор
количества интервалов существенно зависит от объема выборки n,
для примерной ориентации в выборе k можно пользоваться приближенной формулой
k ≈ log2n + 1;
в) отмечаются крайние точки xmin= С0, С1, С2, …, Сk = xmax каждого из интервалов в порядке возрастания С0 < С1 < С2 < …< Сk;
В. Н. Докин, Т. Г. Тюрнева
120
г) подсчитываются числа выборочных данных, попавших в
каждый из интервалов: n1, n2, …, nk (очевидно, n1 + n2 + … + nk = n);
выборочные данные, попавшие на границы интервалов, либо равномерно распределяются по двум соседним интервалам, либо относятся только к какому-либо одному из них, например, к левому.
В зависимости от конкретного содержания задачи в данную
схему группирования могут быть внесены изменения (например, в
некоторых случаях целесообразно отказаться от требования равной длины интервалов группирования).
Сущность выборочного метода статистики состоит в том, что
по некоторой части генеральной совокупности (т. е. по выборке)
выносятся суждения о ее свойствах в целом.
§ 5.2. Эмпирические распределения и
их графические представления
Выборка (х1, х2, …, хn) имеющихся у нас наблюденных значений исследуемой случайной величины Х является той исходной
информацией, на основании которой строятся выводы о свойствах
изучаемой генеральной совокупности в целом и, в частности, составляется представление о функции и ряде распределения или
плотности анализируемого закона распределения вероятностей.
Упорядоченная по величине последовательность выборочных значений x1( n ) ≤ x2( n ) ≤ ... ≤ xn( n ) называется вариационным
рядом. Среди членов вариационного ряда могут быть совпадающие между собой значения. Если через n1, n2, …, nr обозначить
общее число повторений всех несовпадающих значений выборки,
то получим два ряда чисел:
хi
ni
x1
n1
x2
n2
…
…
xr
nr
r
,
∑n
i =1
i
= n . (5.2.1)
Первый ряд содержит различные выборочные значения, расположенные в порядке возрастания. Числа второго ряда показывают количество повторений каждого из этих значений в выборке
и называются частотами.
Теория вероятностей и математическая статистика
121
От ряда (5.2.1) при больших r можно перейти к интервальному вариационному ряду, следуя методике, изложенной в § 5.1.
Интервальный ряд записывается в виде
Ci – Ci+1
ni
C0 – C1
n1
C1 – C2
n2
…
…
Ck-1 – Ck
nk
r
,
∑n
i =1
i
= n . (5.2.2)
Величины Ci – Ci+1 носят название интервальных разностей.
От интервального ряда можно вновь перейти к точечному вариационному ряду, т. е. ряду вида (5.2.1), если в качестве значения случайной величины, соответствующего i-му интервалу, взять
его середину xi0 =
Ci + Ci −1
. Несмотря на видимую несхожесть,
2
ряды (5.2.1), (5.2.2) отражают одно и то же фактическое распределение.
С любой выборкой (5.1.1) можно связать так называемое эмпирическое, или выборочное, распределение, приписывая каждому значению xi вероятность
1
. Вариационный ряд в этом случае
n
будет содержать различные упорядоченные выборочные значения
xi, i = 1, 2, …, r и соответствующие им так называемые относительные частоты
n
wi = i ,
n
r
∑w
i =1
i
= 1.
Вариационный ряд, построенный по относительным частотам, является статистической аппроксимацией ряда распределения вероятностей случайной величины Х.
Пусть n(x) – число элементов выборки (х1, х2, …, хn) объема n,
меньших х. Статистической или эмпирической функцией распределения называется функция Fn(x) =
n( x )
.
n
Иначе статистическая функция распределения есть относительная частота события Х<х в серии из n независимых измерений
случайной величины Х. Согласно закону больших чисел (теорема
Бернулли) при неограниченном увеличении числа наблюдений n
относительная частота события Х<х сходится по вероятности к
122
В. Н. Докин, Т. Г. Тюрнева
вероятности этого события. Это значит, что статистическая функция распределения Fn(x) при увеличении n сходится по вероятности к подлинной функции распределения F(x) случайной величины Х.
Для наглядного представления вариационные ряды (интервальные и дискретные) изображают в виде графиков. Наиболее
распространенными способами представления эмпирических данных являются гистограмма, полигон частот или относительных
частот и полигон накопленных частот или кумулятивная кривая –
кумулята.
Гистограмма состоит из последовательности примыкающих
друг к другу прямоугольf (x)
ников (рис. 5.2.1). Ширина
этих прямоугольников равна ширине интервалов
группировки h = Ci – Ci-1,
i = 1, 2, …, k и откладывах
ется по оси абсцисс, а вы0
сота измеряется по оси орРис. 5.2.1
динат и пропорциональна
частоте ni или относительной частоте wi. В первом случае имеем
гистограмму частот с высотами прямоугольников, равными
ni
и
h
общей площадью, равной объему выборки n. Во втором случае –
гистограмму относительных частот с высотами прямоугольников
ni
и общей площадью, равной 1. Ступенчатая ломаная f ( x ) ,
nh
ограничивающая в этом случае сверху построенную фигуру, является статистической аппроксимацией функции плотности вероятности f(x) генеральной совокупности.
ni (wi)
Полигон частот или
относительных частот вариационного ряда (4.2.1)
представляет собой многоугольник с вершинами в
хi
точках (xi, ni) или (xi, wi)
0
(рис. 5.2.2).
Рис. 5.2.2
Теория вероятностей и математическая статистика
123
При изображении полигона частот или относительных частот
интервального вариационного ряда вершины многоугольника
расположены в точках с абсциссами, соответствующими срединным значениям интервалов xi0 .
Полигон накопленных частот (кумулята) получается изображением в прямоугольной системе координат вариационного ряда
с накопленными частотами. При построении кумуляты дискретного признака на ось абсцисс наносятся значения признака – элементы выборки xi. Ордиmi
натами служат вертиn
кальные отрезки – накопленные частоты mi = n1 +
n2 + … + ni (рис. 5.2.3).
Нетрудно заметить,
что накопленная частота
хi
крайнего
правого
0 х1 х2
хr
значения равна объему
Рис. 5.2.3
выборки n.
§ 5.3. Числовые характеристики эмпирических
распределений
Исчерпывающие сведения об интересующем нас законе распределения вероятностей исследуемой случайной величины Х дают вариационные ряды, их графические представления, а также
статистическая функция распределения. Однако нередко при
практическом изучении генеральной совокупности (случайной
величины Х) этого бывает недостаточно, и требуется охарактеризовать имеющуюся совокупность значений некоторыми количественными показателями. Характеристики положения и рассеяния
дают количественное представление об эмпирических данных и
помогают сравнить одну совокупность данных с другой.
Существует две группы мер, применяемых для описания характера расположения распределений: среднее (арифметическое,
геометрическое), медиана и мода.
Арифметическое (или выборочное) среднее x для несгруппированной выборки (х1, х2, …, хn) объема n определяется формулой
В. Н. Докин, Т. Г. Тюрнева
124
1 n
x = ∑ xi .
n i =1
В случае группированной выборки, представленной рядом
вида (5.2.1) выборочное среднее равно
1 r
x = ∑ ni xi .
n i =1
Выборочное среднее представляет собой значение, относительно которого может быть «сбалансировано» все эмпирическое
распределение; фактически это абсцисса центра масс гистограммы.
Среднее геометрическое х̃ подсчитывается по выборочным
данным по формуле
х̃ = n x1 ⋅ x2 ⋅ ... ⋅ xn ,
либо
х̃ =
n
x1n1 ⋅ x2n2 ⋅ ... ⋅ xnnr ,
если имеется ряд вида (5.2.1).
Геометрическое среднее находит применение при расчетах
темпов изменения величин и, в частности, в тех случаях, когда
имеют дело с величиной, изменения которой происходят приблизительно в прямо пропорциональной зависимости с достигнутыми
к этому моменту уровнем самой величины (например, численность населения).
Медиана Ме исследуемого признака (см. 2.12.5) определяется
как его средневероятное значение, т. е. такое значение, для которого
Р(Х>Ме) = Р(Х<Ме) = 0,5.
При определении выборочного (приближенного) значения
медианы хmed имеющиеся в нашем распоряжении наблюдения
(х1, х2, …, хn) располагают в вариационный ряд и определяют в
1
( n + 1 ) -й член этого ряда, если n не2
1
четно, и любое значение между средними, т. е. между n -м и
2
⎛1
⎞
⎜ n + 1⎟ -м членами этого ряда, если n четно.
⎝2
⎠
качестве хmed средний, т. е.
Теория вероятностей и математическая статистика
125
При исчислении медианы интервального вариационного ряда
вначале находят интервал, содержащий медиану, путем использования накопленных частот. Медианному интервалу соответствует
первая из накопленных частот, превышающая половину объема
выборки. Для нахождения медианы при постоянстве плотности
внутри интервала, содержащего медиану, используют следующую
формулу
xmed
n
− mmed −1
2
,
= xmed (min) + h
nmed
где xmed (min) – нижняя граница медианного интервала;
h – интервальная разность;
mmed-1 – накопленная частота интервала, предшествующего
медианному;
nmed – частота медианного интервала.
Медиана может быть определена и графически по кумуляте.
Для этого последнюю ординату, пропорциональную сумме всех
частот, делят пополам. Из полученной точки восстанавливают
перпендикуляр до пересечения с кумулятой. Абсцисса точки пересечения и даст значение медианы xmed .
Модальное значение (или просто мода) хmod есть такое значение исследуемого признака, которое чаще всего встречается в
данном вариационном ряду. Для дискретного (точечного) ряда
мода определяется по частотам и соответствует выборочному значению с наибольшей частотой. В случае интервального распределения с равными интервалами модальный интервал, т. е. интервал,
содержащий моду, определяется по наибольшей частоте, а при
неравных интервалах – по наибольшей плотности. Вычисление
моды производится по следующей формуле
xmod = xmod(min) + h
( nmod
nmod − nmod −1
,
− nmod −1 ) + ( nmod − nmod +1 )
где хmod(min) – нижняя граница модального интервала;
h – интервальная разность;
nmod – частота модального интервала;
nmod-1 – частота интервала, предшествующего модальному;
nmod+1– частота интервала, последующего за модальным.
В. Н. Докин, Т. Г. Тюрнева
126
В случае симметричной плотности выборочное среднее x ,
мода хmod и медиана хmed совпадают между собой, что не имеет
места для асимметричных распределений.
Одной из наиболее часто используемых характеристик рассеяния данных является выборочное среднее квадратическое
(стандартное) отклонение
σn =
1 n
( xi − x )2 ,
∑
n i =1
определяемое таким образом для несгруппированных данных.
Если данные сгруппированы, то
σn =
1 r
2
∑ ni ( xi − x ) .
n i =1
Квадрат этой величины σ n2 называется выборочной дисперсией и обозначается DВ(х). Выборочная дисперсия также может
использоваться для оценки разброса значений исследуемого признака.
Естественным обобщением выборочного среднего и выборочной дисперсии являются так называемые статистические
(выборочные) начальные δr и центральные µr моменты порядка r.
Эти моменты, вычисляемые по несгруппированной выборке
(х1, х2, …, хn), определяются следующим образом
1 n k
δk = ∑ xi ,
n k =1
1 n
µk = ∑ ( xi − x )k .
n k =1
В случае сгруппированной выборки, представленной рядом
вида (5.2.1), моменты δk и µk находятся по формулам:
1 n
δk = ∑ ni xik ,
n k =1
1 n
µk = ∑ ni ( xi − x )k .
n k =1
Статистические моменты δk и µk находят широкое применение при решении ряда задач математической статистики. В частности моменты δk и µk используются в методе моментов (см.
Теория вероятностей и математическая статистика
127
п. 5.4.4) при нахождении оценок неизвестных параметров распределений.
В том случае, когда исследуется система двух случайных величин (X,Y) и имеется двумерная выборка (xi, yi), i = 1, 2, …, n, для
оценки тесноты связи между X и Y, как будет показано в § 5.5, используются так называемые статистический (выборочный) корреляционный момент K *x , y и статистический (выборочный) коэффициент корреляции k *x , y , которые вычисляются по формулам
K
*
x,y
1 n
= ∑ ( xi − x )( yi − y ) ,
n k =1
K *x , y
k *x , y =
DB ( x ) DB ( y )
.
§ 5.4. Статистическое оценивание параметров
Методы описательной статистики, изложенные в § 5.1–5.2
используются для лаконичного и компактного описания информации, содержащейся в массиве необработанных данных. После
выбора и обоснования математической модели механизма изучаемого явления очередной становится задача статистического
оценивания неизвестных значений параметров, участвующих в
описании анализируемой модели.
5.4.1. Свойства точечных оценок
Рассмотрим следующую общую задачу. Имеется случайная
величина Х, закон распределения которой содержит неизвестный
параметр θ. Требуется на основании опытных данных найти подходящую оценку параметра θ.
Обозначим
(Х1, Х2, …, Хn)
(5.4.1)
наблюдаемые значения случайной величины Х в результате проведенных n независимых опытов. Пусть величина θ̃, вычисленная
на основании материала (5.4.1), является оценкой параметра θ.
Это значит, что θ̃ является функцией величин Х1, Х2, …, Хn:
В. Н. Докин, Т. Г. Тюрнева
128
θ̃ = θ̃(Х1, Х2, …, Хn).
(5.4.2)
Кроме того, наблюдаемые значения Х1, Х2, …, Хn следует рассматривать как случайные величины, каждая из которых распределена по тому же закону, что и случайная величина Х. Поэтому θ̃
является тоже случайной величиной, закон распределения которой зависит, во-первых, от закона распределения случайной величины Х, во-вторых, от числа опытов n. Вообще любая функция
вида (5.4.2) от выборки называется статистикой.
Статистика θ̃, используемая в качестве приближенного значения неизвестного параметра θ, называется статистической
оценкой. Оценка, полученная в виде одного числа – точки на числовой оси, называется точечной.
Для того чтобы статистическая оценка θ̃ имела практическую
ценность, она должна обладать следующими свойствами:
1. Несмещенность оценки. Различают оценки смещенные и
несмещенные. Смещенными называются оценки, математическое
ожидание которых не равно оцениваемому параметру:
Мθ̃̃(Х1, Х2, …, Хn) ≠ θ.
Несмещенными называют оценки, для которых выполняется
условие
Мθ̃̃(Х1, Х2, …, Хn) = θ.
Естественно, в качестве приближенного значения неизвестного параметра брать несмещенные оценки, для того, чтобы не
делать систематической ошибки в сторону завышения или занижения.
2. Состоятельность оценки. Оценка θ̃̃(Х1, Х2, …, Хn) для параметра θ называется состоятельной, если она сходится по вероятности к оцениваемому параметру при неограниченном возрастании числа опытов n, т. е., если для любого ε>0
~
lim Р ( θ ( X 1 , X 2 ,..., X n ) − θ < ε = 1.
n→∞
(5.4.3)
Для удовлетворения требования (5.4.3) достаточно, чтобы
дисперсия оценки стремилась к нулю при n→∞, т. е., чтобы выполнялось условие
Теория вероятностей и математическая статистика
lim Dθ̃̃(Х1, Х2, …, Хn) = 0
n→∞
129
(5.4.4)
и, кроме того, чтобы оценка была несмещенной. От формулы
(5.4.3) легко перейти к выражению (5.4.4), если воспользоваться
неравенством Чебышева.
Итак, состоятельность оценки означает, что при достаточно
большом количестве опытов n со сколь угодно большой достоверностью отклонение оценки от истинного значения параметра
меньше любой наперед заданной величины.
Очевидно, такому требованию должна удовлетворять всякая
оценка, пригодная для практического использования.
3. Эффективность оценки. Оценка θ̃ параметра θ называется эффективной, если она среди прочих оценок того же самого
параметра обладает наименьшей мерой случайного разброса относительно истинного значения оцениваемого параметра, т. е.,
если
~
)
D θ (Х1, Х2, …, Хn) = D θ (Х1, Х2, …, Хn) = Dmin.
Эффективность является решающим свойством, определяющим качество оценки, и оно, вообще говоря, не предполагает соблюдения свойства несмещенности.
При выборке практических методов обработки опытных данных с целью получения оценок, принимаемых в качестве приближенных значений искомых параметров, необходимо руководствоваться сформулированными свойствами оценок.
5.4.2. Определение приближенного значения измеряемой
величины и приближенного значения дисперсии в случае
прямых равноточных измерений
Определить приближенное значение измеряемой величины Х
– это значит, произвести оценку математического ожидания величины Х. При этом, если измеряемая величина постоянна, то оценка для МХ есть приближенное значение истинного значения измеряемой величины, а если измеряемая величина случайная, то
оценка МХ есть приближенное значение математического ожидания случайной величины.
Необходимость получения по опытным данным приближенного значения дисперсии возникает в связи с определением харак-
В. Н. Докин, Т. Г. Тюрнева
130
теристики точности прибора или характеристики рассеивания измеряемой случайной величины.
Пусть имеется случайная величина Х с математическим ожиданием МХ = mx и дисперсией DX = Dx; оба параметра неизвестны. Требуется на основании опытных данных найти состоятельные и несмещенные оценки этих параметров.
Обозначим (х1, х2, …, хn) значения случайной величины Х, наблюдаемые в результате проведенных n независимых равноточных измерений, т. е. измерений, которые проводились в одинаковых условиях. Обычно считают эти условия выполненными, если
измерения проводились одним прибором.
Естественно, в качестве оценки для математического ожидания принять выборочное среднее
n
~ = x =
m
x
∑x
i =1
n
i
.
Покажем, что эта оценка является состоятельной и несмещенной. Действительно, согласно закону больших чисел
⎛1 n
⎞
⎜
⎟⎟ = 1 .
Р
x
−
m
<
ε
lim ⎜ ∑ i
x
n→∞
⎝ n i =1
⎠
~ = x является состоятельной оценкой.
Это значит, что m
x
Оценка
~ = x
m
x
является также и несмещенной, ибо
1 n
⎛1 n ⎞ 1 n
~
М mx = М ⎜ ∑ xi ⎟ = ∑ Mxi = ∑ mx = mx
n i =1
⎝ n i =1 ⎠ n i =1
(наблюдаемые значения х1, х2, …, хn рассматриваем как случайные
величины, каждая из которых распределена по тому же закону,
что и случайная величина Х).
Перейдем к оценке дисперсии Dx. В качестве оценки для Dx
возьмем выборочную дисперсию DВ:
1 n
DВ = ∑ ( xi − x )2 .
n i =1
Преобразуем выражение для DВ к другому виду
Теория вероятностей и математическая статистика
131
2
1 n
1 n 2
2
DВ = ∑ ( xi − x ) = ∑ ( xi − 2 xi x + x ) =
n i =1
n i =1
2
1 n 2 2x n
1 n 2 2
= ∑ xi –
xi + x = ∑ xi – x .
∑
n i =1
n i =1
n i =1
(5.4.5)
Первый член в правой части (5.4.5) представляет собой среднее арифметическое n наблюдаемых значений случайной величины Х2, следовательно, он сходится по вероятности к МХ2. Второй
член x 2 сходится по вероятности к (МХ)2 = mx2 . Это значит, что
вся правая часть (5.4.5) сходится по вероятности к величине
МХ2 – (МХ)2 = DX = Dx.
Следовательно, выборочная дисперсия DВ является состоятельной оценкой дисперсии Dх.
Проверим теперь, является ли оценка DВ также и несмещенной. Для этого еще раз преобразуем (5.4.5), учитывая определение
выборочного среднего
2
1 n 2 ⎛1 n ⎞ 1 n 2 1
DВ = ∑ xi – ⎜ ∑ xi ⎟ = ∑ xi – 2
n i =1
n
⎝ n i =1 ⎠ n i =1
n −1 n 2
2
2
– 2 ∑ xi x j =
x
–
xi x j .
∑ i n2 ∑
n i< j
n 2 i =1
i< j
n
∑x
i =1
2
i
–
(5.4.6)
Так как величина дисперсии Dх не зависит от того, в какой
точке выбрать начало координат, то выберем его в точке mx и найдем математическое ожидание величины (5.4.6). Получим
2
n −1 n
2
Mx
–
M ( xi x j ) =
М(DВ) =
∑
i
2
2 ∑
n i =1
n i< j
n −1 n
2
= 2 ∑ Dx – 2 ∑ K i , j .
n i< j
n i =1
Из независимости проведенных измерений следует, что
Ki,j = 0, поэтому
М(DВ) =
n −1
Dх.
n
В. Н. Докин, Т. Г. Тюрнева
132
Отсюда видно, что выборочная дисперсия DВ не является несмещенной оценкой для дисперсии Dх, так как ее математическое
ожидание не равно Dх, а несколько меньше. Однако, если умножить величину DВ на
n
, то мы получим оценку для дисперсии
n −1
Dх, обладающую свойством несмещенности, ибо
n
⎛ n
⎞
DB ⎟ =
М(DВ) = Dх.
⎝ n − 1 ⎠ n −1
n
стремится к единице при n→∞, то
Так как множитель
n −1
М⎜
оценка
n
1 n
2
DВ =
Dn =
∑ ( xi − x )
n − 1 i =1
n −1
будет также и состоятельной. Величину Dn иногда называют исправленной дисперсией.
Таким образом, если в результате проведенных n независимых
измерений случайной величины Х с неизвестными математическим
ожиданием и дисперсией Dх получены значения (х1, х2, …, хn), то
для определения этих параметров следует пользоваться следующими приближенными оценками:
1 n
~
mx = ∑ xi ,
n i =1
1 n
Dn =
( xi − x )2 .
∑
n − 1 i =1
Заметим, что в качестве оценки для дисперсии случайной величины Х с известным математическим ожиданием mx необходимо использовать выборочную дисперсию
1 n
DВ = ∑ ( xi − x )2 .
n i =1
В этом случае, как нетрудно убедиться, выборочная дисперсия удовлетворяет условиям несмещенности и состоятельности.
Теория вероятностей и математическая статистика
133
5.4.3. Метод наибольшего правдоподобия для нахождения оценок параметров распределений
Рассмотрим один из важнейших методов для отыскания оценок параметров по данным опыта, который носит название метод
наибольшего правдоподобия.
Пусть функция f(х,θ), зависящая от параметра θ, является
плотностью распределения случайной величины Х. Требуется на
~
основании опытных данных найти оценку θ неизвестного параметра θ.
Обозначим через (х1, х2, …, хn) наблюдаемые значения случайной величины Х в результате проведенных n опытов.
Функцией правдоподобия называется функция
~
~
~
~
L(х1, х2, …, хn; θ ) = f(x1, θ ) · f(x2, θ ) · … · f(xn, θ ).
Если случайная величина Х – дискретная с возможными значениями ξ1, ξ2, …, ξn, а m1, m2, …, mr будут равны соответственно
числу опытных значений, которые совпадают с ξ1, ξ2, …, ξr, то
функция правдоподобия определяется соотношением
~
~
~
~
L(х1, х2, …, хn; θ ) = P1m1 ( θ ) ⋅ P2m 2 ( θ ) ⋅ ... ⋅ Prm r ( θ ) ,
~
где Рi( θ ) = Р(Х=ξi), i = 1, 2, …, r.
Считая наблюдаемые значения х1, х2, …, хn данными, будем
~
рассматривать L как функцию неизвестного параметра θ . Сущность метода наибольшего правдоподобия заключается в том, что
~
в качестве оценки θ параметра θ выбирается значение аргумента,
которое обращает функцию L в максимум. Это значение является
функцией от х1, х2, …, хn и называется оценкой наибольшего правдоподобия. Отсюда, согласно известным правилам дифференциального исчисления, для нахождения оценки наибольшего правдоподобия необходимо решить уравнение
∂L
(5.4.7)
~ =0
∂θ
~
и отобрать то решение θ , которое обращает функцию L в максимум.
Обычно с целью упрощения функцию правдоподобия заменяют ее логарифмом и решают вместо (5.4.7) уравнение
В. Н. Докин, Т. Г. Тюрнева
134
∂ ln L 1 ∂L
~ = ⋅ ~ = 0.
L ∂θ
∂θ
Если функция L недифференцируема относительно параметра θ, то для вычисления ее максимума приходится использовать
другие методы, что иногда связано с большими вычислительными
трудностями.
В том случае, когда закон распределения случайной величины зависит от нескольких параметров θ1, θ2, …, θk, то ход рассуждений аналогичен предыдущему, т. е. необходимо найти такие
~ ~
~
величины θ1 ,θ 2 ,...,θ k , которые максимизировали бы функцию
правдоподобия.
Пример 1. Пусть х1, х2, …, хn – результаты n независимых наблюдений над случайной величиной Х, подчиняющейся нормальному закону распределения.
Как известно (см. § 2.15), нормальный закон распределения
определяется двумя параметрами: математическим ожиданием и
средним квадратическим отклонением σ. Функция плотности распределения f(x,m,σ) этого закона имеет вид
−
1
e
f(x,m,σ) =
σ 2π
( x − m )2
2σ 2
.
Задача заключается в том, чтобы по данным выборки
(х1, х2, …, хn) оценить неизвестные параметры m и σ.
Решение. Функцию правдоподобия можно записать в следующем виде
L=
1
e
σ~ 2π
1
e
σ~ 2π
−
−
~ )2
( xn − m
2σ 2
~ )2
( x1 − m
2σ 2
·
1
e
σ~ 2π
n
1 ⎞
⎟ e
~
σ
2
π
⎝
⎠
⎛
=⎜
−
−
1
~ )2
( x2 − m
2σ 2
·…·
n
~ )2
( xi − m
2 ∑
2σ
i =1
.
~ и
Функция L дифференцируема относительно параметров m
σ~ . Для упрощения выкладок имеет смысл искать максимум не
самой функции L, а lnL, поскольку и L и lnL имеют максимум в
одной и той же точке:
Теория вероятностей и математическая статистика
1
1
lnL = n ln
– ~2
σ~ 2π 2σ
n
135
∑ ( x − m~ )
2
i
i =1
.
(5.4.8)
Для нахождения оценок параметров m и σ необходимо решить совместно следующую систему уравнений:
⎧ ∂ ln L
~ = 0
⎪ ∂m
⎨ ∂ ln L
⎪
= 0.
~
⎩ ∂σ
Находя производные
∂ ln L ∂ ln L
~ и ∂σ~ из (5.4.8), имеем
∂m
n
⎧
~)
( xi − m
∑
⎪
i =1
=0
2
⎪
~
σ
.
⎨
n
2
~
⎪ n ∑ ( xi − m )
⎪ − + i =1
=0
3
~
~
σ
σ
⎩
Отсюда получаем
n
n
~ =
m
∑x
i =1
n
i
=
2
х , σ~
=
∑ ( xi − m~ )2
i =1
n
n
=
∑( x − x )
i =1
2
i
n
= σ n2 .
Исследуя вторые частные производные, нетрудно убедиться
в том, что
∂ 2 ln L
n
=
–
< 0,
2
2
~
~
∂m
σ
∂ 2 ln L
2n
=
–
< 0.
2
2
~
~
∂σ
σ
~ = x , σ~ = σn
Отсюда следует, что точка с координатами m
максимизирует значение функции lnL, а, следовательно, и саму
функцию L. Таким образом, если случайная величина подчинена
нормальному закону распределения, то по данным выборки математическое ожидание m следует оценивать с помощью выборочного среднего x , а среднее квадратическое σ – выборочным сред-
В. Н. Докин, Т. Г. Тюрнева
136
ним квадратическим σn. Нетрудно убедиться, что эти оценки являются несмещенными и состоятельными.
Пример 2. Из генеральной совокупности (0, 1, …, m), распределенной по биномиальному закону
Р(Х=k) = Рm(k) = Cmk pk(1–p)m–k
извлечена выборка (х1, х2, …, хn). Найти оценку ~
p параметра p,
используя метод наибольшего правдоподобия, и доказать ее несмещенность.
Решение. По выборке (х1, х2, …, хn) строим функцию правдоподобия
n
n
L=
∏ P ( x ) =∏C
m
xi
m
i
~
p xi ( 1 − ~
p )m − xi .
i =1
i =1
Логарифмирование функции правдоподобия не изменит значения, доставляющего максимум этой функции, следовательно,
оценку наибольшего правдоподобия для неизвестной вероятности
р можно определить как значение ~
p , доставляющее максимум
функции
n
lnL =
∑ ln C
i =1
xi
m
n
⎛
⎞
~
+ ∑ xi ln p + ⎜ mn − ∑ xi ⎟ ln( 1 − ~
p ).
i =1
i =1
⎝
⎠
n
Используя необходимое условие максимума, получим так называемое уравнение правдоподобия, определяющее оценку наибольшего правдоподобия:
n
n
xi
mn − ∑ xi
∂ ln L ∑
i =1
= i =1~
–
= 0.
~
∂p
p
1− ~
p
Отсюда следует, что
n
р̃ =
∑x
i =1
nm
i
.
(5.4.9)
Нетрудно проверить, что достаточные условия максимума в
точке удовлетворяются.
Теория вероятностей и математическая статистика
137
Проверим оценку (5.4.9) на несмещенность. Согласно опреp будет несмещенной, если Мр̃ = р.
делению (п. 5.4.1) оценка ~
Действительно, в нашем случае имеем
⎛ n ⎞
⎜ ∑ xi ⎟
1 n
nmp
Мр̃ = М ⎜ i =1 ⎟ =
= р,
∑ Mxi =
⎜ nm ⎟ nm i =1
nm
⎜
⎟
⎝
⎠
так как Мхi = mp (математическое ожидание биномиального распределения). Таким образом, оценка р̃ неизвестной вероятности р
является несмещенной.
Метод наибольшего правдоподобия обладает важными достоинствами: он всегда приводит к состоятельным (хотя иногда и
смещенным) оценкам, имеющим наименьшую возможную дисперсию по сравнению с другими и наилучшим образом использующим всю информацию о неизвестных параметрах, содержащуюся в выборке.
5.4.4. Метод моментов
Еще одним общим методом нахождения оценок параметров
распределений является метод моментов.
Пусть известный закон распределения F(х) = F(х, θ1, θ2, …,
θq) случайной величины Х определяется несколькими параметрами θ1, θ2, …, θq, числовые значения которых неизвестны. Для нахождения оценок неизвестных параметров производят n независимых наблюдений над случайной величиной Х в результате чего
получают выборку (х1, х2, …, хn).
n
Назовем величину δk =
∑x
k =1
n
k
i
выборочным (эмпирическим)
начальным моментом порядка k.
Следуя методу моментов, необходимо q первых теоретических моментов случайной величины Х приравнять q первым выборочным моментам. То есть в качестве оценок для неизвестных
~ ~
~
параметров θ1, θ2, …, θq можно выбрать решения θ 1 ,θ 2 ,...,θ q системы q уравнений
В. Н. Докин, Т. Г. Тюрнева
138
n
xi
∑
~ ~
~
α1 = ∫ xdF ( x ,θ1 ,θ 2 ,...,θ q ) = i =1 = δ1 ,
n
−∞
+∞
n
+∞
~ ~
~
α 2 = ∫ x 2 dF ( x ,θ1 ,θ 2 ,...,θ q ) =
∑x
i =1
2
i
n
−∞
=δ2 ,
..............................
n
+∞
~ ~
~
α q = ∫ x q dF ( x ,θ1 ,θ 2 ,...,θ q ) =
∑x
i =1
−∞
n
q
i
=δq .
Использование в методе моментов начальных моментов (как
это было сделано выше) необязательно; здесь могут использоваться центральные или абсолютные теоретические моменты и
соответствующие им эмпирические моменты.
Теоретическим обоснованием метода моментов служит закон
больших чисел, согласно которому при большом объеме выборки
эмпирические моменты близки к теоретическим моментам. Следовательно, метод моментов дает возможность получать состоятельные оценки.
Пример. Случайная величина Х распределена равномерно на
отрезке [а, b]. Выборка (х1, х2, …, хn) задана в виде вариационного
ряда
xi
ni
1
12
2
10
3
9
4
9
5
10
,n=
~
∑ n = 50.
i
~ , b неизвестных
Используя метод моментов, найти оценки a
параметров a и b.
Решение. Плотность распределения равномерного закона на
[а, b] имеет вид
Теория вероятностей и математическая статистика
139
⎧ 1
,
если x ∈ [a ,b]
⎪
.
f ( x ,a ,b ) = ⎨ b − a
⎪⎩ 0 ,
в противном случае
При решении примера 2 из п. 2.12.6 было установлено, что
~
a~ + b
α1 =
,
2
~
~
b 2 + a~ ⋅ b + a~ 2
α2 =
.
3
Начальные эмпирические моменты δ1 и δ2 находятся по данной выборке объема n = 50:
1 n
1
δ1 = ∑ ni xi =
(12·1+10·2+9·3+9·4+10·5) = 2,9;
50
n i =1
1 n
1
2
(12·1+10·4+9·9+9·16+10·25) = 10,54.
δ2 = ∑ ni xi =
50
n i =1
Согласно методу моментов оценки параметров a и b ищутся
как решение системы уравнений
⎧α1 = δ1
⎨
⎩ α2 = δ2 .
Имеем
~
⎧
a~ + b
= 2,9
⎪⎪
2
.
⎨ ~2 ~~ ~2
⎪ b + a b + a = 10,54
⎪⎩
3
Отсюда
~
⎧
a~ + b = 5,8
.
⎨~ 2 ~ ~ ~ 2
b
a
b
a
,
+
+
=
31
62
⎩
Из решения этой системы уравнений получаем ã ≈ 0,37;
b̃ = 5,43.
В. Н. Докин, Т. Г. Тюрнева
140
5.4.5.
Понятие
об
интервальном
Построение доверительных областей
оценивании.
В ряде статистических задач требуется не только найти для
параметра θ подходящую оценку θ̃, но и указать, к каким ошибкам
может привести замена параметра θ его оценкой. Вычисленная на
основании имеющихся выборочных данных (х1, х2, …, хn) оценка
θ̃ = θ̃(х1, х2, …, хn) является лишь приближенным значением неизвестного параметра θ даже в том случае, когда эта оценка состоятельна (т. е. совпадает с θ в среднем) и эффективна (т. е. обладает
наименьшей степенью случайных отклонений от θ). Возникает
вопрос: как сильно может отклониться это приближенное значение от истинного. Другими словами, требуется оценить точность
и надежность оценки. Такого рода задачи особенно актуальны при
малом числе наблюдений, когда точечная оценка θ̃ в значительной
мере случайна и приближенная замена θ на θ̃ может привести к
серьезным ошибкам.
Здесь речь идет о том, чтобы указать такую величину ∆, которая с «практической достоверностью» (т. е. с заранее заданной
вероятностью, близкой к единице) гарантировала бы выполнение
~
неравенства θ − θ <∆. Иными словами, необходимо указать такой интервал вида (θ̃–∆,θ̃+∆), который с заранее заданной вероятностью (близкой к единице) накрывал бы неизвестное нам истинное значение θ искомого параметра. При этом заранее выбираемая
исследователем вероятность, близкая к единице, обычно называется доверительной вероятностью, а сам интервал (θ̃–∆,θ̃+∆) –
доверительным интервалом (или интервальной оценкой, в отличие от точечной оценки θ̃).
В математической статистике доверительные интервалы используются для определения точности оценки θ̃, а доверительные
вероятности – для определения ее надежности.
Доверительный интервал по своей природе случаен, как по
своему расположению (ведь θ̃ – случайная величина), так и по
своей длине (величина ∆, как правило, тоже строится как функция
выборочных данных х1, х2, …, хn). Ширина доверительного интервала существенно зависит от объема выборки (уменьшается с ростом n) и от величины доверительной вероятности (увеличивается
с приближением доверительной вероятности к единице).
Теория вероятностей и математическая статистика
141
Построение доверительного интервала выполняется следующим образом.
Пусть θ̃ – оценка параметра θ, вычисленная по выборке
(х1, х2, …, хn) объема n, а Z(θ̃, θ) – некоторая статистика (зависящая
как от самого параметра θ, так и от его оценки θ̃), распределение
которой известно.
Зададимся малой вероятностью α и определим два числа z1 и
z2 так, чтобы Р(z1<Z(θ̃,θ)<z2) = 1–α. Следует отметить, что числа z1
и z2, удовлетворяющие этому соотношению могут выбираться неоднозначно.
Решим неравенство
z1 < Z(θ̃,θ) < z2
относительно θ. Решение
θ (z1,z2,θ̃) < θ < θ (z1,z2,θ̃),
в котором θ (z1,z2,θ̃) и θ (z1,z2,θ̃) не зависят от θ, если оно существует, и есть искомый доверительный интервал для θ, поскольку
Р( θ (z1,z2,θ̃) < θ < θ (z1,z2,θ̃) = 1 – α.
Величина 1 – α = γ есть доверительная вероятность или надежность оценки θ̃.
Пример 1. По результатам n независимых наблюдений
(х1, х2, …, хn) нормально распределенной с параметрами (m,σ) случайной величины Х найти доверительный интервал для m, если
параметр σ известен.
Решение. Выберем в качестве оценки неизвестного параметра
x1 + x2 + ... + xn
. Очевидно, что
n
σ2
.
Мm̃ = М x = m; Dm̃ = D x =
n
x−m
m выборочное среднее m̃ = x =
Рассмотрим статистику Z =
σ
.
n
В. Н. Докин, Т. Г. Тюрнева
142
Нетрудно видеть, что величина Z распределена нормально с
параметрами (0,1) и, следовательно, ее распределение не зависит
от m. Границы z1 и z2 определим из соотношения
⎞
⎛
⎟
⎜
x−m
Р ⎜ z1 <
< z2 ⎟ = 1 – α.
σ
⎟
⎜
n
⎠
⎝
(5.4.10)
Отсюда
⎛
Р ⎜ x − z2
⎝
σ
n
< m < x − z1
σ ⎞
⎟ = 1 – α.
n⎠
(5.4.11)
Как отмечалось выше, числа z1 и z2 могут выбираться неоднозначно. Для упрощения решения нашей задачи выберем z1 и z2 таким образом, чтобы z2 = –z1 = uα. Тогда, как следует из (5.4.10),
величина uα определяется из соотношения
Р(–uα<Z<uα) = 1 – α.
А так как случайная величина Z распределена по нормальному закону с математическим ожиданием равным нулю и с дисперсией равной единице, то вероятность Р(–uα<Z<uα) можно вычислить, используя формулу (2.15.7)
Р(–uα<Z<uα) = Ф0(uα) – Ф0(–uα) = 2 Ф0(uα),
1
где Ф0(u) =
2π
u
∫e
−
x2
2
dx – нормированная функция Лапласа.
0
Таким образом, значение uα находится из равенства
2Ф0(uα) = 1 – α.
Отсюда
⎛1− α ⎞
⎟,
2
⎝
⎠
uα = Ф0−1 ⎜
где Ф0−1 ( х ) – функция, обратная к нормированной функции Лапласа Ф0(х). И, следовательно, доверительный интервал для параметра m, определяемый соотношением (5.4.11), имеет вид
Теория вероятностей и математическая статистика
143
⎛
⎛1−α ⎞ σ
⎛1−α ⎞ σ ⎞
⎟⎟ .
⎜⎜ x − Ф0−1 ⎜
, x + Ф0−1 ⎜
⎟
⎟
2
2
⎝
⎠ n
⎝
⎠ n⎠
⎝
Пример 2. Более естественной является ситуация, кода оба
параметра m и σ неизвестны. В этом случае для m тоже можно
найти доверительный интервал.
Дадим сначала определение распределений χ2 и Стьюдента.
Пусть Х, Х1, Х2, …, Хn – независимые нормально распределенные случайные величины с параметрами (0,1).
Распределение случайной величины
χ n2 = X 12 + X 22 + ... + X n2
называется распределением χ2 («хи-квадрат») с n степенями свободы.
Распределение величины τn =
X
χ
2
n
называется распределе-
n
нием Стьюдента с n степенями свободы.
Таблицы распределения «хи-квадрат» и Стьюдента приведены соответственно в Приложениях 3 и 4.
В книге Н. В. Смирнова, И. В. Дунина-Барковского [9] показано, что
⎛
DB
DB ⎞
⎟ = 1 – α,
⎜
Р x − tα ,n −1
< m < x + tα ,n −1
⎜
n −1
n − 1 ⎟⎠
⎝
где tα,n–1 определяется условием
(
)
Р τ n −1 <t α ,n −1 = 1 – α,
τn–1 имеет распределение Стьюдента с n–1 степенью свободы,
1 n
Dв = ∑ ( xk − x )2 .
n k =1
144
В. Н. Докин, Т. Г. Тюрнева
§ 5.5. Сглаживание экспериментальных зависимостей
по методу наименьших квадратов
К вопросам, связанным с оцениванием неизвестных параметров распределений, рассмотренным в предыдуу
щих параграфах, близко
примыкает вопрос о сглаживании экспериментальных зависимостей.
Пусть производится
опыт, целью которого является исследование зависимости некоторой физической величины у от фих
зической величины х.
0
Предполагается, что величины х и у связаны
Рис. 5.5.1
функциональной зависимостью:
у = φ(х).
Вид этой зависимости и требуется определить из опыта.
Предположим, что в результате опыта мы получили ряд экспериментальных точек и построили график зависимости у от х
(рис. 5.5.1). Обычно экспериментальные точки на таком графике
располагаются не совсем правильным образом – дают некоторый
«разброс», т. е. обнаруживают случайные отклонения от видимой
общей закономерности. Эти уклонения связаны с неизбежными
при всяком опыте ошибками измерения.
Возникает вопрос, как по этим экспериментальным данным
наилучшим образом воспроизвести зависимость у от х?
Известно, что через любые n точек с координатами (xi,yi)
всегда можно провести кривую, выражаемую аналитически
полиномом степни n–1, так, чтобы она в точности прошла через
каждую из точек (рис. 5.5.1). Однако такое решение вопроса
обычно не является удовлетворительным: как правило,
нерегулярное поведение экспериментальных точек, подобное
изображенному на рис. 5.5.1, связано не с объективным
Теория вероятностей и математическая статистика
145
характером зависимости у от х, а исключительно с ошибками
измерения.
Тогда возникает весьма типичная для практики задача сглаживания экспериментальной зависимости, при которой по
возможности точно была бы отражена тенденция зависимости у от
х и возможно полнее исключено влияние случайных, незакономерных уклонений, связанных с неизбежными погрешностями
опыта.
Для решения подобных задач обычно применяется расчетный
метод, известный под названием «метода наименьших квадратов».
Этот метод дает возможность при заданном типе зависимости
у = φ(х) так выбрать ее числовые параметры, чтобы кривая
у = φ(х) в известном смысле наилучшим образом отображала экспериментальные данные.
Очень часто вид зависимости у = φ(х) бывает известен из физических соображений, связанных с существом решаемой задачи,
а из опыта требуется установить только некоторые параметры
этой зависимости.
Задачу о рациональном выборе таких числовых параметров
при данном виде зависимости мы и будем решать сейчас.
Пусть имеются результаты n независимых опытов, оформленные в виде статистической таблицы
i
xi
yi
1
x1
y1
2
x2
y2
…
…
…
i
xi
yi
…
…
…
n
xn
yn
,
(5.5.1)
где i – номер опыта, хi – значение аргумента, yi – соответствующее
значение функции.
Из теоретических или иных соображений выбран принципиальный вид зависимости у = φ(х). Функция у = φ(х) содержит
ряд числовых параметров a, b, c, … Требуется так выбрать эти
параметры, чтобы кривая у = φ(х) в каком-то смысле наилучшим
образом изображала зависимость, полученную в опыте.
Решение этой задачи, как и любой задачи выравнивания или
сглаживания, зависит от того, что именно мы условимся считать
«наилучшим». Можно, например, считать «наилучшим» такое
взаимное расположение кривой и экспериментальных точек, при
котором максимальное расстояние между ними обращается в минимум; можно потребовать, чтобы в минимум обращалась сумма
В. Н. Докин, Т. Г. Тюрнева
146
абсолютных величин отклонений точек от кривой и т. д. При каждом из этих требований мы получим свое решение задачи, свои
значения, a, b, c, … Однако общепринятым при решении подобных задач является так называемый метод наименьших квадратов,
при котором требование наилучшего согласования кривой у = φ(х)
сводится к тому, чтобы сумма квадратов отклонений экспериментальных точек от сглаживающей кривой обращалось в минимум.
Перейдем к задаче определения параметров a, b, c,… функции у = φ (х), исходя из принципа наименьших квадратов. Пусть
имеется таблица экспериментальных данных (5.5.1) и пусть из
каких-то соображений выбран общий вид функции у = φ(х), зависящей от нескольких числовых параметров a, b, c, …; именно эти
параметры и требуется выбрать согласно методу наименьших
квадратов так, чтобы сумма квадратов отклонений уi от φ (xi) была
минимальной. Запишем у как функцию не только аргумента х, но
и параметров a, b, c, …:
у = φ (х; a, b, c, …).
Требуется выбрать a, b, c, … так, чтобы выполнялось условие:
n
S=
∑ [ y − ϕ( x ; a ,b ,c...]
i =1
2
i
i
= min.
(5.5.2)
Найдем значения a, b, c, …, обращающие левую часть выражения (5.5.2) в минимум. Для определения экстремума (минимума
или максимума) функции нескольких переменных необходимо
обращение в нуль ее частных производных первого порядка. Это
условие, примененное к S, приводит к системе уравнений:
∂ϕ ( xi ; a ,b ,c ,...)
⎫
= 0 ,⎪
i =1
∂a
⎪⎪
n
∂ϕ ( xi ; a ,b ,c ,...)
= 0 ,⎬
∑ [ yi − ϕ ( xi ; a ,b ,c ,...)]
i =1
∂b
⎪
n
∂ϕ ( xi ; a ,b ,c ,...)
= 0⎪
∑ [ yi − ϕ ( xi ; a ,b ,c ,...)]
⎪⎭
i =1
∂c
∑ [ yi − ϕ ( xi ; a ,b ,c ,...)]
n
(5.5.3)
Система уравнений (5.5.3) содержит столько же уравнений
сколько неизвестных a, b, c, … и носит название системы нормальных уравнений.
Теория вероятностей и математическая статистика
147
Решить систему (5.5.3) в общем виде нельзя; для этого необходимо задаться конкретным видом функции φ.
Рассмотрим один часто встречающийся на практике случай,
когда функция φ является
у=ax+b линейной.
у
Предположим, что в
опыте зарегистрирована совокупность значений (xi,yi),
i = 1, 2, …, n; (см. рис. 5.5.2).
Требуется подобрать по
методу наименьших квадратов параметры a, b линейной
х
функции y=ax+b, изобрах1 0 х2 х3
хn
жающей данную экспериментальную зависимость.
Рис. 5.5.2
Для определения a и b
запишем систему нормальных уравнений (5.5.3), учитывая что
φ(x) = ax+b:
∑ [ yi − ( axi + b )] xi = 0⎫⎪
i =1
⎬,
n
∑ [ yi − ( ax + b )] = 0 ⎪
⎩ i =1
⎭
n
или, раскрывая скобки и производя суммирование,
⎫
a
x
b
x
0
−
−
=
∑
∑
i i
i
⎪⎪
i =1
i =1
i =1
⎬.
n
n
yi − a ∑ xi − bn = 0 ⎪
∑
⎪⎭
i =1
i =1
n
n
∑x y
2
i
n
(5.5.4)
Разделим оба уравнения (5.5.4) на n и при этом учтем, что
n
n
∑x
i =1
n
Тогда
i
= x,
∑y
i =1
n
i
= y.
В. Н. Докин, Т. Г. Тюрнева
148
⎫
⎪⎪
i =1
i =1
−a
− bx = 0 ⎬ .
n
n
⎪
⎪⎭
y
−
a
x
−
b
=
0
⎩
n
n
∑ xi yi
∑ xi2
Решая эту систему относительно a и b, найдем
n
1
a=
DB ( x )
∑( x
i =1
, b= y –ax .
n
n
Здесь Dв(х) =
− x )( yi − y )
i
∑( x − x )
2
i =1
i
– выборочная дисперсия величи-
n
ны х, x , y – выборочные средние, соответственно, х и у, а
n
∑( x
i =1
i
− x )( yi − y )
n
= K *x , y – выборочный корреляционный мо-
мент величин х и у.
Таким образом, поставленная задача решена, и линейная зависимость, связывающая у и х, имеет вид:
у=
K *x , y
DB ( x )
x +y –
K *x , y
DB ( x )
x,
или, перенося y в левую часть,
у– y =
K *x , y
DB ( x )
( x − x ).
(5.5.5)
Если линейную взаимосвязь между х и у представить в виде
х = a1y+b1 и подбирать значения параметров a1 и b1 по методу
наименьших квадратов, минимизируя функцию
n
∑ [x − ( a y
i =1
+ b1 )] ,
2
1 1
i
то, подобно предыдущему, можно найти, что
a1 =
K *x , y
DB ( y )
,
b1 = x – a1 y ,
Теория вероятностей и математическая статистика
149
n
где Dв(у) =
2
∑ ( yi − y )
i =1
n
– выборочная дисперсия величины у. В
этом случае линейная взаимосвязь между у и х может быть представлена в виде
х–x =
K *x , y
DB ( y )
(у – y ).
(5.5.6)
Уравнение (5.5.5) называется уравнением линейной регрессии у на х, а (5.5.6) – уравнением линейной регрессии х на у. Графики уравнений линейной регрессии у на х (5.5.5) и х на у (5.5.6)
всегда пересекаются в точке ( x , y ) и образуют «ножницы» (рис.
5.5.3). Цифрой 1
у
на рис. 5.5.3 обо1
значен
график
уравнения (5.5.5),
а цифрой 2 – гра2
фик
уравнения
(х, у)
(5.5.6). Чем уже
«ножницы», тем
сильнее стохастих
ческая
зависи0
мость между х и у.
Рис. 5.5.3
Если
=
выборочный
K *x , y
DB ( x ) ⋅ DB ( y )
коэффициент
корреляции
k *x , y =
, вычисленный по опытным данным (5.5.1),
таков, что k *x , y = 1, то обе прямые регрессии совпадают, в этом
случае «ножницы» складываются в одну линию, т. е. между х и у
имеется функциональная (линейная, а не стохастическая) зависимость. Поэтому k *x , y есть мера линейной взаимосвязи между х и у.
При k *x , y = 0 обе прямые регрессии перпендикулярны друг другу
В. Н. Докин, Т. Г. Тюрнева
150
и параллельны координатным осям (стохастическая зависимость)
(см. рис. 5.5.4).
Независимость
у
Зависимость
у
х
сильная
х
у
k*х,у
у
k*х,у < 1
=0
х
0
х
0
у
полная
х=у
k*х,у
Рис. 5.5.4
=1
х
0
§ 5.6 Статистическая проверка гипотез
5.6.1. Общая задача проверки гипотез
Пусть исследователь имеет о природе некоторого явления
несколько гипотез. Одна из них – обозначим ее Н0 – может быть
по какой-то причине для него особенно дорога или важна. Будем
называть гипотезу Н0 основной. Кроме того, исследователь может
допустить еще ряд гипотез Н1, Н2, … Эти гипотезы будем называть альтернативными. Для проверки того, какая гипотеза основная Н0 или одна из альтернативных Н1, Н2, … – на самом деле
справедлива, исследователь прибегает к помощи опыта. Пусть в
результате опыта может наступить или не наступить определенное событие S. Известно, однако, что если на самом деле верна
Теория вероятностей и математическая статистика
151
гипотеза Н0, то событие S наступить никак не может: если S имеет
место, то неверна Н0. Допустим, что в результате опыта S все же
наступило. Тогда очевидно, что Н0 неверна.
Так как событие S случайное, то естественно предположить
не то, что при верной гипотезе Н0 событие S наступить вообще не
может, а что его вероятность Р(S/Н0) имеет смысл и мала (несмотря на внешнее сходство записи, Р(S/Н0) не имеет ничего общего с
условной вероятностью, так гипотезе Н0 мы не собираемся приписывать никакой вероятности – при нашем подходе она либо верна,
либо неверна).
Следовательно, если при наступлении S мы будем отвергать
Н0, то мы лишь изредка будем ошибаться (в 100·Р(S/Н0) процентах случаев). Поскольку аккуратный исследователь много раз
проверяет свои выводы, то в конечном случае истина возобладает.
Однако для того чтобы понять, почему нельзя вообще не ошибаться, надо несколько уточнить рассматриваемую ситуацию.
Итак, у нас имеется гипотеза Н0 о природе некоторого явления, которую мы по каким-то причинам выделяем и называем основной, противопоставляя ее множеству {Нλ} альтернативных гипотез.
Далее, имеется опыт, результат которого х есть элемент некоторого множества Х, называемого выборочным пространством
(генеральной совокупностью). Например, если опыт состоит в пересчете каких-то предметов, то х – неотрицательное целое число,
а Х = {0, 1, 2, …}. Если же опыт состоит в проведении какого-то
измерения, то часто естественно считать, что его результат х может быть любым вещественным числом, а Х – множество всех
вещественных чисел. В случае нескольких измерений х – вектор, а
Х – многомерное пространство.
Формально процесс проверки гипотезы Н0 состоит в том, что
выбирается некоторое множество S (называемое критическим для
гипотезы Н0) и делается опыт. Если результат опыта х ∈ S, то гипотеза Н0 отвергается. Посмотрим, каким условиям должно удовлетворять S.
Хорошо было бы, если бы Р(х ∈ S/Н0) = 0 (тогда бы мы никогда не отвергли верную гипотезу), а Р(х ∈ S/Нλ) = 1 при λ≠0 (тогда
мы всегда бы отвергали Н0, если на самом деле верна любая из
гипотез Нλ, λ≠0). Однако в практически интересных случаях, для
В. Н. Докин, Т. Г. Тюрнева
152
того чтобы Р(х ∈ S/Н0) = 0, множество S должно быть пустым. Но
тогда и Р(х ∈ S/Нλ) = 0 для любого λ и вся процедура бесполезна.
Поэтому исследователю приходится допускать ненулевые
значения Р(х ∈ S/Н0). Единственное, что он может сделать, – выбрать заранее «уровень значимости», т. е. некоторое число α>0, и
потребовать, чтобы
Р(х ∈ S/Н0) ≤ α.
(5.6.1)
Если мы дорожим гипотезой Н0 и не хотим ее отвергнуть понапрасну, то α должно быть малым. Каким конкретно – довольно
безразлично, поэтому можно условиться выбирать одно из значений 0,05; 0,01 или 0,001, как обычно и делается. Наличие этих
трех всеми признанных значений сокращает объем необходимых
статистических таблиц.
Итак, сначала назначается α, затем выбирается S, удовлетворяющее (5.6.1), и, наконец, делается опыт. Очевидно, что
Р(х ∈ S/Н0) (обозначаемая также через Р(S/Н0)) есть вероятность
напрасно отвергнуть Н0 (когда она верна). Такая ошибка называется ошибкой первого рода. Из (5.6.1) следует, что вероятность
ошибки первого рода не превосходит уровня значимости α. Если
х ∈ S, где S удовлетворяет (5.6.1), то говорят: «гипотеза Н0 отвергается на уровне значимости α».
Кроме ошибки первого рода возможна еще ошибка второго
рода, которая состоит в том, что гипотеза Н0 не отвергается, когда
на самом деле она не верна, а верна одна из гипотез Нλ. вероятность этой ошибки β(λ) есть, очевидно,
β(λ) = Р(х ∈ S/Нλ) = 1 – Р(х ∈ S/Нλ) = Р( S /Нλ).
Функция 1–β(λ) = Р(х ∈ S/Нλ), равная вероятности отвергнуть
гипотезу Н0, если на самом деле верна гипотеза Нλ, называется
функцией мощности статистического критерия S.
Как объяснялось выше, мы бы желали, чтобы Р(S/Н0) = 0, а
Р(S/Нλ) = 1 при λ≠0. Иными словами, было бы хорошо, если бы
β(λ)=0 для всех λ≠0.
Так как множество S, удовлетворяющее (5.6.1) может назначаться неоднозначно, возникает вопрос, каким же образом следует
выбирать S? Естественно, надо среди S, удовлетворяющих условию (5.6.1), надо выбрать такое S̃, при котором
Теория вероятностей и математическая статистика
153
Р(S̃/Нλ) = max Р(S/Нλ),
S
где max берется по всем S, удовлетворяющим (5.6.1). Но S̃=Sλ, при
котором достигается максимум, будет, вообще говоря, зависеть от
λ. Если Sλ не зависит от λ, то S̃=Sλ есть, очевидно, наилучший критерий. Существование наилучшего критерия вещь довольно редкая. Если наилучший критерий есть, то он, во-первых, как правило, описан во всех учебниках математической статистики, а вовторых, к нему обычно нетрудно прийти, опираясь на соображения здравого смысла.
По своему прикладному содержанию высказываемые в ходе
статистической обработки данных гипотезы подразделяются на
следующие типы:
о числовых значениях параметров исследуемой генеральной
совокупности;
об общем виде закона распределения исследуемой случайной
величины;
об однородности двух или нескольких обрабатываемых выборок;
об общем виде зависимости, существующей между компонентами исследуемого многомерного признака;
о независимости и стационарности ряда наблюдений.
Ниже мы рассмотрим применение изложенной методики для
проверки гипотезы о виде закона распределения исследуемой
случайной величины.
5.6.2. Понятие о критериях согласия
Во многих случаях практики на основании тех или иных данных делается предположение о виде закона распределения интересующей нас случайной величины Х. Однако для окончательного
решения вопроса о виде закона распределения в подобных случаях представляется целесообразным проверить, насколько сделанное предложение согласуется с опытом. При этом ввиду ограниченного числа наблюдений опытный закон распределения обычно
будет в какой-то мере отличаться от предполагаемого, даже если
предположение о законе распределения сделано правильно. В связи с этим возникает необходимость решать следующую задачу:
является ли расхождение между опытным законом распределения
В. Н. Докин, Т. Г. Тюрнева
154
и предполагаемым законом распределения следствием ограниченного числа наблюдений, или оно является существенным и связано с тем, что действительное распределение случайной величины
отличается от предполагаемого. Для решения поставленной задачи служат так называемые «критерии согласия».
Идея применения критериев согласия заключается в следующем.
Пусть, например, на основании данного статистического материала нам предстоит проверить гипотезу Н0, состоящую в том,
что случайная величина Х имеет функцию распределения F(х).
Для того чтобы принять или опровергнуть гипотезу Н0, будем рассматривать неотрицательную случайную величину D, характеризующую степень расхождения теоретического F(х) и статистического Fn(х) распределений. Величину D можно выбирать
различными способами, в соответствии с которыми получаются
различные критерии для проверки интересующей нас гипотезы.
Например, можно положить
D = sup Fn ( x ) − F ( x ) ,
x
или
+∞
2
ω =D =
2
(
)
F
(
x
)
−
F
(
x
)
g( x )dx ,
∫ n
−∞
+∞
где g(х)≥0,
∫ g( x )dx < ∞. В первом случае для проверки данной
−∞
гипотезы получим критерий Колмогорова, во втором случае –
критерий ω2 Мизеса.
Величины (х1, х2, …, хn), образующие выборку (по ним строится статистическая функция распределения Fn(х)), в случае справедливости выдвинутой гипотезы можно рассматривать как независимые одинаково распределенные случайные величины с функцией распределения F(х). Но тогда величина D, каким бы образом
она ни была определена, является функцией от случайных величин и поэтому сама есть величина случайная.
Предположим, что выдвинутая гипотеза верна, т. е. случайная величина Х действительно распределена по закону с функцией
распределения F(х). Тогда закон распределения случайной величины D будет определяться законом распределения случайной
Теория вероятностей и математическая статистика
155
величины Х (т. е. функцией распределения F(х)) и числом опытов
n. Оказывается, что при некоторых способах выбора случайной
величины D ее закон распределения при достаточно большом n
практически не зависит от закона распределения случайной величины Х. Именно такими мерами расхождения и пользуются в математической статистике в качестве критериев согласия.
Зададим число α>0 (α – уровень значимости) столь малое, что
можно считать практически невозможным осуществление события с вероятностью α в единичном опыте. Считая известным распределение случайной величины D, можно найти такое число D0,
что P(D>D0) = α. Тем самым мы определим критическое множество S (см. п. 5.6.1), состоящее из точек х, таких, что x≥D0.
Пусть имеются фактически наблюдаемые значения х1, х2, …,
хn. По этим значениям строим функцию Fn(х) и вычисляем величину D. Если полученная величина D окажется больше D0, то это
означает, что событие с вероятностью α произошло (т. е. произошло событие, которое считаем практически невозможным).
Таким образом, если D>D0, то предположение о справедливости выдвинутой гипотезы привело к выводу, что произошло
практически невозможное событие, т. е. гипотеза опровергнута
опытом. Если же вычисленная величина D окажется меньше D0,
то считают, что гипотеза Н не противоречит опытным данным и,
возможно, может быть принята.
Следует отметить, что опровержение гипотезы при D>D0 ни
в коем случае не означает логического опровержения, равно как и
подтверждение гипотезы в случае D<D0 не означает логического
доказательства справедливости гипотезы. В самом деле, событие
D>D0 может произойти и в случае справедливости гипотезы Н,
но, если α достаточно мало, то на практике этой возможностью
можно пренебречь. Событие D<D0 может осуществиться и в случае, если наша гипотеза неверна, поэтому ее необходимо проверить с помощью (по возможности большего числа) различных
критериев, прежде чем считать ее подтвержденной опытными
данными.
Распределение величины D зависит от n, и вычисление его
при конечных значениях n трудно и нецелесообразно. Вместо этого вычисляют предельное (при n→∞) распределение величины D
и используют его в качестве приближения для распределения величины D при достаточно больших значениях n.
В. Н. Докин, Т. Г. Тюрнева
156
5.6.3. Критерий χ2 в случае простой гипотезы
Рассмотрим один из критериев согласия, так называемый
критерий χ2 К. Пирсона, для проверки гипотезы, состоящей в том,
что функция распределения Fχ(х) случайной величины Х есть
вполне определенная функция F(х). Проверяемая в этом случае
гипотеза называется простой, т. е. гипотеза Н0 – простая, если она
полностью определяет и вид функции F(х) и числовые значения
всех входящих в нее параметров. Как указывалось в п. 5.6.2, мы
должны образовать меру D отклонения эмпирической функции
распределения Fn(х) построенной по выборке (х1, х2, …, хn) от
предполагаемой (теоретической) функции распределения F(х).
Наиболее употребительной является мера, введенная К. Пирсоном
и приводящая к так называемому критерию χ2 К. Пирсона. Рассмотрим эту меру. Разобьем множество значений величины Х в
предположении, что Fχ(х) = F(х), на r множеств S1, S2, …, Sr без
общих точек. Практически такое разбиение обычно осуществляется с помощью r–1 чисел а1, а2, …, аr–1. При этом правый конец
каждого интервала исключают из соответствующего множества, а
левый включают (рис. 5.6.1).
S1
S2
а1
S3
а2
Sr–1
….
а3
Sr
аr-2
х
аr–1
Рис. 5.6.1
Пусть pi, i = 1, 2, …, r – вероятность того, что величина
r
Х принадлежит множеству Si (очевидно
∑p
i =1
i
= 1). Пусть mi,
i = 1, 2, …, r – количество величин из числа наблюдаемых
х1, х2, …, хn, принадлежащих множеству Si. Тогда
mi
n
– относи-
тельная частота попадания величины Х в множество Si при n наr
блюдениях. Очевидно, что
∑ mi = n,
i =1
mi
= 1.
∑
n
i =1
r
Теория вероятностей и математическая статистика
157
Для разбиения, приведенного на рис. 5.6.1, pi есть приращение гипотетической функции распределения F(х) на множестве Si,
а
mi
– приращение эмпирической функции распределения Fn(х)
n
на том же множестве. За меру D отклонения эмпирической функции распределения от теоретической принимают величину
2
χ =
r
∑
i =1
2
n ⎛ mi
⎞
− pi ⎟ =
⎜
pi ⎝ n
⎠
( mi − npi ) 2
.
∑
np
i =1
i
r
Величина χ2 случайная и нас интересует ее распределение,
вычисленное в предположении, что принятая гипотеза верна, т. е.
Fχ(х) = F(х).
Если распределение величины χ2 известно, то по заданному
уровню значимости α из условия Р(D>D0) = α можно найти величину D0 (называемую иногда пределом значимости, или критической точкой) для проверки принятой гипотезы. Не вычисляя распределение величины χ2 при каждом значении n, укажем ее предельное (при n→∞) распределение. Ответ на вопрос о предельном
распределении величины χ2 дает теорема Пирсона, которую мы
приведем без доказательства.
Теорема Пирсона. Какова бы ни была функция распределения F(х) случайной величины Х, при n→∞ распределение величины
χ2 стремится к χ2-распределению с q = r–1 степенями свободы, т. е.
x
lim P( χ < x ) = ∫ Pχ q2 ( t )dt
2
n →∞
0
1
в каждой точке х, где Pχ 2 ( t ) =
x
r −1
q
⎛ r −1⎞ 2
Г⎜
⎟2
⎝ 2 ⎠
r −1
x
−
2
2
e , t > 0 – плот-
ность распределения χ2 с q = r–1 степенью свободы, Γ(х) – гаммафункция.
С помощью теоремы Пирсона выведем критерий для проверки гипотезы. Зададим число α>0 такое, что событие с вероятностью α (α – уровень значимости) можно считать практически невозможным. По таблице для распределения χ2 с q = r–1 степенями
В. Н. Докин, Т. Г. Тюрнева
158
2
свободы (Приложение 2) найдем такое число D0 = χ кр
(предел
значимости, критическая граница), что
∞
∫ Pχ
2
χ кр
2
q
( x )dx = α.
Предположим, что n достаточно велико, тогда по теореме
2
) приблизительно составляет α,
Пирсона, вероятность Р(χ2> χ кр
2
т. е. событие χ2> χ кр
можно считать практически невозможным.
Таким образом, если гипотеза Н0 верна, т. е. Fχ(х) = F(х), то значе2
ния χ2, превышающие предел значимости χ кр
, практически не2
возможны. Если для данной выборки окажется, что χ2> χ кр
, то
гипотезу считают опровергнутой опытными данными; если же
2
χ2≤ χ кр
, то опытные данные можно считать совместимыми с принятой гипотезой, однако одного этого еще не достаточно для установления истинности гипотезы.
Применение теоремы Пирсона на практике дает достаточно
хорошие результаты во всех случаях, когда величины npi ≥10,
i = 1, 2, …, r.
5.6.4. Критерий
χ 2 в случае сложной гипотезы
Полностью определенное гипотетическое распределение
встречается на практике довольно редко. Гораздо чаще распределение F(x, θ1, θ2, …, θk) содержит некоторые неизвестные параметры θ1, θ2, …, θk, значения которых приходится оценивать по выборке. Гипотеза, подлежащая проверке, состоит в том, что функция распределения Fχ(х) наблюдаемой величины Х равна F(x, θ1,
θ2, …, θk) при некоторых значениях параметров θ1 = θ̃1, θ2 = 2, …,
θk = θ̃k. Такие гипотезы носят название сложных гипотез.
Разобьем множество значений величины Х на r множеств
S1, S2, …, Sr без общих точек. Обозначим относительные частоты
попадания величины Х в наблюдаемой выборке х1, х2, …, хn в
множества S1, S2, …, Sr через
m1 m2
m
,
, …, r , а вероятности поn
n
n
Теория вероятностей и математическая статистика
159
падания величины Х в эти множества при справедливости гипотезы – через р1(θ1, θ2, …, θk), …, рr(θ1, θ2, …, θk).
Составим величину
2
r
χ =
∑
[mi − npi ( θ1 ,θ 2 ,...,θ k )]2 .
npi ( θ1 ,θ 2 ,...,θ k )
i =1
Однако воспользоваться теоремой Пирсона нельзя, так как
значения θ1, θ2, …, θk неизвестны. Если же в приведенном выражении для χ2 заменить величины θ1, θ2, …, θk их оценками
θ̃1, θ̃2, …, θ̃k по выборке, т. е. определенными функциями от случайных величин х1, х2, …, хn, то величины pi(θ̃1, θ̃2, …, θ̃k) уже не
будут постоянными, а станут случайными величинами, поэтому и
в этом случае теорему Пирсона применять нельзя.
Поэтому возникает необходимость нахождения предельного
при n→∞ распределения величины χ2. Предельное распределение
величины χ2 зависит от принятого метода оценки параметров. Задача нахождения предельного при n→∞ распределения величины
χ2 при наличии оцениваемых по выборке параметров была впервые рассмотрена Р. Фишером, который показал при весьма общих
условиях, что предельным при n→∞ распределением величины χ2,
если неизвестные параметры θ1, θ2, …, θk оцениваются по методу
наибольшего правдоподобия, является распределением χ2 с
q = r–1–k степенями свободы. Таким образом, наличие оцениваемых по выборке параметров (методом наибольшего правдоподобия) не меняет характера предельного распределения величины χ2,
а лишь уменьшает число степеней свободы этого предельного
распределения на столько единиц, каково число параметров, оцениваемых по выборке. Отметим, что если неизвестные параметры
оцениваются иными методами, то предельное при n→∞ распределение величины χ2 будет, вообще говоря, отличным от χ2распределения. Дальнейшие рассуждения при проверке гипотезы
аналогичны рассуждениям, проведенным в п. 5.6.3.
Пример. Результаты 100 независимых наблюдений случайной величины Х представлены в виде вариационного ряда
наблюдения xi
0
4
8
12
16
20
14
26
30
34
36
40
частоты mi
2
4
8
14
16
20
13
12
4
3
2
2
В. Н. Докин, Т. Г. Тюрнева
160
Используя критерий согласия χ2 проверить, согласуется ли с
опытными данными гипотеза о нормальном распределении с дисперсией σ2 = 68,89. В качестве уровня значимости взять α = 0,05.
Решение. Как известно, нормальное распределение полностью определяется двумя параметрами – математическим ожиданием m и средним квадратическим отклонением σ. Значение параметра σ = 68,89 = 8,3 известно. Находя по методу наибольшего правдоподобия оценку m̃ для неизвестного параметра m, получим m̃ = x = 19,02.
Теоретические вероятности pi найдем в предположении, что
исследуемая случайная величина Х распределена по нормальному
закону, используя формулу (2.15.7):
ai +1 − 19 ,02 ⎞
⎛ a − 19 ,02 ⎞ ;
⎟ – Ф0 ⎜ i
⎟
8,3
⎠
⎝
⎝ 8,3 ⎠
pi = Р(ai≤X<ai+1) = Ф0 ⎛⎜
здесь Ф0(х) – нормированная функция Лапласа, значения которой
приведены в Приложении 1. Всю область возможных значений
случайной величины разобьем на пять интервалов: (–∞,13),
[13,22), [22,25), [25,29), [29,+∞). Все дальнейшие вычисления
представим в виде следующей таблицы.
( mi − npi )
интервалы
[ai,ai+1)
частоты mi
pi
npi
(–∞,13)
28
0,2327
23,27
0,96
[13,22)
36
0,4079
40,79
0,56
[22,25)
13
0,1236
12,36
0,03
[25,29)
12
0,1207
12,07
0,01
[29,+∞)
11
0,1151
11,51
0,26
∑
n = 100
1,0
2
npi
χ2 = 1,82
По заданному уровню значимости α = 0,05 и числу степеней
2
свободы q =5–1–1=3 из таблицы Приложения 3 находим χ кр
= 7,8.
2
, то проверяемая гипотеза не противоречит данТак как χ2 < χ кр
Теория вероятностей и математическая статистика
161
ным наблюдений над случайной величиной, или следует считать,
что результаты согласуются с гипотезой о нормальном распределении случайной величины.
5.6.5. Критерий согласия Колмогорова
Вернемся к случаю, когда гипотетическая функция распределения полностью определена (проверяемая гипотеза – простая),
т. е. задана функция F(х) = FХ(х), которую предположим непрерывной. Мера D отклонения эмпирической (статистической) функции распределения Fn(х), построенной по выборке (х1, х2, …, хn) от
гипотетической (теоретической) функции распределения F(х),
предложенная А. Н. Колмогоровым, определяется следующим
образом
D = Dn = sup Fn ( x ) − F ( x ) .
x
Очевидно, Dn – величина случайная, и нас, как и в ранее разобранных случаях, интересует ее предельное при n→∞ распределение, вычисленное в предположении, что гипотеза FХ(х) = F(х)
справедлива. Ответ на поставленный вопрос дает следующая теорема, которую мы приводим без доказательства.
Теорема Колмогорова. Если функция распределения F(х)
непрерывна, то
(
)
lim P n Dn < x = К(х),
n →∞
⎧ +∞
k − 2k 2 x 2
, при x > 0
⎪ ∑ ( −1 ) e
где К(х) = ⎨k = −∞
.
⎪
0,
при x ≤ 0
⎩
Пользуясь таблицей предельной функции распределения
Колмогорова К(х) (Приложение 5), можно проверять простые гипотезы об одномерных распределениях совершенно так же, как и
при применении критерия χ2. Задав достаточно малую вероятность α (уровень значимости), можно найти по таблице функции
К(х) предел значимости (критическую точку) D0 = uα, определяемый уравнением
В. Н. Докин, Т. Г. Тюрнева
162
Р( n D≥D0) = P( n D≥uα) = 1 – K(uα) = α.
Если полученное по результатам опытов значение u = n D
меньше критического значения uα, то можно считать, что функция
распределения наблюдаемой величины Х есть F(x). Если же u≥uα,
то эту гипотезу следует отвергнуть.
Пример. Результаты 100 независимых измерений случайной
величины представлены в виде вариационного ряда
наблюдения
xi
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
частоты
mi
11
12
9
11
12
10
12
12
11
Пользуясь критерием Колмогорова, при уровне значимости
α = 0,05, проверить, согласуется ли гипотеза о равномерном на
[0,4] распределении случайной величины Х с данными выборки,
представленной вариационным рядом.
Решение. Определяя статистическую функцию распределения Fn(x), получим
⎧0 ,00,
⎪
⎪ 0 ,11,
⎪0 ,23,
⎪
⎪0 ,32 ,
⎪⎪0 ,43,
Fn(x) = ⎨
⎪0 ,55,
⎪0 ,65,
⎪
⎪0,77 ,
⎪0 ,89 ,
⎪
⎪⎩1,00 ,
при x ≤ 0
при 0 ,0 < x ≤ 0 ,5
при 0 ,5 < x ≤ 1,0
при 1,0 < x ≤ 1,5
при
при
при
при
1,5 < x ≤ 2 ,0
2 ,0 < x ≤ 2 ,5
2 ,5 < x ≤ 3,0
3,0 < x ≤ 3,5
.
(5.6.2)
при 3,5 < x ≤ 4 ,0
при x > 4 ,0
Так как проверяется гипотеза о равномерном на [0,4] распределении случайной величины х, то
Теория вероятностей и математическая статистика
163
⎧ 0,
при x ≤ 0
⎪
F(x) = ⎨0 ,25 x , при 0 < x ≤ 4 .
⎪ 1,
при x > 4
⎩
(5.6.3)
Сопоставляя (5.6.2) и (5.6.3) находим, что
D = Dn = sup Fn ( x ) − F ( x ) = 0,11.
x
Из таблицы предельной функции распределения Колмогорова К(х) (Приложение 5) определяем решение uα, удовлетворяющее
условию
К(uα) = 1 – α = 1 – 0,05 = 0,95.
Как
следует
из
таблицы
Приложения
5,
уравнению
К(uα) = 0,95 соответствует u0,05 = 1,36. Так как u = n D < u0,05, то
гипотеза о равномерности распределения на уровне значимости
α = 0,05 не противоречит опытным данным.
Вопросы для самопроверки
1. Что называется статистической функцией распределения?
2. Что такое гистограмма, как она строится?
3. Какая оценка параметра называется несмещенной?
4. Какая оценка называется состоятельной?
5. Какая оценка для дисперсии обладает свойствами состоятельности и несмещенности?
6. Что называется доверительным интервалом, доверительной вероятностью?
7. В чем заключается сущность метода наибольшего правдоподобия для нахождения оценок параметров?
8. Сформулируйте задачу статистической проверки гипотез.
9. В каком случае уравнения линейной регрессии у на х и х
на у совпадают?
Задачи к главе 5
1. Считая, что случайная величина Х распределена по показательному закону с плотностью распределения
f(x) = ae-ax (x>0),
В. Н. Докин, Т. Г. Тюрнева
164
по выборке (х1, х2, …, хn,), найти, с помощью метода наибольшего
правдоподобия, оценку параметра α.
2. Случайная величина Х имеет геометрическое распределение
Р(Х=k) = р(1–р)k–1, k = 1, 2, 3, …, (р>0).
Располагая результатами n независимых наблюдений (х1, х2,
…, хn), найти с помощью метода наибольшего правдоподобия
оценку параметра р.
3. Случайная величина Х распределена по закону с плотностью распределения
f(x) = a2e-ax (x>0).
Располагая результатами n независимых наблюдений (х1, х2,
…, хn), найти, используя метод моментов, оценку параметра а.
4. Дискретная случайная величина Х распределена равномерно
Р(Х=k) =
1
, k = r, r+1, …, r+m–1.
m
Используя метод моментов, найти оценки параметров r и m,
располагая выборкой (х1, х2, …, хn), полученной в результате n независимых наблюдений над случайной величиной Х.
5. Случайная величина Х имеет нормальное распределение с
известной дисперсией σ2 = 25. Построить доверительный интервал
для математического ожидания m по выборочному среднему
x = 14, если объем выборки n = 25 и задана доверительная вероятность 0,95.
6. Случайная величина Х имеет нормальное распределение.
Построить доверительный интервал для математического ожидания m по выборочному среднему x = 14 и выборочной дисперсии
σ2 = 24, если объем выборки n = 17 и задана доверительная вероятность 0,95.
Теория вероятностей и математическая статистика
165
ОТВЕТЫ К ЗАДАЧАМ
Глава 1
2. а) 0,026; б) 0,076. 3. 8
15
( 6) ;
5
. 4. а) 0,72; б) 0,27. 5. а) 5
( )
2
⎛ b⎞
б) C 5 6 ; в) 1– 5 . 6. 1
. 7. 7 . 8. ⎜1 − ⎟ , 0≤b≤a.
6
360
9
⎝ a⎠
4π − 3 3
. 10. 13 . 11. 38
. 12. 14 . 13. 0,9968. 14. 0,5.
9.
24
105
17
6π
20
7
15. 1–
. 16. 0,317. 17. 547. 18. 13. 19. 2.
8
3
5
5
2 -5
( )
Глава 2
1. МХ ≈ 3,33; DХ ≈ 1,11.
0
xi
pi
1
1
243
10
2
243
40
3
80
243
4
243
80
5
32
243
243
2. МY = 1,2; DY = 0,56; Р = 0,8.
уi
pi
0
0,2
1
0,4
2
0,4
3. х = 4; р1 = 1 ; р2 = 5 ; Р = 7 . 4. р1 = 1 ; р2 = 1 ;
8
8
8
р3 = 1 ; Р = 1 . 5. f(х) = sinx, 0≤x≤ π
4
DX =
4
π2 −8
16
F(х) = 1 –
4
2
. 6. а = 0,5; b = 1; DX = 11
; а = 1 ; МХ = π
16
(
)
2
;Р=1–
2
4
;
(
)
1 − 0 ,5
e + e− 2 ;
2
1 − x −2 x
−x
e +e
, х>0. 7. а = 0,5; b = 1; f(х) = 0,5 e ;
2
МХ = 0; Р = е-2. 8. MZ = 2; DZ = 14. 9. Кх,у = –2. 10. а = 0,5; МХ = 0;
В. Н. Докин, Т. Г. Тюрнева
166
DX = 2 ; ах = 0; Сх = 3. 11. М(cosХ) = e
−1
2
; D(cosX) =
(
43 − 3
12. 0,7016. 13.
e . 14. 1 – 0,8е–0,2.
3!
Глава 3
1. f(e )e , –∞<y<+∞. 2. 1 , е-2<y<е-1. 3.
y
y
y
1
−y
e 2 , у>0.
2πy
1 a2
x⎞
1⎛
, 0<x≤а2. 5. хе-х, х≥0.
4. а) ⎜⎜1 − ⎟⎟ , x ≤а; б) 2 ln
a⎝
a⎠
a
x
6.
{
}
1
min 1, 3 − x − 3 , 0≤x≤3.
2
2
2
Глава 4
1. Р ≥ 0,6325. 2. Р ≥ 0,99. 3. Р < 0,25; 0,0455. 4. Да. 5. Да.
6. e λ ( e
it
−1 )
. 7. 0,9108. 8. n ≥ 790. 9. 2Ф0( 12 ).
Глава 5
1 1
1. 1 . 2. 1 . 3. 2 . 4. r̃ = x − +
12 DB + 1 ,
x
m̃ =
x
x
2
2
12 DB + 1 . 5. (12,04; 15,96). 6. (11,32; 16,68).
)
2
1
1 − e−1 .
2
Теория вероятностей и математическая статистика
167
БИОГРАФИЧЕСКИЙ СЛОВАРЬ
Байес Томас (Bayes Thomas) (1702–1761) – английский математик, член Лондонского королевского общества. Основные
труды относятся к теории вероятностей; в частности, Т. Байес поставил и решил одну из основных задач элементарной теории вероятностей (теорема Байеса).
Бернулли Якоб (Bernoylli Jacob) (1654–1705) – швейцарский
математик, профессор Базельского университета. Основные труды
относятся к дифференциальному исчислению. Совместно с братом Иоганном положил начало вариационному исчислению.
Я. Бернулли доказал так называемую теорему Бернулли – важный
частный случай закона больших чисел.
Бернштейн Сергей Натанович (1880–1968) – российский
математик, академик АН СССР и АН УССР профессор Харьковского университета, Ленинградского политехнического института
и Ленинградского университета, член Немецкого союза математиков, Французского математического общества, почетный доктор наук Алжирского университета, Парижского университета,
иностранный член Болгарской АН, Парижской АН. Основные
труды по теории дифференциальных уравнений, теории функций
и теории вероятностей. В теории вероятностей С. Н. Бернштейн
разработал первую во времени (1917) аксиоматику, продолжил и в
некотором отношении завершил исследования Петербургской
школы Чебышева – Маркова по предельным теоремам, разработал
теорию слабозависимых величин, исследовал стохастические
дифференциальные уравнения и указал на ряд применений вероятностных методов в физике, статистике и биологии.
Гаусс Карл Фридрих (Gauss Carl Friedrich) (1777–1855) –
немецкий математик, внесший фундаментальный вклад также в
астрономию и геодезию, иностранный член-корреспондент и иностранный почетный член Петербургской АН. Отличительными
чертами творчества К. Гаусса являются глубокая органическая
связь в его исследованиях между теоретической и прикладной математикой, необычайная широта проблематики. Работы К. Гаусса
оказали большое влияние на развитие алгебры, теории чисел,
дифференциальной геометрии, теории тяготения, классической
теории электричества и магнетизма, геодезии, целых отраслей теоре-
168
В. Н. Докин, Т. Г. Тюрнева
тической астрономии. В 1794–1795 гг. открыл и в 1821–1823 гг. разработал основной математический метод обработки неравноценных наблюдательных данных (метод наименьших квадратов).
Гнеденко Борис Владимирович (1912–1995) – российский
математик, академик АН УССР, профессор Московского, Львовского, Киевского университетов. Основные труды – по теории вероятностей, математической статистике, истории математики. Автор известного университетского курса теории вероятностей [3];
член Международного статистического института, Международной ассоциации по применению статистики в физических науках,
Американского института математической статистики, почетный
член Лондонского статистического общества.
Гюйгенс Христиан (Huygens Christian) (1629–1695) – голландский механик, физик и математик, член Парижской АН, Лондонского королевского общества. Создал волновую теорию света,
развил ряд важнейших понятий механики, заложил основы теории
удара. В 22 года Х. Гюйгенс опубликовал первую математическую работу об определении длины дуг окружности, эллипса, и
гиперболы. Его трактат «О расчетах в игре в кости» (1657) – одно
из первых исследований в области теории вероятностей.
Колмогоров Андрей Николаевич (1903–1987) – российский
математик, академик АН СССР, профессор Московского университета, почетный член Московского математического общества,
почетный доктор наук Парижского университета, иностранный
член Польской АН, почетный член Королевского статистического
общества Великобритании, член Международного статистического института, почетный член Американской академии искусств и
наук в Бостоне, Американского метеорологического общества,
Индийского математического общества, Лондонского математического общества, Румынской АН, Венгерской АН, Международной академии истории науки; почетный доктор наук Стокгольмского университета, Индийского статистического института в
Калькутте; иностранный член Американского философского общества в Филадельфии, Нидерландской королевской АН, Лондонского королевского общества, Национальной АН США, Парижской АН, АН ГДР. Научную деятельность А. Н. Колмогоров начал
в области теории функций действительного переменного, где ему
принадлежат фундаментальные работы по тригонометрическим
рядам, теории меры, теории множеств, теории интеграла, теории
Теория вероятностей и математическая статистика
169
приближения функций. В дальнейшем А. Н. Колмогоров внес существенный вклад в разработку конструктивной логики, топологии, механики, теории дифференциальных уравнений, функционального анализа. Основополагающее значение имеют работы
А. Н. Колмогорова в области теории вероятностей, где он совместно с А. Я. Хинчиным начал применять методы теории функций
действительного переменного. Это позволило А. Н. Колмогорову
решить ряд трудных проблем и построить широко известную систему аксиоматического обоснования теории вероятностей, заложить основы теории Марковских случайных процессов с непрерывным временем. Позднее А. Н. Колмогоров развил теорию стационарных случайных процессов, процессов со стационарными
приращениями, ветвящихся процессов. Ему принадлежат исследования в области теории информации, по теории стрельбы, статистическим методам контроля массовой продукции, применениям
математических методов в биологии, математической лингвистике.
Лаплас Пьер Симон (Laplace Pierre Simon) (1749–1827) –
французский астроном, математик и физик, иностранный почетный член Петербургской АН, член Парижской АН, Член Французской академии. Научное наследие П. Лапласа относится к области небесной механики, математики и математической физики.
Фундаментальными являются работы по дифференциальным
уравнениям. В алгебре П. Лапласу принадлежит важная теорема о
представлении определителей суммой произведений дополнительных миноров. Для разработки созданной им математической
теории вероятностей П. Лаплас ввел так называемые производящие функции и широко применял преобразования, носящие его
имя, доказал теорему носящую его имя (локальная и интегральная
теоремы Лапласа), развил теорию ошибок и способ наименьших
квадратов.
Ляпунов Александр Михайлович (1857–1918) – русский
математик и механик, академик Петербургской АН, профессор
Харьковского университета, иностранный член-корреспондент
Парижской АН. А. М. Ляпунов создал строгую теорию устойчивости равновесия и движения механических систем, определяемых конечным числом параметров. Все работы по устойчивости
движения отечественных и зарубежных ученых, выполненные
после А. М. Ляпунова, основаны на его идеях и методах. Большой
цикл его исследований посвящен теории фигур равновесия рав-
170
В. Н. Докин, Т. Г. Тюрнева
номерно вращающейся жидкости, частицы которой взаимно притягиваются по закону всемирного тяготения. Небольшим по объему, но весьма важным для дальнейшего развития науки был цикл
работ по некоторым вопросам математической физики. В теории
вероятностей А. М. Ляпунов предложил новый метод исследования (метод производящих функций), замечательный по своей
общности и плодотворности; обобщая исследования П. Л. Чебышева и А. А. Маркова, А. М. Ляпунов доказал центральную предельную теорему теории вероятностей при значительно более общих условиях, чем его предшественники.
Марков Андрей Андреевич (1856–1922) – русский математик, академик Петербургской АН, профессор Петербургского
университета. Его научные исследования в области теории чисел
и математического анализа послужили основой дальнейших исследований в этой области. В теории вероятностей А. А. Марков
восполнил пробел, остававшийся в доказательстве основной предельной теоремы (закон больших чисел) и тем самым впервые дал
полное и строгое доказательство этой теоремы в достаточно общих условиях. Дальнейшие работы по распространению основной
предельной теоремы на последовательности зависимых величин
привели к замечательной общей схеме «испытаний, связанных в
цепь (цепи Маркова)». На этой элементарной схеме А. А. Марков
установил ряд закономерностей, положивших начало всей современной теории марковских процессов. Занимаясь различными
приложениями теории вероятностей, он дал, в частности, общепринятое в настоящее время вероятностное обоснование метода
наименьших квадратов.
Мизес Рихард (Mises Richard) (1883–1953) – немецкий математик и механик, профессор Страсбургского, Берлинского, Стамбульского и Гарвардского университетов, основатель и руководитель Института прикладной математики Берлинского университета. Основные труды по теории вероятностей, аэромеханике и прикладной механике. В теории вероятностей ввел в общее употребление интегралы Стилтьеса и первым подробно разъяснил значение теории цепей Маркова для физики.
Муавр Абрахам де (Moivre Abraham de) (1667–1754) – английский математик, член Лондонского королевского общества,
член Парижской и Берлинской АН. Абрахам де Муавр нашел правила (так называемую формулу Муавра) возведения в n-ю степень
Теория вероятностей и математическая статистика
171
и извлечения корня n-й степени для комплексных чисел. Исследовал степенные ряды, названные им возвратными; первым пользовался возведением в степень бесконечных рядов. В теории вероятностей доказал частный случай теоремы Лапласа.
Паскаль Блэз (Pascal Blaise) (1623–1662) – французский философ, писатель, математик и физик. Круг математических интересов весьма разнообразен. Б. Паскаль доказал одну из основных
теорем проективной геометрии (так называемую теорему Паскаля), нашел общий алгоритм для нахождения признаков делимости
любого целого числа на любоe другое целое число, способ вычисления биномиальных коэффициентов (треугольник Паскаля),
сформулировал ряд основных положений элементарной теории вероятностей. В своих работах Б. Паскаль впервые точно определил и
применил для доказательства метод математической индукции.
Пирсон Карл (Pearson Karl) (1857–1936) – английский математик, биолог, философ, член Лондонского королевского общества, профессор Лондонского университета. Основные труды по математической статистике (кривые Пирсона, распределение Пирсона). Разработал теорию корреляции, тесты математической статистики и критерии согласия.
Прохоров Юрий Васильевич (р. 1929) – российский математик, академик АН СССР, профессор Московского университета, вице-президент Международного математического союза, член
Международного статистического института, член общества Бернулли. Основные труды по теории вероятностей, особенно по
асимптотическим методам этой теории. В области классических
предельных теорем им изучены условия применимости усиленного закона больших чисел и локальных предельных теорем к суммам независимых случайных величин. В работах по предельным
теоремам случайных процессов предложил новые методы, основанные на изучении сходимости мер в функциональных процессах. Эти методы были применены им для обоснования предельного перехода от дискретных процессов к непрерывным, в частности
в задачах теории массового обслуживания и теории управления. В
области математической статистики доказал устойчивость в так
называемых характеризационных теоремах.
Пуассон Симеон Дени (Poisson Simeon Denis) (1781–1840) –
французский механик, физик, математик, иностранный почетный
член Петербургской АН, член Парижской АН. Основные труды
172
В. Н. Докин, Т. Г. Тюрнева
по теоретической и небесной механике, математике и математической физике. С. Пуассону принадлежат работы по интегральному исчислению (интеграл Пуассона), исчислению конечных разностей (формула суммирования Пуассона), теории дифференциальных уравнений с частными производными, теории вероятностей, где он доказал частный случай закона больших чисел и одну
из предельных теорем (теорема Пуассона, распределение Пуассона).
Стьюдент (Student) [псевдоним Уильяма Сили Госсета (William Sealy Gosset)] (1876–1937) – английский математик и статистик. Один из основоположников теории статистических оценок и
проверки гипотез. Установил статистическое правило проверки
гипотез (критерий Стьюдента), распределение отношения двух
независимых случайных величин (распределение Стьюдента).
Феллер Уильям Вильям (Feller William) (1906–1970) – американский математик, член Национальной АН США, профессор
Принстонского университета. Основные труды по теории вероятностей и её приложениям (в генетике, физике, экономике). Получил ряд первостепенных результатов в области предельных теорем теории вероятностей и теории диффузных случайных процессов. Автор получившего мировое признание учебника по теории
вероятностей.
Ферма Пьер (Fermat Pierre) (1601–1665) – французский математик. Является одним из создателей теории чисел, где с его
именем связаны две знаменитые теоремы: великая теорема Ферма
и малая теорема Ферма. В области геометрии развил метод координат, в области метода бесконечно малых дал общее правило
дифференцирования степенной функции. В подготовке современных методов дифференциального исчисления большое значение
имело данное им правило нахождения экстремумов. Доказал в
общем виде правило интегрирования степенной функции. В его
знаменитой переписке с Б. Паскалем [6] возникло классическое
определение вероятности.
Фишер Рональд Эйлмер (Fisher Ronald Aylmer) (1890–1962)
– английский статистик и генетик, один из основателей математической статистики, член Лондонского королевского общества.
Основные труды по статистике и генетической теории эволюции.
Ввел понятие «достаточной статистики», построил теорию точечных и интервальных статистических оценок, разработал методику
Теория вероятностей и математическая статистика
173
планирования экспериментов и внес существенный вклад в создание теории статистической проверки гипотез.
Хинчин Александр Яковлевич (1894–1959) – российский
математик, чл.-корр. АН СССР, профессор Московского университета. Основные труды по теории функций действительного переменного, теории вероятностей и теории чисел. Перенес методы
матричной теории функций в теорию чисел и теорию вероятностей. В теории вероятностей им получены важные результаты в
области предельных теорем, открыт закон повторного логарифма,
дано определение стационарного процесса и заложены основы
теории таких процессов. Методы и результаты теории вероятностей А. Я. Хинчин широко использовал в качестве математического аппарата статистической физики, им разработаны математические методы теории массового обслуживания.
Чебышев Пафнутий Львович (1821–1894) – русский математик и механик, академик Петербургской АН, профессор Петербургского университета, основатель Петербургской математической школы, иностранный член Берлинской АН, Болонской АН,
Парижской АН, чл.-корр. Лондонского королевского общества,
Шведской королевской АН и почетный член многих других русских и иностранных научных обществ, академий и университетов.
Исследования П. Л. Чебышева относятся к теории приближения
функций многочленами, интегральному исчислению, теории чисел, теории вероятностей, теории механизмов и многим другим
областям математики и смежных областей знаний. В теории вероятностей ему принадлежит заслуга систематического введения в
рассмотрение случайных величин и создание нового приема доказательства предельных теорем теории вероятностей – так называемого метода моментов. Им был доказан закон больших чисел в
весьма общей форме. Работы П. Л. Чебышева по теории вероятностей составляют важный этап в её развитии; кроме того, они явились базой, на которой выросла русская школа теории вероятностей, вначале состоявшая из его непосредственных учеников.
В. Н. Докин, Т. Г. Тюрнева
174
ПРИЛОЖЕНИЕ 1. Значения функции Ф0(х) =
х
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
1
2π
x
∫e
−
u2
2
du
0
0,08
0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
Теория вероятностей и математическая статистика
х
0,00
0,01
0,02
0,03
0,04
0,05
0,06
175
0,07
0,08
0,09
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
В. Н. Докин, Т. Г. Тюрнева
176
ПРИЛОЖЕНИЕ 2. Значения функции f(t) =
1
2π
e
−
t2
2
t
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,0
0,3989
3989
3989
3988
3986
3984
3982
3980
3977
3973
0,1
0,3970
3965
3961
3956
3951
3945
3939
3932
3925
3918
0,2
0,3910
3902
3894
3885
3876
3867
3857
3847
3836
3825
0,3
0,3814
3802
3790
3778
3765
3752
3739
3726
3712
3697
0,4
0,3683
3668
3653
3637
3621
3605
3589
3572
3555
3538
0,5
0,3521
3503
3485
3467
3448
3429
3410
3391
3372
3352
0,6
0,3332
3312
3292
3271
3251
3230
3209
3187
3166
3144
0,7
0,3123
3101
3079
3056
3034
ЗОИ
2989
2966
2943
2920
0,8
0,2897
2874
2850
2827
2803
2780
2756
2732
2709
2685
0,9
0,2661
2637
2613
2589
2565
2541
2516
2492
2468
2444
1,0
0,2420
2396
2371
2347
2323
2299
2275
2251
2227
2203
1,1
0,2179
2155
2131
2107
2083
2059
2036
2012
1989
1965
1,2
0,1942
1919
1895
1872
1849
1826
1804
1781
1758
1736
1,3
0,1714
1691
1669
1647
1626
1604
1582
1561
1539
1518
1,4
0,1497
1476
1456
1435
1415
1394
1374
1354
1334
1315
1,5
0,1295
1276
1257
1238
1219
1200
1182
1163
1145
1127
1,6
0,1109
1092
1074
1057
1040
1023
1006
0989
0973
0957
1,7
0,0940
0925
0909
0893
0878
0863
0848
0833
0818
0804
1,8
0,0790
0775
0761
0748
0734
0721
0707
0694
0681
0669
1,9
0,0656
6644
0632
0620
0608
0596
0584
0573
0562
0551
2,0
0,0540
0529
0519
0508
0498
0488
0478
0468
0459
0449
2,1
0,0440
0431
0422
0413
0404
0396
0338
0379
0371
0363
2,2
0,0355
0347
0339
0332
0325
0317
0310
0303
0297
0290
2,3
0,0283
0277
0270
0264
0258
0252
0246
0241
0235
0229
2,4
0,0224
0219
0213
0208
0203
0198
0194
0189
0184
0180
2,5
0,0175
0171
0167
0163
0158
0154
0151
0147
0143
0139
2,6
0,0136
0132
0129
0126
0122
0119
0116
0113
0110
0107
Теория вероятностей и математическая статистика
177
t
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
2,7
0,0104
0101
0099
0096
0093
0091
0088
0086
0084
0081
2,8
0,0079
0077
0075
007
0071
0069
0067
0065
0063
0061
2,9
0,0060
0058
0056
0055
0053
0051
0050
0048
0047
0046
3,0
0,0044
0043
0042
0040
0039
0038
0037
0036
0035
0034
3,1
0,0033
0032
0031
0030
0029
0028
0027
0026
0025
0025
3,2
0,0024
0023
0022
0022
0021
0020
0020
0019
0018
0018
3,3
0,0017
0017
0016
0016
0015
0015
0014
0014
0013
0013
3,4
0,0012
0012
0012
0011
0011
0010
0010
0010
0009
0009
3,5
0,0009
0008
0008
0008
0008
0007
0007
0007
0007
0006
3,6
0,0006
0006
0006
0005
0005
0005
0005
0005
0005
0004
3,7
0,0004
0004
0004
0004
0004
0004
0003
0003
0003
0003
3,8
0,0003
0003
0003
0003
0003
0002
0002
0002
0002
0002
3,9
0,0002
0002
0002
0002
0002
0002
0002
0002
0001
0001
Примечание: во всех столбцах, кроме первого, приведено
значение только дробной части значения функции, т. е. запись,
например, 0339 означает, что значение f(t) = 0,0339.
В. Н. Докин, Т. Г. Тюрнева
178
ПРИЛОЖЕНИЕ 3. χ 2 -распределение
Функция χ2α,q определяется равенством Р(χ2q> χ2 α,q)=α, где
случайная величина χ2q имеет χ2 – распределение с q степенями
свободы.
q\α
0,990
0,950
0,900
0,500
0,100
0,050
0,025
0,010
0,005
1 0,00016 0,00393
0,01579
0,45494
2,70554
3,84146
5,02389
6,63490
7,87944
2 0,02010 0,10259
0,21072
1,38629
4,60517
5,99146
7,37776
9,21034 10,59663
3 0,11483 0,35185
0,58437
2,36597
6,25139
7,81473
9,34840 11,34487 12,83816
4 0,29711 0,71072
1,06362
3,35669
7,77944
9,48773 11,14329 13,27670 14,86026
5 0,55430 1,14548
1,61031
4,35146
9,23636 11,07050 12,83250 15,08627 16,74960
6 0,87209 1,63538
2,20413
5,34812 10,64464 12,59159 14,44938 16,81189 18,54758
7 1,23904 2,16735
2,83311
6,34581 12,01704 14,06714 16,01276 18,47531 20,27774
8 1,64650 2,73264
3,48954
7,34412 13,36157 15,50731 17,53455 20,09024 21,95495
9 2,08790 3,32511
4,16816
8,34283 14,68366 16,91898 19,02277 21,66599 23,58935
10 2,55821 3,94030
4,86518
9,34182 15,98718 18,30704 20,48318 23,20925 25,18818
11 3,05348 4,57481
5,57778 10,34100 17,27501 19,67514 21,92005 24,72497 26,75685
12 3,57057 5,22603
6,30380 11,34032 18,54935 21,02607 23,33666 26,21697 28,29952
13 4,10692 5,89186
7,04150 12,33976 19,81193 22,36203 24,73560 27,68825 29,81947
14 4,66043 6,57063
7,78953 13,33927 21,06414 23,68479 26,11895 29,14124 31,31935
15 5,22935 7,26094
8,54676 14,33886 22,30713 24,99579 27,48839 30,57791 32,80132
16 5,81221 7,96165
9,31224 15,33850 23,54183 26,29623 28,84535 31,99993 34,26719
17 6,40776 8,67176 10,08519 16,33818 24,76904 27,58711 30,19101 33,40866 35,71847
18 7,01491 9,39046 10,86494 17,33790 25,98942 28,86930 31,52638 34,80531 37,15645
19 7,63273 10,11701 11,65091 18,33765 27,20357 30,14353 32,85233 36,19087 38,58226
Теория вероятностей и математическая статистика
q\α
0,990
0,950
0,900
0,500
0,100
0,050
0,025
179
0,010
0,005
20 8,26040 10,85081 12,44261 19,33743 28,41198 31,41043 34,16961 37,56623 39,99685
21 8,89720 11,59131 13,23960 20,33723 29,61509 32,67057 35,47888 38,93217 41,40106
22 9,54249 12,33801 14,04149 21,33704 30,81328 33,92444 36,78071 40,28936 42,79565
23 10,19572 13,09051 14,84796 22,33688 32,00690 35,17246 38,07563 41,63840 44,18128
24 10,85636 13,84843 15,65868 23,33673 33,19624 36,41503 39,36408 42,97982 45,55851
25 11,52398 14,61141 16,47341 24,33659 34,38159 37,65248 40,64647 44,31410 46,92789
26 12,19815 15,37916 17,29188 25,33646 35,56317 38,88514 41,92317 45,64168 48,28988
27 12,87850 16,15140 18,11390 26,33634 36,74122 40,11327 43,19451 46,96294 49,64492
28 13,56471 16,92788 18,93924 27,33623 37,91592 41,33714 44,46079 48,27824 50,99338
29 14,25645 17,70837 19,76774 28,33613 39,08747 42,55697 45,72229 49,58788 52,33562
30 14,95346 18,49266 20,59923 29,33603 40,25602 43,77297 46,97924 50,89218 53,67196
В. Н. Докин, Т. Г. Тюрнева
180
ПРИЛОЖЕНИЕ 4. Распределение Стьюдента
Значения функции t α ,n
Функция t α ,n определяется равенством Р(|τn|< t α ,n)=1 – α, где
случайная величина τn имеет распределение Стьюдента с n степенями свободы.
n\α
0,80
0,50
0,20
0,10
0,05
0,02
0,01
0,001
1
0,324920
1,000000
3,077684
6,313752
12,70620
31,82052
63,65674
636,6192
2
0,288675
0,816497
1,885618
2,919986
4,30265
6,96456
9,92484
31,5991
3
0,276671
0,764892
1,637744
2,353363
3,18245
4,54070
5,84091
12,9240
4
0,270722
0,740697
1,533206
2,131847
2,77645
3,74695
4,60409
8,6103
5
0,267181
0,726687
1,475884
2,015048
2,57058
3,36493
4,03214
6,8688
6
0,264835
0,717558
1,439756
1,943180
2,44691
3,14267
3,70743
5,9588
7
0,263167
0,711142
1,414924
1,894579
2,36462
2,99795
3,49948
5,4079
8
0,261921
0,706387
1,396815
1,859548
2,30600
2,89646
3,35539
5,0413
9
0,260955
0,702722
1,383029
1,833113
2,26216
2,82144
3,24984
4,7809
10
0,260185
0,699812
1,372184
1,812461
2,22814
2,76377
3,16927
4,5869
11
0,259556
0,697445
1,363430
1,795885
2,20099
2,71808
3,10581
4,4370
12
0,259033
0,695483
1,356217
1,782288
2,17881
2,68100
3,05454
4,3178
13
0,258591
0,693829
1,350171
1,770933
2,16037
2,65031
3,01228
4,2208
14
0,258213
0,692417
1,345030
1,761310
2,14479
2,62449
2,97684
4,1405
15
0,257885
0,691197
1,340606
1,753050
2,13145
2,60248
2,94671
4,0728
16
0,257599
0,690132
1,336757
1,745884
2,11991
2,58349
2,92078
4,0150
17
0,257347
0,689195
1,333379
1,739607
2,10982
2,56693
2,89823
3,9651
18
0,257123
0,688364
1,330391
1,734064
2,10092
2,55238
2,87844
3,9216
19
0,256923
0,687621
1,327728
1,729133
2,09302
2,53948
2,86093
3,8834
Теория вероятностей и математическая статистика
181
n\α
0,40
0,25
0,10
0,05
0,025
0,01
0,005
0,0005
20
0,256743
0,686954
1,325341
1,724718
2,08596
2,52798
2,84534
3,8495
21
0,256580
0,686352
1,323188
1,720743
2,07961
2,51765
2,83136
3,8193
22
0,256432
0,685805
1,321237
1,717144
2,07387
2,50832
2,81876
3,7921
23
0,256297
0,685306
1,319460
1,713872
2,06866
2,49987
2,80734
3,7676
24
0,256173
0,684850
1,317836
1,710882
2,06390
2,49216
2,79694
3,7454
25
0,256060
0,684430
1,316345
1,708141
2,05954
2,48511
2,78744
3,7251
26
0,255955
0,684043
1,314972
1,705618
2,05553
2,47863
2,77871
3,7066
27
0,255858
0,683685
1,313703
1,703288
2,05183
2,47266
2,77068
3,6896
28
0,255768
0,683353
1,312527
1,701131
2,04841
2,46714
2,76326
3,6739
29
0,255684
0,683044
1,311434
1,699127
2,04523
2,46202
2,75639
3,6594
30
0,255605
0,682756
1,310415
1,697261
2,04227
2,45726
2,75000
3,6460
В. Н. Докин, Т. Г. Тюрнева
182
ПРИЛОЖЕНИЕ 5. Распределение Колмогорова
+∞
Значения функции К(х)=
∑ ( −1 )k e− 2k
2 2
x
k = −∞
х
0
1
2
3
4
5
6
7
8
9
0,2
000000
000000
000000
000000
000000
000000
000000
000000
000001
000004
0,3
000009
000021
000046
000091
000171
000303
000511
000826
001285
001929
0,4
002808
003972
005476
007377
009730
012589
016005
020022
024682
030017
0,5
036055
042814
050306
058534
067497
077183
087577
098656
110394
122760
0,6
135718
142229
163225
177752
192677
207987
223637
239582
255780
272188
0,7
288765
305471
322265
339114
355981
372833
389640
406372
423002
439505
0,8
455858
472039
488028
503809
519365
534682
549745
564545
579071
593315
0,9
607269
620928
634285
647337
660081
672515
684636
696445
707941
719126
1,0
730000
740566
750825
760781
770436
779794
788860
797637
806130
814343
1,1
822282
829951
837356
844502
851395
858040
864443
870610
876546
882258
1,2
887750
893030
898102
902973
907648
912134
916435
920557
924506
928288
1,3
931908
935371
938682
941847
944871
947758
950514
953144
955651
958041
1,4
960318
962487
964551
966515
968383
970159
971846
973448
974969
976413
1,5
977782
979080
980310
981475
982579
983623
984610
985544
986427
987261
1,6
988048
988791
989492
990154
990777
991364
991917
992438
992928
993389
1,7
993823
994230
994612
994972
995309
995625
995922
996200
996460
996704
1,8
996932
997146
997346
997533
997707
997870
998023
998165
998297
998421
1,9
998536
998644
998744
998837
998924
999004
999079
999149
999213
999273
2,0
999329
999381
999429
999473
999514
999553
999588
999620
999651
999679
2,1
999705
999728
999750
999771
999790
999807
999823
999837
999851
999863
2,2
999874
999886
999895
999904
999912
999920
999927
999933
999939
999944
2,3
999949
999954
999958
999961
999965
999968
999971
999974
999976
999978
2,4
999980
999982
999984
999985
999987
999988
999989
999990
999991
999992
Примечание: во всех столбцах приведено значение только
дробной части значения функции, т. е. запись, например, 036055
означает, что значение К(х)= 0,036055
Теория вероятностей и математическая статистика
183
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Вентцель Е. С. Теория вероятностей / Е. С. Вентцель. –
М. : Высш. шк., 2001.
2. Вентцель Е. С. Задачи и упражнения по теории вероятностей : учеб. пособие для втузов / Е. С. Вентцель, Л. А. Овчаров. –
М. : Высш. шк., 2000.
3. Гнеденко Б. В. Курс теории вероятностей / Б. В. Гнеденко.
– М. : Наука, 1988.
4. Крамер Г. Математические методы статистики / Г. Крамер. – М. : Мир, 1975.
5. Кремер Н. Ш. Теория вероятностей и математическая статистика / Н. Ш. Кремер. – М. : ЮНИТИ, 2002.
6. Реньи А. Письма о вероятности / А. Реньи. – М. : Мир, 1970.
7. Севастьянов Б. А. Курс теории вероятностей и математической статистики / Б. А. Севастьянов. – М. : Наука, 1982.
8. Свешников Н. В. Сборник задач по теории вероятностей,
математической статистике и теории случайных функций /
Н. В. Свешников, К. Б. Старобин [и др.]. – М. : Наука, 1970.
9. Смирнов Н. В. Курс теории вероятностей и математической статистики для технических приложений / Н. В. Смирнов,
И. В. Дунин-Барковский. – М. : Наука, 1969.
10. Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1–2 / В. Феллер. – М. : Мир, 1984.
11. Чистяков В. П. Курс теории вероятностей / В. П. Чистяков. – М. : Агар, 2000.
В. Н. Докин, Т. Г. Тюрнева
184
Учебное издание
Докин Валерий Николаевич
Тюрнева Татьяна Геннадьевна
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Учебное пособие
ISBN 978-5-9624-0141-6
Редактор Э. А. Невзорова
Дизайн обложки: М. Г. Яскин
Макет: И. В. Карташова-Никитина
Темплан 2007. Поз. 7.
Подписано в печать 25.01.07. Формат 60x90 1/16.
Бумага офсетная. Печать трафаретная. Усл. печ. л. 10,7.
Уч.-изд. л. 7,5. Тираж 150 экз. Заказ 3.
РЕДАКЦИОННО-ИЗДАТЕЛЬСКИЙ ОТДЕЛ
Иркутского государственного университета
664003, г. Иркутск, бульвар Гагарина, 36
Скачать