Загрузил iunk777

Учебное пособие по ТВ 2016

реклама
ФИНАНСОВЫЙ УНИВЕРСИТЕТ
ПРИ ПРАВИТЕЛЬСТВЕ
РОССИЙСКОЙ ФЕДЕРАЦИИ
Н.И. Ильина
Е.А. Мещеряков
Н.В. Алексенко
Н.А. Бурмистрова
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
ДЛЯ ЭКОНОМИЧЕСКОГО БАКАЛАВРИАТА
УЧЕБНОЕ ПОСОБИЕ
ОМСК 2016
Федеральное государственное образовательное бюджетное учреждение
высшего образования
«Финансовый университет при Правительстве Российской Федерации»
Н. И. Ильина, Е. А. Мещеряков, Н. В. Алексенко, Н. А. Бурмистрова
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
ДЛЯ ЭКОНОМИЧЕСКОГО БАКАЛАВРИАТА
Омск
Издательство ООО «Образование информ»
2016
1
УДК 519.2(075.8)
ББК 22.17я73
И46
Р е ц е н з е н т ы:
Топчий В.А. – доктор физико-математических наук, профессор,
директор
Омского
филиала
Института
математики
им. С.Л. Соболева, СО РАН;
Забудский Г.Г. – доктор физико-математических наук,
профессор кафедры «Высшая математика и информатика»
Финансового университета при Правительстве РФ (Омский
филиал).
Ильина, Н. И.
И46 Теория вероятностей для экономического бакалавриата: учебное
пособие
/ Н.И. Ильина,
Е.А. Мещеряков,
Н.В. Алексенко,
Н.А. Бурмистрова. – Омск: образование информ, 2016. – 171 с.
ISBN 978-5-98649-048-9
Настоящее учебное пособие предназначено для студентов бакалавриата укрупненной
группы направлений подготовки 38.00.00 «Экономика и управление». Пособие содержит разделы:
«Случайные события» и «Случайные величины», а также приложения и библиографию. В
содержание пособия включен материал первой части дисциплины «Теория вероятностей и
математическая статистика», являющейся основой для последующего изучения математической
статистики. Представлен перечень образовательных компетенций в контексте содержания
конкретных тем, формируемых у студентов в соответствии с Образовательным стандартом
Финансового университета при Правительстве РФ по направлению «Экономика» на уровне
бакалавриата.
Благодаря большому числу детально разобранных практических задач экономического
содержания, пособие может быть полезно всем желающим использовать теоретико-вероятностные
методы в практической деятельности в сфере экономики и управления.
УДК 519.2(075.8)
ББК 22.17я73
ISBN 978-5-98649-048-9
 Финансовый университет при Правительстве Российской Федерации, 2016
 Ильина Н. И., Мещеряков Е.А., Алексенко Н.В., Бурмистрова Н.А., 2016
2
ОГЛАВЛЕНИЕ
Предисловие……………………………………………………… 6
Введение…………………………………………………………... 9
Раздел I. Случайные события
§1.
Классификация событий…………………………………………. 10
§2.
Элементы комбинаторики………………………………………… 14
§3.
Классическое определение вероятности………………………... 23
§4.
Статистическое определение вероятности……………………… 27
§5.
Геометрическое определение вероятности……………………... 30
§6.
Аксиоматическое определение вероятности……………………. 32
§7.
Действия над событиями…………………………………………
35
§8.
Теоремы сложения вероятностей………………………………..
38
§9.
Условная вероятность и теоремы умножения…………………..
42
§10. Формула полной вероятности……………………………………
48
§11. Формулы Байеса…………………………………………………..
51
§12. Повторные независимые испытания. Формула Бернулли……... 53
§13. Наивероятнейшее число успехов………………………………... 55
§14. Приближенные формулы Лапласа и Пуассона…………………. 57
§15. Компетенции……………………………………………………… 66
Раздел II. Случайные величины
§1.
Случайная величина и закон ее распределения………………… 68
§2.
Математические операции над случайными величинами……... 72
3
§3.
Математическое ожидание дискретной случайной величины… 76
§4.
Дисперсия дискретной случайной величины…………………… 81
§5.
Основные дискретные распределения и их характеристики…... 86
§6.
Функция распределения вероятностей………………………….. 94
§7.
Плотность распределения непрерывной случайной величины... 99
§8.
Числовые характеристики непрерывной случайной величины.. 104
§9.
Основные непрерывные распределения и их характеристики… 109
§10. Многомерные случайные величины. Дискретная двумерная
случайная величина и закон ее распределения………………..
125
§11. Непрерывная двумерная случайная величина………………….. 130
§12. Условные законы распределения………………………………..
133
§13. Зависимые и независимые случайные величины………………. 135
§14. Линейная регрессия………………………………………………. 146
§15. Закон больших чисел……………………………………………... 150
§16. Центральная предельная теорема………………………………..
158
§17. Компетенции……………………………………………………… 162
СПИСОК ЛИТЕРАТУРЫ………………………………………..
165
Приложение 1……………………………………………………..
167
Приложение 2……………………………………………………..
168
Приложение 3……………………………………………………... 169
Алфавитно-именной указатель
4
170
ПРЕДИСЛОВИЕ
Настоящее учебное пособие предназначено для студентов бакалавриата
укрупненной группы направлений подготовки 38.00.00 «Экономика и
управление». Пособие написано на основе опыта преподавания теории
вероятностей и математической статистики в Финансовом университете при
Правительстве Российской Федерации (Омский филиал). Содержание
представленного
федеральных
в
пособии
материала
государственных
образовательных
образования (ФГОС ВО 3+) по
«Экономика»,
38.03.02
соответствует
требованиям
стандартов
высшего
направлениям подготовки 38.03.01
«Менеджмент»,
38.03.04
«Государственное
и
муниципальное управление».
Содержание пособия включает материал первой части дисциплины
«Теория вероятностей и математическая статистика» и является основой для
последующего изучения математической статистики.
Ставя своей целью доступность излагаемого материала, авторы не
всегда приводят строгие математические доказательства теоретических
положений. Большое количество иллюстраций, схем, таблиц и практических
задач, в том числе из сферы экономики и управления так же облегчает
восприятие теоретического материала.
Материал пособия разбит на два раздела.
Первый раздел посвящен основным понятиям и теоремам теории
вероятностей:
описанию
случайного
эксперимента,
операциям
над
событиями, различным способам определения вероятности события. Здесь же
рассматриваются формулы полной вероятности и Байеса. Большое внимание
уделяется схеме повторных испытаний Бернулли и приближенным формулам
Муавра-Лапласа и Пуассона.
Второй раздел посвящен случайной величине и ее различным
характеристикам:
функции
математическому
ожиданию,
распределения,
дисперсии
и
плотности
т.п.
В
вероятности,
этом
разделе
рассматриваются основные дискретные и непрерывные распределения, их
5
свойства, а также приводятся сведения о многомерном распределении и его
частном случае – двумерном распределении. Завершают содержание второго
раздела предельные закономерности теории вероятностей: закон больших
чисел
и
центральная
предельная
теорема,
без
понимания
которых
невозможно в дальнейшем сформировать правильное представление о
статистических методах.
В рамках каждого из разделов детально разобраны практические
примеры, а также представлено содержание формируемых компетенций в
соответствии с Образовательным стандартом Финансового университета при
Правительстве РФ по направлению «Экономика» на уровне бакалавриата.
На
основании
анализа
требований
Образовательного
стандарта
Финуниверситета к результатам освоения образовательной программы
бакалавриата по направлению «Экономика» полный перечень компетенций,
формируемых в рамках учебной дисциплины «Теория вероятностей и
математическая статистика», отражен в таблице (табл. 1).
Таблица 1
Компетенции, формируемые у бакалавров
направления «Экономика» средствами дисциплины
«Теория вероятностей и математическая статистика»
Компетенции
Коды
компетенций
Универсальные компетенции
Общенаучные компетенции
Способность использовать основные научные законы в профессиональной
деятельности.
ОНК-1
Инструментальные компетенции
Способность применять методики расчетов и основные методы
исследований.
ИК-5
Системные компетенции
Способность применять полученные знания на практике
СК-1
Профессиональные компетенции направления
Способность применять математические методы для решения стандартных
профессиональных задач, интерпретировать полученные математические
результаты.
Способность оценивать финансово-экономические показатели деятельности
хозяйствующих субъектов.
6
ПКН-3
ПКН-4
В контексте содержания представленных компетенций, как наперед
заданных
результатов
образования,
очевидна
значимость
овладения
будущими бакалаврами формализованными методами принятия решений в
условиях неопределенности, что обеспечивает формирование способности
продуктивно решать проблемы неустойчивого цивилизационного развития и
составляет основу современной инновационной деятельности в сфере
экономики и управления.
Мы искренне признательны коллегам по кафедре «Высшая математика
и информатика», принимавшим участие в обсуждении и подготовке
материалов пособия. Благодарим наших рецензентов: доктора физикоматематических наук,
профессора
В.А.
Топчия
математических наук, профессора Г.Г. Забудского.
7
и доктора
физико-
ВВЕДЕНИЕ
Теория вероятностей среди математических наук занимает особое
место, так как изучает законы, управляющие случайными явлениями.
Практически все события и явления в окружающем нас мире
взаимосвязаны. Одно и то же событие или явление может быть следствием
одних и причиной других событий и явлений.
Некоторые идеи о случайных событиях появились еще в глубокой
древности. В трудах древнегреческих философов встречаются интересные
мысли о случайных и неслучайных явлениях. Но лишь с середины 18 века
теория вероятностей стала формироваться и развиваться как наука. Ее
развитие связано с именами французских ученых Б. Паскаля и П. Ферма, а
также голландского ученого Х. Гюйгенса.
Толчком к развитию теории вероятностей послужили азартные игры.
Первый трактат по теории вероятностей был написан Х. Гюйгенсом в 1657 г.
и назывался «О расчетах при азартных играх».
В нашей стране интерес к теории вероятностей возник только в первой
половине 19 века. Большой вклад в развитие теории вероятностей внесли
известные русские ученые П.Л. Чебышев, А.А. Марков, А.М. Ляпунов и др.
Одной из важных областей применения теории вероятностей является
экономика. Элементы случайности постоянно присутствуют в рыночных
отношениях и должны каким-то образом учитываться. Исследование и
прогнозирование, планирование в условиях неопределенности невозможны
без корреляционного и регрессионного анализа и других методов,
опирающихся на теорию вероятностей.
На теорию вероятностей опирается и математическая статистика,
методы которой широко применяются при решении многих экономических
задач.
8
Раздел I. СЛУЧАЙНЫЕ СОБЫТИЯ
§1. Классификация событий
В каждой науке существует ряд понятий, на которых строится эта
наука. В теории вероятностей одними из базовых понятий являются понятия
испытания и события.
Испытание (опыт, эксперимент, наблюдение) – это выполнение
определенного комплекса условий. При этом предполагается, что испытания
можно повторять неограниченное число раз.
Событием (случайным событием) называется исход (результат)
испытания, то есть любой факт, который в условиях испытания может
произойти.
Пример 1.1.
1.
Производится стрельба по мишени. Выстрел  это испытание.
Попадание в мишень (или промах)  это исход испытания или событие.
2.
Бросаем монету один раз. Подбрасывание монеты  испытание,
выпадение «орла» (или «решки»)  событие.
Различают достоверные, невозможные и случайные события.
Определение 1.1. Событие называется достоверным для данного
испытания,
если
оно
в
этом
испытании
обязательно
произойдет.
Обозначается такое событие буквой .
Событие называется невозможным для данного испытания, если оно
заведомо не произойдет в этом испытании. Обозначается такое событие
символом .
Событие называется случайным, если оно в результате данного
испытания может либо произойти, либо не произойти (в зависимости от
случая).
Обозначают случайные события, как правило, большими буквами
латинского алфавита: A,B,C,…
9
Пример 1.2.
1.
Испытание: уронили стакан на пол. Чашка разбилась – это
случайное событие (могла и не разбиться).
2.
Испытание: жидкость поместили в герметически запаянный
сосуд. Жидкость пролилась – событие невозможное.
3.
Испытание: помещаем шар на вершине гладкой покатой
поверхности. Шар скатился вниз – событие достоверное.
4.
В первой урне находятся только белые шары, во второй  белые и
черные. Испытание: извлекаем один шар из урны. Из первой извлечен белый
шар – достоверное событие, черный – событие невозможное. Из второй урны
извлечен белый шар – событие случайное.
Определение 1.2. Множество всех возможных исходов испытания
называется пространством элементарных исходов и обозначается буквой ,
а каждый его элемент i  называется элементарным исходом или
элементарным событием.
При этом мы имеем в виду только такие исходы, которые не состоят из
более простых исходов, т.е. исходы неделимые.
Различные случайные эксперименты приводят к разным типам
пространств элементарных исходов. В одних испытаниях пространство
элементарных исходов может быть конечным:   1 ,2 ,,n , в других –
бесконечным, но счетным:   1 ,2 ,, а в третьих пространство
элементарных исходов может быть бесконечным и несчетным.
Рассмотрим несколько примеров.
Пример 1.3.
1. Испытание: бросаем монету один раз:   Г; Ц .
2. Испытание: подбрасываем монету два раза. Исходы представляют
собой упорядоченные пары, где первый элемент  результат, выпавший при
первом бросании, второй элемент  результат, выпавший при втором
бросании. Таким образом,   ГГ ; ГЦ ; ЦГ ; ЦЦ .
10
3. Испытание: бросание игральной кости один раз. Пространство
элементарных исходов состоит из 6 элементарных исходов:   1; 2; 3; 4; 5; 6.
4. Испытание: бросаем две игральные кости. Элементарные исходы 
пары чисел (x,y), где х  число очков на первой кости, у  число очков на
второй кости. Всего таких исходов  36.
В теории вероятностей кроме элементарных событий рассматривают
события, состоящие более чем из одного исхода. Они называются
составными или сложными. Отдельный элементарный исход тоже событие,
событие элементарное.
Например, событие А – «выпадение четного числа очков» при
однократном бросании игральной кости состоит из трех элементарных
исходов: А  2; 4; 6.
Те элементарные исходы, при которых реализуется интересующее нас
событие, называются благоприятствующими данному событию или просто
благоприятными исходами.
Определение 1.3.
Если
при
каждом
испытании,
при
котором
происходит событие А, происходит и событие В, то говорят, что событие А
влечет за собой событие В или событие А является частным случаем
события В (АВ).
Пример 1.4. Бросаем игральную кость один раз. Рассмотрим события:
А  «выпало число кратное трем» и В  «выпало число, большее двух».
Очевидно, если произошло событие А, то произошло и событие В, т.е. АВ.
Определение 1.4. Равносильные (эквивалентные) события (А=В) те,
которые при каждом испытании либо оба наступают, либо оба не наступают.
Например, при однократном бросании игральной кости событие А 
«выпало четное число очков» и событие В  «выпало число, кратное двум»,
являются равносильными.
Определение 1.5.
Два
события
называют
несовместными
(несовместимыми), если появление одного из них исключает появление
11
другого в одном и том же испытании и совместными в противном случае
(появление одного не исключает появление другого в этом испытании).
Пример 1.5. Бросаем игральную кость один раз. Рассмотрим события:
А  «выпало число 1 или число 2», В  «выпало число 3 или число 4» и С –
«выпало число 2, или число 4, или число 6». Тогда пара событий А и В 
несовместные, а пары А, С и В, С  совместные.
Определение 1.6. Несколько попарно несовместных событий образуют
полную группу, если в результате испытания появится одно и только одно из
этих событий.
Пример 1.7. Бросаем игральную кость один раз. Выделим события,
возможные в этом испытании: А  «выпало четное число очков», В  «выпало
нечетное число» и С – «выпало составное число», События А и В образуют
полную группу, события: В и С –полную группу не образуют. Если к этим
двум событиям добавим третье событие, состоящее в том, что выпала двойка,
то получим полную группу событий.
Определение 1.7. Два события называются противоположными, если
они образуют полную группу.
Обозначение: А и A (читается «не А»).
Другими словами, событие В, заключающееся в том, что некоторое
событие А не произошло, называют противоположным к событию А: B  A .
Например, попадание в мишень при выстреле и промах, выпадение
четного числа и выпадение нечетного числа очков при бросании игральной
кости – это противоположные события.
Одним из основных понятий теории вероятностей является также
понятие равновозможности событий. Это понятие является первичным, не
подлежащим формальному определению. Его можно пояснить рядом
простых и доступных примеров.
Например, при бросании симметричной монеты могут произойти два
равновозможных события: выпадение герба и выпадение цифры, при
бросании игральной кости равновозможных исходов уже шесть, а при
12
извлечении одной карты из полной колоды имеем 52 равновозможных
исхода.
Будем
считать
события
равновозможными,
если
в
результате
испытания по условиям симметрии нет оснований считать ни одно из этих
событий объективно более возможным.
§2. Элементы комбинаторики
В теории вероятностей при решении задач приходится обращаться к
основным правилам и формулам комбинаторики.
Комбинации элементов некоторого множества могут быть составлены
различными способами: в виде размещений, перестановок и сочетаний. Эти
виды соединений являются основными понятиями комбинаторики.
Кроме того, в комбинаторике есть два важных правила, часто
применяемые при решении задач.
Пример 2.1. Пусть у нас имеется 4 различные чайные чашки и 5
различных блюдец. Тогда число способов выбрать только одну чашку или
только одно блюдце, очевидно, будет равно 9.
Если же нам нужно выбрать чайную пару, то число способов будет уже
равно 20, так как для каждой чашки можно выбрать одно из 5 блюдец и,
таким образом, с каждой из четырех чашек получится пять различных пар.
1. Правило сложения. Если один элемент из множества
Ai
(i  1,2,...,k ) можно выбрать ni способами и при этом любые два множества
Ai и A j не имеют общих элементов, то выбор одного элемента из любого из
к
этих множеств A1 , A2 , …, Ak можно осуществить n  n1  n2    nk   ni
l 1
способами.
2. Правило умножения. Если элемент х1 может быть выбран n1
способами, после каждого такого выбора элемент х2 может быть выбран n2
13
способами и т.д., то выбор всех элементов х1, х2 , , хk в указанном порядке
к
можно произвести N  n1  n2    nk  П ni способами.
l 1
Пример 2.2. В ящике 12 шаров. Известно, что 5 из них белые, 3 
черные, а остальные красные. Сколько существует способов извлечения
одного шара белого или красного цвета?
Р е ш е н и е . Шар белого цвета может быть извлечен n1  5 способами,
а шар красного цвета  n2  4 способами. По правилу суммы существует
n  n1  n2  5  4  9 способов извлечения одного шара белого или красного
цвета.
Пример 2.3. Сколькими различными способами можно распределить 4
шара по двум лункам, в каждую из которых помещается ровно 1 шар.
Р е ш е н и е . Очевидно, первую лунку можно заполнить 4 способами,
так как при выборе первой лунки имеется 4 шара. Вторую лунку можно
заполнить тремя шарами, так как после заполнения первой лунки осталось 3
шара. Заметим, что с каждым из 4-х способов заполнения первой лунки
может совпасть любой из трѐх способов заполнения второй. Поэтому общее
число способов распределения двух лунок равно: 4  3  12 .
Рассмотрим теперь основные понятия комбинаторики. Все понятия
удобно давать на примерах задач, которые называют модельными.
3. Перестановки и размещения.
Задача 2.1. Сколькими способами можно расставить в ряд n различных
шаров.
Р е ш е н и е . Представим, что перед нами есть n мест, на которые мы и
будем расставлять шары. Тогда для первого места есть ровно n вариантов
выбрать шар (так как на первом месте можно расположить любой из шаров),
причем все эти варианты различны.
Выбирая шар для второго места, мы имеем уже (n1) вариант (так как
на этом месте может стоять любой шар, кроме того, который уже стоит на
14
первом месте), причем число вариантов не зависит от того какой именно шар
стоит на первом месте. Поэтому число различных пар первого и второго
шара по правилу умножения будет равно n  (n  1).
Аналогично для третьего места есть ровно (n2) вариантов и число
различных троек первых трех шаров будет равно n  (n  1)  (n  2).
Для последнего места останется ровно один вариант, так как остальные
шары уже будут стоять на местах. Таким образом, число всех возможных
расстановок n шаров будет равно n  (n  1) 1  n!.
Здесь n! 1  2  3...(n  1)  n  произведение n первых чисел натурального
ряда.
Определение 2.1.
Перестановками
называются
упорядоченные
комбинации, отличающиеся друг от друга только порядком элементов.
Число всех перестановок Pn из n элементов определяется по формуле
Pn  n!
Замечание.
Если
рассматривать
(2.1)
число
n!
именно
как
число
перестановок из n элементов, то очевидно, что 0!  1 (так как число способов
расставить в ряд 0 шаров равно 1, мы просто ничего не ставим). Если же
рассматривать классическое определение числа n! , то равенство 0!  1
требует серьезного обоснования.
Пример 2.4. Сколько пятизначных чисел можно составить из цифр 1, 2,
3, 4 и 5, если каждая цифра встречается в записи числа ровно один раз?
Решение.
Так как любая перестановка этих цифр является
пятизначным числом, то количество различных чисел, удовлетворяющих
условию задачи, будет равно
Р5  5! 5  4  3  2 1  120.
Пример 2.5. Сколько пятизначных чисел можно составить из цифр 0, 1,
2, 3, и 4, если каждая цифра встречается в записи числа ровно один раз?
Р е ш е н и е . В этом случае вовсе не любая перестановка цифр будет
пятизначным числом, так как в перестановке на первом месте может
15
оказаться 0. Количество пятизначных чисел в этом случае можно посчитать
двумя способами.
Способ 1. Из общего числа перестановок из пяти различных элементов
вычтем те, в которых на первом месте стоит цифра 0. Таких перестановок
ровно Р4  4! 24 , так как это все равно, что расставлять цифры 1, 2, 3, и 4, а
потом впереди приписать 0. Таким образом, количество пятизначных чисел
равно P5  P4  5!4! 120  24  96.
Способ 2. Применим правило умножения. На первое место можно
поставить любую из четырех цифр (все, кроме нуля). После выбора первой
цифры на второе место можно поставить любую из оставшихся четырех
(кроме той, что стоит на первом месте). Для выбора третьей цифры остается
3 варианта, для четвертой  2 и для пятой  1. Итого, число различных
комбинаций равно 4  4  3  2 1  96.
Задача 2.2. Сколькими способами можно выложить в ряд m шаров,
если всего есть n различных шаров.
Р е ш е н и е . Для первого места есть ровно n вариантов, для второго
(n1) и т.д. Отличие от перестановок в том, что не нужно расставлять все
шары, а лишь m штук. Поэтому ограничимся рассмотрением числа вариантов
с первого до m-ого шара, для которого число вариантов равно (n  m  1) . По
правилу умножения число всех вариантов равно
n  (n  1)    (n  m  1) 
n!
.
(n  m)!
Очевидно, при m  n имеем число перестановок Pn из n элементов.
Определение 2.2.
Размещениями
называются
комбинации,
составленные из n различных элементов по m элементов, отличающиеся либо
составом элементов, либо порядком их расположения (либо и тем и другим).
Число всех возможных размещений Anm из n по m определяется по
формуле:
16
Аnm  n  (n  1)  (n  2)    (n  m  1) 
n!
.
(n  m)!
(2.2)
Пример 2.6. Сколько трехзначных чисел можно составить из 5
различных цифр, при условии, что среди них нет нуля?
Р е ш е н и е . Так как в данном случае искомые комбинации будут
состоять из трех элементов исходного пятиэлементного множества и порядок
расположения элементов дает различные комбинации, то общее число
способов равно A53 
5!
5!
  5  4  3  60.
(5  3)! 2!
Задача 2.3. Сколькими способами можно выложить в ряд m шаров,
если имеется n различных видов шаров и неограниченное число шаров
каждого вида?
Р е ш е н и е . Для первого места есть ровно n вариантов, для второго
тоже n поскольку на втором месте может стоять шар любого вида. И так
далее. Поэтому число всех возможных вариантов равно n
n

 n  nm .


m раз
Определение 2.3.
Размещениями
с
повторениями
называются
комбинации по m элементов, составленные из n видов предметов,
отличающиеся либо составом элементов, либо порядком их расположения и
возможностью повтора.
~
Число всех возможных размещений Anm из n по m с повторениями
определяется по формуле:
~
Anm  nm .
(2.3)
Пример 2.7. Сколько трехзначных чисел можно составить из цифр 1, 2,
3, 4, 5?
Р е ш е н и е . В данном случае искомые комбинации будут состоять из
трех элементов исходного пятиэлементного множества, при этом элементы
~
могут повторяться. Общее число способов равно A53  53  125.
17
Следующая основополагающая идея – это идея кратного счета.
Представим, что нам нужно посчитать количество коров, но мы не видим
самих животных, а видим лишь их ноги. Очевидно, что число коров будет
равно числу ног деленному на четыре.
Правило деления. Пусть каждой комбинации первого типа отвечает m
комбинаций второго типа и общее число комбинаций второго типа равно n.
Тогда число комбинаций первого типа равно n m.
Задача 2.4. Пусть у нас есть n шаров m различных цветов. Число шаров
цвета k равно nk и n1  n2    nk  n. Сколькими способами можно эти
шары выложить в ряд?
Р е ш е н и е . Заметим, что если бы все шары были различных цветов,
то вариантов было бы n! . Предположим, что у нас есть n1 красных шаров, а
все остальные разноцветные. Если мы будем считать красные шары тоже
разными, то всего вариантов будет n! .
Рассмотрим произвольный ряд. Если мы поменяем несколько красных
шаров, то ряд не изменится, так как на самом деле красные шары
одинаковые. А значит, одинаковые способы расстановки шаров мы
посчитали несколько раз. Возникает вопрос сколько именно. Так как ряд не
меняется при перестановке красных шаров, а переставить ровно n1 шаров мы
можем n1! способами, то каждый ряд мы посчитали ровно n1! раз. По правилу
деления общее число различных рядов равно не n! , а
n!
.
n1!
Заметим, что аналогичные рассуждения можно провести для любого
цвета. Поэтому общее число всех рядов равно
n!
.
n1!n2!  nm!
Определение 2.4. Перестановками из n элементов с повторениями
называются
упорядоченные
подмножества,
в
которых
элемент
a1
повторяется n1 раз, элемент a2 повторяется n2 раза, и так далее, элемент a m
повторяется nm раз, при этом n1  n2    nm  n .
18
~
Число всех возможных перестановок Pn (n1, n2 ,nm ) из n элементов с
повторениями определяется по формуле:
~
Pn (n1, n2 ,nm ) 
n!
.
n1!n2!  nm!
(2.4)
К перестановкам с повторениями относятся задачи на разбиение
множества на группы.
Пример 2.8. Сколькими способами можно разбить группу из 25
студентов на три подгруппы по 6; 9 и 10 человек соответственно?
Р е ш е н и е . Сопоставим каждому студенту шар по правилу: если
студент попадает в первую группу, то шар белый; если попадает во вторую,
то шар синий; если в третью  красный. Выстроим студентов в ряд. Тогда
каждому разбиению на группы будет соответствовать ряд из 25 шаров, из
которых 6 – белых, 9 – синих и 10 – красных. Каждому разбиению на группы
будет соответствовать свой ряд шаров. Поэтому число разбиений на группы
равно числу перестановок из 25 шаров, в которых одни повторяются 6 раз,
другие – 9 раз и третьи – 10 раз. Поэтому число разбиений равно
N  Р25 (6;9;10) 
25!
.
6!9!10!
4. Сочетания.
Задача 2.5. Сколькими способами можно из n шаров выбрать m, если
нам не важен порядок, в котором мы эти шары выбираем?
Р е ш е н и е . Предположим, что мы выбираем упорядоченный набор.
Тогда вариантов будет Аnm 
n!
. При этом мы по нескольку раз считали
(n  m)!
неупорядоченные наборы. Например, если мы выбираем три шара, то
неупорядоченный набор «красный, синий, зеленый», мы посчитали 6 раз:
КСЗ, КЗС, СЗК, СКЗ, ЗСК, ЗКС. Мы его посчитали столько раз, сколькими
способами можно переставить элементы этого набора. Так как у нас наборы
из m элементов, то каждый этот набор можно переставить m! способами.
19
Таким образом, число неупорядоченных наборов ровно в m! раз меньше, чем
Anm
n!
число неупорядоченных, то есть равно

.
Pm (n  m)!m!
Определение 2.5.
Сочетаниями
называются
комбинации
из
n
различных элементов по m, отличающиеся только составом своих элементов
(порядок их следования не важен!).
Сnm
из n элементов по m
n!
.
m!(n  m)!
(2.5)
Число всех возможных сочетаний
определяется по формуле:
Cnm 
Свойства числа сочетаний
1.
Cn0  Cnn  1;
2.
Cnm  Cnn  m , в частности Cn1  Cnn 1  n (свойство симметрии);
3.
Cnm  Cnm1  Cnm11 , 1  m  n (правило Паскаля);
4.
Cn0  Cn1  Cn2    Cnn  2n  следствие бинома Ньютона;
5.
Cn0  Cn1  Cn2  Ст3    (1) n Cnn  0.
Свойство 5 означает, что суммы биномиальных коэффициентов,
стоящих на четных и на нечетных местах равны.
Пример 2.9. В бригаде из 25 человек нужно выделить четырѐх для
работы на определѐнном участке. Сколькими способами это можно сделать?
Р е ш е н и е . Так как порядок выбранных четырѐх человек не имеет
4
значения, то это можно сделать С25
способами:
4
С25

25!
25! 22  23  24  25


 12650.
4!(25  4)! 4!21!
1 2  3  4
Задача 2.6. Сколькими способами можно выбрать подмножества из m
шаров, если всего есть n различных видов шаров и каждого вида
неограниченное число шаров?
20
Р е ш е н и е . Каждому подмножеству сопоставим полоску из n  m  1
клетки, из которых n  1 клетка будет черной, а остальные белые, по
следующему правилу: а) количество белых клеток до первой черной равно
числу шаров первого вида; б) число белых клеток между i-той и (i+1)-ой
черными клетками равно числу шаров (i+1)-го вида; в) число белых клеток
после (n-1)-ой черной равно числу шаров n-того вида. Общее число шаров в
подмножестве равно числу белых клеток, то есть m.
Очевидно, что каждому подмножеству однозначно сопоставляется
такая полоска, и наоборот. Значит искомое число подмножеств равно числу
таких полосок. А каждая из полосок однозначно определяется положением
белых клеток, которые можно расположить Cnm m 1 способами.
Определение 2.6. Сочетаниями с повторениями называют комбинации
из m элементов n различных видов (при этом число элементов каждого вида
неограниченно) с возможностью повтора, отличающиеся только составом
элементов.
~
Число всех возможных сочетаний Сnm из n по m с повторениями
определяется по формуле
(n  m  1)!
~
Cnm  Cnm m 1 
.
m!(n  1)!
(2.6)
Пример 2.10. В столовой имеется 5 видов пирожных. Сколько
различных наборов по 3 пирожных можно составить при том, что пирожные
в наборе могут быть одинаковыми?
Р е ш е н и е . Так как порядок пирожных в наборе не важен и пирожные
в наборе могут быть одинаковыми, то общее количество наборов
представляет собой число сочетаний из 5 по 3 с повторениями:
7! 7  6  5
~
С53  С5331  С73 

 35.
3!4! 3  2  1
21
§ 3. Классическое определение вероятности
Если провести испытание один раз, то предсказать его исход заранее
невозможно. Но если одно и то же испытание проводить многократно и в
одних и тех же условиях, то в появлении интересующих нас событий
проявляются определенные закономерности: одни события наступают чаще,
другие реже.
Например, выпадение числа 5 при бросании игральной кости и
выпадение четного числа очков, очевидно, имеют разную возможность
появления.
Вероятность события – это численная мера возможности его
появления.
Такое
определение,
качественно
отражающее
понятие
вероятности события, не является строгим. Необходимо определить его
количественно.
Существуют различные подходы к определению вероятности.
Классическая схема характеризуется следующими свойствами:
1)
пространство элементарных исходов конечно;
2)
все исходы равновозможны, попарно несовместны и образуют
полную группу.
Примеры неклассической схемы: выбор точки на отрезке; получение
той или иной оценки на экзамене.
Определение 3.1. Вероятностью события А называется отношение
числа благоприятствующих этому событию исходов к общему числу всех
равновозможных попарно несовместных элементарных исходов, образующих
полную группу:
P( A) 
NA
.
N
(3.1)
где Р(А)  вероятность события А, N – общее число исходов, а N A  число
благоприятных событию А исходов.
22
Классическое
определение
вероятности
события
впервые
было
сформулировано, хотя и в далеко не совершенной форме, швейцарским
математиком
Окончательно
Я.
это
Бернулли
в
работе
определение
«Искусство
оформилось
в
предположений».
работе
П.
Лапласа
«Аналитическая теория вероятностей».
Классическое определение вероятности следует рассматривать не как
определение, а как способ вычисления вероятности события для испытаний,
сводящихся к «схеме случаев» (или «схеме урн», так как любую подобную
вероятностную задачу можно свести к задаче с урнами с разноцветными
шарами).
Из
классического
определения
вероятности
события
вытекают
следующие основные свойства вероятности:
Свойство 1: Вероятность любого события заключена между нулем и
единицей:
0  P( A)  1 .
Свойство 2: Вероятность достоверного события равна единице:
P()  1
Свойство 3: Вероятность невозможного события равна нулю:
P()  0
Свойство 4:Сумма вероятностей противоположных событий равна
единице:
P( A)  P( A )  1.
Пример 3.1. Бросаются три игральные кости. Что вероятнее: получить
в сумме число 11 или 12?
Эта задача была одной из первичных, на которой формировались
понятия и методы теории вероятностей. Утверждают, что с ней была связана
следующая легенда: однажды один игрок в кости обратился к Галилею (по
другой версии к Гюйгенсу) с вопросом. Он заметил, что если бросать три
кости, то сумма 11 появляется несколько чаще, чем сумма 12. Между тем обе
23
суммы должны появляться одинаково часто, так как обе могут быть набраны
шестью способами, а именно:
11  1  5  5  1  4  6  2  3  6  2  4  5  3  3  5  3  4  4 ;
12  1  5  6  2  4  6  2  5  5  3  4  5  3  3  6  4  4  4 .
Отсюда,
по
его
мнению,
вытекает
равновозможность
обоих
интересующих его событий. В чем не прав был игрок?
Р е ш е н и е . Испытание – бросают три кубика. Тогда: {111, 112,
113,…, 116, 121,…, 126, …, 666} – полная группа равновозможных попарно
несовместных элементарных исходов этого испытания. Общее число таких
исходов: N  6  6  6  63 .
Ошибка игрока в том, что он рассматривал неравновозможные исходы.
Например, исход 1+4+6 наступает в два раза чаще, чем исход 1+5+5; сумме
1+4+6 соответствуют 6 исходов: 146, 164, 416, 461, 614, 641; а сумме 1+5+5
только три исхода: 155, 515, 551, разложение же 4+4+4 осуществимо всего
одним способом.
Отсюда общее число благоприятных исходов соответственно равно:
N11  27 , а N12  25 .
Следовательно, P(11) 
N
N11 27
25
 3 , P(12)  12  3 .
N
N
6
6
Таким образом Р(11)  Р(12) , что соответствует наблюдениям игрока.
Пример 3.2. Из колоды карт (36 карт) наудачу извлекаются три. Найти
вероятность того, что среди них окажется ровно один туз (событие А).
Р е ш е н и е . Полная группа равновозможных и несовместных событий
состоит из всевозможных комбинаций по 3 карты из 36. Так как порядок не
3
имеет значения, то их число равно числу сочетаний из 36 по 3, т.е. N  С36
.
Число благоприятствующих событию А исходов можно посчитать по
правилу произведения: одного туза можно выбрать из четырех С41  4
2
способами, а остальные 2 карты из оставшихся 32 карт С32
способами. Таким
2
образом, N A  C41  C32
, а искомая вероятность:
24
2
N A C41  C32
4  32!3!33! 4  31  32  3 496
P( A) 




 0,2778.
3
N
2!30!36!
34  35  36 1785
C36
Замечание. Рассмотренная в предыдущем примере ситуация, когда
исходное множество, из которого происходит выбор, делится по составу на
две или более группы, представляет собой пример «урновой модели»: пусть в
урне имеется N  n1  n2    nk шаров, причем ni – количество шаров i-го
цвета. Случайным образом из этой урны извлекают m шаров. Тогда
вероятность события А, состоящего в том, что среди извлеченных шаров
окажется ровно m1  n1 шаров первого цвета, m2  n2  второго цвета, …,
mk  nk  k-го цвета, так что m  m1  m2    mk , можно вычислить по
формуле:
P( A) 
C nm11  C nm22    C nmkk
C Nm
.
(3.2)
При k  2 говорят также, что случайное число шаров первого цвета
имеет
гипергеометрическое
распределение,
которое
подробно
будет
рассмотрено во втором разделе.
Недостатки классического определения вероятности
1. Классическое определение вероятности предполагает, что число
элементарных исходов конечно. На практике же часто встречаются
испытания, в которых число возможных исходов бесконечно.
2. Очень часто невозможно представить результат испытания в виде
совокупности элементарных событий.
3. Трудно указать основания, позволяющие считать элементарные
события равновозможными.
По этим причинам наряду с классическим определением вероятности
используют и другие определения.
25
§ 4. Статистическое определение вероятности
Существуют
события,
которые
по
своей
природе
не
имеют
равновозможных исходов. Например, в страховом бизнесе страховые случаи,
как правило, не являются равновозможными, они не наступают одинаково
часто.
В таких случаях используют статистическое определение вероятности,
которое определяется из опыта наблюдения за результатами испытаний.
Пусть проводится в неизменных условиях большое число независимых
испытаний, в каждом из которых интересующее нас событие А может
наступить или не наступить, и фиксируется число появлений события А в
проведенных испытаниях (частота события А).
Поясним это на примере: Дж.Е. Керрих, находясь в лагере во время
второй мировой войны, провел 10 серий по 1000 опытов в каждой по
бросанию монетки. Число выпадений герба в сериях была следующей: 502,
511, 497, 529, 504, 476, 507, 528, 504, 529. Мы видим, что эти числа
группируются вокруг 500, хотя ни одно из них не равняется 500.
Определение 4.1. Относительной частотой (или частостью, или
выборочной долей) события А называется отношение числа испытаний, в
которых событие появилось, к общему числу фактически произведенных
испытаний:
 ( A) 
mА
.
n
(4.1)
где  (А)  относительная частота события А, n – общее число проведенных
испытаний, а m A – число испытаний, в которых появилось событие А.
Сопоставляя классическое определение вероятности и определение
относительной частоты события А, заключаем: вероятность вычисляется до
опыта,
а
относительная
частота
является
экспериментальной.
26
характеристикой
опытной,
Типичная ситуация: проверка качества товара. Всю партию проверить
нельзя. Оценивается относительная частота брака (по выборке). На основе
статистических данных оценивается вероятность события. Данный подход
применим тогда, когда эксперимент можно повторять многократно при
неизменных условиях.
Пример 4.1. По данным шведской статистики относительная частота
рождения девочек в 1935 году характеризуется по месяцам следующими
числами: 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; 0,462; 0,484; 0,485; 0,491;
0,482; 0,473 (числа расположены в порядке следования месяцев, начиная с
января). Относительная частота колеблется около числа 0,482, которое
можно принять за приближенное значение вероятности рождения девочки.
При небольшом числе испытаний относительная частота события
носит случайный характер и может заметно меняться от одной группы
опытов
к
другой.
При
увеличении
числа
испытаний
случайные
обстоятельства, как правило, в массе взаимно погашаются, и частота (А)
проявляет тенденцию стабилизироваться, приближаясь к некоторой средней
величине.
Этот эмпирический факт называется свойством статистической
устойчивости
относительных
частот:
по
мере
неограниченного
увеличения числа однородных и независимых испытаний относительная
частота события А стремится к некоторой постоянной величине.
Если данное свойство выполняется, то число, к которому приближается
относительная частота события при неограниченном увеличении числа
испытаний, можно принять за вероятность события.
~
Определение 4.2. Статистической вероятностью Р ( А) события А
называется предел отношения числа испытаний, в которых событие
появилось, к общему числу фактически произведенных испытаний при
условии, что число произведенных испытаний стремится к бесконечности:
m
~
P  A  lim  ( А)  lim А .
n
n n
27
(4.2)
Легко
проверить,
что
свойства
вероятности,
вытекающие
из
классического определения, сохраняются и при статистическом определении
вероятности.
Для существования статистической вероятности события А требуется:
a)
возможность,
хотя
бы
принципиально,
производить
в
неизменных условиях неограниченное число испытаний, в каждом из
которых событие А может наступить;
b)
устойчивость относительных частот появления события А в
различных сериях достаточно большого числа испытаний;
c)
число испытаний должно быть достаточно большим.
Очевидно,
в
качестве
статистической
вероятности
мы
можем
рассматривать лишь приближенное значение относительной частоты , но
число испытаний при этом надо брать настолько большим, чтобы добавление
еще одного испытания могло изменить полученную частость лишь на
некоторую допустимую погрешность.
Пример 4.2. Многократно проводились опыты бросания монеты, в
которых подсчитывалось число появления «герба». Результаты нескольких
опытов (Ж. Бюффона и К. Пирсона) приведены в таблице:
Таблица 4.1.
Число испытаний
n
Число испытаний, в
которых выпал «герб»
m
Относительная частота
m
 ( A) 
n
4040
2048
0,5069
12000
6018
0,5015
24000
12012
0,5005
Здесь видно, что относительные частоты незначительно отклоняются
от числа 0,5 – вероятности появления «герба», причем отклонение тем
меньше, чем больше число испытаний.
28
§ 5. Геометрическое определение вероятности
Классическое определение вероятности основывается на том, что число
всех возможных исходов конечно и все исходы равновозможны. В
противном случае это определение неприменимо.
Геометрическое определение вероятности позволяет рассматривать
случайные события с бесконечным числом равновозможных исходов.
В данном случае множество элементарных исходов рассматривается
как некоторая область  в евклидовом пространстве и в ней меньшая область
А с квадрируемой границей.
Мы можем ввести такую геометрическую величину как мера для
исходов испытания, которая позволит сравнивать те области, которые
относятся к благоприятным для данного события исходам с областью всех
элементарных исходов.
Пусть для примера на плоскости расположена фигура А, которая
является частью фигуры . На фигуру  наудачу бросается точка. Введем
событие А – «попадание точки в область А мишени». Так как фигуры
расположены на плоскости, то они имеют площадь, которую можно
использовать как меру всех и благоприятных исходов. Вероятность
попадания в какую-либо часть области , очевидно, пропорциональна мере
этой части и не зависит от ее расположения и формы.
Определение 5.1.
Геометрической
вероятностью
события
А
называется отношение меры области, благоприятствующей появлению этого
события, к мере всей области:
P( A) 
mes ( A)
.
mes ()
(5.1)
Область, на которую распространяется геометрическое определение
вероятности, может быть:

одномерной и тогда ее мерой является длина;

двумерной  ее мерой будет площадь;
29

трехмерной ее мерой будет объем;

n-мерной в общем случай.
При этом вероятность попадания случайно взятой точки в область,
размерность которой меньше размерности n всей области (например, на
границу области), равна нулю.
Таким образом, если вероятность события равна нулю, то из этого не
следует, что событие является невозможным.
В качестве примера решения задачи на основе геометрического
определения вероятности, как правило, рассматривается задача о встрече.
Пример 5.1. Двое договорились встретиться между 11 и 12 часами дня
и ожидать друг друга в течение получаса. Какова вероятность их встречи?
Решение.
встречу
y
1
Обозначим моменты прихода лиц А и В на
y  x  0,5
L
K
соответственно
через
x
и
y.
В
прямоугольной системе координат Oxy начало
D
отсчета соответствует 11 часам, а единица
y x 0,5
0,5
d
измерения
равна
0  x  1, 0  y  1 .
1
часу.
Этим
По
условию
неравенствам
M
0
0,5
Рис. 5.1
1
x
удовлетворяют точки квадрата OKLM (см.рис.).
Событие С – «встреча людей А и В» 
произойдет, если разность между x и y по абсолютной величине не
превосходит 0,5 часа, т. е. y  x  0,5 .
Решением последнего неравенства является полоса x  0,5  y  x  0,5
(она заштрихована и обозначена буквой d), лежащая внутри квадрата OKLM
(область D). По геометрическому определению вероятности:
S (d ) 1  (0,5) 2
P(C ) 

 0,75 .
S ( D)
1
Так как площадь области d равна площади квадрата D без суммы
площадей двух угловых (не заштрихованных) треугольников.
30
Пример 5.2. На отрезок длины 10 см наугад бросается точка. Какова
вероятность того, что она упадет не далее, чем на расстояние 3 см от
середины отрезка?
Р е ш е н и е . Разобьем данный отрезок АВ длины 10 см точками С и D
(в указанном порядке) на три части так, что AC  DB  2 см, CD  6 см.
Рис. 5.2
Требование задачи будет выполнено, если точка попадет на отрезок СD
длины 6. И, значит, искомая вероятность равна: P 
CD
6
  0,6.
AB 10
Пример 5.3. В квадрат со стороной 4 см наугад бросают точку. Какова
вероятность того, что расстояние от этой точки до ближайшей стороны
квадрата будет меньше 1 см?
Решение.
Требование задачи будет выполнено, если точка
попадет в заштрихованную часть квадрата. Площадь
всего квадрата равна 16, а площадь благоприятной
области можно найти как разность площадей двух
квадратов со сторонами 4 и 2 соответственно.
Таким образом, искомая вероятность равна:
Рис. 5.3
P
16  4 12
  0,75.
16
16
§ 6. Аксиоматическое определение вероятности
Развитие многих наук в начале 20 века, и прежде всего естествознания,
потребовало от теории вероятностей систематизации основных понятий и
выяснения более точных условий, при которых возможно применение ее
31
результатов. Возникла необходимость в формально-логическом обосновании
теории вероятностей.
Первое аксиоматическое построение теории вероятностей (1917)
принадлежит российскому академику Сергею Натановичу Бернштейну (18801968), который исходил из качественного сравнения случайных событий по
их вероятности.
В начале 30-х годов прошлого столетия академик Андрей Николаевич
Колмогоров (1903-1987) связал теорию вероятностей с теорией множеств и
современной метрической теорией функций, что позволило построить
широко
известную
систему
аксиоматического
обоснования
теории
вероятностей.
Аксиоматическое построение основ теории вероятностей отталкивается
от основных свойств вероятности событий, которые легко просматриваются
при классическом и статистическом определении. То есть, аксиоматическое
определение
вероятности
включает
в
себя
как
частные
случаи,
рассмотренные выше классическое, статистическое и геометрическое
определения и не содержит недостатков каждого из них.
Приведем теоретико-множественную трактовку основных понятий
теории вероятностей.
Пусть   множество всех возможных исходов некоторого испытания,
элементы
i
которого
называются
элементарными
исходами
или
 
пространством
некоторое
подмножество
элементарными событиями, а само множество
элементарных событий (исходов).
Любое
событие
рассматривается
как
множества , состоящее из элементарных исходов.
Пространство элементарных исходов  представляет собой событие,
которое происходит всегда, и называется достоверным событием.
Ко всему пространству  добавляется еще одно событие
невозможное событие, обозначаемое символом .
32
–
Под
операциями
над
событиями
понимаются
операции
над
соответствующими множествами.
Основная идея аксиоматического подхода заключается в том, что не
все подмножества пространства элементарных исходов рассматриваются как
события. Предполагается, что множество событий – это такое семейство
подмножеств пространства , которое замкнуто относительно операций
конечного или счетного числа объединений и пересечений.
Сформулируем теперь аксиомы, определяющие вероятность.
Предполагается, что каждому событию А ставится в соответствие
некоторое число Р(А), называемое вероятностью события А. При этом
вероятность должна удовлетворять следующим аксиомам.
(А1). Вероятность любого события неотрицательна:
P( A)  0.
(А2). Вероятность достоверного события равна единице:
P()  1;
(А3). Вероятность суммы попарно несовместных событий равна сумме
вероятностей этих событий:
P( A1  A2    An )  P( A1 )  P( A2 )    P( An ).
Первая аксиома называется аксиомой неотрицательности, вторая 
аксиомой нормированности и третья  аксиомой конечной аддитивности.
Первые две аксиомы это обобщение свойств вероятности событий,
вытекающие из классического определения вероятности.
Из аксиом можно получить несколько важных следствий. Например:
1)
Вероятность невозможного события равна нулю.
P()  P(  )  P()  P()  1  1  P()  P()  0.
2)
Вероятность противоположного события равна единице минус
вероятность самого события.
1  P()  P( A  A )  P( A)  P( A )  P( A )  1  P( A).
3)
Вероятность любого события не больше единицы.
33
P( A)  P( A )  1, P( A)  0, P( A )  0  0  P( A)  1.
Аксиоматическое
определение
вероятности
приводим
лишь
в
ознакомительных целях. В дальнейшем все определения и теоремы будем
рассматривать на основе классического определения вероятности.
§ 7. Действия над событиями
Теория вероятностей позволяет вычислять вероятность различных
событий по известным вероятностям других событий. Это возможно в том
случае, если одни события можно выразить через другие с помощью различных
операций. Рассмотрим подробнее операции над событиями.
Определение 7.1. Суммой (или объединением) двух событий А и В
называется событие A  B (или А  B) , состоящее в наступлении хотя бы
одного из этих событий (либо события А, либо события В, либо обоих
событий одновременно).
В частности, если события А и В – несовместны, то событие A  B
состоит в появлении одного из этих событий.
Пример 7.1. Бросаем игральную кость один раз. Рассмотрим события:
событие А –«выпало четное число очков»; событие В  «выпало не менее 3
очков»; событие С – «выпало составное число (т.е. 4 или 6)». Тогда событие
A  B состоит в выпадении любого числа очков, кроме «единицы», а A  С 
эквивалентно событию А.
Определение 7.2. Произведением (или пересечением) двух событий А
и В называется событие
A B
(или A  B) , состоящее в совместном
наступлении событий А и В.
Очевидно, если события несовместны, то их произведение есть
невозможное событие.
34
Пример 7.2. В предыдущем примере событие A B состоит в выпадении
«четверки» или «шестерки», а событие A  С  эквивалентно событию С.
Определение 7.3. Разностью событий А и В называется событие A \ B
(или A  B) , состоящее в том, что событие А произойдет, а событие В не
произойдет.
Пример 7.3. Для событий А, В и С из примера 7.1 событие A \ B состоит в
выпадении «двойки»; событие B \ A  в выпадении «тройки» или «пятерки».
Сумму и произведение событий можно распространить на любое конечное
число событий.
Определение 7.4. Суммой нескольких событий называется событие,
состоящее в наступлении хотя бы одного из этих событий (одного или
более). Произведением нескольких событий называется событие, состоящее в
совместном наступлении всех этих событий.
Так как любое событие можно рассматривать как подмножество
пространства всех элементарных исходов , то и операции над событиями –
это операции над множествами. А значит, возможна геометрическая
иллюстрация действий над событиями с помощью диаграмм Эйлера-Венна.
Пусть испытание состоит в том, что случайным образом выбираем точку в
прямоугольнике (  достоверное событие). При этом: событие А – попадание
точки в круг А, событие В – попадание точки в круг В. Тогда события A  B, AB
и A \ B можно изобразить в виде заштрихованных областей на рисунках 7.1, 7.2
и 7.3 соответственно:
А
В
А+B
Рис.7.1
А
В
А
В
АB
А\B
Рис.7.2
Рис.7.3
35
Используя операции над событиями, нередко приходится одни события
представлять через другие, что значительно упрощает решение задач.
Пример 7.4. Студент сдает в сессию три экзамена. Введем следующие
события: А студент сдал первый экзамен, В – студент сдал второй экзамен и С –
студент сдал третий экзамен.
1.
Составим события:
a)
студент сдал хотя бы один экзамен;
b)
студент сдал только первые два экзамена;
c)
студент сдал только один экзамен.
Событие
Формула
Студент сдал хотя бы один экзамен
A B C
Студент сдал только первые два экзамена
ABC  AB \ C
Студент сдал только один экзамен
A  B C  A B C  A  B  C
2.
a)
b)
c)
Назовем события:
A  B C ;
 \ ( ABC) ;
A  B C ;
 \ ( A  B  C) ;
A  B  C  A B  C  A B  C ;
( AB  BC  AC) /( ABC) .
d)
e)
f)
Формула
Событие
A  B C
Хотя бы один экзамен не сдал
 \ ( ABC )
Хотя бы один экзамен не сдал
A  B C
Все экзамены не сдал
 \ ( A  B  C)
Все экзамены не сдал
A  B  C  A B  C  A B  C
Сдал ровно два экзамена
( AB  BC  AC ) /( ABC )
Сдал ровно два экзамена
36
Свойства операций над событиями
1)
А    ; А  А  А; А    А ;
2)
А    А; А  А  А; А  =;
3)
A  A  ; A  A  ;
4)
A  B  B  A – коммутативность сложения;
5)
A  ( B  C )  ( A  B)  C  ассоциативность сложения;
6)
A  B  B  A  коммутативность умножения;
7)
A( BC )  ( AB)C  ассоциативность умножения;
8)
( A  B)  C  AC  BC; A  ( B  C )  AB  AC;
A  BC  ( A  B)  ( A  C )  законы дистрибутивности;
9)
A  B  A  B ; A  B  A  B  законы де Моргана.
§8. Теоремы сложения вероятностей
Пусть известны вероятности некоторых событий и требуется найти
вероятность их суммы. Рассмотрим две ситуации, когда рассматриваемые
события несовместны и когда они могут происходить одновременно в одном
и том же испытании.
Теорема 8.1.
(теорема
сложения
для
несовместных
событий)
Вероятность суммы двух несовместных событий равна сумме вероятностей
этих событий:
Р( A  B)  Р( A)  Р( B).
(8.1)
Д о к а з а т е л ь с т в о . Проведем доказательство с использованием
классического определения вероятности. Введем обозначения:
N  общее число элементарных исходов испытания;
N A  число исходов, благоприятных для события А;
N B  число исходов, благоприятных для события В.
37
Так как события А и В несовместны, то нет исходов благоприятных и
событию А и событию В одновременно. А значит, число исходов, благоприятных
хотя бы одному из этих событий, т.е. благоприятных событию A  B , равно
N A B  N A  N B .
По определению вероятности получим:
P( A  B) 
N A B N A  N B N A N B



 P( A)  P( B).
N
n
n
n
Что и требовалось доказать.
Пример 8.1. В ящике 10 красных и 5 синих шаров. Случайным образом
вынимают два шара. Какова вероятность того, что шары одного цвета?
Р е ш е н и е . Событие А – «вынуты шары одного цвета» можно
представить как сумму событий В и С, где события В и С означают
соответственно выбор шаров красного и синего цвета: A  В  С .
Найдем вероятности событий В и С. Два шара из 15 можно выбрать
2
С15

15!
10!
2
 7  15  105 способами, два красных шара из 10 – С10

 45
2!13!
2!8!
способами, а два синих из пяти –
P( B) 
С52 
5!
 10
2!3!
способами. Тогда
45
9
10
2
 , P(C ) 
 . Так как события несовместны, то по теореме
105 21
105 21
сложения получим
P( A)  P( B  C )  P( B)  P(C ) 
Методом
математической
9 2 11
 
 0,524.
21 21 21
индукции
эту
теорему
можно
распространить на любое конечное число слагаемых. А именно:
Следствие 1. Вероятность наступления хотя бы одного из конечного
числа попарно несовместных событий равна сумме вероятностей этих
событий:
Р( A1  A2  ...  An )  Р( A1 )  Р( A2 )  ...  Р( An ).
(8.2)
Еще раз подчеркнем, что это следствие применимо лишь для попарно
несовместных событий.
38
Следствие 2. Сумма вероятностей событий H1 , H 2 ,, H n , образующих
полную группу попарно несовместных событий, равна 1:
P( H1 )  P( H 2 )    P( H n )  1.
Д о к а з а т е л ь с т в о . Так как
n
 Hi
(8.3)
  , а вероятность достоверного
i 1
n
события равна 1, то P( H i )  P()  1 .
i 1
События
H1 , H 2 ,, H n
попарно
несовместны,
значит,
согласно
следствию 1 получим:
P( H1  H 2    H n )  P( H1 )  P( H 2 )    P( H n )  1 .
Что и требовалось доказать.
Следствие 3. Сумма вероятностей противоположных событий равна 1:
P( A)  P( A )  1.
(8.4)
Д о к а з а т е л ь с т в о . Так как противоположные события образуют
полную группу, то по следствию 2 сумма их вероятностей равна единице.
Что и требовалось доказать.
Последняя формула имеет большое практическое значение. При решении
некоторых задач нередко оказывается достаточно сложным вычислить
вероятность события, и в то же время, не составляет труда найти вероятность
события ему противоположного. В таких случаях вероятность события А
вычисляют по формуле:
P( A)  1  P( A ).
(8.5)
Теорема 8.2. (теорема сложения для совместных событий) Вероятность
наступления хотя бы одного из двух совместных событий равна сумме
вероятностей каждого из них за вычетом вероятности их совместного
наступления:
P( A  B)  P( A)  P( B)  P( AB).
(8.6)
Д о к а з а т е л ь с т в о . Проведем доказательство с использованием
классического определения вероятности. Введем обозначения:
39
N  общее число элементарных исходов испытания;
N A  число исходов, благоприятных для события А;
N B  число исходов, благоприятных для события В;
N AB  число исходов, благоприятных для обоих событий,
N A  B  число исходов, благоприятных хотя бы одному из этих событий.
Тогда: N A B  N A  N B  N A B . По определению вероятности получим:
P( A  B) 
N A B N A  N B  N AB N A N B N AB




 P( A)  P( B)  P( AB).
N
n
n
n
n
Что и требовалось доказать.
Теорему 8.2. можно обобщить на случай трех и более совместных
событий. В частности для трех совместных событий имеет место следующая
формула:
P( A  B  C )  P( A)  P( B)  P(C )  P( AB)  P( AC)  P( BC)  P( ABC). (8.7)
Если число событий будет больше трех, то соответствующая формула
весьма громоздка. В этих случаях проще переходить к рассмотрению
вероятности противоположного события и затем к применению следствия 3.
Теорема 8.3. Вероятность появления хотя бы одного из событий
A1, A2 ,...,An определяется формулой:
P( A1  A2   An )  1  P( A1  A2  An ).
(8.8)
Д о к а з а т е л ь с т в о . Событие A  A1  A2   An – «появилось хотя бы
одно из событий A1 , A2 ,..., An » и событие B  A1  A2    An – «не появилось
ни одно из событий A1 , A2 ,...,An »  противоположны.
Событие В можно представить как произведение событий A1, A2 ,..., An :
B  A1  A2    An  A1  A2  An .
Отсюда:
P( A)  P( A1  A2   An )  1  P( A1  A2    An )  1  P( A1  A2   An ).
Что и требовалось доказать.
40
§9. Условная вероятность и теоремы умножения
При рассмотрении теорем сложения совместных событий мы столкнулись
с необходимостью вычисления вероятности их произведения.
Если при использовании теорем сложения необходимо учитывать
совместность/несовместность событий, то применение теорем умножения
требует проверки случайных событий на зависимость/независимость.
Определение 9.1. Два события называются независимыми, если
наступление любого из них не изменяет вероятность наступления другого и
зависимыми в противном случае.
Пример 9.1. Бросается игральная кость. Событие А – «выпадение четного
числа очков», событие В – «выпадение числа большего трех». Если событие А
наступило (выпало число 2 или 4 или 6), то событию В будут благоприятны два
исхода из трех. Поэтому вероятность события В при условии, что событие А
произошло, равна 2/3. В то же время вероятность события В без учета
наступления события А равна 1/2. Так как 2/3>1/2, то наступление события А
повысило вероятность события В.
Несовместные события всегда зависимы, так как появление одного
исключает появление другого.
Наряду с крайними случаями (когда наступление одного события
исключает наступление другого или, наоборот, ведет к обязательному его
появлению) существуют и другие зависимости. Для характеристики зависимости
одних событий от других вводится понятие условной вероятности.
Пусть с испытанием связаны события А и В, имеющие ненулевую
вероятность.
Определение 9.2.
Вероятность
события
В,
вычисленная
в
предположении, что событие А уже произошло, называется условной
вероятностью события В.
Обозначается: Р( B / A) или Р A (B) .
41
Очевидно, для независимых событий А и В вероятность события равна
его условной вероятности, т.е. выполняется равенство:
Р( B / A)  P( B), P( A / B)  P( A).
(9.1)
Нетрудно доказать, что в общем случае, где Р( A)  0 имеем:
Р( A  B)
.
Р( A)
Р( B / A) 
(9.2)
Действительно, пусть событие А – «попадание точки в область А», событие
В – «попадание точки в область В». Тогда событие А  В – попадание случайной
точки в область d, которая выделена на рисунке штриховкой.
А
В
d

Рис.9.1
По геометрическому определению вероятности:
P( B / A) 
площадь d
площадь A

S (d ) S (d ) / S () P( A  B)


.
S ( A) S ( A) / S ()
P( A)
Аналогично определяется условная вероятность события А:
Р( А / В) 
Р( A  B)
.
Р( В)
(9.3)
где Р( В)  0.
Очевидно, если A  B   , то P( A / B)  0, а если B  A , то P( A / B)  1.
Из формул (9.2), (9.3) условной вероятности следует теорема умножения
вероятностей, которая имеет огромное практическое значение.
Теорема 9.1. (теорема умножения для зависимых событий) Вероятность
совместного наступления двух зависимых событий равна произведению
вероятности одного из них на условную вероятность другого, вычисленную в
предположении, что первое событие уже наступило:
Р( AB)  Р( A)  Р( B / A)  Р( B)  Р( A / B).
42
(9.4)
Пример 9.2. В урне 5 белых и 7 черных шаров. Из урны случайным
образом последовательно без возвращения вынимают 2 шара. Найти вероятность
того, что оба шара белые.
Р е ш е н и е . Введем обозначения: событие Ai  «iй извлеченный шар
белый» ( i  1;2 ). Тогда событие А  «оба шара белые» можно записать как
произведение этих двух событий: А  А1  А2 .
Вероятность того, что первый извлеченный шар будет белым, равна
P( A1 ) 
5
. После наступления события A1 , в урне останется 11 шаров, из
12
которых только 4 белые. Поэтому вероятность того, что второй извлеченный шар
будет белым, равна P( A2 / А1 ) 
4
. Таким образом, вероятность извлечения
11
двух белых шаров, согласно формуле (9.4), равна:
P( A)  P( A1 )  P( A2 / A1 ) 
5 4
5
  .
12 11 33
Эту задачу можно было решить с использованием классического
определения вероятности. Действительно, число всех возможных исходов
испытания равно числу сочетаний из 12 по 2, а число благоприятных исходов
– числу сочетаний из 5 по 2. Таким образом, получим:
C52
5! 10!2! 5  4
5
P( A)  2 


 .
C12 3!2! 12! 12  11 33
Теорема умножения вероятностей, с учетом формул (9.1), принимает
наиболее простой вид для независимых событий.
Следствие 1. Вероятность совместного наступления двух независимых
событий равна произведению их вероятностей:
Р( AB)  Р( A)  Р( B).
Соотношение
(9.5)
часто
используется
(9.5)
для
установления
независимости двух событий, так как верно и обратное утверждение.
43
Следствие 2. Если для двух событий с ненулевой вероятностью
выполняется равенство
Р( AB)  Р( A)  Р( B),
то эти события независимы.
Доказательство.
P( A / B) 
P( AB) P( A)  P( B)

 P( A).
P( B)
P( B)
Что и требовалось доказать.
Теорема умножения вероятностей обобщается на случай любого
конечного числа событий.
Следствие 3. Вероятность произведения нескольких событий равна
произведению вероятности одного из этих событий на условные вероятности
остальных, причем условная вероятность каждого последующего события
вычисляется в предположении, что все предыдущие события уже произошли:
P( ABCMN )  P( A)  PA ( B)  PAB (C )   PABCM ( N )
(9.6)
Пример 9.3. В условиях предыдущего примера определить вероятность
того, что извлеченные из урны один за другим 4 шара окажутся черными.
Р е ш е н и е . Пусть событие Bi  «iй извлеченный шар черный»
(i  1; 2; 3; 4) , а событие В – «все извлеченные шары черные», тогда используя
формулу (9.6), получаем:
P( B)  P( B1  B2  B3  B4 )  P( B1 )  PB1 ( B2 )  PB1B2 ( B3 )  PB1B2 B3 ( B4 ) 

Пример 9.4.
Из
колоды
карт
(36
карт)
7 6 5 4 7
    .
12 11 10 9 99
наудачу
извлекаются
последовательно две карты. Событие А – «первая карта туз», событие В –
«вторая карта туз». Проверить зависимы или независимы события А и В.
Р е ш е н и е . Вероятность того, что вторая карта туз, найдем по
классическому определению. Общее число исходов испытания равно:
N  36  35, а число благоприятных исходов равно (первая карта туз и вторая
44
туз
или
первая
карта
не
туз
и
вторая
карта
туз):
N B  4  3  32  4  4  (3  32)  4  35. Отсюда:
P( B) 
NB
4  35 1

 .
N
36  35 9
Если первоначально был извлечен туз, то в колоде осталось 35 карт,
среди которых всего 3 туза, а значит, условная вероятность события В равна:
P( B / A) 
NB
3

 P( B) .
N
35
Таким образом, события зависимы.
Свойства независимых событий
Свойство 1: Если событие В не зависит от события А , то и событие А не
зависит от события В: P( B / A)  P( B)  P( A / B)  P( A).
Д о к а з а т е л ь с т в о . По условию событие В не зависит от события А:
P( B / A)  P( B) 
P( AB)
 P( B)  P( AB)  P( A)  P( B).
P( A)
Рассмотрим условную вероятность события А:
P( A / B) 
P( AB) P( A)  P( B)

 P( A).
P( B)
P( B)
Что и требовалось доказать.
Свойство 2: Если события А и В несовместны и их вероятности отличны
от нуля, то они зависимы.
Д о к а з а т е л ь с т в о . По условию: P( A)  0, P( B)  0. Так как события
А и В несовместны, то P( AB)  0. Отсюда получим:
P( A / B) 
P( AB)
 0  P( A) .
P( B)
Следовательно, А и В  зависимые события.
Что и требовалось доказать.
Свойство 3: Если события А и В независимы, то независимы и пары
событий: А и В, А и В , А и В .
45
Д о к а з а т е л ь с т в о . Докажем независимость событий А и В. По
условию события А и В независимы, следовательно, P( AB)  P( A)  P( B).
Событие В представим следующим образом В  В  А  В  А. Тогда:
P( B)  P( В  А  В  А )  P( В  А)  P( В  А )  P( В)  P( А)  P( В  А ).
Следовательно:
P( В  А )  P( B)  P( В)  P( А)  P( B)  (1  P( A))  P( B)  P( A ).
Получили: P( B  A )  P( B)  P( A ) , а значит события А и В независимы.
Что и требовалось доказать.
Понятие независимости событий можно обобщить на любое конечное
число событий.
Определение 9.2. События А1 , А2 , , Аn независимы в совокупности (или
просто независимы), если вероятность любого из них не меняется при
наступлении какого угодно числа событий из остальных.
Например, три события А, В, С независимы в совокупности, если
независимы события А и В, А и С, В и С, А и В  С, В и А  С, С и А  В.
Определение 9.3. События
А1 , А2 , , Аn попарно независимы, если
независимы любые два из них.
Очевидно,
из
независимости
в
совокупности
следует
попарная
независимость, но попарная независимость событий еще не означает их
независимость в совокупности.
Если события независимы в совокупности, то:
P( A1  A2  ... An )  P( A1 )  P( A2 )  ... P( An ).
(9.7)
Пример 9.5. Вероятность сдать каждый из трех экзаменов в сессию для
студента Петрова равна соответственно 0,8; 0,9 и 0,7. Какова вероятность того,
что студент сдаст все три экзамена?
Р е ш е н и е . Введем события: Ai  «студент сдаст iй экзамен», А 
«студент сдаст все три экзамена». Тогда: А  А1  А2  А3 .
46
По условию: p1  P( A1 )  0,8, p2  P( A2 )  0,9, p3  P( A3 )  0,7. Так как
вероятность сдачи любого экзамена не зависит от вероятности сдачи двух
других, то эти события независимы и по формуле (9.7) получим:
P( А)  P( А1  А2  А3 )  p1  p2  p3  0,8  0,9  0,7  0,504.
Пример 9.6. Найти вероятность того, что при бросании двух игральных
костей хотя бы один раз выпадет 6 очков.
Р е ш е н и е . Обозначим события: А – «выпало 6 очков при бросании
первой игральной кости», В – «выпало 6 очков при бросании второй
игральной кости», тогда А  В – «хотя бы один раз выпадет 6 очков».
События А и В совместны и независимы, значит:
Р( А  В)  Р( А)  Р( В)  Р( А  В)  Р( А)  Р( В)  Р( А)  Р( В).
1
1
1 1 1 1 11
Так как Р( А)  ; Р( В)  , то Р( А  В)      .
6 6 6 6 36
6
6
§10. Формула полной вероятности
Одним из эффективных методов подсчета вероятностей является
формула полной вероятности, с помощью которой решается широкий круг
задач. Формула полной вероятности является следствием теорем сложения и
умножения вероятностей и позволяет вычислять вероятность события,
которое может произойти вместе с одним из несовместных событий,
образующих полную группу.
Пусть события H1 , H 2 ,...,H n , попарно не совместны и образуют
n
полную группу:  H i   . Для них выполняется равенство:
i 1
n
 Р( H i )  1.
i 1
События H1 , H 2 ,...,H n называют гипотезами по отношению к любому
событию A   .
Считаем
известными
вероятности
гипотез
P( H i )
и
условные
вероятности события А по каждой гипотезе, т.е. РHi (A) , где i  1, 2, ...,n .
47
Теорема 10.1. Вероятность события А, которое может наступить только
при условии появления одного из событий H1 , H 2 ,...,H n , образующих
полную группу попарно несовместных событий, можно вычислить по
формуле:
P( A)  P( H1 ) PH1 ( A)  P( H 2 ) PH2 ( A)    P( H n ) PHn ( A).
(10.1)
n
P( A)   P( H i )  PHi ( A).
(10.1)
i 1
Теорему можно сформулировать следующим образом: вероятность
события А равна сумме произведений условных вероятностей этого события
по каждой из гипотез на вероятности самих гипотез.
Д о к а з а т е л ь с т в о . По условию событие А может наступить лишь с
одним из несовместных событий H1 , H 2 ,...,H n , другими словами, появление
события А означает реализацию одного из несовместных событий A H1 ,
A H 2 , …, A H n .
По теореме сложения вероятностей несовместных событий, получим
P( A)  P( A  H1  A  H 2    A  H n )  P( A  H1 )  P( A  H 2 )    P( A  H n ).
Применяя теорему умножения вероятностей для каждого слагаемого,
получаем формулу полной вероятности:
n
P( A)  P( H1 ) PH1 ( A)  P( H 2 ) PH 2 ( A)    P( H n ) PH n ( A)   P( H i )  PHi ( A).
i 1
Что и требовалось доказать.
Пример 10.1. В первой урне 4 красных и 6 синих шаров, во второй 
3 красных и 5 синих. Из первой урны во вторую случайным образом
перекладывают 2 шара, после чего из второй наугад извлекается один шар. Найти
вероятность того, что из второй урны извлечен синий шар (событие А).
Р е ш е н и е . Выделим 3 гипотезы: Н1  переложили 2 красных шара; Н2 
переложили 1 красный и 1 синий шар; Н3  переложили 2 синих шара. Найдем
вероятности этих гипотез, используя теорему умножения вероятностей для
событий: В  «первый шар красный», С  «второй шар красный»:
48
P( H1 )  P( B  C )  P( B)  P(C / B) 
P( H 2 )  P( B  C  B  C ) 
4 3 2
  ;
10 9 15
4 6 6 4 8
    ;
10 9 10 9 15
P( H 3 )  P( B  C )  P( B )  P(C / B ) 
6 5 5
  .
10 9 15
Эти вероятности можно было найти и с использованием классического
определения вероятности. А именно:
C42  C60 2
C41  C61 8
C40  C62 5
P ( H1 ) 
 ; P ( H1 ) 
 ; P ( H1 ) 
 .
2
2
2
15
15
15
C10
C10
C10
Найдем условные вероятности события А по каждой из гипотез. Если
будет реализована первая гипотеза, то во второй урне окажется 5 красных и 5
синих шаров и, следовательно, вероятность извлечения из нее синего шара
будет равна 0,5. Аналогично, в случае реализации второй гипотезы во второй
урне будет 4 красных и 6 синих шаров, следовательно, вероятность
извлечения из нее синего шара будет равна 0,6, для третьей гипотезы эта
вероятность равна 0,7. То есть:
P( A / H1 )  0,5; P( A / H 2 )  0,6; P( A / H 3 )  0,7.
Искомую вероятность события А найдем по формуле (10.1)
P( A) 
2 5 8 6 5 7 93 31
     

 0,62.
15 10 15 10 15 10 150 50
При решении задач такого типа удобно использовать так называемое
«дерево вероятностей». Из формулы полной вероятности следует, что для
вычисления вероятности интересующего нас события А, необходимо
выполнить следующие действия:

перебрать все пути, ведущие к результирующему событию А;

вычислить и расставить на соответствующих путях (ветках)
вероятности гипотез и условные вероятности события А по каждой гипотезе;

перемножить вероятности, стоящие на одном пути;

полученные для различных путей результаты сложить.
49
Для задачи примера 10.1 «дерево вероятностей» можно представить
следующим образом:
Испытание
Р(H1)=2/15
Р(H3)=5/15
Р(H2)=8/15
H3
H1
Р(A/H1)=0,5
A
Р(A/H3)=0,7
P( А / Н1 )  0,5
H2
А
P( А / Н 3 )  0,3
A
P( А / Н 2 )  0,4
Р(A/H2)=0,6
А
А
A
Рис. 10.1. «Дерево» вероятностей
P( A) 
2 5 8 6 5 7 93 31
     

 0,62.
15 10 15 10 15 10 150 50
§11. Формулы Байеса
В тесной связи с формулой полной вероятности находится формула
Байеса. Она относится к той же ситуации, что и формула полной вероятности
(событие А может наступить лишь с одной из гипотез H1 , H 2 ,...,H n ). Формула
Байеса решает задачу вычисления вероятностей гипотез после наступления
события А.
Пусть в результате проведенного опыта наступило событие А. При
этом невозможно сказать, какая из гипотез H1 , H 2 ,...,H n была реализована в
этом
опыте.
Но можно найти
вероятности каждой из
гипотез
в
предположении, что событие А произошло.
Теорема 11.1. Пусть события H1 , H 2 ,...,H n образуют полную группу и
произошло событие А с ненулевой вероятностью. Тогда вероятность того, что
при этом была реализована гипотеза с номером k, вычисляется по формуле:
Р( H k / A) 
P( H k )  P( A / H k )
,
P( A)
50
k  1,2, ,n.
(11.1)
Доказательство.
По
теореме
умножения
вероятностей
зависимых событий имеем:
P( A  H k )  P( A)  P( H k / A) и P( A  H k )  P( H k )  P( А / H k ).
Приравнивая правые части обоих равенств, получим равенство (11.1):
Р( H k / A) 
P( H k )  P( A / H k )
.
P( A)
Что и требовалось доказать.
Заметим, что в знаменателе этой формулы записана вероятность
события А, вычисленная по формуле полной вероятности, т.е.
Р( H k / A) 
P( H k )  P( A / H k )
n
 P( A / H i )  P( H i )
.
(11.2)
i 1
Пример 11.1. Пусть в условиях предыдущего примера, событие А
произошло. Из второй урны извлечен синий шар. Найти вероятность того,
что из первой урны во вторую переложили шары разных цветов, т.е. была
реализована вторая гипотеза.
Решение.
Воспользуемся
формулой
(11.1)
и
результатом
предыдущего примера:
Р( H 2 / A) 
P( H 2 )  P( A / H 2 ) 8 6 93 48 16
  :


 0,516.
P( A)
15 10 150 93 31
Вероятность гипотезы H 2 после наступления события А уменьшилась:
P( H 2 ) 
8 16
  P( H 2 / A).
15 31
А вероятность гипотезы H1 после наступления события А, напротив,
увеличилась: P( H1 ) 
5 35

 P( H1 / A). Предлагаем читателю проверить
15 93
это самостоятельно.
Заметим, что в общем случае события А и H k зависимы, так как
P( H k )  P( H k / A).
51
§12. Повторные независимые испытания. Формула Бернулли
Теория вероятностей часто имеет дело с такими испытаниями, которые
можно повторять неограниченное число раз в одних и тех же условиях (хотя
бы только теоретически). Серии испытаний, в которых результаты каждого
испытания
не
зависят
от
исходов
других
испытаний,
называются
независимыми. В приложениях теории вероятностей часто встречается
некоторый тип вероятностного пространства, который называется схемой
повторных испытаний или схемой Бернулли.
Под схемой повторных испытаний понимается следующая ситуация.
1.
Проводится n независимых испытаний. Результатом каждого
испытания является один из двух возможных исходов: «У» (успех –
интересующее нас событие) и «Н» (неуспех, неудача).
2.
В каждом испытании событие «У» наступает с одной и той же
вероятностью р и не зависит от результатов предыдущих испытаний.
Соответственно, вероятность события «Н» также постоянна в каждом
испытании и равна q  1  p .
Пусть m – число успехов (число наступлений события «У») в серии из n
независимых испытаний. Очевидно, что в зависимости от случая m
принимает одно из возможных значений: 0, 1, 2, ..., n .
Обозначим Pn (m) – вероятность m успехов в серии из n испытаний. Эту
вероятность в принципе можно вычислить с использованием теорем сложения и
умножения вероятностей. Но это приводит к очень большим вычислениям.
Швейцарский математик Якоб Бернулли (1654-1705) разработал общий подход
к решению поставленной задачи, который реализован в формуле Бернулли.
Теорема 12.1. Вероятность m успехов в серии из n повторных
независимых испытаний находится по формуле Бернулли:
Pn (m)  Cnm  p m  q n  m
где p – вероятность успеха, q – вероятность неуспеха.
52
(12.1)
Д о к а з а т е л ь с т в о . Пространство элементарных исходов каждой
серии испытаний содержит «слово» длины n из символов «У» и «Н».
Вероятность каждого благоприятного исхода, когда слово состоит из m
символов «У» и nm символов «Н», по теореме о произведении вероятностей
независимых событий равна p m q n  m . Число благоприятных исходов – это
количество различных расстановок буквы «У» на m местах из n имеющихся и
оно равно числу сочетаний Cnm . Таким образом:
Pn (m)  p m  q n  m  p m  q n  m    p m  q n  m  Сnm  p m  q n  m .



C nm раз
Что и требовалось доказать.
Формула (12.1) называется формулой Бернулли, а сами вероятности
Pn (m) называют
«биномиальными
вероятностями»
(они
имеют
непосредственное отношение к формуле бинома Ньютона).
Пример 12.1. Контрольный тест состоит из 5 заданий. На каждое задание
предлагается 4 варианта ответов, из которых только один верный. Студент не
готов к тесту и поэтому выбирает ответы наугад. Найти вероятность того, что
студент правильно ответит на m вопросов ( m  0, 1, 2, 3, 4, 5 ).
Р е ш е н и е . Выбор ответа на тот или иной вопрос  это отдельное
испытание, в котором выбор правильного ответа есть событие «У» (успех),
1
3
при этом: n  5; p  ; q  . Найдем вероятности P5 (0) , P5 (1) , P5 (2) , P5 (3) ,
4
4
P5 (4) , P5 (5) , используя формулу Бернулли:
5
P5 (0)
 C 50
243
3
 p q   
,
1024
4
0
5
4
P5 (1)
 C51
1 3
405
 p q 5   
,
4 4
1024
1
4
P5 (2)  C52  p 2  q 3 
270
,
1024
P5 (3)  C53  p 3  q 2 
90
,
1024
P5 (4)  C54  p 4  q1 
15
,
1024
P5 (5)  C55  p 5  q 0 
1
.
1024
53
§13. Наивероятнейшее число успехов
В последней задаче мы видим, что есть значения m (в данном случае
m  1 ), обладающие наибольшей вероятностью Pn (m) .
Определение 13.1.
Число
m0
наступления
события
«У»
в
n
независимых испытаниях называется наивероятнейшим, если Pn (m0 )  Pn (m),
для всех m  0, ...,n .
Теорема 13.1. Наивероятнейшее число m0 определяется из двойного
неравенства:
np  q  m0  np  p.
(13.1)
причем таких m не более двух.
Д о к а з а т е л ь с т в о . Докажем, что таких m0 не более двух. Число m0
принадлежит отрезку [np  q; np  p] , длина которого равна
p  q , т.е.
единице. Так как m – целое число, принадлежащее промежутку длины 1, то
оно может быть единственным или принимать два соседних целых значения.
Докажем теперь неравенство. Для простоты изложения будем писать m
вместо m0 . По определению наивероятнейшего числа:
Pn (m)  Pn (m  1),

 Pn (m)  Pn (m  1).
Из второго неравенства с учетом формул Бернулли и числа сочетаний
имеем:
n!
n!
 pm  qnm 
 p m 1  q n  m 1.
m!(n  m)!
(m  1)!(n  m  1)!
Разделим
обе
части
неравенства
n!
 p m 1  q n  m . Получим:
(m  1)!(n  m)!
1
1
p
q.
m
n  m 1
54
на
положительное
число
Умножим обе части неравенства на m  (n  m  1) и упростим:
p(n  m  1)  q  m  np  p  m  (q  p)  np  p  m  m  np  p .
Аналогично из первого неравенства системы получаем np  q  m .
Из полученных для m оценок следует требуемое неравенство:
np  q  m0  np  p.
Что и требовалось доказать.
Пример 13.1. В условиях задачи 12.1 найдем наивероятнейшее число
успехов по формуле (13.1):
np  q  m0  np  p  5  0,25  0,75  m0  5  0,25  0,25  0,5  m0  1,5.
Так как m0 – целое число, то m0  1.
Пример 13.2. Сколько раз необходимо подбросить игральную кость,
чтобы наивероятнейшее число выпадений трѐх очков было равно 10?
Р е ш е н и е . Пусть событие А – выпадение тройки (успех); тогда
1
5
p  P( A)  ; q  P( A )  , наивероятнейшее число успехов m0  10. Найдем
6
6
общее число испытаний n по оценке (13.1):
1 5
1 1
n    10  n    n  5  60  n  1  59  n  65.
6 6
6 6
Таким образом, чтобы наивероятнейшее число выпавших троек было
равно 10, необходимо подбросить игральную кость от 59 до 65 раз.
В схеме Бернулли число np играет особую роль: одно из двух
ближайших к np целых чисел является наиболее вероятным числом успехов.
Оказывается, число np можно рассматривать как среднее число успехов в n
опытах.
Пример 13.3. Вероятность брака на предприятии равна 0,03. Чему
равно среднее число бракованных изделий на сотню?
Искомое число np  0,03  100  3.
55
§14. Приближенные формулы Лапласа и Пуассона
В формуле Бернулли Pn (m)  Cnm  p m  q n  m при достаточно больших
значениях n и m первый сомножитель Cnm оказывается очень большим
числом, а второй сомножитель p m  q n  m  очень маленьким числом. А значит,
для практического вычисления вероятности формула Бернулли в этом случае
непригодна. В таких ситуациях применяются формулы, называемые
асимтотическими. Они определяются предельными теоремами МуавраЛапласа и Пуассона (устанавливают поведение вероятностей Pn (m) при
определенных условиях, в число которых обязательно входит n   ).
Существует две теоремы МуавраЛапласа. Одна из них дает
приближенное выражение для вычисления Pn (m) , а другая  для вычисления
вероятности того, что число успехов окажется в пределах от m1 до m2 , т.е.
m2
 Pn (m)  Pn (m1  m  m2 ) . Первая из этих теорем называется локальной, так
m  m1
как дает выражение для вероятности Pn (m) только при одном значении m.
Вторая теорема называется интегральной, так как дает выражение для суммы
вероятностей, и эта сумма выражается через некоторый интеграл.
Локальная формула Муавра-Лапласа
Локальная формула была получена для частного случая
p  0,5
Муавром в 1730 г. и обобщена Лапласом в 1783 году на произвольное p,
отличное от 0 и 1.
Теорема 14.1. (Локальная теорема Муавра-Лапласа) Если вероятность
p успеха в каждом испытании постоянна и отлична от 0 и 1 ( 0  p  1), то при
достаточно больших значениях n вероятность m успехов в серии из n
испытаний вычисляется по формуле:
56
Pn (m) 
где x 
1
  x ,
npq
(14.1)
2
m  np
1
, а  ( x) 
 e  x / 2 – функция Гаусса.
npq
2
Для функции Гаусса составлена таблица ее значений, которая
приведена в конце пособия (Приложение 1).
2
1
 e x / 2
2
Свойства функции Гаусса  ( x ) 
Свойство 1: Функция четная, т.е.  ( x)   ( x) .
Свойство 2: Функция  (x) принимает только положительные значения
и имеет единственный максимум при x  0 :  ( x)  0, max  ( x)   (0) 
1
.
2
Свойство 3: Функция  (x) монотонно убывает при положительных
значениях аргумента х, причем lim  ( x)  0 .
x 
Более того:  ( x)  0 уже при x  4 .
Свойство 4: Функция  (x)
обладает свойством нормированности:

  ( x)dx  1, т.е.
площадь
«бесконечной»
криволинейной
трапеции,

заключенной между осью Ох и графиком функции Гаусса равна единице.
Все эти свойства с очевидностью усматриваются из графика функции
Гаусса.
x
1
2
4
0
4
Рис. 14.1. График функции Гаусса
57
x
Пример 14.1. Вероятность обнаружения у произвольного пациента
отклонения в артериальном давлении равна 0,3. Какова вероятность, что у
100 человек из 400 будет обнаружено отклонение в артериальном давлении?
Решение.
Вероятность наступления
события
А (обнаружено
отклонение в артериальном давлении) в одном испытании равна 0,3 (р=0,3),
тогда q=0,7. Кроме того, n  400, m  100. Последовательно вычисляем:
np  400  0,3  120 ; npq  400  0,3  0,7  84 ;
x
Теперь
для
npq  84  9,165;
m  np 100  120  20


 2,182 .
9,165
9,165
npq
найденного
аргумента
x
по
таблицам
находим
соответствующее значение  (2,182)   (2,182)  0,0369.
Подставляя найденные значения в формулу (14.1), получим:
P400 (100) 
1
0,0369
  ( x) 
 0,004.
9,165
npq
Интегральная формула Лапласа
Теорема 14.2. (Интегральная теорема Лапласа) Если вероятность p
успеха в каждом испытании постоянна и отлична от 0 и 1 ( 0  p  1), то при
достаточно больших значениях n вероятность того, что число успехов в серии
из n испытаний окажется в пределах от m1 до m2 вычисляется по формуле:
Pn (m1  m  m2 )  Фx2   Фx1 ,
(14.2)
z2
x
1 x 2
m  np
m  np
; x2  2
; а Ф( х)    (t )dt 
где x1  1
 e dz – функция
2

npq
npq
0
0
Лапласа.
Формула (14.2) называется интегральной формулой Лапласа.
58
Замечание. Существует несколько разновидностей функции Лапласа в
зависимости от пределов интегрирования и множителя перед интегралом.
z2
2 x 2
1
e dz и Ф2 ( х) 
Например: Ф1 ( х) 

2 0
2
x
e

z2
2 dz.

Мы будем пользоваться функцией Лапласа вида:
z2
x
1 x 2
Ф( х)    (t )dt 
 e dz,
2

0
0
которая связана с функциями Ф1 и Ф2 следующими соотношениями:
Ф( х)  0,5  Ф1 ( х);
Ф( х)  Ф2 ( х)  0,5.
Свойства функции Лапласа
Свойство 1: Функция Ф(x)  нечетная, т. е. ( х)  ( х) .
Свойство 2: Функция Ф(x) возрастает на всей числовой оси.
Свойство 3: 
1
1
 Ф( х)  , x  R.
2
2
Свойство 4: Ф( x)  0,5 при x  5.
Эти свойства вытекают из свойств определенного интеграла и его
геометрической интерпретации как площади криволинейной трапеции,
опирающейся на отрезок [0; x], и ограниченной сверху графиком функции
Гаусса.
x
Ф(x)
1
2
0,5
S=Ф(х)
0
4
0
x 4
0,5
x
Рис. 14.2. График функции Лапласа и его геометрическая интерпретация
59
x
Функция Лапласа табулирована, таблица ее значений приведена также
в конце пособия (Приложение 2). Так как эта функция является нечетной, то
в таблицах обычно приводятся значения для положительных значений
верхнего предела интегрирования х.
Замечание. Точность формул (14.1) и (14.2) существенно зависит от
произведения npq (с ростом произведения точность улучшается). При
условии npq  20 обе формулы дают незначительную погрешность. Обычно
ими пользуются уже при npq  10.
Пример 14.2.
В
социологических
опросах
каждый
гражданин
независимо от других может дать неискренний ответ с вероятностью 0,2.
Опросили 22500 человек. Какова вероятность того, что число неискренних
ответов будет не более 4620.
Р е ш е н и е . Вероятность р наступления события А (респондент дал
неискренний ответ) в одном испытании равна 0,2, тогда q  0,8 . Кроме того,
n  22500, m1  0, m2  4620. Последовательно вычисляем:
np  22500  0,2  4500, npq  4500  0,8  3600,
x1 
npq  60;
m1  np 0  4500
m  np 4620  4500

 75; x2  2

 2.
60
60
npq
npq
По формуле (14.2) имеем:
P22500(0  k  4620)  Ф2  Ф 75  Ф2  Ф75  0,4772  0,5  0,9772.
Замечание. Значение функции Гаусса можно вычислить в EXCEL 2010
с помощью функции НОРМСТРАСП ( x;0)   ( x) . Эта функция имеет один
аргумент х. Значение функции Лапласа можно вычислить в EXCEL 2010 с
помощью функции НОРМСТРАСП ( х;1)  0,5  ( х).
60
Следствия интегральной теоремы Лапласа
Одной из важных характеристик независимых испытаний с одинаковой
вероятностью наступления события А в каждом испытании является
отклонение относительной частоты  
m
от вероятности р события.
n
Следствие 1. Вероятность того, что отклонение относительной
частоты события  
m
от его вероятности р не превышает по модулю
n
заданного числа  определяется формулой:

m

P  p     2Ф  
 n


n 
.
pq 
Д о к а з а т е л ь с т в о : Так как неравенство
(14.3)
m
 p   равносильно
n
неравенству np  n  m  np  n , то из формулы (14.2) и свойств функции
Лапласа следует:
 np  n  np 
 np  n  np 
m

  

P  p     P(np  n  m  np  n )  



n
npq
npq






 n 
  n 
 n 
 n 
 n 
  
  
  
  2

 

 npq 
 npq 
 npq 
 npq .
npq










Что и требовалось доказать.
Следствие 2. Вероятность того, что число m наступлений успеха
отличается по абсолютной величине от произведения np не более чем на
положительную величину , определяется формулой:
  
.
P m  np     2Ф

 npq 
61
(14.4)
Доказательство.
P m  np     P(  m  np   )  Pnp    m  np    
 np    np 
 np    np 
  
  
  
  Ф
  Ф
  Ф
  2Ф

Ф



 npq 
 npq 
 npq .
npq
npq










Что и требовалось доказать.
Пример 14.3. Сколько нужно провести опытов, чтобы с вероятностью
0,901 утверждать, что частота интересующего нас события будет отличаться
по абсолютной величине от вероятности появления этого события, равной
0,4, не более чем на 0,1?
Решение.
Используя условие задачи:
p  0,4; q  0,6;   0,1 и
следствие 2, получаем:

n 
m

  0,901.
P  0,4  0,1  2 0,1 
0
,
4

0
,
6
 n



 0,1 n  0,901
 
Отсюда: 
 0,4505 .
2
 0,24 
Из таблицы значений функции Лапласа по значению функции находим
значение аргумента: х   1 (0,4505)  1,65 .
Так как x 
0,1 n
0,1 n
, то
 1,65  n  8,09  n  65,42 .
0,24
0,24
Так как n есть целое число и функция Лапласа возрастающая, то n  66 .
Итак, нужно провести не менее 66 опытов, чтобы с вероятностью 0,901
частота интересующего нас события отличалась по абсолютной величине от
вероятности появления этого события не более чем на 0,01.
Теорема 14.3. (Формула Пуассона) Если вероятность успеха в каждом
испытании стремится к нулю ( p  0) при неограниченном увеличении числа
испытаний (n  ) и произведении np    const , то вероятность m
успехов в серии из n испытаний вычисляется по формуле:
62
Pn (m) 
Доказательство.
m  e 
m!
(14.5)
.
По формуле Бернулли, после умножения
числителя и знаменателя на n m и соответствующих преобразований,
получим:
n  (n  1)    (n  m  1)  n m m nm
Pn (m) 
 p q

 p q

m!n m
 1
 m  1
1  1      1 

n
np 
1
m  e 
n
n 


m 

 (np)  1   

,
m
m!
n
m
!
(
1

p
)


Cnm
m
nm
при n  , p  0, np  .
Что и требовалось доказать.
Замечание. При доказательстве в последнем переходе к пределу
n
 np 
 np

1    e  e .
использовали второй замечательный предел: nlim
 
n 
Замечание. Вычисление вероятностей
Рn (m)
по приближенной
формуле (14.5) дает незначительное отличие от точных значений этих
вероятностей при   10.
Правую часть приближенной формулы (14.5) можно рассматривать как
функцию двух переменных P(m,  ) :
Pn (m) 
m  e 
m!
 Р(m,  ) .
Эта функция называется функцией Пуассона, для нее (как и для
функций Гаусса и Лапласа) существуют таблицы (Приложение 3).
Пример 14.4. Вероятность потерять кредитную карту в течении недели
равна 0,0001. Банк выдал 2 тысячи кредитных карт. Какова вероятность, что
в течении недели будет потеряна хотя бы одна кредитная карта?
Р е ш е н и е . Вероятность наступления события А (карта потеряна в
течение недели) в одном испытании равна р=0,0001 и близка к нулю, а число
испытаний n  2000  велико.
63
Последовательно вычисляем:   np  2000  0,0001  0,2  10.
P2000(0) 
0  e 
0!
 e  0, 2  0,81873  0,819.
P(k  1)  1  P(k  0)  1  0,819  0,181.
Пример 14.5. На факультете насчитывается 1825 студентов. Какова
вероятность, что 31 декабря является днем рождения одновременно четырех
студентов?
Р е ш е н и е . По условию задачи: n  1825 , p 
  n  p  1825 
1
, k  4 . Тогда
365
1
 5  10 .
365
По таблице значений функции Пуассона найдем искомую вероятность:
Pn (k )  p1825(4) 
k  e 
k!
 Р(k ;  )  P(4; 5)  0,1755.
Замечание. Вероятности, вычисленные по формуле (14.5) называются
пуассоновскими. Эта формула выражает закон распределения Пуассона –
закон редких событий. Он широко применяется в теории массового
обслуживания при изучении потока событий, а также в теории информации.
Замечание. Так как понятия «успех» и «неуспех» в какой-то степени
можно считать симметричными, то приближенную формулу Пуассона можно
использовать в схеме независимых испытаний Бернулли при больших n
также и в случае, когда p близко к единице.
64
§15. Компетенции
Компетенция ОНК-1: Способность использовать основные научные
законы в профессиональной деятельности.
Знать:
основные
понятия,
теоремы
и
инструменты
теории
вероятностей, относящиеся к случайным событиям, свойствам вероятности
случайного события, операциям нал случайными событиями.
Уметь: вычислять вероятность случайного события, используя
классическое, статистическое, геометрическое определения вероятности;
рассчитывать
число
(перестановок,
комбинаций
сочетаний,
элементов
размещений);
конечных
выполнять
множеств
операции
над
случайными событиями; вычислять вероятность событий с использованием
основных теорем теории вероятностей.
Владеть: навыками решения задач в условиях неопределенности в
сфере
будущей
профессиональной
деятельности
с
использованием
теоретико-вероятностного инструментария.
Компетенция ИК-5: Способность применять методики расчетов и
основные методы исследований.
Знать: математический инструментарий и типовые методики расчетов
вероятностей случайных событий, используя теоремы сложения, умножения
и следствия из них, формулу полной вероятности, формулу Байеса, схему
Бернулли, локальную и интегральную формулы Муавра-Лапласа, формула
Пуассона.
Уметь: применять типовые методики расчетов вероятностей случайных
событий с использованием теорем сложения, умножения, следствий из них;
применять формулу полной вероятности; переоценивать вероятности гипотез
с использованием формулы Байеса; вычислять вероятность случайного
события в схеме повторных испытаний, используя формулу Бернулли и
приближенные формулы Муавра-Лапласа и Пуассона.
65
Владеть:
теоретико-вероятностными
методами
исследований
финансово-экономических показателей, их динамики и взаимосвязей,
характерными для сферы экономики.
Компетенция СК-1: Способность применять полученные знания на
практике.
Знать: область применения теоретико-вероятностных методов в сфере
будущей профессиональной деятельности.
Уметь:
использовать
современный
теоретико-вероятностный
инструментарий для обработки финансово-экономических показателей;
анализировать полученные результаты; обосновывать выводы.
Владеть: навыками использования теорем сложения и умножения
вероятностей, формул полной вероятности и Байеса, формулы Бернулли,
приближенных
формул
Муавра-Лапласа
и
Пуассона
в
качестве
математических моделей для исследования стохастических процессов.
66
Раздел II. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
§1. Случайная величина и закон ее распределения
Почти во всех, рассмотренных ранее, примерах результат испытания
можно связать с числом. Например, при бросании игральной кости выпадало
то или иное число очков, при обследовании партии готовых изделий
обнаруживалось то или иное число единиц брака. Такое положение типично
для теории вероятностей. Среди решаемых ею задач много таких, в которых
исход выражается некоторым числом. При этом случайный характер исхода
влечет за собой случайность числа, то есть при повторении испытания число
меняется непредвиденным образом.
Определение 1.1. Случайной называют величину, которая в результате
испытания примет одно и только одно возможное значение, наперед
неизвестное и зависящее от случайных причин, которые заранее не могут
быть учтены.
Обозначают случайные величины заглавными латинскими буквами, а
принимаемые ими значения  соответствующими строчными. Например,
случайная величина Х, а ее значения  x1 , x2 ,, xn .
Это определение случайные величины хотя и звучит как тавтология, но
подчеркивает главное: значение случайной величины зависит от исхода
случайного эксперимента, определяется им.
Более
строгое
определение
случайные
величины
можно
дать
следующим образом.
Определение 1.2. Случайной величиной Х называется числовая функция
X  Х ( ),   , определенная на пространстве элементарных событий .
Замечание. В аксиоматике Колмогорова требуется, чтобы функция
удовлетворяла дополнительному условию: для любого числа х множество
элементарных событий, для которых выполняется неравенство
67
X  x,
является событием. Будем считать далее это условие выполнимо по
умолчанию.
Связь случайной величины и случайного события заключается в том,
что принятие случайной величиной некоторого числового значения ( X  xi )
есть случайное событие, характеризующееся вероятностью pi  P( X  xi ).
Примеры случайных величин:
1.
число очков, выпавших на верхней грани игральной кости;
2.
число студентов, пришедших на лекцию;
3.
рост наугад отобранного студента;
4.
колебание курсов валют или цен товаров.
Различают два основных вида случайных величин: дискретные и
непрерывные.
Определение 1.3. Дискретной называют случайную величину, которая
принимает отдельные, изолированные возможные значения с определенными
вероятностями.
Число возможных значений дискретной случайной величины может
быть конечным или бесконечным, но счетным.
Определение 1.4.
Непрерывной
называют
случайную
величину,
которая может принимать все значения из некоторого конечного или
бесконечного промежутка.
Очевидно, число всех возможных значений непрерывной случайной
величины бесконечно и несчетно.
Замечание. Кроме дискретных и непрерывных случайных величин
существуют и другие виды, но они применяются редко.
Наиболее полным описанием случайной величины является ее закон
распределения.
Определение 1.5.
Законом
распределения
случайной
величины
называется всякое соотношение, устанавливающее связь между возможными
значениями случайной величины и соответствующими им вероятностями.
68
Как и в случае функциональной зависимости, этот закон можно задать
аналитически (с помощью одной или нескольких формул), в виде таблицы и
графически.
Простейшей формой закона распределения дискретной случайной
величины является ряд распределения.
Определение 1.6.
величины
Рядом
называется
распределения
таблица
(матрица),
в
дискретной
первой
случайной
строке
которой
перечислены все возможные значения x1 , x2 ,, xn этой случайной величины
в порядке возрастания, а во второй  соответствующие им вероятности
pi  P( X  xi ), i  1,2,, n .
Таблица 1.1
или
xi
x1
x2

xn

pi
p1
p2

pn
1
x
X   1
 p1
x2  xn 

p2  pn 
Поскольку в одном испытании случайная величина принимает одно и
только одно возможное значение, то события
образуют полную группу, а значит
n
n
i 1
i 1
 pi   P( X
X  x1 , X  x2 ,, X  xn
 xi )  1.
Замечание. Если множество значений дискретной случайной величины
счетно, то таблица является бесконечной справа, а суммой вероятностей

является сходящийся числовой ряд (  pi  1).
i 1
Пример 1.1. Найти закон распределения числа пакетов четырех акций,
по которым владельцем будет получен доход, если вероятность неполучения
дохода по каждому пакету равна соответственно 0,5; 0,4; 0,3 и 0,2.
69
Р е ш е н и е . Пусть Х  число пакетов акций, по которым владельцем
будет получен доход. Возможные значения, которые может принять эта
случайная величина: 0; 1; 2; 3 и 4.
Для
составления
закона
распределения
необходимо
вычислить
соответствующие вероятности. Введем события: Ai  «по i-му пакету
получен доход», где i  1, 2, 3, 4.
По
условию:
р1  Р( А1 )  0,5  q1  P( A1 )  1  р1  1  0,5  0,5;
p2  0,6  q2  0,4; p3  0,7  q3  0,3; p4  0,8  q4  0,2.
Событие «ни по одному из пакетов не получили доход» равносильно
событию «случайная величина Х приняла значение, равное 0». Тогда
получим:
P( X  0)  Р( А1  А2  А3  А4 )  q1  q2  q3  q4  0,5  0,4  0,3  0,2  0,012.
Аналогично находим остальные вероятности.
P( X  1)  Р( А1  А2  А3  А4  А1  А2  А3  А4  А1  А2  А3  А4 
 А1  А2  А3  А4 )  0,106.
P( X  2)  P( А1  А2  А3  А4  А1  А2  А3  А4  А1  А2  А3  А4  А1  А2  А3  А4 
 А1  А2  А3  А4  А1  А2  А3  А4 )  0,32.
P( X  3)  Р( А1  А2  А3  А4  А1  А2  А3  А4  А1  А2  А3  А4 
 А1  А2  А3  А4 )  0,394.
P( X  4)  Р( А1  А2  А3  А4 )  0,168.
Запишем закон распределения в виде распределительной таблицы:
xi
0
1
2
3
4
pi
0,012
0,106
0,32
0,394
0,168
Проверка: 0,012+0,106+0,32+0,394+0,168=1.
Полученная таблица уже не содержит информацию о том, на каком
вероятностном пространстве была определена случайная величина, в ней
имеются лишь все значения этой случайной величины и их вероятности.
70
Для наглядности закон распределения дискретной случайной величины
можно изобразить графически в виде многоугольника распределения, если на
оси абсцисс откладывать значения случайной величины, а на оси ординат –
соответствующие вероятности.
Определение 1.7.
Многоугольник
(полигон)
распределения
вероятностей случайной величины  графическое изображение ряда
распределения дискретной случайной величины в виде ломаной линии с
вершинами в точках ( xi ; pi ).
Полученный в предыдущем примере ряд распределения представлен
графически в виде многоугольника распределения вероятностей.
р
0,394
0 ,32
0 ,168
0 ,106
0,012
1
2
3
4 x
Рис. 1.1 Многоугольник распределения вероятностей.
Замечание. При построении многоугольника распределения надо
помнить, что соединяем полученные точки только для наглядности. В
промежутках между значениями случайной величины вероятность не
принимает никаких значений.
§2. Математические операции над случайными величинами
Рассмотрим некоторые математические операции над независимыми
случайными величинами.
Определение 2.1. Две случайные величины называются независимыми,
если закон распределения одной из них не зависит от того какое возможное
значение приняла другая случайная величина.
71
Независимость дискретных случайных величин Х и Y означает
независимость событий X  xi и Y  y j для всех i  1,, n, j  1,, m.
Поскольку о независимости событий можно говорить только в том
случае, когда они являются подмножествами одного и того же пространства
элементарных событий, то о независимости случайных величин можно
говорить только тогда, когда они являются функциями на одном и том же
пространстве элементарных событий.
Пример 2.1. Подбрасываем две монеты. Рассмотрим две случайные
величины: Х – число выпадений герба, Y – число выпадений цифры.
Очевидно, эти случайные величины зависимы. Если мы знаем, какое
значение приняла одна случайная величина, то однозначно определяем и
значение второй. Эта зависимость выражается формулой: X  Y  2.
Пример 2.2. Имеется две игральные кости. Случайным образом берем
одну из них и бросаем. Рассмотрим две случайные величины: Х – номер
кубика, Y –выпавшее число. Эти две случайные величины уже независимы,
так как события «брошен первый (второй) кубик» и «выпало число а», где а
принимает любое значение от 1 до 6 независимы.
Определение 2.2. Несколько случайных величин называются взаимно
независимыми, если законы распределения любого числа из них не зависят от
того, какие возможные значения приняли остальные случайные величины. В
противном случае случайные величины называются зависимыми.
Замечание. Более строгое определение независимых случайных
величин введем позднее.
Математические
операции над
случайными величинами можно
разделить на два класса: те, в которых используется одна случайная величина
и те, где случайных величин две и более.
Определение 2.3. Произведением случайной величины Х на постоянную
величину С называется случайная величина СХ, возможные значения которой
равны произведениям постоянной С на возможные значения величины Х, а
вероятности соответствующих значений случайных величин СХ и Х равны.
72
 x1
То есть, если X  
 p1
x2  xn 
 Cx Cx 2  Cx n 
 , то CX   1

p2  pn 
p
p

p
2
n 
 1
Определение 2.4. m-той степенью случайной величины Х называется
случайная величина X m , которая с теми же вероятностями pi принимает
m
значения xi .
 x1
То есть, если X  
 p1
x2  xn 
 x1m
m
 , то X  
p
p2  pn 
 1
x2m  xnm 

p2  pn 
Определение 2.5. Суммой (разностью или произведением) случайных
величин
случайная
возможные
x
X   1
 p1
x2  xn 

p2  pn 
и
y
Y   1
 p1
Z  X  Y ( X  Y ; X Y ) ,
величина
значения
y2  ym 

p2  pm 
которая
называется
принимает
zk  xi  y j ( xi  y j ; xi  y j ) ,
вида
все
где
i  1,, n, j  1,, m с вероятностями pij  P( X  xi , Y  y j ).
Если случайные величины Х и Y независимы, то по теореме умножения
pij  P( X  xi )  P(Y  y j )  pi  pj .
Замечание. Если среди полученных значений встретятся одинаковые,
то
соответствующие
им
вероятности
надо
сложить,
приписав
повторяющемуся значению суммарную вероятность.
Пример 2.3. Случайная величина Х задана рядом распределения
1
2 
  2 1 0
 .
Х  
0
,
2
0
,
1
0
,
3
0
,
1
0
,
3


Составить ряд распределения случайных
величин Y  3 X и Z  X 2 .
Р е ш е н и е . Значения случайной величины Y  3 X будут: 3  (2)  6,
3  (1)  3, 3  0  0, 3 1  3, 3  2  6 с теми же вероятностями, что и
соответствующие значения случайной величины Х, то есть:
3
6 
6 3 0
.
Y  3 Х  
 0,2 0,1 0,3 0,1 0,3 
73
Значения случайной величины Z будут:
(2) 2  4, (1) 2  1, (0) 2  0,
(1) 2  1, (2) 2  4 с теми же вероятностями, что и соответствующие значения
случайной величины Х, то есть:
1
0
1
4 
 4
.
Z  Х 2  
 0,2 0,1 0,3 0,1 0,3 
Так как среди полученных значений есть равные, то по теореме
сложения соответствующие равным значениям вероятности суммируем:
P(Z  4)  0,2  0,3  0,5; P(Z  1)  0,1  0,1  0,2. Итак, закон распределения
случайной величины Z  X 2 имеет вид:
1
4 
 0
 .
Z  X 2  
 0,3 0,2 0,5 
Пример 2.4. Известны ряды распределения независимых случайных
1
2 
1 
 0
1 0
 и Y  
 . Составить законы
величины Х и Y: X  
0
,
5
0
,
2
0
,
3
0
,
1
0
,
6
0
,
3




распределения случайных величин U  X  Y и V  X  Y .
Р е ш е н и е . 1) Найдем все возможные значения случайной величины
U  X  Y : 0  (1)  1, 0  0  0, 0  1  1, 1  (1)  2, 2  0  2, 1  1  0,
2  (1)  3, 2  0  2, 2  1  1 .
Вероятности этих значений равны произведениям вероятностей
соответствующих значений случайных величин Х и Y. Например, если
значения случайных величин Х и Y равны 0 и 1 соответственно, то
случайная величина U  X  Y
принимает значение U  0  (1)  1 с
вероятностью P(U  1)  P( X  0)  P(Y  1)  0,5  0,1  0,05.
Проведя вычисления для всех значений величин Х и Y, получим
следующую распределительную таблицу:
uk  xi  y j
1
0
1
2
1
0
3
2
1
pk  pi  pj
0,05
0,3
0,15
0,02
0,12
0,06
0,03
0,18
0,09
74
После объединения столбцов с равными значениями ряд распределения
случайной величины U примет вид:
uk
1
0
1
2
3
pk
0,15
0,36
0,26
0,2
0,03
2) Ряд распределения случайной величины V  X  Y составим по
аналогии с предыдущим:
vk  xi  y j
0
0
0
1
0
1
2
0
2
pk  pi  pj
0,05
0,3
0,15
0,02
0,12
0,06
0,03
0,18
0,09
Объединив столбцы с равными значениями, получим следующий ряд
распределения случайной величины V:
vk
2
1
0
1
2
pk
0,03
0,02
0,8
0,06
0,09
n
 pi  1 выполнено.
Убеждаемся каждый раз, что условие
i 1
§3. Математическое ожидание дискретной случайной величины
Закон распределения случайной величины дает о ней исчерпывающую
информацию, полностью ее характеризует. Однако он не всегда известен и
приходится ограничиваться меньшими сведениями. Во многих случаях
бывает
достаточным
характеристиками,
ограничиться
например
так
среднее
называемыми
значение,
вокруг
числовыми
которого
группируются значения случайной величины, и степень их разбросанности
вокруг этого значения.
75
Пусть с испытанием связана дискретная случайная величина Х с
 x x ... xn 
законом распределения: X   1 2
 .
 p1 p2 ... pn 
Определение 3.1. Математическим ожиданием (средним значением)
дискретной случайной величины Х называется число МХ (или ЕХ), равное
сумме произведений всех ее возможных значений на соответствующие
вероятности:
n
M ( X )  Е ( Х )  x1 p1  x2 p2  ...  xn pn   xi pi .
(3.1)
i 1
Если множество значений
дискретной
случайной
величины
Х
бесконечно, то:

M ( X )   xi pi .
(3.2)
i 1
Причем математическое ожидание существует, если числовой ряд в
правой части равенства сходится абсолютно. Так как числовой ряд может
расходиться, то соответствующая случайная величина может и не иметь
математического ожидания.
Замечание. Отсюда следует, что математическое ожидание есть
некоторая постоянная (неслучайная) величина, которая характеризует среднее
значение случайной величины с учетом не только ее возможных значений, но
и их вероятностей. Она имеет размерность случайной величины.
Замечание. Если Х – неотрицательная случайная величина, то и его
математическое ожидание число неотрицательное.
Пример 3.1. Найти математическое ожидание случайной величины Х 
число пакетов акций (из четырех), по которым владельцем будет получен
доход, закон распределения которой был составлен в примере 1.1:
xi
pi
0
0,012
1
0,106
2
0,32
76
3
0,394
4
0,168
Р е ш е н и е . Используем формулу (3.1):
n
M ( X )   xi pi  0  0,012  1  0,106  2  0,32  3  0,394  4  0,168  2,6.
i 1
Пример 3.2. Найти математическое ожидание случайной величины Х,
зная ее закон распределения:
2
X 1

2
22
1
22
23
1
23
 2n
1
 n
2

.


Р е ш е н и е . Математическое ожидание найдем по формуле (3.2):


i 1
n 1
M ( X )   xi pi   2n 
1
1
1
1
 2   22  2    2n  n    1  1    .
n
2
2
2
2
Таким образом, эта случайная величина не имеет математического
ожидания.
Пример 3.3.
Найти математическое
ожидание
числа появлений
некоторого события А в одном испытании, если его вероятность равна р.
Р е ш е н и е . Случайная величина Х – число появлений события А в
одном испытании – может принимать только два значения 1 и 0, вероятности
которых равны р и q  1  p. Найдем искомое математическое ожидание:
M ( X )  1 p  0  (1  p)  p.
Таким образом, математическое ожидание числа появлений некоторого
события в одном испытании равно вероятности этого события.
Пример 3.4. Найти прогнозируемую доходность некоторого актива за
месяц, если известно следующее распределение доходности (в процентах)
этого актива за месяц:
 10 15 20 30 
 .
Х  
 0,15 0,5 0,3 0,05 
Р е ш е н и е . Прогнозируемая доходность в финансовом анализе это
математическое ожидание случайной величины Х:
n
M ( X )   xi pi  10  0,15  15  0,5  20  0,3  30  0,05  15,15.
i 1
77
Таким
образом,
средняя
(прогнозируемая)
доходность
актива
составляет 15,15%.
Нетрудно понять, что математическое ожидание расположено между
наименьшим
и
наибольшим
значениями
случайной
величины.
Его
рассматривают как характеристику положения случайной величины, ее центр
распределения.
Математическое ожидание имеет простой физический смысл: если на
прямой разместить единичную массу, поместив в точки х1 , х2 ,, хn массы
p1 , p2 ,, pn соответственно, то точка М(Х) будет координатой центра
тяжести прямой.
0
0,012
1
2
0,016
0,32
2,6
3
4
0,394
0,168
Рис. 3.1 Физический смысл математического ожидания
Название
«математическое
ожидание»
происходит
от
понятия
«ожидаемое значение выигрыша», впервые появившегося в теории азартных
игр в трудах Б. Паскаля и Г. Гюйгенса в 17 веке. Термин «математическое
ожидание» ввел П. Лаплас в 1795 г. Другое название, «среднее значение»,
часто используется в статистике. Нельзя путать математическое ожидание с
наиболее вероятным значением случайной величины.
Свойства математического ожидания
Математическое ожидание дискретной случайной величины обладает
рядом свойств.
Свойство 1. Математическое ожидание постоянной величины равно
этой постоянной:
M (С )  С.
78
(3.3)
Это свойство вытекает из того, что постоянную С можно рассматривать
как случайную величину, которая принимает единственное значение С с
вероятностью равной единице. Следовательно, M (С )  С 1  С.
Свойство 2. Постоянный множитель можно выносить за знак
математического ожидания:
M (СХ )  С  M ( X ).
Доказательство.
Пусть
закон
(3.4)
распределения
случайной
 Cx1 Cx 2  Cx n 
 x x ... xn 
.
 , тогда CX  
величины Х имеет вид X   1 2
p
p

p
p
p
p
...
1
2
n


n
 1 2

Найдем математическое ожидание величины СХ по формуле (3.1):
n
n
i 1
i 1
M (СХ )   (Сxi )  pi  С  xi  pi  С  M ( X ).
Что и требовалось доказать.
Свойство 3. Математическое ожидание суммы случайных величин
равно сумме их математических ожиданий:
M ( X1  Х 2  ... Х m )  M ( X1 )  M ( X 2 )  ...  М ( X m ) .
Свойство 4. Математическое ожидание произведения нескольких
взаимно
независимых
случайных
величин
равно
произведению
их
математических ожиданий:
M ( X1  Х 2  ... X m )  M ( X1 )  M ( X 2 )  ... M ( X m ) .
Свойство 5.
Математическое
ожидание
отклонения
случайной
величины от своего математического ожидания равно нулю, т.е.
M ( X  MX )  0.
Д о к а з а т е л ь с т в о . M ( X  MX )  MX  M (MX )  MX  MX  0.
Пример 3.5. Ежемесячные расходы на обслуживание и рекламу в
некоторой компьютерной фирме составляют в среднем 100 тыс. руб., а число
продаж Х в течение месяца подчиняется следующему закону распределения:
1
2
3
4
5
6
7
8
9 
 0
.
Х  
 0,25 0,20 0,10 0,10 0,10 0,10 0,05 0,05 0,025 0,025 
79
Найти математическое ожидание ежемесячной прибыли при цене 150
тыс. руб. на одну единицу продаж.
Р е ш е н и е . Ежемесячная прибыль подсчитывается по формуле
П  (150 Х  100 ) тыс. руб.
Математическое
ожидание
ежемесячной
прибыли
найдем
с
использованием свойств математического ожидания и вычисленного по
формуле (3.1) математического ожидания М ( Х )  2,675. Таким образом:
М ( П )  М (150 Х  100)  150  М ( Х )  100  150  2,675  100  301,25.
§4. Дисперсия дискретной случайной величины
Существуют такие случайные величины, которые имеют одинаковые
математические ожидания, но различные возможные значения и (или)
вероятности.
Например:
случайные
величины
  0,3 0,2 

X  
 0,4 0,6 
и
  1000 250 
 имеют равные математические ожидания MX  MY  0 , но
Y  
0
,
2
0
,
8


характер распределения случайных величин различен. В то время как
значения случайной величины Х мало отличаются от ее математического
ожидания, значения случайной величины Y значительно удалены от ее центра
распределения.
Таким образом, математическое ожидание не полностью характеризует
случайную величину. Важно знать, насколько рассеяны ее возможные
значения вокруг центра. Для этого вводят новую числовую характеристику,
называемую дисперсией. Слово дисперсия означает «рассеяние».
Пусть
Х
 x x ... xn 

X   1 2
 p1 p2 ... pn 
–
случайная
величина
с
законом
и математическим ожиданием
80
распределения
M ( X )  m . Назовем
случайную величину X  m отклонением случайной величины Х от ее
математического ожидания.
На первый взгляд, кажется, что для характеристики рассеяния можно
найти среднее значение отклонения случайной величины от ее центра, но
оказывается, что оно равно нулю:
M ( X  m)  MX  M (m)  m  m  0.
Величина M X  m  среднее значение модуля отклонения, называется
средним линейным отклонением, не очень удобна в использовании, да и,
оказывается, она не обладает хорошими свойствами.
Поэтому в качестве характеристики рассеяния (разброса, вариации)
вычисляют среднее значение квадрата отклонения. Это и есть дисперсия.
Определение 4.1. Дисперсией случайной величины Х называется
математическое ожидание квадрата отклонения случайной величины от ее
математического ожидания:
D( X )  Var( X )  M ( X  MX ) 2 .
(4.1)
Из определения дисперсии и математического ожидания вытекают
формулы для вычисления дисперсии дискретной случайной величины:
n
D( Х )   xi  MX   pi .
2
(4.2)
i 1
Если число всех возможных значений дискретной случайной величины
бесконечно, то

D( Х )   xi  MX   pi
2
(4.3)
i 1
при условии сходимости ряда.
Дисперсия неотрицательна. Это величина, которая имеет размерность
квадрата случайной величины, что не всегда удобно. Поэтому в качестве
рассеяния
возможных
значений
случайной
величины
вокруг
ее
математического ожидания используют среднее квадратическое отклонение.
81
Определение 4.2. Средним квадратическим отклонением случайной
величины или стандартным отклонением называется корень квадратный из
ее дисперсии:
X  D(X ).
(4.4)
Среднее квадратическое отклонение имеет ту же размерность, что и
случайная величина.
Если DX   2 X характеризует средний размер квадрата отклонения,
то X можно рассматривать как некоторую среднюю характеристику самого
отклонения, а точнее модуля отклонения X  m .
Теорема 4.1. Дисперсия равна разности между математическим
ожиданием квадрата случайной величины и квадратом ее математического
ожидания
D( Х )  M ( X 2 )  M 2 ( X ).
(4.5)
Д о к а з а т е л ь с т в о . Из свойств математического ожидания и при
условии существования MX  m и M ( X 2 ) получим:
D( Х )  M ( X  m) 2  M ( X 2  2 X  m  m 2 )  M ( X 2 )  2  M ( X )  m  M (m 2 ) 
 M ( X 2 )  2m 2  m 2  M ( X 2 )  m 2  M ( X 2 )  ( MX ) 2 .
Что и требовалось доказать.
Следствие. Из определения математического ожидания дискретной
случайной величины и формулы (4.5) получаем формулу:
n
DX   xi2  pi  ( MX ) 2 .
(4.6)
i 1
Пример 4.1. Найти дисперсию и стандартное отклонение случайной
величины Х  число пакетов акций (из четырех), по которым владельцем
будет получен доход, закон распределения и математическое ожидание
МХ  2,6 которой найдены ранее в примерах 1.1 и 3.1:
xi
pi
0
0,012
1
0,106
2
0,32
82
3
0,394
4
0,168
Вычислим дисперсию двумя способами: сначала по формуле (4.2), а
затем по формуле (4.5).
DX  (0  2,6) 2  0,012  (1  2,6) 2  0,106  (2  2,6) 2  0,32  (3  2,6) 2  0,394 
 (4  2,6) 2  0,168  0,08112  0,27136  0,1152  0,06304  0,32928  0,86;
M ( X 2 )  02  0,012  12  0,106  2 2  0,32  32  0,394  4 2  0,168  7,62;
DX  M ( X 2 )  M 2 ( X )  7,62  (2,6) 2  7,62  6,76  0,86.
X  0,86  0,927.
Пример 4.2. Найти дисперсию числа появлений некоторого события А
в одном испытании, если его вероятность равна р.
Р е ш е н и е . Ряд распределения случайной величины Х – число
появлений события А в одном испытании имеет вид (пример 3.3):
 0
Х  
1  р
1
.
р 
Найдем дисперсию по формуле (4.2), учитывая, что М ( Х )  р :
D( Х )  (0  p) 2  (1  р)  (1  p) 2 p  p 2 q  q 2 p  pq( p  q)  pq .
В финансовом анализе, если величина Х  доходность некоторого
актива, то DX или X  выражает меру отклонения доходности от
ожидаемого среднего значения, т.е. риск данного актива.
Пример 4.3. Найти риск актива в условиях примера 3.4.
Р е ш е н и е . Известно следующее распределение доходности (в
процентах) актива за месяц:
 10 15 20 30 
 .
Х  
0
,
15
0
,
5
0
,
3
0
,
05


В примере 3.4 вычислена средняя (прогнозируемая) доходность актива,
т.е. математическое ожидание, которая составляет 15,15%.
Для вычисления дисперсии воспользуемся формулой (4.6):
D( X )  M ( X 2 )  M 2 X  10 2  0,15  152  0,5  20 2  0,3  30 2  0,05  15,152 
 292,5  229,5225  62,9775  X  62,9775  7,936.
Таким образом, риск актива составляет 7,936%.
83
Свойства дисперсии случайной величины
Свойство 1. Дисперсия постоянной величины С равна нулю:
D(С )  0.
(4.7)
Доказательство.
D(С )  M С  M (С )  M (С  С ) 2  M (0)  0 .
2
Замечание. Верно и обратное утверждение: если дисперсия случайной
величины равна нулю, то это постоянная случайная величина.
Свойство 2. Постоянный множитель можно выносить за знак
дисперсии, возводя его в квадрат:
D(СХ )  С 2  D( X ).
Доказательство.
Используем
для
(4.8)
доказательства
свойства
математического ожидания:


D(СX )  M СX  M (СX )   M СX  СM ( X )   M С 2  ( X  m) 2 
2
2
 С 2  M ( X  m) 2  С 2  DX .
Что и требовалось доказать.
Свойство 3. Дисперсия алгебраической суммы конечного числа
независимых случайных величин равна сумме их дисперсий:
D( X1  Х 2  ...  Х m )  D( X1 )  D( X 2 )  ...  D( X m ).
(4.9)
В частности для двух независимых случайных величин Х и Y:
D( X  Y )  D( X )  D(Y ) ,
D(С  X )  D( X ) .
Замечание. В общем случае дисперсия суммы двух случайных величин
может быть вычислена по формуле
D( X  Y )  D( X )  D(Y )  2M ( X  MX )  (Y  MY ).
Свойство 4. Дисперсия произведения двух независимых случайных
величин Х и Y вычисляется по формуле:
D( X  Y )  DX  DY  M 2 ( X )  DY  M 2 (Y )  DX .
84
Пример 4.4. Найти дисперсию случайной величины Z  3 X  5Y  6 ,
если известно, что случайные величины Х и Y независимы и DX  4, DY  2.
Р е ш е н и е . Используя свойства 1, 2 и 3 дисперсии, найдем:
DZ  32  DX  52  DY  0  9  4  25  2  86.
§5. Основные дискретные распределения и их характеристики
Ранее мы ввели понятие «закон распределения случайной величины». В
практических задачах наиболее часто встречаются следующие распределения
дискретной
случайной
(распределение
величины:
Бернулли);
равномерное;
распределение
Пуассона;
биноминальное
геометрическое;
гипергеометрическое.
Рассмотрим подробно каждое из них.
1.
Равномерное распределение.
Определение 5.1.
Дискретная
случайная
величина
называется
равномерно распределенной, если все еѐ возможные значения имеют
одинаковые вероятности.
Закон распределения такой случайной величины имеет вид:
 x1 x2 ... xn 
X 1 1
1 .

... 
n
n n
Математическое
ожидание
равномерного
распределения
равно
среднему арифметическому его значений:
M (X ) 
x  x  ...  xn
1 n
  xi  1 2
.
n i 1
n
(5.1)
Пример 5.1. Дискретная случайная величина Х число очков на
верхней грани игральной кости, имеет равномерный закон распределения:
 1 2 ... 6 
1.
X 1 1

... 
6
6 6
85
Ее среднее значение равно: M ( X ) 
2.
1  2  ...  6 21

 3,5 .
6
6
Биномиальное распределение или распределение Бернулли
Определение 5.2. Дискретная случайная величина Х распределена по
биномиальному закону с параметрами n  N и p  (0;1) , если она принимает
значения 0, 1, 2, , n с вероятностями:
P( X  m)  Cnm  p m  q n  m .
(5.2)
где 0  p  1, q  1  p, m  1,2,...,n .
Напомним, что формулы (5.2) называются формулами Бернулли.
Если случайная величина имеет биномиальное распределение, то ее
можно представить как число успехов в схеме Бернулли с соответствующим
числом повторных независимых испытаний и неизменной вероятностью
успеха.
Замечание. Закон назван «биномиальным» потому, что правую часть
формулы Бернулли можно рассматривать как общий член разложения
бинома Ньютона:
( p  q) n  Cnn  p n  Cnn 1  p n 1  q    Cnk  p k  q n  k    Cn0  q n
Таким образом, члены разложения последовательно определяют
вероятность наступления «успеха» n, n  1, n  2,,2, 1, 0 раз.
Теорема 5.1.
Числовые
характеристики
дискретной
случайной
величины Х, распределенной по биномиальному закону, вычисляются по
формулам:
M ( X )  np; D( X )  npq;  ( X )  npq .
(5.3)
Д о к а з а т е л ь с т в о . Случайную величину Х – число успехов в n
независимых испытаниях – можно представить в виде суммы n независимых
случайных величин X  X1  X 2  ...  X n , где случайная величина X k – число
успехов в k-ом испытании (k = 1, 2, …, n).
86
Каждая из случайных величин X k имеет по два возможных значения
(см. примеры 3.3 и 4.2) и один и тот же закон распределения:
0 1 
 .
Х k  
q p
Найдем числовые характеристики случайной величины X k :
М ( Х k )  0  q  1 p  p ,
D( X k )  (0  p) 2 q  (1  p) 2 p  p 2 q  q 2 p  pq( p  q)  pq.
Так как математическое ожидание и дисперсия суммы независимых
случайных величин равны сумме их математических ожиданий и дисперсий,
то получим:
n
n
M ( X )  M (  X k )   M ( X k )  p  p    p  n  p;


k 1
k 1
n раз
n
n
D( X )  D(  X k )   D( X k )  pq  pq    pq  npq;



k 1
k 1
n раз
 ( X )  D( X )  n p q .
Что и требовалось доказать.
Биномиальный закон распределения широко используется в теории и
практике статистического контроля качества продукции, в теории массового
обслуживания и других областях.
Пример 5.2. Пусть случайная величина Х – число выпадений герба при
четырех испытаниях. Составить закон распределения этой случайной
величины и найти ее числовые характеристики.
Р е ш е н и е . Эта случайная величина имеет распределение Бернулли с
параметрами n  4 и p  0,5 . Поэтому для вычисления соответствующих
вероятностей воспользуемся формулой (5.2):
0
P( X  0) 
C40
4
1
3
1
4
1 1
1 1
       ; P( X  1)  C41        ;
 2   2  16
 2   2  16
87
P( X  2) 
6
4
1
; P( X  3)  ; P( X  4)  .
16
16
16
Итак, ряд распределения имеет вид:
0 1 2 3 4
X  1 4 6 4 1 .


 16 16 16 16 16 
Для нахождения числовых характеристик применим формулы (5.3):
MX  np  4  0,5  2; DX  npq  4  0,5  0,5  1.
Закон распределения Пуассона. Если n велико, а p – мало, то
3.
хорошим приближением биномиального закона является закон Пуассона,
который представляет собой закон распределения вероятностей массовых
и редких событий.
Определение 5.3. Дискретная случайная величина Х распределена по
закону Пуассона с параметром   0 , если она принимает значения
0, 1, 2, , k ,  с вероятностями, вычисляемыми по формулам Пуассона:
m  e 
Р( X  m) 
.
m!
Теорема 5.2.
Числовые
характеристики
(5.4)
дискретной
случайной
величины Х, распределенной по закону Пуассона, вычисляются по
формулам:
M ( X )  ; D( X )  ;  ( X )   .
(5.5)
Д о к а з а т е л ь с т в о . Докажем только первую формулу:

M ( X )   xi pi  0  e
i 0
e



 1 e
1!

 2
2
2!
e

 ...  k 
k
k!
e    ... 
  2

( k 1)
   1  
 ... 
 ...    e    e    ,
(k  1)!
 1! 2!

так как выражение, стоящее в скобке, представляет собой разложение
функции y  e x в ряд Маклорена:
88

xk
x x2
e    1    ....
1! 2!
k  0 k!
x
Что и требовалось доказать.
С формулой Пуассона связан так называемый простейший поток
событий.
Поток событий – это последовательность однородных событий,
которые наступают одно за другим в случайные моменты времени с
одинаковой интенсивностью.
Они
часто
встречаются
в
системах
массового
обслуживания
(количество вызовов скорой помощи, такси, число купленных акций на
финансовой бирже и др.).
Для простейшего потока событий число событий, попадающих на
произвольный отрезок времени, есть случайная величина, имеющая
распределение Пуассона.
Простейший поток характеризуется интенсивностью

(среднее число
событий за единицу времени), тогда  t – число событий за промежуток
времени t.
Обозначим Pt (m) – вероятность появления m событий за промежуток
времени t, тогда:
(t ) m  t
Pt (m) 
e .
m!
(5.6)
Простейший поток событий – это поток событий со свойствами:
1)
стационарность: вероятность того, что за время t произойдет m
событий, зависит только от m и t и не зависит от начала и конца отсчета
временного промежутка, а зависит только от его длины;
2)
отсутствие последействия: предыстория потока не влияет на
вероятность появления событий в будущем;
3)
ординарность: появление двух и более событий за малый
промежуток времени практически невозможно (например, поток поездов,
подходящих к станции).
89
Пример 5.3. Среднее число вызовов, поступающих на АТС в одну
минуту, равно 2. Найти вероятности того, что за 5 минут поступит: а) ровно 3
вызова; б) менее трех вызовов; в) не менее трех вызовов. Поток вызовов
предполагается простейший.
Р е ш е н и е . По условию,   2; t  5; m  3. Воспользуемся формулой
Пуассона (5.6).
а) Вероятность того, что за 5 минут поступит ровно 3 вызова:
P5 (3) 
(2  5)3  25
e
 0,0075.
3!
б) Событие «поступило менее трех вызовов» рассмотрим как сумму
трех несовместных событий и используем теорему сложения вероятностей:
P( X  3)  P( X  0)  P( X  1)  P( X  2)  e 10  10  e 10 
10 2  e 10
 0,0103.
2!
в) События «поступило менее трех вызовов» и «поступило не менее
трех вызовов» противоположны, поэтому:
P( X  3)  1  P( X  3)  1  0,0103  0,9897.
4. Геометрический закон распределения
Рассмотрим дискретную случайную величину Х – число испытаний в
схеме Бернулли до первого появления события А (успеха). Очевидно,
возможными значениями Х являются натуральные числа. Вероятность же
того, что Х принимает значение k, означает, что в предыдущих (k1)-ом
испытаниях событие А не происходило и может быть вычислено по теореме
умножения независимых событий.
Определение 5.4. Дискретная случайная величина Х распределена по
геометрическому закону с параметром
p  (0;1) , если она принимает
значения 1, 2, 3, , k , с вероятностями, которые определяются формулой:
Р( X  k )  q k 1  p,
где 0  p  1 , q  1  p .
90
(5.7)
3
4 
k

1 2
.
Х  
2
3
k 1
 p qp q p q p  q p 
Проверим, что сумма всех вероятностей равна единице.

p
 pi  p  p  q  p  q 2  ...  p  q k 1  ...  1  q 
i 1
p
 1.
p
Мы воспользовались формулой суммы бесконечно
геометрической прогрессии: S 
Теорема 5.3.
Числовые
убывающей
b1
, где 0  q  1.
1 q
характеристики
дискретной
случайной
величины Х, распределенной по геометрическому закону, вычисляются по
формулам:
M (X ) 
q
1
q
; D( X )  2 ;  ( X ) 
.
p
p
p
(5.8)
Пример 5.4. Производится стрельба по цели до первого попадания.
Вероятность попадания в цель при каждом выстреле постоянна и равна 0,7.
Составить закон распределения числа произведенных выстрелов. Найти его
математическое ожидание и дисперсию.
Р е ш е н и е . Случайная величина Х – число произведенных выстрелов
распределена по геометрическому закону с параметром p  0,7.
2
3

k

 1
.
Х  
k 1
0
,
7
0
,
21
0
,
063

0
,
3

0
,
7



По формулам (5.8), при p  0,7; q  0,3 получим:
MX 
1 10
0,3 30
 ; DX 
 .
0,7 7
0,7 2 49
5. Гипергеометрическое распределение
Это распределение возникает в следующей ситуации. Пусть в
множестве из N однородных объектов имеется M элементов с признаком В.
Вероятность выбрать такой элемент при случайном отборе равна, очевидно,
91
M/N. Пусть из этого множества случайным образом отбирают n элементов
(одновременно или последовательно, но без возвращения). Тогда говорят, что
случайная величина Х – число объектов с признаком В среди n отобранных
подчинена гипергеометрическому закону.
Определение 5.5. Дискретная случайная величина Х распределена по
гипергеометрическому закону с параметрами n, M, N, если она принимает
значения k  0,1, 2, , min n; M с вероятностями:
Р( X  k ) 
Теорема 5.4.
Числовые
CMk  C Nn kM
.
C Nn
характеристики
(5.9)
дискретной
случайной
величины Х, распределенной по гипергеометрическому закону, вычисляются
по формулам:
M (X ) 
nM
nM  M  
n
; D( X ) 
 1    1  .
N
N 1 
N   N
(5.10)
Пример 5.5. В лотерее «Спортлото 6 из 45» получить денежный приз
возможно лишь в том случае, когда угадываешь больше двух видов спорта из
отобранных случайным образом 6 из 45. Найти закон распределения
случайной величины Х – число угаданных видов спорта. Найти числовые
характеристики этой случайной величины.
Решение.
Очевидно,
эта
случайная
величина
подчинена
гипергеометрическому закону с параметрами n  6, M  6, N  45. Ряд ее
распределения рассчитаем по формулам (5.9):
0
1
2
3
4
5
6



Х  
0
,
40056
0
,
42413
0
,
15147
0
,
02244
0
,
00137
0
,
00003
0
,
0000001


По формулам (5.10) найдем числовые характеристики:
M (X )  6
6
 0,8;
45
D( X )  6 
6 
6 
6
 1    1    0,6145.
44  45   45 
Заметим, что вероятность получения денежного приза (угадать 3, 4, 5
или 6 чисел) равна примерно 0,024, т.е. 2,4%, а вероятность угадать 5 или 6
чисел составляет чуть более 0,003%.
92
§6. Функция распределения вероятностей
Возможен другой подход к описанию закона распределения случайной
величины: рассматривать не вероятности событий «случайная величина Х
примет значение равное х», а вероятности событий «случайная величина Х
принимает значения меньшие, чем заданное число х». Вероятность этого
события, очевидно, зависит от х, то есть является функцией от х. Эта
функция называется функцией распределения или интегральной функцией
распределения случайной величины Х и обозначается F(x). Функция
распределения существует для случайных величин всех видов: как
дискретных, так и непрерывных.
Определение 6.1. Функцией распределения случайной величины Х
называется функция F(x), определенная для любого действительного числа х
и выражающая вероятность того, что случайная величина Х примет значения,
которые меньше, чем заданное число х:
F ( x)  Р( X  x).
(6.1)
Геометрически это равенство можно истолковать так: F(x) есть
вероятность того, что случайная величина Х принимает значения, которые на
числовой оси изображаются точками, лежащими левее заданной точки х.
Определение 6.2. Функция распределения F(x) дискретной случайной
величины Х равна сумме вероятностей всех значений xi , меньших заданного
числа х:
F ( x) 
 P( X  xi ).
(6.2)
xi  x
Пример 6.1. Найти F (x) и построить еѐ график для случайной
величины Х – число пакетов акций (из четырех), по которым владельцем
будет получен доход рассмотренной в примере 1.1.
Р е ш е н и е . Ряд распределения случайной величины Х был получен в
примере 1.1 и имеет вид:
93
xi
0
1
2
3
4
pi
0,012
0,106
0,32
0,394
0,168
Из вида закона распределения, следует, что пять ее возможных значения
разбивают числовую ось на шесть промежутков (см. рис.).
0
2
1
3
4
х
Найдем функцию распределения на каждом из них.
Если x  0 , то неравенство X  x невозможно (левее х нет ни одного
возможного значения случайной величины) и значит, F ( x)  0 для таких х:
F ( x)  Р( X  x  0)  0 .
Если 0  x  1 , то неравенство X  x возможно, только если X  0 , а
его вероятность равна 0,012:
F ( x)  Р( X  x)  Р( X  0)  0,012.
Если 1  x  2 , то неравенство X  x означает, что или X  0 , или X  1 ,
поэтому по теореме сложения несовместных событий получим:
F ( x)  P( X  x)  P( X  0)  P( X  1)  0,012  0,106  0,118.
Если
2  x  3 , то неравенству
X x
удовлетворяет уже три
возможных значения случайной величины Х, равные 0, 1 и 2:
F ( x)  P( X  x)  P( X  0)  P( X  1)  P( X  2)  0,012  0,106  0,32  0,448.
Если 3  x  4 , то неравенству X  x удовлетворяет уже четыре
возможных значения случайной величины Х, равные 0, 1, 2 и 3:
F ( x)  P( X  x)  0,012  0,106  0,32  0,394  0,842.
На последнем промежутке x  4 , неравенство X  x выполняется для
всех значений случайной величины Х:
F ( x)  Р( X  x)  Р()  1.
Таким образом, мы получили следующую функцию распределения:
94
0, если x  0;

 0,012, если 0  x  1;

 0,118, если 1  x  2;
F ( x)  
0,448, если 2  x  3;
0,842, если 3  x  4;

1, если x  4.

Функция распределения в рассмотренном примере, является кусочнонепрерывной. График функции распределения построен ниже, его можно
назвать «ступенчатым». Такая ситуация имеет место для любой дискретной
случайной величины.
F(x)
1
0,842
0,448
0,118
0,012
0
1
2
3
4
х
Рис. 6.1 График функции распределения
Функция распределения дискретной случайной величины – это
кусочно-непрерывная «ступенчатая» функция. Скачки происходят в точках
соответствующих возможным значениям xi случайной величины и равны
вероятностям pi этих значений.
Свойства функции распределения F ( x )
Свойство 1. Для любого x  R справедливо неравенство 0  F ( x)  1
(так как это вероятность).
95
Свойство 2. Функция распределения F(x) является неубывающей
функцией, т.е. из того, x1  x2 следует, что F ( x1 )  F ( x2 ) .
Д о к а з а т е л ь с т в о . Пусть x1  x2 . Событие « X  x2 » есть сумма
двух несовместных событий: « X  x1 » и « x1  X  x2 ». Применим теорему
суммы вероятностей для несовместных событий:
P( X  x2 )  P( X  x1 )  P( x1  X  x2 ).
F ( x2 )  F ( x1 )  P( x1  X  x2 )  F ( x2 )  F ( x1 )  P( x1  X  x2 )  0 
 F ( x1 )  F ( x2 ).
Что и требовалось доказать.
Замечание.
С
ростом
х
интервал
(; х)
увеличивается
и,
следовательно, вероятность попадания случайной величины на этот интервал
не может уменьшаться.
Свойство 3. lim F ( x)  0;
x  
lim F ( x)  1.
x  
Свойство 3 следует из того, что событие: ( Х  ) есть невозможное
событие, а событие ( Х  )  достоверное.
Свойство 4. Вероятность того, что случайная величина примет
значения из полуинтервала a; b  , равна приращению функции распределения
на этом промежутке:
P(a  X  b)  F (b)  F (a).
(6.3)
Утверждение следует из свойства 2.
Свойство 5. P( X  x)  1  P( X  x)  1  F ( x).
Свойство 6. Функция F(x) непрерывна слева в любой точке, т.е.
lim F ( x)  F (a).
x a  0
Таким
образом,
каждая
функция
распределения
является
неубывающей, непрерывной слева и удовлетворяющей условиям F ()  0
и F ()  1. Верно и обратное: если функция удовлетворяет перечисленным
условиям, то ее можно рассматривать как функцию распределения некоторой
случайной величины.
96
Пример 6.2. Функция распределения случайной величины имеет вид:
 0,
0,3,

F (x)  
0,9,

 1,
при x  1;
при  1  x  0;
при 0  x  2;
при x  2.
Построить ряд распределения и найти следующие вероятности:
a) P(0  X  2); b) P( X  0,5); c) P(0  X  3).
Р е ш е н и е . Точками разрыва функции являются числа: 1; 0 и 2. Это
и есть все возможные значения случайной величины.
Скачки в этих точках, а значит и вероятности того, что случайная
величина принимает перечисленные значения, соответственно равны:
0,3  0  0,3; 0,9  0,3  0,6; 1  0,9  0,1.
Таким образом, ряд распределения имеет вид:
xi
pi
a)
1
0,3
0
0,6
2
0,1
Вероятность события (0  X  2) найдем по свойству 4 функции
распределения:
P(0  X  2)  F (2)  F (0)  0,9  0,3  0,6.
b)
Для вычисления вероятности используем свойство 5:
P( X  0,5)  1  P( X  0,5)  1  F (0,5)  1  0,9  0,1.
c)
Для
дискретной
случайной
величины
непосредственно
применить формулу (6.3) к промежутку [0,3; 2] нельзя, так как правая
граница входит в этот промежуток. Поэтому событие
(0,3  X  2)
представим как сумму двух событий (0,3  X  2) и ( X  2) . Тогда по
теореме сложения вероятностей несовместных событий и указанного
свойства функции распределения, получим:
P(0,3  X  2)  P(0,3  X  2)  P( X  2)  (0,9  0,3)  0,1  0,7.
97
§7. Плотность распределения непрерывной случайной величины
Определение 7.1. Случайная величина Х называется непрерывной, если
ее функция распределения F (x) непрерывна в любой точке х числовой оси.
Теорема 7.1. Для непрерывной случайной величины вероятность того,
что она примет любое определенное значение равна нулю.
Доказательство.
Покажем,
что
для
любого
значения

случайной величины Х вероятность P( X   )  0. Так как функция F (x)
непрерывна, то lim F (  )  F ( ). Кроме того, вероятность P( X   ) можно
 
представить в виде:
P( X   )  lim P(  x   ) .
 
Применим далее свойство 4 функции распределения:
P( X   )  lim P(  X   )  lim F (  )  F ( )  
 
 
 lim F (  )  lim F ( )  F ( )  F ( )  0.
 
 
Что и требовалось доказать.
Мы уже встречались с событиями, вероятности которых были равны
нулю, но это были невозможные события. И на первый взгляд кажется
парадоксальным, что возможное событие, состоящее в том, что непрерывная
случайная величина Х примет значение  , имеет нулевую вероятность, а
например,
событие
  X ,
складывается из событий
имеющее
Х  х , где
ненулевую
вероятность,
x  [ ;  ) , имеющих нулевые
вероятности. В действительности это не более парадоксально, чем
представление об отрезке, имеющем определенную длину, тогда как любая
точка этого отрезка имеет нулевую длину.
Следствие. Для непрерывной случайной величины
P(a  X  b)  P(a  X  b)  P(a  X  b)  P(a  X  b)  F (b)  F (a).
98
Замечание. Можно дать другое определение непрерывной случайной
величины: случайная величина непрерывна, если вероятность каждого ее
отдельного значения равна нулю.
Функция распределения непрерывной случайной величины обладает
всеми свойствами, которые справедливы для дискретных случайных
величин.
Определение 7.2. Случайная величина Х называется абсолютно
непрерывной, если существует такая неотрицательная функция f (x) , что
вероятность попадания случайной величины Х в промежуток
a; b
определяется следующим образом:
b
P(a  X  b)   f ( x)dx.
(7.1)
a
f(x)
b
S   f (x)dx
a
a
b
0
x
Рис. 7.1. Вероятность попадания на отрезок [a; b]
Функция f (x) называется плотностью распределения или плотностью
вероятности.
График
плотности
вероятности
называется
кривой
распределения. Плотность вероятности, как и функция распределения,
является одной из форм закона распределения, который существует лишь для
непрерывных случайных величин.
Полагая
а   ,
b  x,
получим
выражение
для
функции
распределения через плотность вероятности:
P(  X  x)  P( X  x)  F ( x) 
x
 f (t )dt ,

x
F ( x) 
 f (t )dt.

99
(7.2)
f(x)
S=F(x)
х
Рис. 7.2. Геометрическая интерпретация F(x)
Поэтому
функцию
F (x) называют еще интегральной функцией
распределения.
Свойства функции плотности
Свойство 1. Функция плотности вероятностей неотрицательна по
определению:
f ( x)  0 .
Свойство 2.
Функция
плотности
обладает
свойством
нормированности:

 f ( x)dx  1.
(7.3)

f(x)
S=1
х
0
Рис. 7.3. Нормированность f(x)
т.е. площадь «бесконечной» криволинейной трапеции, ограниченной сверху
кривой распределения, равна единице. Это объясняется тем, что событие (
   X   ) является достоверным и его вероятность равна единице.
Свойство 3. Во всех точках, где функция плотности непрерывна,
выполняется равенство:
f ( x)  F ( x).
100
(7.4)
Поэтому функцию плотности называют еще дифференциальной
функцией распределения абсолютно непрерывной случайной величины.
Замечание. Функция плотности может быть разрывной в некоторых
точках, в которых ее можно определить произвольным образом, что никак не
повлияет на функцию распределения и другие характеристики случайной
величины.
Замечание. Можно считать, что множество значений случайной
величины совпадает с промежутком, на котором ее плотность отлична от
нуля. Говорят, что случайная величина сосредоточена на этом промежутке.
Замечание. Существует другой подход к определению абсолютно
непрерывной случайной величины. А именно: если функция распределения
непрерывной случайной величины Х дифференцируема всюду, кроме, быть
может, конечного числа точек, то плотностью распределения случайной
величины Х называется производная от ее функции распределения
f ( x)  F ( x) . Те случайные величины, которые имеют плотность, называются
абсолютно непрерывными, а те, у которых ее нет  просто непрерывными.
В дальнейшем будем изучать только абсолютно непрерывные
случайные величины и опускать слово «абсолютные».
Пример 7.1.
Плотность
распределения
непрерывной
случайной
величины имеет вид:
если 0  x  2;
 ax,
.
f ( x)  
0, если x  0 или x  2.
Определить константу а, построить функцию распределения и
вычислить вероятность попадания случайной величины на отрезок [1;1].
Решение.
Для
нахождения
а,
воспользуемся
свойством

нормированности функции плотности:
 f ( x)dx  1. Так как f ( x)  0

на промежутке от 0 до 2, то:
101
только

ax 2
 f ( x)dx  axdx  1  2

0
2
2
0
1
 1  2a  1  a  .
2
 x
, если 0  x  2;
Таким образом: f ( x)   2
0, если x  0 или x  2.
Чтобы построить функцию распределения, заметим, что отрезок [0;2]
делит
множество
значений
аргумента
х
на
три
промежутка:
(;0); [0;2]; (2;) . На каждом из них воспользуемся равенством (7.2):

Если x  0, то F ( x) 
x
 0  dt  0 .

t
t2
Если 0  x  2, то F ( x)   f (t )dt   0  dt   dt  0 
4


02
x

0
x
0
x2
 .
4
2

t
t2
22
Если x  2, то F ( x)   0  dt   dt   0  dt  0 
0
 1.
2
4
4

0
2
0
0

x
2
Итак, получена функция распределения:
 0, если x  0;
 x 2
F ( x)   , если 0  x  2;
4
 1, если x  2.
Осталось вычислить вероятность попадания на отрезок [1;1]:
P(1  X  1)  F (1)  F (1) 
12
1
0  .
4
4
Графики обеих функций представлены на рисунках 7.4 и 7.5
соответственно:
f(x)
F(x)
1
0
1
2
Рис. 7.4. Плотность f(x)
0
x
2
x
Рис. 7.5. Функция распределения F(x)
102
§8. Числовые характеристики непрерывной случайной величины
Определение 8.1.
случайной
величины
Математическим
с
плотностью f (x)
ожиданием
называется
непрерывной
число,
которое
определяется формулой:
MX 

 x  f ( x)dx.
(8.1)

При этом интеграл, стоящий справа, должен сходиться абсолютно.
Если все значения непрерывной случайной величины Х сосредоточены
на промежутке [a;b] (т.е. вне этого промежутка плотность равна нулю), то:
b
MX   x  f ( x)dx.
(8.2)
а
Определения дисперсии и стандартного отклонения непрерывной
случайной величины Х, а также их свойства аналогичны соответствующим
определениям и свойствам для дискретной случайной величины. Они
вычисляются по формулам:
DX  M X  M ( X ) 
2

 ( x  M ( X ))
2
 f ( x)dx.
(8.3)

DX  M ( X )  M ( X ) 
2
2

x
2
 f ( x)dx  M 2 ( X ).
(8.4)

X  DX .
(8.5)
Замечание. Чтобы получить формулы (8.2), (8.3) и (8.4), достаточно в
соответствующих формулах для дискретной случайной величины заменить
знак суммирования по всем ее значениям на знак интеграла с бесконечными
пределами, дискретный аргумент xi  непрерывно меняющимся х, а
вероятность pi  выражением f ( x)dx :
103
Дискретная случайная
величина
Непрерывная случайная величина
n
M ( X )   xi pi
Математическое
ожидание
MX 
i 1
 x  f ( x)dx
(8.2)

n

DX   ( xi  MX )  pi
DX   ( x  MX ) 2  f ( x)dx (8.3)
2
i 1
Дисперсия


n
DX   xi2  pi  (MX ) 2
DX 
i 1

x
2
 f ( x)dx  ( MX ) 2 (8.4)

При этом несобственные интегралы, стоящие справа, должны
сходиться абсолютно.
Пример 8.1.
Плотность
распределения
непрерывной
случайной
величины имеет вид:
 x
, если 0  x  2;
.
f ( x)   2
0, если x  0 или x  2.
Найти
математическое
ожидание,
дисперсию
и
стандартное
отклонение.
Р е ш е н и е . Так как случайная величина сосредоточена на отрезке
[0;2],
то для
вычисления
математического ожидания
воспользуемся
формулой (8.2):
x
x3
MX   x  dx 
2
6
0
2
2
0
23
4

0  .
6
3
Дисперсию (а затем и стандартное отклонение) вычислим по формулам
(8.4) и (8.5):
x
x4
M ( X )   x  dx 
2
8
0
2
2
2
2
2
0
24

 0  2;
8
16 2
2
4
DX  M ( X )  M ( X )  2     2  
 X 
 0,47.
9 9
3
3
2
2
104
Кроме
отклонения
математического
в
теории
ожидания,
вероятностей
дисперсии
применяют
еще
и
стандартного
ряд
числовых
характеристик, отражающих те или иные особенности распределения
случайной величины.
Определение 8.2. Модой M 0 ( X ) непрерывной случайной величины Х
называют точку локального максимума функции плотности.
Мода дискретной случайной величины  это значение случайной
величины с наибольшей вероятностью.
Если мода одна, то распределение называют унимодальным, если более
одной  полимодальным. В частности распределение, имеющее две моды,
называется бимодальным.
Вероятностный смысл моды: в ее окрестность наиболее вероятно
попадание случайной величины.
Определение 8.3. Квантилью (квантилем) уровня α называется такое
значение x
случайной величины, для которого вероятность события
( X  x ) равна α, т.е.
P( X  x )  
т.е. x  есть корень (по предположению единственный) уравнения:
F ( x )  
Геометрически x есть такое значение случайной величины Х, при
котором
площадь
криволинейной
трапеции
распределения левее прямой x  x равна α.
f(x)
S 
x
0
Рис. 8.1. Квантиль уровня α
105
ограниченная
кривой
Определение 8.4. Медианой случайной величины Х называется такое
ее значение M l ( X )  xmed , для которого одинаково вероятно, окажется ли
случайная величина меньше или больше этого значения:
P( X  M l )  P( X  M l )  0,5.
Медиана  это квантиль уровня 0,5.
Геометрически:
прямая
x  Ml
делит
площадь
под
кривой
распределения пополам.
Квантили уровней 0,25 и 0,75 называют нижним и верхним
квартилями, квантили уровней 0,1, 0,2, 0,3, …, 0,9  децилями, квантили
уровней, кратных 0,01  процентилями.
Определение 8.5. Коэффициент вариации  (x)  это отношение
среднего отклонения случайной величины к ее математическому ожиданию,
выраженному в процентах:
 ( x) 
Предполагается,
что
X
MX
MX  0 .
 100%.
(8.6)
Коэффициент
вариации

это
безразмерная характеристика степени рассеивания случайной величины.
Определение 8.6. Начальным моментом k–го порядка случайной
величины Х называется математическое ожидание k –ой степени этой
случайной величины.
 k  M [ X k ].
(8.7)
Определение 8.7. Центральным моментом k–го порядка случайной
величины Х называется математическое ожидание k –ой степени отклонения
этой случайной величины от ее математического ожидания.
k  M [ X  MX ]k .
(8.8)
В частности:  1  M ( X ),  2  D( X ).
Обозначим
математическое
ожидание
Справедливы следующие соотношения:
106
через
а,
т.е.
MX  a.
 0  M ( X  a) 0  M (1)  1;
1  M ( X  a)  0;
 2  M ( X  a) 2  M ( X 2 )  M 2 X  DX   2  a 2 ;
3   3  3a 2  2a 3 ;
 4   4  6a 2 24a 3  3a 4
и т.д.
Если распределение симметрично относительно математического
ожидания, то все центральные моменты нечетного порядка равны нулю.
Определение 8.8. Величина
Ас 
3
3
называется коэффициентом
асимметрии случайной величины.
Он характеризует «скошенность» распределения по отношению к
математическому ожиданию. Если асимметрия левосторонняя, то Ас  0 ,
если же правосторонняя, то Ac  0 . Для симметричных распределений
3  0 , следовательно, и коэффициент асимметрии равен нулю.
f(x)
Ас > 0
Ас = 0
Ас < 0
0
x
Рис. 8.2. Виды асимметрии
Определение 8.9. Величина Ex 
4
 3. называется коэффициентом
4
эксцесса случайной величины или просто эксцессом.
Он характеризует «крутость» или «сглаженность» распределения. Для
более островершинных распределений  эксцесс положительный, для менее
островершинных  отрицательный.
107
f(x)
Ek > 0
Ek = 0
Ek < 0
0
x
Рис. 8.3. Виды эксцесса
§9. Основные непрерывные распределения и их характеристики
1.
Равномерный закон распределения.
Определение 9.1. Непрерывная случайная величина Х равномерно
распределена на отрезке [a,b], если ее плотность f (x) постоянна на этом
отрезке и равна нулю вне его.
Из определения следует, что плотность равномерно распределенной на
отрезке [a,b] случайной величины задается формулой:
1


, x  [a; b],
f ( x)   b  a

x  [a; b].
 0,
(9.1)
График плотности равномерного закона представлен на рис.9.1.
Очевидным образом, из геометрического смысла, можно найти
функцию распределения F (x) равномерно распределенной на отрезке [a,b]
непрерывной случайной величины:
x  a,
 0,
x  a
F ( x)  
, a  x  b,
b

a

x  b.
 1,
(9.2)
График функции распределения вероятностей представлен на рис.9.2.
108
F(x)
f(x)
1/(b-a)
1
a
0
b
x
a
0
Рис. 9.1. Плотность f(x)
b
x
Рис. 9.2. Функция распределения F(x)
Теорема 9.1. Если непрерывная случайная величина равномерно
распределена на отрезке [a,b], то ее числовые характеристики вычисляются
по формулам:
ba
(b  a) 2
ba
MX 
; DX 
; X 
.
2
12
2 3
Доказательство.
По
определению
числовых
(9.3)
характеристик
непрерывной случайной величины и свойствам интеграла имеем:


1
1 b
M ( X )   xf ( x)dx   x  0 dx   x 
dx   x  0 dx 
 xdx 
ba
ba a


a
b
a
b

D( X ) 

b

a
1 x2 b
1
ba


(b 2  a 2 ) 
.
b  a 2 a 2(b  a)
2
2
2
 x  M ( Х ) f ( x)dx   x  M ( Х ) f ( x)dx 
2
2
ba
1
1 b
ba
1 1 
ba

 x 

dx

  x 

x
 dx 


2  ba
ba a
2 
ba 3 
2 
a
b
 b  a   a  b 
1
 


3(b  a )  2   2 
3

3

 b  a   b  a 
1
 



 3(b  a )  2   2 
3
3
3
3b

a



2
(b  a) 2
ba



.

3(b  a )  2 
12
 ( X )  D( X ) 
Что и требовалось доказать.
109
(b  a) 2 b  a

.
12
2 3
Замечание. В силу симметричности равномерного распределения
относительно математического ожидания его асимметрия равна нулю, а моду
равномерное распределение не имеет. Медиана и коэффициент эксцесса
равны соответственно: M l 
Примеры
ba
; Ex  1,2.
2
равномерно
распределенной
непрерывной
случайной
величины:
 время ожидания транспорта с постоянным интервалом движения;
 ошибка измерения при округлении измеряемой величины до
ближайшего целого деления.
Вероятность попадания случайной величины на отрезок [ ;  ]  [a; b]
зависит только от длины этого отрезка и не зависит от того, где этот отрезок
расположен:
P(  X   ) 
 
ba
.
(9.4)
Таким образом, равномерное распределение реализует принцип
геометрической вероятности при бросании точки на отрезок [a;b].
Пример 9.1. Поезда метро идут строго по расписанию. Интервал
движения составляет 2 минуты. Найти интегральную и дифференциальную
функции распределения случайной величины Х – время ожидания поезда.
Найти среднее время ожидания и стандартное отклонение. Определить
вероятность того, что время ожидания не превысит одной минуты.
Р е ш е н и е . Случайная величина Х – время ожидания поезда –
подчинена равномерному закону в интервале от 0 до 2 минут. Следовательно,
ее плотность вероятности и функция распределения будут иметь вид:
0,
x  0,


x

0
x

 , 0  x  2,
F ( x)  
2

0
2


x  2.
 1
x  0,
 0,
 1
1
f ( x)  
 , 0  x  2,
2  0 2
x  2;
 0,
110
По формулам (9.3) вычислим среднее время ожидания и стандартное
отклонение:
MX 
ba 20

 1;
2
2
X 
ba 20 1


 0,577.
2 3 2 3
3
Вероятность того, что время ожидания не превысит одной минуты,
найдем по формуле (9.4):
P(0  X  1) 
1 0 1
 .
20 2
2. Показательный (экспоненциальный) закон распределения
Определение 9.2. Непрерывная случайная величина Х, принимающая
неотрицательные значения, распределена по показательному закону с
параметром   0 , если плотность распределения вероятностей имеет вид:
x  0,
 0,
f ( x)  
 x
  e , x  0.
(9.5)
Составим функцию распределения F (x) для показательного закона.
Очевидно, что для всех x  0 значение F (x) равно нулю. Для остальных
значений аргумента получим:
F ( x)  Р( X  x)  Р(  X  x) 
x
x

0
 f (t )dt     e
 t
1
dt   
 e  t

x
 1  e  х .
0
Таким образом:
x  0,
 0,
F ( x)  
 x
1  e , x  0.
Графики функций
f (x)
и
F (x)
представлены на рисунках 9.3 и 9.4.
111
(9.6)
показательного распределения
f(x)
F(x)

1
0
0
x
Рис. 9.3. Плотность f(x)
x
Рис. 9.4. Функция распределения F(x)
Показательный закон играет большую роль в теории массового
обслуживания. Например, случайная величина Х, равная интервалу времени
между
двумя
соседними
событиями
в
простейшем

– интенсивность потока.
показательное распределение с параметром
потоке,
имеет
Теорема 9.2. Числовые характеристики показательно распределенной
непрерывной случайной величины вычисляются по формулам:
M (X ) 
1

D( X ) 
;
1

2
;
 (X ) 
1

(9.7)
.
Д о к а з а т е л ь с т в о . Найдем математическое ожидание, используя
формулу интегрирования по частям  udu  uv   vdu :
MX 



0
 x  f ( x)dx   x    e
u  x  du  dx
 x
dv    e  x dx 
dx 

v     e  x dx  e  x
 x  e
 x  
0

 e
 x
dx  0 
0
1

e
Для вычисления дисперсии найдем сначала М ( X 2 ) :
u  x 2  du  2 xdx
M ( X 2 )   x 2  f ( x)dx   x 2    e  x dx  dv    e  x dx  

0
v     e  x dx  e  x


112
 x


0
1

.
  x2  e
 x  
0
u  x  du  dx
 2  xe  x dx  0  2  x  e  x dx  dv  e  x dx  
1
0
0
v   e  x




2x

e
 x

0
 2
2    x
  e dx  0    2 e  x
 
 0
0


 2
 .
 2

Окончательно получаем:
2
1
1
1
D( X )  M ( X )  M ( X )  2     2  Х  D( X )  .

   
2
2
2
Что и требовалось доказать.
Вероятность попадания случайной величины на отрезок [ ;  ] можно
вычислить по формуле:
P(  X   )  F ( )  F ( )  e   e  .
Кроме того: M 0  0; M l 
1

(9.8)
 ln 2; As  2; Ex  6.
Пример 9.2. Среднее время безотказной работы прибора равно 100
часов. Полагая, что время безотказной работы прибора подчинено
показательному
закону
распределения,
найти
его
интегральную
и
дифференциальную функции распределения. Определить вероятность того,
что в течение 120 часов прибор не выйдет из строя.
Решение.
По условию математическое ожидание равно 100,
следовательно можно найти параметр :
MX 
1

 100    0,01.
Плотность вероятности и функция распределения по формулам (9.5) и
(9.6) имеют вид:
x  0,
 0,
f ( x)  
0, 01x
, x  0;
0,01  e
x  0,
 0,
F ( x) 
0, 01x
, x  0.
1  e
События «прибор проработает более 120 часов» и «прибор проработает
менее 120 часов» являются противоположными. Поэтому вероятность того,
113
что в течение 120 часов прибор не выйдет из строя, вычислим с
использованием свойства вероятностей противоположных событий:
P( X  120)  1  P( X  120)  1  F (120)  e

120
100
 e 1, 2  0,3.
3. Нормальный закон распределения (распределение Гаусса)
Нормальное распределение наиболее часто встречающийся вид
распределения. Он применяется при анализе и прогнозировании различных
экономических, демографических и социальных процессов, при анализе
результатов измерений с помощью приборов и т.д.
Нормальный
закон
занимает
центральное
место
в
теории
вероятностей. Это объясняется тем, что этот закон проявляется во всех
случаях,
когда
случайная
величина
является
результатом
действия
большого числа различных факторов. Кроме того, этот закон является
предельным, к нему, с ростом числа наблюдений, стремятся другие
распределения.
Определение 9.3.
Непрерывная
случайная
величина
называется
распределенной по нормальному закону (закону Гаусса) с параметрами а и
  0 , если еѐ плотность вероятности имеет вид:
f ( x) 
1
e
 2

( x  a )2
2 2
.
(9.9)
Если случайная величина Х распределена по нормальному закону с
параметрами а и  , то пишут: X ~ N (a; ) или X ~ N (a; 2 )
В частном случае, когда a  0;   1, нормальное распределение
называется стандартным или нормированным и обозначается N (0; 1).
Плотностью стандартного нормального распределения является функция
Гаусса  ( x) 
1
e
2

x2
2
, для которой существуют таблицы.
114
Функция плотности нормального распределения связана с функцией
Гаусса соотношением
f ( x) 
 xa
 
 , где (t) – функция Гаусса.
   
1
Все свойства плотности нормального распределения и еѐ график легко
следуют из свойств и графика функции Гаусса y   (x) . Напомним, что
площадь, заключенная между графиком плотности y  f (x) и осью абсцисс
равна единице.
Графики обеих функций представлены на рисунках 9.5 и 9.6:
(x)
3
f (x )
1
2
1
 2
0
 3
x
3
Рис. 9.5. Функция Гаусса
3
a
0
x
Рис. 9.6. Плотность нормального
распределения
Теорема 9.3. Параметры а и  нормального распределения суть его
математическое ожидание и стандартное отклонение:
M ( X )  a; D( X )   2 ;  ( X )   .
Доказательство.
(8.10)
Докажем только первое равенство (второе
равенство доказывается аналогично):

1
M ( X )   xf ( x)dx 
 2

1

 2

 xe
( x  a )2
2 2
dx 
t

 (  t  a)e




t2
2
1
   dt 
2
115
xa

 
 x   t  a
dx    dt

   t  e



t2
2
 ae

t2
2


dt 


t2
   2
a

t  e dt 

2  
2

2
  t
e 2

dt  a 




t2

1
 e 2 dt  a 1  a.
2
0
Первое слагаемое равно нулю, т. к. содержит интеграл от нечетной
функции по симметричному относительно нуля промежутку, а во втором
2
слагаемом  известный интеграл Эйлера-Пуассона:
  t
e 2

dt  2 .

Что и требовалось доказать.
Теорема 9.4.
(о
стандартизации)
Если
случайная
величина
Х
распределена по нормальному закону N (a; ) с параметрами а и  , то
случайная величина Z 
X a

распределена по стандартному закону N (0; 1)
с нулевым математическим ожиданием и единичной дисперсией.
Д о к а з а т е л ь с т в о . По условию M ( X )  a; D( X )   2 .
Найдем математическое ожидание и дисперсию случайной величины Z.
1
1
 X a 1
M (Z )  M 
   M ( X  a)   ( M ( X )  M (a))   (a  a)  0;


   
1
1
 X a 1
2
D( Z )  D
  2  D( X  a)  2  ( D( X )  D(a))  2  (  0)  1.


   
Что и требовалось доказать.
Переход от случайной величины X ~ N (a; ) к случайной величине
Z ~ N (0;1) называется процессом стандартизации.
f (x)
0
a1
a2
a3
  const, a1  a2  a3.
Рис. 9.7. Изменение параметра а
116
x
Математическое ожидание характеризует центр рассеивания значений
случайной величины, и при его изменении при неизменной дисперсии кривая
распределения смещается вдоль оси абсцисс, не меняя формы (рис. 9.7).
Если же у случайной величины сохраняется математическое ожидание,
но изменяется дисперсия, то кривая будет изменять форму, растягиваясь или
сжимаясь, не сдвигаясь вдоль оси абсцисс (так как площадь под кривой
распределения должна оставаться единичной).
f(x)
N(a; 1)
N(a; 2)
N(a; 3)
0
a=const, 1 <2  3
x
Рис. 9.8. Изменение параметра

Таким образом, параметр а характеризует положение нормальной
кривой, а параметр  – ее форму.
Функция распределения F(x) нормально распределенной случайной
величины имеет вид:
x
1
F ( x)  P( X  x)   f (t )dt 
 2

x
e

( t  a )2
2 2
(9.11)
dt.

Такой интеграл не выражается в элементарных функциях, но функция
x
распределения F(x) связана с функцией Лапласа ( x)   e

t2
2 dt
следующим
0
соотношением:
F ( x) 
Используя
1
 xa
 
.
2
  
преобразование
графика
(9.12)
функции
Лапласа
(рис.9.9),
получаем график функции распределения F(x) нормального закона (рис.9.10).
117
Ф(x)
F(x)
0,5
1
0,5
0
x
0
0,5
Рис. 9.9. Функция Лапласа
a
x
Рис. 9.10. Функция распределения
нормального закона
Для нормально распределенной случайной величины Х имеют место
следующие свойства.
Свойство 1. Для нормально распределенной случайной величины с
параметрами а и

вероятность попадания на промежуток
( ;  )
вычисляется по формуле:
 а
  а 
P(  X   )  
  
.
  
  
(9.13)
Д о к а з а т е л ь с т в о . По свойству плотности вероятности, свойству
интеграла и равенству (9.12) имеем:






P(  X   )   f ( x)dx   f ( x)dx   f ( x)dx F (  )  F ( ) 
1
   a   1
   а 
   
  а 
   
     
   
  
.
    2
  
  
  
2
Что и требовалось доказать.
Свойство 2. Для нормально распределенной случайной величины Х с
параметрами а и  вероятность отклонения Х от своего среднего значения
меньше, чем на  (по абсолютной величине), вычисляется по формуле
 
P( X  a   )  2 .
 
(9.14)
Д о к а з а т е л ь с т в о . Используя свойство 1 и нечетность функции
Лапласа, получаем требуемое:
118
 (a   )  a 
 (a   )  a 
P  X  a     P ( a    X  a   )  
  








 


 
   

 


  2



.

Что и требовалось доказать.
Свойство 3.
(Правило
трех
сигм)
Все
значения
нормально
распределенной случайной величины с практической достоверностью лежат
в интервале (a  3 , a  3 ) .
P( X  a  3 )  1.
Д о к а з а т е л ь с т в о . Используя свойство 2, получим:
1
 3 
P( X  a  3 )  2   2(3)  2   1.
2
 
Что и требовалось доказать.
Свойство 4. Если Х  нормально распределенная случайная величина с
параметрами а и  , то случайная величина Y  kX  b также имеет
нормальное распределение с параметрами ka  b и k 2 2 .
Свойство 5. Сумма двух независимых нормально распределенных
случайных величин имеет нормальный закон распределения. При этом их
математические ожидания и дисперсии суммируются.
Свойство 6.
Пусть
X1 , X 2 ,..., X n
–
независимые
нормально
распределенные случайные величины с параметрами а и  . Тогда их среднее
арифметическое
X
X 1  X 2  ...  X n
n
распределение с параметрами а и

n
также
имеет
нормальное
при этом выполняется условие:
 n 
 X  X 2  ...  X n

.
P 1
 a     2
n





Для
центральных
моментов
любого
порядка
(9.15)
нормального
распределения имеет место рекуррентное соотношение, которое позволяет
вычислять моменты высших порядков через моменты низших порядков
119
k  (k  1)   2  k 2 .
Так как 1  0 , то все нечетные моменты нормального распределения
равны нулю. Для четных моментов получаем следующие выражения:
0  1; 2   2 ; 4  3 4 ;; 2k  (2k  1)!! 2k ,
где (2k  1)!! – произведение всех нечетных чисел от 1 до 2k  1.
Отсюда
получаем,
что
асимметрия
As 
3
0
3
и
эксцесс
4
3 4
Ek  4  3  4  3  0 нормального распределения равны нулю.


При изучении распределений, отличных от нормального, асимметрия и
эксцесс служат для количественной оценки этого отличия. Если асимметрия
и эксцесс изучаемого распределения небольшие по величине, то можно
предположить близость этого распределения к нормальному.
Пример 9.3. Заданы математическое ожидание а  10 и среднее
квадратическое отклонение   5 нормально распределенной случайной
величины Х. Найти:
а) вероятность того, что случайная величина Х примет значение,
принадлежащее интервалу (9; 14);
б) вероятность того, что абсолютная величина отклонения случайной
величины Х от ее математического ожидания а окажется меньше 6.
Р е ш е н и е . Воспользуемся свойствами 1 и 2.
1) Подставив значения   9 ,   14 , a  10 ,   5 в формулу (9.13),
получим:
 14  10 
 9  10 
P(9  X  14)  
  
  (0,8)  (0,2)  (0,8)  (0,2) 
 5 
 5 
 0,2881  0,0793  0,3674.
2) Подставив значения   6 ,   5 в формулу (9.14), получим:
Р( X  10  6)  2(6 / 5)  2(1,2)  2  0,3849  0,7698.
Пример 9.4. Магазин производит продажу мужских костюмов. По
данным статистики, распределение по размерам является нормальным с
120
параметрами a  48 и   2 . Определить процент спроса на 50-й размер при
условии разброса этой величины от 49 до 51.
Р е ш е н и е . Подставив значения   49 ,   51 , a  48 ,   2 в
формулу (9.13), получим:
 51  48 
 49  48 
P(49  X  51)  
  
  (1,5)  (0,5)  0,2417.
 2 
 2 
Следовательно, спрос на 50-й размер составит  24% , и магазину нужно
предусмотреть это в общем объеме закупки.
Далее рассмотрим несколько основных законов, которые составляют
необходимый аппарат для построения оценок и критериев в математической
статистике.
4.
Распределение «хи-квадрат» (распределение Пирсона)
Определение 9.4.
Распределением
«хи-квадрат»
с
n
степенями
свободы называется распределение суммы квадратов n независимых
случайных величин, каждая из которых имеет стандартное нормальное
распределение:
n
   Z i2 , где Zi ~ N (0;1).
2
n
i 1
Плотность этого распределения имеет вид:
x  0,
 0,
n
x

1

f ( x)  
1
2
2 , x  0,

x

e
 2 n 2  (n 2)


где Г ( y )   e  t  t y 1dt – гамма-функция Эйлера. Для целых положительных
0
значений Г ( y)  ( y  1)!.
Распределение «хи-квадрат» определяется одним параметром – числом
степеней свободы. Кривые распределения Пирсона для различных степеней
свободы приведены на рис. 9.11. Из рисунка видно, что с увеличением числа
121
степеней
свободы
 2 -распределение
медленно
приближается
к
нормальному.
f(x)
0,5
0,4
n=2
0,3
n=6
0,2
n=10
0,1
0
2
4
6
8
10
12
14
x
Рис. 9.11. Плотность распределения Пирсона
Основные числовые характеристики  n2 -распределения следующие:
8
12
; Ex(  n2 )  .
n
n
M (  n2 )  n; D(  n2 )  2n; As(  n2 ) 
5. Распределение Стьюдента (t- распределение)
Определение 9.5. Пусть  n2 – случайная величина, имеющая «хиквадрат» распределение с n степенями свободы, а Z ~ N (0;1) – независимая от
 n2 случайная величина с нормальным стандартным распределением.
Говорят, что случайная величина T 
Z
имеет распределение, которое
1 2
 n
n
называют распределением Стьюдента или t–распределением с n степенями
свободы. Пишут T ~ t (n).
Плотность этого распределения имеет вид:
 n  1


2 

f ( x) 
n
   n
2
122
 x 
 1  
n 

2

n 1
2
.
Плотность распределение Стьюдента зависит от одного параметра –
числа степеней свободы. С увеличением числа степеней свободы оно
сходится к стандартному нормальному. На рис.9.12 показана кривая t–
распределения и стандартная нормальная кривая. Обе симметричны
относительно оси ординат, но t–кривая более полагая.
f(x)
0,4
t
N(0;1)
0
-3
3 x
Рис. 9.12. Плотность распределения Стьюдента
Основные числовые характеристики t–распределения следующие:
M (tn )  M 0  M l  0; D(tn ) 
n
6
; As(t n )  0; Ex(tn ) 
.
n2
n4
Из формул видно, что дисперсия существует только при n  2 .
6.
Распределение Фишера-Снедекора (F- распределение)
Определение 9.5. Пусть  n2 и  m2  независимые случайные величины,
распределенные по закону Пирсона с n и m степенями свободы. Говорят, что
случайная величина F 
 n2 n
имеет распределение Фишера-Снедекора или
 m2 m
F- распределение со степенями свободы n и m. Пишут F ~ F (n, m).
Плотность этого распределения имеет вид:
n m
n
m
n
1


2  n2  m 2  x2

f ( x) 

, x  0.
nm
n m
     (nx  m) 2
2  2 
123
Плотность распределение Стьюдента определяется двумя параметрами:
n и m, которые называются числами степеней свободы. На рис.9.13 показаны
кривые F- распределения при различных значениях числа степеней свободы.
f(x) k1=1, k2=4
k1=10, k2=50
k1=4, k2=100
0
1
2
3
x
Рис. 9.13. Плотность F-распределения
Основные числовые характеристики F –распределения следующие:
M (F ) 
m
m  (n  2)
2m 2 (n  m  2)
;M0 
; D( F ) 
;
m2
n  (m  2)
n  (m  2) 2  (m  4)
(2n  m  2)  8  (m  4)
3  (m  6)  (2  0,5  As 2 ( F )
As( F ) 
; Ex( F ) 
 3.
m 8
(m  6)  n  (n  m  2)
Из этих формул следует, что для F-распределения математическое
ожидание существует только при m  2 , дисперсия – при m  4 . Модальное
значение всегда меньше единицы, а асимметрия положительна.
§10. Многомерные случайные величины. Дискретная двумерная
случайная величина и закон ее распределения
До сих пор мы рассматривали случайные величины, возможные
значения которых определялись одним числом. Такие величины называют
одномерными. Очень часто результат испытания характеризуется не одной
случайной величиной, а целой системой случайных величин X1 , X 2 , X n ,
которую называют многомерной (n-мерной) случайной величиной или
случайным вектором и обозначают X  ( X1 , X 2 , X n ) .
124
Многомерная случайная величина есть функция на пространстве
элементарных исходов, при этом любому элементарному исходу ставится в
соответствие упорядоченный набор действительных чисел
которые приняли соответственно случайные величины
x1 , x2 , xn ,
X 1 , X 2 , X n в
результате испытания.
Случайные величины, входящие в систему, называются компонентами
(или составляющими) случайного вектора. Они могут быть как дискретными,
так и непрерывными. Различают дискретные (все составляющие этих
величин дискретны) и непрерывные (все составляющие этих величин
непрерывны) многомерные случайные величины.
Пример

Биржевые торги характеризуются системой двух случайных
величин: X  валютный курс и Y  объем продаж.

Успеваемость
выпускника
характеризуется
системой
n
случайных величин X1, X 2 , X n  оценками по различным предметам в
аттестате (дипломе).

Погода определяется несколькими случайными величинами: X 1
 температура, X 2  влажность, X 3 давление и др.
Свойства
многомерной
случайной
величины
определяются
как
свойствами отдельных ее компонент, так и зависимостями между ними.
Геометрически двумерную (трехмерную) случайную величину можно
интерпретировать или как случайную точку M(X;Y) на плоскости (в

пространстве) или как случайный вектор OM .
Для
простоты
изложения
будем
рассматривать
многомерную
случайную величину на примере двумерной случайной величины.
Определение 10.1. Упорядоченная пара ( X , Y ) , компоненты X и Y
которой
являются
случайными
величинами,
случайной величиной или случайным вектором.
125
называется
двумерной
Наиболее полным описанием двумерной случайной величины является
закон ее распределения, который может быть представлен в виде функции
распределения, плотности распределения, таблицы вероятностей отдельных
значений случайного вектора ( X , Y ) и т.д.
Закон распределения дискретной двумерной случайной величины
( X , Y ) обычно задается в виде таблицы, в первом столбце (строке) которой
указаны все возможные значения xi случайной величины X, в первой строке
(столбце) – все возможные значения
y j случайной величины Y, на
пересечении строк и столбцов указана вероятность pij  P( X  xi , Y  y j )
того, что двумерная случайная величина примет значение ( xi , y j ) .
Пусть случайная величина X может принимать n значений, а случайная
величина Y  m значений. Тогда закон распределения двумерной случайной
величины ( X , Y ) имеет вид:
Таблица 10.1
Y
m
y2
…
ym
p11
p21
…
pn1
p12
p22
…
pn 2
…
…
…
…
p1m
p2m
…
pnm
pn  P( X  xn )
p1  P(Y  y1 )
p2  P(Y  y2 )
pm  P(Y  ym )
1
x1
x2
…
xn
n
 pij
i 1
 pij
y1
X
j 1
p1  P( X  x1 )
p2  P( X  x2 )
Свойства матрицы распределений

n
m
  pij  1
 сумма вероятностей, помещенных во всех клетках
i 1 j 1
таблицы, равна единице, так как события ( X  xi , Y  y j ) по всем i и j
образуют полную группу;
126
m
 pij  P( X  xi )

 сумма вероятностей в строке с номером i
j 1
равна вероятности того, что случайная величина X примет значение xi ;
n
 pij  P(Y  y j )

 сумма вероятностей в столбце с номером j
i 1
равна вероятности того, что случайная величина Y примет значение y j .
Приведенная таблица называется совместным законом распределения
случайных величин X и Y.
Итоговые столбец и строка таблицы распределения двумерной
случайной величины ( X , Y ) представляют распределения ее одномерных
составляющих X и Y соответственно.
Таким образом, по матрице распределения двумерной случайной
величины ( X , Y ) можно найти законы распределения ее составляющих X и Y,
суммирую вероятности по строкам и столбцам соответственно.
Пример 10.1.
Дан закон распределения двумерной случайной величины ( X , Y ) .
Y
2
3
6
1
1
0,20
0,10
0,25
0,25
0,15
0,05
X
Найти законы распределения вероятностей ее составляющих X и Y.
Р е ш е н и е . Суммируя вероятности по столбцам, получаем ряд
распределения случайной величины X, а суммируя вероятности по строкам,
получаем ряд распределения случайной величины Y:
xi
pi
1
0,60
yj
pj
1
0,40
127
2
0,30
3
6
0,50
0,20
Определение 10.2. Функцией распределения двумерной случайной
величины (X,Y) называется функция F ( x, y) , которая для каждой пары чисел
( x, y) определяет вероятность совместного наступления двух событий: X
примет значение, меньшее х, и Y примет значение, меньшее y:
F ( x, y)  P( X  x, Y  y),
При
наличии
матрицы
распределения
x, y  R.
(10.1)
дискретной
двумерной
случайной величины ( X , Y ) ее функция распределения имеет вид:
F ( x, y) 
  pij ,
(10.2)
xi  x y j  y
т.к. вероятность события P( X  x, Y  y) находится суммированием по
всем возможным парам ( xi , y j ) , для которых xi  x, y j  y .
Геометрически функция распределения
F ( x, y) означает вероятность попадания
случайной
точки
в бесконечный
( X ,Y )
квадрант, лежащий левее и ниже точки ( x, y)
. Границы
включаются.
области
в
квадрант
не
Рис. 10.1
Свойства функции распределения
Свойство 1. 0  F ( x, y)  1.
Справедливость свойства следует из того, что F ( x, y) есть вероятность.
Свойство 2. Функция распределения F ( x, y) есть неубывающая по
каждому аргументу функция:
x2  x1  F ( x2 , y)  F ( x1 , y);
y2  y1  F ( x, y2 )  F ( x, y1 ).
Свойство 3. Имеют место предельные соотношения:
F ( x,)  F (, y)  F (,)  0; F (,)  1.
128
Так как события X  , Y   и их произведение суть невозможные
события, а совместное наступление достоверных событий X   и Y  
есть событие достоверное.
Свойство 4. Если один из аргументов «обращается» в   , то функция
распределения F ( x, y) становится равной функции распределения случайной
величины, соответствующей другому аргументу, т.е.
F ( x,)  P( X  x, Y  )  P( X  x)  F1 ( x);
F (, y)  P( X  , Y  y)  P(Y  y)  F2 ( y).
Так как произведение события ( X  x) и достоверного события
(Y  ) есть само событие ( X  x) . Аналогично (Y  y)  ( X  )  (Y  y).
Свойство 5. Функция распределения F ( x, y) непрерывна слева по
обоим аргументам:
lim F ( x, y)  F ( x0 , y);
xx0 0
lim F ( x, y)  F ( x, y0 ).
y y0 0
Свойство 6. Вероятность попадания случайной точки
прямоугольник
АBCD
(где
( X ,Y )
в
A( x1; y2 ), B( x2 ; y2 ), C ( x2 ; y1 ), D( x1; y1 ) )
вычисляется следующим образом:
P( x1  X  x2 , y1  Y  y2 )  F ( x2 , y2 )  F ( x1 , y2 )  F ( x2 , y1 )  F ( x1 , y1 ).
§11. Непрерывная двумерная случайная величина
Для приложений наиболее важен случай непрерывной двумерной
случайной величины.
Непрерывная двумерная величина ( X , Y ) может быть задана функцией
распределения F  x, y  или плотностью распределения f  x, y  . Здесь и далее
будем предполагать, что функция распределения F ( x, y) всюду непрерывна
и имеет всюду (за исключением, быть может, конечного числа кривых)
непрерывные частные производные второго порядка.
129
Аналогично одномерному случаю, вероятность отдельно взятой пары
значений непрерывной двумерной величины
( X , Y ) равна нулю, т.е.
P( X  x, Y  y)  0 для любых действительных значений x и y.
Определение 11.1.
Случайный
вектор ( X , Y ) называется
абсолютно
непрерывным, если существует такая неотрицательная функция f ( x; y) ,
называемая совместной плотностью распределения случайных величин X и
Y , что имеет место равенство:
F ( x, y ) 
x
y
  f (u, v)dudv.
(11.1)
 
Геометрически эту функцию можно истолковать как поверхность,
которую называют поверхностью распределения.
Свойства функции плотности
Свойство 1. Функция плотности неотрицательна, т.е. f ( x; y)  0.
Свойство 2.
Функция
плотности
обладает
свойством
нормированности, т.е. объем «бесконечной» фигуры, ограниченной сверху
поверхностью распределения, равен единице:
 
  f ( x, y)dxdy  1.
(11.2)
 
Свойство 3. Зная функцию распределения F ( x, y) можно найти
плотность совместного распределения f ( x; y) :
 2 F ( x, y )
f ( x; y) 
 Fxy ( x, y).
xy
(11.3)
Свойство 4. Компоненты абсолютно непрерывного вектора также
абсолютно непрерывны. Их плотности вероятности можно найти по
известной плотности совместного распределения:
f X ( x) 

 f ( x, y)dy

130
fY ( y ) 

 f ( x, y)dx.

(11.4)
Пример 11.1. Найти плотность совместного распределения
f ( x; y)
системы случайных величин ( X , Y ) по известной функции распределения
F ( x; y)  sin x  sin y; (0  x   2 ;0  y   2) .
Решение.
Найдем частную производную по x от функции
распределения, затем полученную функцию продифференцируем по y:
F
2F
 cos x  sin y  f ( x; y) 
 cos x  cos y (0  x   2; 0  y   2) .
x
xy
Пример 11.2. Двумерная случайная величина задана плотностью
совместного распределения:
1
 ,
f ( x, y )   6
 0,

x2 y2

 1,
9
4
x2 y2

 1.
9
4
Найти плотности распределения составляющих.
Решение.
Найдем плотности распределения составляющих по
свойству 4 функции плотности. Внутри эллипса
1
f X( x) 
6
2 1 x 2 9
2
2
 dy  6
1 x 2 9
2 1 x 2 9
x2 y2

 1:
9
4
2
 dy  9 
9  x2 .
0
Вне эллипса f ( x; y)  0 , следовательно, f X ( x)  0 вне эллипса.
Окончательно:
2 9  x2

, x  3,
f X ( x)   9
 0,
x  3.

Аналогично найдем плотность распределения второй составляющей:
 4  y2

fY ( y )   2 , y  2,
0,
y  2.

131
§12. Условные законы распределения
Зная совместный закон распределения двумерной случайной величины
можно легко найти законы распределения каждой из составляющих ее
случайных величин. На практике часто возникает обратная задача – по
известным законам распределения случайных величин найти их совместный
закон распределения.
В общем случае эта задача неразрешима, так как по законам
распределения случайных величин нельзя судить об их зависимости. Кроме
того, если случайные величины зависимы между собой, то совместный закон
распределения не может быть выражен через законы распределения
составляющих.
Отсюда возникает необходимость рассмотрения условных законов
распределения.
Определение 12.1.
Условным
законом
распределения
одной
из
компонент двумерной случайной величины ( X , Y ) называется закон ее
распределения, вычисленный при фиксированном значении другой или при
условии, что другая компонента попала в какой-то интервал.
Определение 12.2.
Условной
плотностью
f ( x / y )  f ( y / x) 
распределения составляющей Х (или Y) при данном значении Y  y
(или
X  x ) называют отношение плотности совместного распределения f ( x; y) к
плотности распределения составляющей fY ( y) (или f X (x) ):
f ( x / y) 
f ( x, y )
;
fY ( y )
f ( y / x) 
f ( x, y )
.
f X ( x)
Для дискретной двумерной случайной величины условные вероятности
будем обозначать: P( X  xi / Y  y j )  PY  y j ( X  xi )  вероятность события
( X  xi ) , вычисленная при условии, что событие (Y  y j ) произошло;
132
P(Y  y j / X  xi )  PX  xi (Y  y j )
 вероятность события
(Y  y j ) , при
условии, что событие ( X  xi ) произошло.
Из определения условной вероятности следует:
PY  y j ( X  xi ) 
P( X  xi , Y  y j )
P(Y  y j )

pij
 pij

pij
;
pj

pij
(12.1)
i
PX  xi (Y  y j ) 
P( X  xi , Y  y j )
P( X  xi )

pij
 pij
pi
.
(12.2)
j
Пример 12.1. Найти условные законы распределения случайной
величины Х при условии, что Y  2 и случайной величины Y при условии,
что X  1 совместный закон распределения которых представлен в §10
(см.пример 10.1.).
Р е ш е н и е . Совместный закон распределения имеет вид:
Y
2
3
6
1
0,20
0,25
0,15
0,6
1
0,10
0,25
0,05
0,4
0,30
0,50
0,20
1
X
Для нахождения условного закона распределения случайной величины
Х при условии, что Y  2 вычислим условные вероятности:
PY  2 ( X  1) 
PY  2 ( X  1) 
P( X  1, Y  2)
0,20
2

 ;
P(Y  2)
0,20  0,10 3
P( X  1, Y  2)
0,10
1

 .
P(Y  2)
0,20  0,10 3
Заметим, что для нахождения условных вероятностей случайной
величины Х при условии, что Y  2 мы разделили каждое число первого
столбца исходной таблицы на их сумму, т.е. на вероятность события Y  2 :
133
X Y  2
xi
1
1
pi
2/3
1/3
Для нахождения условного закона распределения случайной величины
Y при условии, что X  1 вычислим вероятности P( y j X  1) аналогично,
разделив каждое число второй строки исходной таблицы на их сумму, т.е. на
вероятность события X  1 :
YX 1
yj
2
3
6
pj
0,25
0,625
0,125
Используя законы распределения для одномерных составляющих
случайных величин X и Y , можно вычислить их числовые характеристики 
математические ожидания и дисперсии, а также условные математические
ожидания M Y ( X ), M X (Y ) и условные дисперсии DY ( X ), DX (Y ) по обычным
формулам, рассмотренным ранее.
§13. Зависимые и независимые случайные величины
Математическим ожиданием произведения компонент двумерного
случайного вектора является число, которое вычисляется по формуле:
n
m
M ( X  Y )    xi y j pij для дискретного случайного вектора,
i 1 j 1
M (X Y ) 
 
  x  y  f ( x, y)dxdy
для
непрерывного
случайного
 
вектора.
Мы назвали две случайные величины X и Y независимыми, если закон
распределения одной из них не меняется от того, какие возможные значения
приняла другая величина. Из этого следует, что условные распределения
независимых величин равны их безусловным распределениям.
134
Сформулируем необходимые и достаточные условия независимости
случайных величин.
Теорема 13.1. Для того чтобы случайные величины X и Y были
независимы,
необходимо
распределения
системы
и
достаточно,
(X,Y)
была
чтобы
равна
совместная
функция
произведению
функций
распределения ее компонент:
F ( x, y)  FX ( x)  FY ( y).
Аналогичную теорему можно сформулировать и для плотности
распределения.
Следствие. Для того чтобы непрерывные случайные величины X и Y
были независимы, необходимо и достаточно, чтобы плотность совместного
распределения системы (X,Y) была
равна произведению плотностей
распределения ее компонент:
f ( x, y)  f X ( x)  fY ( y).
Для зависимых случайных величин оба условия не выполняются.
Пусть имеется двумерная случайная величина (X,Y), распределение
которой известно. Тогда можно найти числовые характеристики ее
составляющих, но они недостаточно полно характеризуют двумерную
случайную величина (X,Y), так как не выражают степень зависимости между
ее компонентами X и Y.
Чтобы
количественно
описать
зависимость
между случайными
величинами введем понятия ковариации (корреляционного момента) и
коэффициента корреляции.
Определение 13.1. Ковариацией (или корреляционным моментом)
случайных
величин
X
и
Y
называется
математическое
ожидание
произведения отклонений этих величин от своих математических ожиданий:
cov(X , Y )  k XY   XY  M [( X  MX )  (Y  MY )]
(13.1)
Эта величина характеризует рассеяние случайной точки (X,Y) вокруг
точки (MX,MY).
135
Свойства ковариации
Свойство 1. cov(X ,Y )  cov(Y , X ).
Свойство 2. cov(X , X )  DX .
Свойство 3. cov(X ,Y )  M ( X  Y )  MX  MY.
Доказательство.
Пользуясь
свойствами
математического
ожидания, получим:
cov(X , Y )  М ( X  MX )  (Y  MY ) 
 M ( X  Y  X  MY  Y  MX  MX  MY ) 
 M ( X  Y )  M ( X )  M (Y )  M ( X )  M (Y )  M ( X )  M (Y ) 
 M ( X  Y )  MX  MY .
Что и требовалось доказать.
Свойство 4. Если X и Y независимые случайные величины, то их
ковариация равна нулю.
Д о к а з а т е л ь с т в о . Из независимости случайных величин X и Y
следует
равенство
математического
ожидания
их
произведения
и
произведения математических ожиданий. Применяя далее свойство 3,
получим требуемое утверждение.
Обратное, вообще говоря, неверно.
Свойство 5. Абсолютная величина ковариации случайных величин X и
Y не превышает произведения средних квадратических отклонений этих
величин, т.е.
cov(X , Y )  X  Y .
Д о к а з а т е л ь с т в о . Введем обозначения: MX  ax ; MY  a y . Известно,
что математическое ожидание неотрицательной случайной величины
неотрицательно, следовательно:
2
 X  ax Y  a y 
  0.
M 


X

Y


Распишем левую часть этого неравенства:
136
2
2
2
 X  a  2
 X  a x  Y  a y   Y  a y   M [( X  a x ) ] M [(Y  a y ) ]
x





M 

2








 

 2X
 2Y
 X  Y   Y  
 X 
M [( X  a x )  (Y  a y )]  2 X  2Y
cov(X , Y )
2  cov(X , Y )
 2
 2  2  2
2
 0.
X  Y
X  Y
X  Y
 X  Y
2
2  cov(X , Y )
 0  X  Y  cov(X , Y )  X  Y  cov(X , Y )  X  Y .
X  Y
Что и требовалось доказать.
Свойство 6. cov(X ,Y )  cov(X ,Y )    cov(X ,Y ).
Свойство 7. cov(X  Y , Z )  cov(X , Z )  cov(Y , Z ).
Свойство 8. cov(X , Y  Z )  cov(X , Y )  cov(X , Z ).
С
помощью
свойств
ковариации
можно
расширить
свойства
математического ожидания и дисперсии, рассмотренные ранее. А именно,
из свойства 3 следует, что математическое ожидание произведения любых
двух случайных величин, равно сумме произведения их математических
ожиданий и ковариации этих случайных величин:
M ( X  Y )  MX  MY  cov(X , Y ).
(13.2)
Для дисперсии суммы справедливо аналогичное равенство:
D( X  Y )  DX  DY  2 cov(X , Y ).
(13.3)
Докажем равенство (13.3).
D( X  Y )  M ( X  Y )  M ( X  Y ) 
2
 M ( X  Y  MX  MY ) 2  M ( X  MX )  (Y  MY ) 
2


 M ( X  MX ) 2  2( X  MX )(Y  MY )  (Y  MY ) 2 
 M ( X  MX ) 2  2M (( X  MX )  (Y  MY ))  M (Y  MY ) 2 
 DX  DY  2 cov(X , Y ).
Ковариацию можно считать мерой зависимости случайных величин,
так как для независимых случайных величин она равна нулю.
Существенным
недостатком
ковариации
является
то,
что
ее
размерность совпадает с произведением размерностей случайных величин.
Безразмерной
характеристикой
зависимости
корреляции.
137
является
коэффициент
Определение 13.2. Коэффициентом корреляции случайных величин X
и Y называется отношение их ковариации к произведению средних
квадратических отклонений этих величин, то есть число, определяемое
равенством:
 ( X ,Y )  r( X ,Y ) 
cov(X , Y )
X  Y
(13.4)
Из определения следует, что  ( X , Y )   (Y , X ).
Свойства коэффициента корреляции
Свойство
1.
Абсолютная
величина
коэффициента
корреляции
случайных величин X и Y не превышает единицы:  ( X , Y )  1.
Доказательство следует из определения коэффициента корреляции и
свойства 5 ковариации случайных величин.
Свойство 2. Если X и Y независимые случайные величины, то их
коэффициент корреляции равен нулю. Обратное, вообще говоря, неверно.
Доказательство следует из определения коэффициента корреляции и
свойства 4 ковариации случайных величин.
Свойство 3. Коэффициент корреляции случайных величин X и Y по
абсолютной величине равен единице, тогда и только тогда, когда между
этими величинами существует линейная функциональная зависимость.
Д о к а з а т е л ь с т в о . При доказательстве свойства 5 ковариации
было получено равенство:
2
 X  ax Y  a y 
2  cov(X , Y )
  2 
M 

 2  2  ( X , Y ).

X

Y

X


Y


2
 X  ax Y  a y 
  0.

Если   1, то 2  2  0 и M 

X

Y


Если математическое ожидание неотрицательной случайной величины
равно нулю, то и сама случайная величина тождественно равна нулю. Таким
образом, при   1 имеем:
138
X  ax Y  a y

 0.
X
Y
Отсюда, Y  a y 
Y
 ( X  a x ) при   1. , т.е. между случайными
X
величинами X и Y существует линейная функциональная зависимость.
Докажем обратное утверждение.
Пусть случайные величины X и Y связаны линейной функциональной
зависимостью: Y  kX  b. Тогда:


cov(X , Y )  M ( X  a x )  (Y  a y )  M ( X  a x )  (kX  b  kax  b) 
 M ( X  a x )  (kX  kax )  k  M ( X  a x ) 2  k  DX  k   2 X .
Кроме того:
 2Y  DY  D(kX  b)  k 2 DX  k 2   2 X  Y  k  X .
Окончательно получим:
( X ,Y ) 
cov(X , Y )
k  2 X
k

  1.
X  Y
X  k  X k
Что и требовалось доказать.
Определение 13.3. Две случайные величины X и Y называются
коррелированными, если их коэффициент корреляции (или их ковариация)
отличен от нуля и некоррелированными, если их коэффициент корреляции
равен нулю.
Таким образом:
1) X и Y коррелированы(  ( X , Y )  0)  зависимы;
2) X и Y  независимы  некоррелированы (  ( X , Y )  0 ).
Обратные утверждения не всегда верны.
Замечание.
Нормально
распределенные
случайные
величины
независимы тогда и только тогда, когда они некоррелированы.
Коэффициент корреляции случайных величин X и Y характеризует
степень линейной зависимости величин, причем

 ( X , Y )  1  зависимость линейная;
139

  0  между X и Y нет линейной зависимости;

  0  зависимость
прямо
пропорциональная
(обе
увеличиваются или обе уменьшаются);

  0  зависимость обратно пропорциональная (изменяются в
разных направлениях).
Основные сведения о многомерной случайной величине содержат ее
математическое ожидание и матрица ковариаций. Математическое ожидание

случайного вектора X  ( X 1 , X 2 , , X n ) является вектор, координаты
которого
суть
математические

M ( X )  (MX1 , MX 2 , , MX n ) .
ожидания
его
составляющих:
Определение 13.4. Ковариационной матрицей случайного вектора
называется матрица, составленная из ковариаций компонент этого вектора:
 cov(X 1 , X 1 ) cov(X 1 , X 2 )

 cov(X 2 , X 1 ) cov(X 2 , X 2 )
Dˆ  



 cov(X n , X 1 ) cov(X n , X 2 )
 cov(X 1 , X n ) 

 cov(X 2 , X n ) 
.



 cov(X n , X n ) 
Так как cov(X , X )  DX , то главная диагональ матрицы ковариаций
составлена из дисперсий составляющих случайного вектора, которые
неотрицательны:
cov(X 1 , X 2 )
 D( X 1 )

D( X 2 )
 cov(X 2 , X 1 )
Dˆ  



 cov(X n , X 1 ) cov(X n , X 2 )
 cov(X 1 , X n ) 

 cov(X 2 , X n ) 
.




D( X n ) 
В частности, матрица ковариаций двумерного случайного вектора
имеет вид:
cov(X , Y ) 
 cov(X , X ) cov(X , Y )   DX
  

Dˆ  
cov(
X
,
Y
)
cov(
Y
,
Y
)
cov(
X
,
Y
)
DY

 

Определение 13.5. Корреляционной матрицей называется матрица,
составленная из коэффициентов корреляций компонент этого вектора.
140
Так как  ( X , X )  1, то все элементы главной диагонали этой матрицы
равны единице, а все остальные элементы по абсолютной величине не
превосходят единицы. Для двумерного случайного вектора матрица
корреляций имеет вид:
 ( X ,Y ) 
 1
.
Rˆ  
1 
  (Y , X )
Свойства матриц ковариации и корреляции
 Обе матрицы симметричны.
 Определители матриц неотрицательны.
 Обе матрицы неотрицательно определены.
 Элементы
главной
диагонали
ковариационной
матрицы
неотрицательны, а матрицы корреляций равны 1.
Пример 13.1. Найти ковариацию и коэффициент корреляции двух
случайных величин, распределения которых заданы таблицей:
Таблица 13.1.
X
Y
1
0
1
2
3
0,1
0,1
0,2
0,15
0,3
0,45
0,15
0,2
0,35
0,4
0,6
Р е ш е н и е . Законы распределения ее компонент имеют вид:
2
3 
 1
;
X  
0
,
20
0
,
45
0
,
35


 1 0 
 .
Y  
0
,
4
0
,
6


Тогда:
3
3
i 1
i 1
MX   xi pi  2,15; DX   xi2 pi  ( MX ) 2  0,5275  X  0,5275  0,7263;
MY  0,4; DY  0,24  Y  0,24  0,4899.
Найдем ковариацию величин:
141
cov(X , Y )  M ( X  Y )  MX  MY   xi  y j  pij  MX  MY  (1)  1  0,1 
i, j
 (1)  2  0,15  (1)  3  0,15  0  1  0,1  0  2  0,3  0  3  0,2  2,15  (0,4)  0,01;
( X ,Y ) 
cov(X , Y )

X  Y
0,01
0,01

 0,0281.
0,5275  0,24 0,3558
Коэффициент корреляции близок к нулю, следовательно, линейная
зависимость между случайными величинами практически отсутствует.
Пример 13.2. Три раза бросают игральную кость. Пусть случайная
величина X – число появления цифры 5; а Y – число появления нечетной
цифры.
Составить
закон
распределения
случайного
вектора
(X,Y).
Установить, являются ли величины X и Y зависимыми.
Р е ш е н и е . Очевидно, что величины X и Y принимают значения 0, 1,
2,
3.
Найдем
pij  P( X  xi , Y  yi ), i, j  0, 1, 2, 3
по
классическому
определению вероятности. Здесь n  Anm  63  216.
Найдем число благоприятных исходов для события «ни разу не
появилась цифра 5 и ни разу не появилась нечетная цифра». Вероятность
этого события обозначим p00 . Так как при трех бросаниях могут выпасть
только цифры 2, 4, 6 в любых комбинациях с повторением, то
m  A33  33  27. Тогда вероятность p00 равна p00 
27
.
216
При вычислении вероятности p01 заметим, что выпасть может либо один
раз цифра 1 и любые две четные цифры из 2, 4, 6; либо один раз цифра 3 и
также любые две четные цифры из 2, 4, 6. Таким образом, четные цифры
могут выпасть девятью способами, нечетные – двумя, и переставить любую
группу из двух четных цифр и одной нечетной цифры можно P3 (2,1)  3
способами. Итак, m  P3 (2,1)  A32  A21  54 и вероятность p01 
142
54
.
216
Вычислим p02 . Выпасть может одна из четных граней 2, 4, 6 и любая
комбинация
из
двух
нечетных:
m  P3 (1,2)  A22  A31  36. Тогда p02 
Аналогично, p03 
1,1;
1,3;
3,1;
3,3.
Поэтому
36
.
216
8
, так как выпасть могут только цифры 1 и 3 в
216
любых комбинациях. Здесь m  A23  8.
Остальные
вероятности приведены в таблице
13.2 совместного
распределения вектора ( X , Y ) :
Таблица 13.2.
Y
0
1
2
3
27/216
0
0
0
54/216
27/216
0
0
36/216
36/216
9/216
0
8/216
12/216
6/216
1/216
X
0
1
2
3
Составим законы распределения компонент:
xi
pi
0
125/216
1
75/216
2
15/216
3
1/216
yj
pj
0
27/216
1
81/216
2
81/216
3
27/216
Условие
независимости
P( X  xi ; Y  y j )  P( X  xi )  P(Y  y j )
случайных величин не выполняется, так как, например:
P( X  0, Y  0) 
27 125 27


 P( X  0)  P(Y  0).
216 216 216
Итак, случайные величины X и Y зависимы.
Пример 13.3. Закон распределения двумерной случайной величины
( X ; Y ) задан таблицей:
143
Таблица 13.3.
Y
X
1
0
1
1
0
1
0
0,25
0
0,25
0
0,25
0
0,25
0
а) найдите ковариацию X и Y, коэффициент корреляции;
б) проверьте, что X и Y зависимые случайные величины.
Р е ш е н и е . Найдем одномерные распределения составляющих X и Y:
0
1 
 1
;
X  
 0,25 0,5 0,25 
0
1 
 1
  X  Y .
Y  
 0,25 0,5 0,25 
Тогда:
n
MY  MX   xi pi  1  0,25  0  0,5  1  0,25  0;
i 1
n
DY  DX   xi2  pi  ( MX ) 2  1  0,25  0  0,5  1  0,25  (0) 2  0,5;
i 1
n
m
M ( X  Y )    xi y j pij  (1)  (1)  0  (1)  0  0,25  (1)  1  0 
i 1 j 1
 0  (1)  0,25  0  0  0  0  1  0,25  1  (1)  0  1  0  0,25  1  1  0  0;
cov(X , Y )  M ( X  Y )  MX  MY  0  0  0  0;
 ( X ,Y ) 
cov(X , Y ) 0

 0.
X  Y
0,5
б) Так как P( X  1, Y  1)  0, а P( X  1)  P(Y  1)  0,25  0,25  0 , то
случайные величины X и Y зависимы. Тем не менее, коэффициент
корреляции равен 0.
Данный пример показывает, что равенство нулю коэффициента
корреляции не влечет независимости случайных величин, т.е. величины X и Y
зависимы, но эта зависимость далека от линейной.
144
§14. Линейная регрессия
На практике часто требуется установить и оценить зависимость
изучаемой случайной величины Х от одной или нескольких других величин.
Две случайные величины X и Y могут быть связаны либо функциональной
зависимостью,
либо
зависимостью
другого
рода,
называемой
«статистической», либо быть независимыми.
Строгая функциональная зависимость реализуется редко, так как обе
величины или одна из них подвержены еще действию случайных факторов,
причем среди них могут быть и общие для обеих величин (под общими здесь
подразумеваются такие факторы, которые воздействуют и на X и на Y). В
этом случае возникает статистическая зависимость.
Определение 14.1. Статистической называют зависимость, при
которой изменение одной из величин влечет изменение распределения
другой.
В частности, статистическая зависимость проявляется в том, что при
изменении одной из величин изменяется среднее значение другой; в этом
случае статистическую зависимость называют корреляционной.
В параграфе 12 было показано как по известному совместному
распределению можно найти условные распределения случайных величин.
Определение 14.2. Условным средним YX  xi называют математическое
ожидание случайной величины YX  xi . По сути YX  xi является случайной
величиной.
Пример 14.1. Закон распределения дискретной двумерной случайной
величины ( X , Y ) задан таблицей:
Таблица 14.1.
X
Y
1
0
1
2
3
0,1
0,1
0,2
0,15
0,3
0,45
0,15
0,2
0,35
145
0,4
0,6
Найти:
a)
условные законы распределения случайной величины Х при
условии, что Y  0 и случайной величины Y при условии, что X  2 ;
b)
условные средние X Y  0 и YX  2 .
Решение.
a)
Для нахождения условного закона распределения случайной
величины Х при условии, что Y  0 вычислим вероятности P( xi Y  0) ,
разделив каждое число второй строки исходной таблицы на их сумму, т.е. на
вероятность события Y  0 :
X Y 0
1
1

6
2
3
6
3
2.

6
Для нахождения условного закона распределения случайной величины
Y при условии, что X  2 вычислим вероятности P( y j X  2) , разделив
каждое число второго столбца исходной таблицы на их сумму, т.е. на
вероятность события X  2 :
 1 0 
YX 1   1 2 .


 3 3
Заметим, что условные законы распределения не совпадают с законами
распределения X и Y (смотри пример 13.1), следовательно, Y статистически
зависит от X.
b)
Для того чтобы найти
X Y 0
и
YX  2
нужно вычислить
математическое ожидание найденных условных распределений:
1
3
2 13
X Y 0  1  2   3   ;
6
6
6 6
1
2
1
YX  2  1   0    .
3
3
3
Поскольку случайная величина Y статистически зависит от случайной
величины X, то математическое ожидание M (YX  xi ) тоже зависит от
значений принимаемых случайной величиной Х. Напомним, что в примере
13.1 найдены MX  2,15 и MY  0,4 .
146
Определение 14.3. Уравнением регрессии случайной величины Y на X
называется уравнение вида YX  x  g (x).
На практике, как правило, выбирают определенный вид функции g (x)
и стараются подобрать параметры этой функции так, чтобы отклонение
значений g (x) от YX  x было как можно меньше. Но так как YX  x случайная
величина, то нужно минимизировать M (YX  x  g ( x))2 . Часто для этого
используют метод наименьших квадратов.
Определение 14.4.
Уравнением
линейной
регрессии
случайной
величины Y на X называется уравнение вида YX  x  kx  b.
Так как линейная функция  это наиболее простая функция, то часто
используют именно уравнение линейной регрессии.
Теорема 14.1. Уравнение линейной регрессии Y на X имеет вид:
YX  x  MY   ( X , Y ) 
Y
( x  MX ).
X
(14.1)
Доказательство.
Рассмотрим функцию F (k , b)  M (Y  (kX  b))2 . Найдем k и b из
условия минимальности этой функции:
F (k , b)  M (Y  kX  b) 2  M (Y 2  k 2 X 2  b 2  2kXY  2bY  2kbX ) 
 M (Y 2 )  k 2  M ( X 2 )  b 2  2k  M ( XY )  2b  M (Y )  2kb  M ( X ) 
 k 2 ( MX ) 2  k 2 ( MX ) 2  ( MY ) 2  ( MY ) 2  2kM ( X ) M (Y )  2kM ( X )  M (Y ) 
 ( M (Y 2 )  ( MY ) 2 )  k 2  ( M ( X 2 )  ( MX ) 2 )  2k  ( M ( XY )  M ( X )  M (Y )) 
 (k 2  ( MX ) 2  ( MY ) 2  b 2  2b  M (Y )  2kb  M ( X )  2k  M ( X )  M (Y )) 
  2 (Y )  k 2   2 ( X )  2k  cov(X , Y )  ( M (Y )  k  M ( X )  b) 2 .
Теперь найдем точку минимума функции F (k , b) . Для этого найдем
частные производные Fk, Fb , приравняем их к нулю и получим следующую
систему уравнений для нахождения k и b:
Fk  2k   2 ( X )  2 cov(X , Y )  2( M (Y )  k  M ( X )  b)  M ( X )  0,

Fb  2( M (Y )  k  M ( X )  b)  0.

147
Решая эту систему находим:
cov(X , Y )  ( X , Y )  X  Y
Y

k




(
X
,
Y
)

,

X
 2(X )
 2(X )

Y

b

M
(
Y
)


(
X
,
Y
)

 M ( X ).

X
Подставляя найденные параметры в уравнение регрессии, получаем
требуемую формулу (14.1).
Что и требовалось доказать.
Следствие. Уравнение линейной регрессии X на Y имеет вид:
XY  y  M ( X )  ( X ,Y ) 
X
( y  M (Y )).
Y
(14.2)
Пример 14.2. Закон распределения дискретной двумерной случайной
величины ( X , Y ) задан таблицей:
Таблица 14.2.
X
Y
1
0
1
2
3
0,1
0,1
0,15
0,3
0,15
0,2
Найти уравнения линейной регрессии Y на X и X на Y.
Р е ш е н и е . Необходимые числовые характеристики были найдены в
примере 13.1:
M ( X )  2,15; M (Y )  0,4; X  0,7263; Y  0,4899;  ( X , Y )  0,028.
Тогда:
YX  x  0,4  0,028 
0,4899
 ( х  2,15)  YX  x  0,01889 х  0,4406;
0,7263
X Y  y  2,15  0,028 
0,7263
 ( y  0,4)  X Y  y  0,0415 y  2,1666.
0,4899
148
§15. Закон больших чисел
Предельные теоремы теории вероятностей устанавливают связь между
теоретическими
и
экспериментальными
характеристиками
случайных
величин при большом числе испытаний и составляют основу математической
статистики.
Мы знаем, что нельзя заранее предвидеть, какое из возможных
значений примет в итоге испытания случайная величина. Однако при
воздействии большого числа различных факторов поведение большого числа
случайных
величин
практически
утрачивает
случайный
характер
и
становится закономерным. Но это возможно лишь при выполнении
определенных условий, которые определяются законом больших чисел.
В широком смысле под законом больших чисел понимается свойство
устойчивости массовых явлений, состоящее в том, что при большом числе
случайных величин их средний результат утрачивает случайный характер и
может быть предсказан с большой степенью определенности.
В узком смысле под законом больших чисел понимают совокупность
теорем, устанавливающих условия при которых средние характеристики
большого числа испытаний приближаются к некоторым постоянным
величинам.
Эти законы базируются на нескольких неравенствах, которые можно
использовать для грубой оценки вероятностей событий, связанных со
случайными величинами, распределение которых неизвестно.
Теорема 15.1. (неравенство Маркова) Пусть Х  неотрицательная
случайная величины с математическим ожиданием МХ. Тогда для любого
положительного числа  выполняется неравенство:
P X    
149
MX

.
(15.1)
Доказательство.
Это
неравенство
справедливо
как
для
дискретных так и для непрерывных случайных величин. Ограничимся
доказательством неравенства для непрерывных величин.
Пусть Х – непрерывная случайная величина с плотностью f (x) . По
определению математического ожидания, с учетом свойств определенного
интеграла, получим:
MX 


x  f ( x)dx 

 



0


X 0
 x  f ( x)dx  0  x  f ( x)dx     f ( x)dx 

 f ( x)dx    P( X   ).

Последний переход следует из определения плотности распределения.
Таким образом:
MX    P( X   ).
Разделив обе части полученного неравенства на   0 получим:
MX
P( X   ) 

.
Что и требовалось доказать.
Следствие. Так как события X   и X   противоположные, то,
заменяя
P X    выражением 1  P X    , придем к другой форме
неравенства Маркова:
P X     1 
Теорема 15.2.
(неравенство
MX

.
Чебышева)
(15.2)
Для
любой
случайной
величины Х, имеющей конечные математическое ожидание и дисперсию, при
любом положительном  , вероятность того, что отклонение величины Х от
ее
математического
ожидания
по
положительного числа  , не меньше 1 
абсолютной
DX
2
меньше
:
P X  MX     1 
150
величине
DX
2
.
(15.3)
Доказательство.
X  MX   2 равносильны,
2
Так
то,
как
применив
неравенства
к
последнему
X  MX   и
неравенство
Маркова, получим:




M  X  MX 
DX
2
P X  MX     P X  MX   2 


2
2






неотр СВ
DX
DX
 P X  MX     2  P X  MX     1  2 .
2


Что и требовалось доказать.
Неравенство Чебышева можно записать в виде:
P X  MX    
DX
2
(15.4)
.
Если случайная величина Х распределена по биномиальному закону с
параметрами n и p, то MX  np , DX  npq и неравенство Чебышева примет
вид:
P X  np     1 
npq
2
.
Пример 15.1. Для случайной величины Х с математическим ожиданием
а и дисперсией DX   2 , оценить вероятность того, что величина Х
отклонится от своего математического ожидания не больше чем на 3 .
Р е ш е н и е . Полагая в неравенстве Чебышева (15.3)   3 , получим:
DX
2 8
P X  a  3   1  2  1  2   0,889,
9
9
9
а
значит,
вероятность
отклонения
случайной
величины
от
ее
математического ожидания за пределы трех средних квадратических
отклонений не может быть больше 0,111.
Неравенство Чебышева дает только верхнюю границу вероятности
этого отклонения. Ни при каком законе распределения вероятность не может
быть выше этой границы. В действительности, для большинства случайных
величин, эта вероятность значительно ближе к нулю. Например, для
нормального распределения она примерно равна 0,003, для показательного –
151
0,0173, а для равномерного – 0. На практике в качестве интервала
возможных значений случайной величины, как правило, принимают
интервал (а  3 ; а  3 ) , так называемое «правило трех сигм».
Пример 15.2. Среднедневная стоимость акции на торгах составляет
1000 у.д.е., а отклонение этой случайной величины от нормы не превышает
200 у.д.е. Оценить вероятность того, что стоимость акции в любой день будет
меньше 2000 у.д.е., используя неравенство Маркова и неравенство
Чебышева.
Р е ш е н и е . По условию МХ  1000 , X  200 ,   2000 . По формуле
(15.2) получим:
P X  2000  1 
1000
 0,5,
2000
т.е. не менее чем в 50% случаев.
Для оценки неравенством Чебышева, заметим, что неравенства
Х  2000 и Х  1000  1000 равносильны. Тогда по формуле (15.3) получим:
P X  2000  Р Х  1000  1000  1 
200 2
 0,96,
1000
т.е. не менее чем в 96% случаев.
В данной задаче оценку вероятности события, найденную с помощью
неравенства Маркова, удалось значительно уточнить с помощью неравенства
Чебышева.
Пример 15.3. Среднее значение заработной платы рабочего крупного
предприятия равно 30,0 тыс. руб., а среднее квадратическое отклонение  3,0
тыс. руб. Оценить с использованием неравенства Чебышева вероятность
того, что заработная плата случайно выбранного рабочего будет заключена в
пределах от 25 до 35 тыс. руб.
Р е ш е н и е . По условию
MX  30, X  3  DX  9. Неравенство
25  X  35 равносильно неравенству X  30  5. Тогда по формуле (15.3)
получим:
152
P( X  30  5)  1 
DX

2
 1
9
 1  0,36  0,64 , т.е. P( X  30  5)  0,64,
52
т.е. более чем в 64% случаев.
Неравенство Чебышева на практике применяется редко, так как дает
часто грубую, а то и не представляющую интереса оценку. Например, если
DX   2 , то неравенство Чебышева указывает лишь на то, что вероятность
отклонения неотрицательная, что и без того очевидно. Но неравенство
Чебышева имеет большое теоретическое применение.
Определение 15.1.
Последовательность
случайных
величин
X1 , X 2 ,..., X n сходится по вероятности к случайной величине Х, если для
любого сколь угодно малого положительного числа  выполняется условие:
lim P X n  X     1.
(15.5)
n 
Теорема 15.3. (теорема Чебышева, закон больших чисел) Пусть
имеется
бесконечная
последовательность
X1 , X 2 ,..., X n   независимых
случайных величин с одним и тем же математическим ожиданием а и
дисперсиями ограниченными одной и той же постоянной С, тогда для любого
сколь угодно малого   0 выполняется условие:
 X  X 2  ...  X n

P 1
 a     1 при
n


или
n  ;
(15.6)
 X  X2  Xn

lim P 1
 a     1.
n  
n

Д о к а з а т е л ь с т в о . По условию M ( X i )  a, D( X i )  C, i  1,2,.
Пусть X 
1
  X 1  X 2    X n   случайная величина, равная среднему
n
арифметическому случайных величин. Найдем для нее математическое
ожидание и оценим дисперсию.
 1
1 n
 1
n
 1 
   na  a;
M ( X )  M   X i    M   X i     a
a



a






 n
 n i 1  n
 i 1  n 
n раз

153
1 n
 1
n
 DX 1  DX 2    DX n Cn C
D( X )  D  X i   2  D  X i  
 2  .
n
n2
n
 n i 1  n
 i 1 
Таким образом: MX  a , а DX 
С
.
n
Запишем неравенство Чебышева для случайной величины Х:
P X  a     1 
Мы доказали, что DX 
DX
2
.
С
DX
C
. тогда 1  2  1  2 и в последнем
n

n
неравенстве перейдем к более сильному неравенству:
C
 X  X2  Xn

P 1
 a     1 2 .
n
n


(15.7)
C
стремится к нулю и получаем требуемое
n 2
При n   величина
условие (15.6).
Что и требовалось доказать.
Сущность теоремы Чебышева заключается в том, что при большом
числе n случайных величин с математическим ожиданием а практически
достоверно, что их среднее арифметическое
X
1 n
 Xi
n 1
 величина
случайная, сколь угодно мало отличается от неслучайной величины а, то есть
практически перестает быть случайной.
Хотя отдельные независимые случайные величины могут принимать
значения
далекие
арифметическое
от
своих
большого
математических
числа
случайных
ожиданий,
величин
с
среднее
большой
вероятностью принимает значения близкие к среднему арифметическому
математических ожиданий.
Иными словами, отдельные случайные величины могут иметь
значительный разброс, а их среднее арифметическое рассеяно мало и, значит,
утрачивает характер случайной величины.
154
На теореме Чебышева основан широко применяемый в статистике
выборочный метод, суть которого состоит в том, что по сравнительно
небольшой случайной выборке судят о всей совокупности исследуемых
объектов (генеральной совокупности).
Пример 15.4. Проведено 400 независимых испытаний. Дисперсия
каждой из 400 независимых случайных величин, определяющих исход
каждого испытания, равна 25. Оценить вероятность того, что абсолютная
величина отклонения средней арифметической случайных величин от
средней арифметической их математических ожиданий не превысит 0,5.
Р е ш е н и е . По условию: n  400, C  DX i  25 и   0,5 . Тогда по
теореме Чебышева:
1 n

25
P  X i  a  0,5   1 
 1  0,25  0,75.
2
n
400

0
,
5
i

1


Пример 15.5. Сколько надо произвести измерений данной величины,
чтобы с вероятностью не менее 0,95 гарантировать отклонение средней
арифметической этих измерений от истинного значения величины не более
чем на 1 единицу? Известно, что среднее квадратическое отклонение каждого
из измерений не превосходит 5.
Р е ш е н и е . Пусть Хi – результат
i-го измерения, а – истинное
значение величины, т.е. МХ=а, при любом i. Необходимо найти n, при
котором выполняется условие:
 X  X 2  ...  X n

P 1
 a  1  0,95 .
n


Данное неравенство будет выполняться, если (см.15.7):
C
52
25
25
1 2  1
 0,95 
 0,05  n 
 500.
2
n
0,05
n
n 1
Таким образом, потребуется не менее 500 измерений.
Теорема 15.4. (теорема Бернулли, закон больших чисел) Пусть
вероятность р наступления события А в каждом из n повторных независимых
испытаний постоянна. Тогда при достаточно большом n вероятность
155
отклонения относительной частоты
m
от вероятности р по абсолютной
n
величине на сколь угодно малое число  близка к единице, т.е.
m

lim P  p     1.
n   n

Говорят, что относительная частота
(15.8)
m
успехов в n независимых
n
испытаниях в схеме Бернулли сходится по вероятности к вероятности р
успеха в одном испытании.
Д о к а з а т е л ь с т в о . Рассмотрим случайные величины X  m –
число успехов в n независимых испытаниях и Y 
m
 относительную
n
частоту успехов. Так как M ( X )  M (m)  np, D(X)  D(m)  npq , то числовые
характеристики относительной частоты Y равны:
1
m 1
M (Y )  M     M (m)   np  p,
n
n n
1
pq
m 1
D(Y )  D   2  D(m)  2  npq 
.
n
n
n n
Запишем неравенство Чебышева для случайной величины Y 
m
:
n
D(Y )
pq
m

PY  MY     P  p     1  2  1  2 .

n
 n

pq
m

Таким образом, P  p     1  2 .
n
 n

Переходя к пределу при n   и учитывая, что при этом
получим:
m

lim P  p     1 .
n   n

Так как Р  1 , то получаем равенство (15.8).
Что и требовалось доказать.
156
pq
 0,
n 2
Неравенство
pq
m

P  p     1  2
n
 n

(15.9)
называется неравенством Бернулли.
Теорема Бернулли является исторически первой и наиболее простой
формой закона больших чисел. Смысл теоремы Бернулли состоит в том, что
при большом числе испытаний практически достоверно, что относительная
частота события – величина случайная, сколь угодно мало отличается от
неслучайной величины р, то есть практически перестает быть случайной. Тем
самым, теоретически обосновывает возможность приближенного вычисления
вероятности с помощью его относительной частоты.
Пример 15.6. Вероятность изготовления бракованного изделия равна
0,1. Было изготовлено 400 изделий. Оценить с помощью неравенства
Бернулли вероятность того, что бракованных изделий окажется в пределах от
7 до 13%.
Р е ш е н и е . По условию: n  400, p  0,1  10%,   3%  0,03. Тогда
по формуле (15.9):
pq
0,1  0,9
m

P  0,1  0,03   1  2  1 
 0,75.
2
n

400

0
,
03


§16. Центральная предельная теорема
В предыдущем параграфе были рассмотрены различные формы закона
больших чисел, которые утверждают о сходимости по вероятности тех или
иных случайных величин к определенным постоянным.
Центральная
предельная
теорема
–
это
группа
теорем,
устанавливающих условия, при которых возникает самый распространенный
в случайных явлениях нормальный закон распределения.
157
Определение 16.1.
Будем
говорить,
что
последовательность
X1 , X 2 ,..., X n   случайных величин сходится к случайной величине X по
распределению, если для всех x  R выполняется условие lim Fn ( x)  F ( x) ,
n 
где Fn (x) и F (x)  функции распределения случайных величин X n и Х
соответственно.
Смысл
этого
последовательность
определения
состоит
в
следующем:
если
Х1, Х 2 , , Х n сходится по распределению к Х, то с
увеличением номера n, X n становится все «больше похожа» на Х.
Теорема 16.1. (Центральная предельная теорема) Если случайные
величины
X1 , X 2 ,..., X n 
 независимы, одинаково распределены с
математическим ожиданием
a  MX i
и имеют конечную дисперсию
n
 2  DX i , то последовательность случайных величин
Zn 
 X i  an
i 1
 n
сходится по распределению к стандартно распределенной случайной
величине Z ~ N (0;1) .
Центральная
предельная
теорема
показывает,
что
среднее
арифметическое одинаково распределенных случайных величин имеет
нормальное распределение. В реальной жизни это означает, что даже если
мы не знаем распределение случайных величин X i , можем сделать выводы о
распределении суммы таких величин.
Например, пусть случайная величина  это погрешность округления
денежной суммы участвующей в банковской операции (ее распределение нам
не известно, случайная величина может быть как положительна, так и
отрицательна). Тогда сумма всех таких случайных величин  это
погрешность за день работы банка. Так как банковских операций проходит
много, то мы можем считать, что условия Центральной предельной теоремы
выполнены,
и
суммарная
ошибка
округления
имеет
нормальное
распределение, что позволяет проводить финансовые операции более точно.
158
Важнейшее место в группе центральных предельных теорем занимает
теорема Ляпунова.
Теорема 16.2.
Ляпунова)
(Теорема
Рассмотрим
n
независимых
случайных величин X 1 , X 2 ,..., X n  , удовлетворяющих условиям:
1) все величины имеют конечные математические ожидания a  MX i ,
конечные дисперсии  i2  DX i и конечные моменты третьего порядка
3  M  X i  MX i 3 ;
2) по своим значениям ни одна из этих случайных величин резко не
выделяется среди остальных по своим значениям.
n
Тогда при n   закон распределения случайной величины X   X i
i 1
неограниченно приближается к нормальному с математическим ожиданием
n
n
i 1
i 1
MX   ai и дисперсией DX    i2 .
Следствие.
Если
все
величины
имеют
одинаковые
функции
распределения, а значит равные конечные математические ожидания
n
MX i  a и равные конечные дисперсии DX i   ,то X   X i ~ N (na;  n ).
2
1
Замечание. Рассмотренная ранее локальная и интегральная теоремы
Муавра-Лапласа являются одной из простых форм центральной предельной
теоремы. В этом случае случайные величины X i – число успехов в i-ом
n
испытании в схеме Бернулли. Тогда X   X i  k  число успехов в серии из
i 1
n испытаний, причем MX i  p, DX i  pq, MX  np, DX  npq , а случайная
величина
Z
распределенных
X  MX k  np

,
X
npq
случайных
как
величин,
сумма
при
независимых
большом
числе
одинаково
n
имеет
распределение близкое к нормальному закону с параметрами MZ  0, Z  1,
т.е. Z ~ N (0;1) .
159
Пусть z1 
  np
npq
, z2 
  np
npq
, учитывая, что Z 
k  np
, получаем,
npq
что неравенства z1  Z  z2 и   k   равносильны.
Тогда, по свойству 1 нормального распределения, имеем:
   np 
   np 
  

P(  k   )  P( z1  Z  z2 )  ( z2 )  ( z1 )  

 npq .
npq




В результате получаем интегральную теорему Муавра-Лапласа:
   np 
   np 
  

P(  k   )  

 npq .
npq




Центральная предельная теорема объясняет широкое распространение
нормального
закона
в
природе.
Очень
часто
случайные
величины
представляют собой результат наложения большого числа независимых
случайных факторов, ни один из которых не доминирует над остальными.
Поэтому такие случайные величины практически нормально распределены.
Пример 16.1. Предполагается, что услугами банкомата за два часа
воспользуется 30 человек. Сумма, которую возьмет каждый клиент,
представляет собой случайную величину
величины
Xi
X i (i  1, 2, , 30). Пусть все
имеют один и тот же, хотя и неизвестный, закон
распределения. Длительные наблюдения за работой банкомата позволяют
утверждать, что в среднем каждый клиент берет 3000 рублей, а отклонение
от этой суммы в среднем не превышает 1200 рублей. Какова вероятность, что
все 30 человек получат свои деньги, если первоначально в банкомате
имелось 100000 рублей?
Р е ш е н и е . По условию задачи
n
M ( X i )  a  3000, n  30. Пусть
X   X i  сумма, выдаваемая банкоматом за два часа работы.
1
n
MX   MX i  na  30  3000  90 000 ,
i 1
X   n  1200  30  6573 .
160
X ~ N (na; n )  N (90 000;6573).
Вероятность того, что все получат деньги, можно вычислить по
формуле (9.12):
P( X  100 000)  0,5  (
  MX
)  0,5  (1,52)  0,9357.
X
Вероятность того, что кто-то из клиентов останется без денег,
очевидно, равна:
P( X  100 000)  1  0,9357  0,0643 .
Можно показать, что если бы первоначальная сумма в банкомате была
120000 рублей, то вероятность того, что кто-то из клиентов останется без
денег была равной 0,00001, т.е. пренебрежимо мала.
161
§ 17. Компетенции
Компетенция ОНК-1: Способность использовать основные научные
законы в профессиональной деятельности.
Знать: основные понятия и определения, относящиеся к случайным
величинам, математические операции над случайными величинами; понятие
функции распределения дискретной случайной величины; функции и
плотности распределения непрерывной случайной величины; числовые
характеристики случайных величин (математическое ожидание, дисперсию и
среднее квадратическое отклонение); основные законы распределения
случайной
величины
(биномиальное,
равномерное,
показательное,
нормальное распределение, распределение Пуассона).
Уметь:
находить
определять
числовые
экономическую
закон
распределения
характеристики
интерпретацию
случайной
результатов
случайной
величины;
величины;
выполнять
решения
теоретико-
вероятностных задач.
Владеть: навыками использования законов распределения, функций
распределения случайных величин в качестве математических моделей для
исследования стохастических процессов в сфере будущей профессиональной
деятельности.
Компетенция ПКН-3: Способность применять математические методы
для решения стандартных профессиональных финансово-экономических
задач, интерпретировать полученные математические результаты.
Знать: основные понятия и определения, относящиеся к многомерным
случайным величинам на примере двумерной случайной величины; законы
распределения
двумерной
случайной
величины,
условные
законы
распределения, уравнения линейной регрессии, закон больших чисел,
центральную предельную теорему и их применение в сфере будущей
профессиональной деятельности.
162
Уметь: составлять законы распределения двумерных случайных
величин; выполнять оценку регрессионных связей; использовать закон
больших чисел, центральную предельную теорему для решения стандартных
профессиональных финансово-экономических задач.
Владеть: навыками применения математических методов для оценки
состояния и прогноза развития стохастических процессов в сфере будущей
профессиональной деятельности, качественной интерпретации полученных
математических результатов.
Компетенция
ПКН-4:
Способность
оценивать
финансово-
экономические показатели деятельности хозяйствующих субъектов.
Знать: основные понятия и инструменты теории вероятностей,
необходимые
для
оценки состояния
и прогнозирования
финансово-
экономических показателей, характерных для сферы экономики.
Уметь: использовать теоретико-вероятностный аппарат для обработки
и
анализа
финансово-экономических
показателей
в
сфере
будущей
профессиональной деятельности.
Владеть:
навыками
применения
современного
теоретико-
вероятностного инструментария для расчета финансово-экономических
показателей, характеризующих деятельность хозяйствующих субъектов.
163
Литература
1.
Алексенко
Н.В.
Теория
вероятностей
и
математическая
статистика: учебное пособие / Н.В. Алексенко, О.П. Диденко.  Омск: ОГИС,
2004. – 120 с.
2.
Боровков А.А. Теория вероятностей: учебное пособие для вузов.
– М.: Наука. Гл. ред. физ.-мат. лит., 1986. – 432 с.
3.
Вентцель Е.С. Теория вероятностей: учебник для вузов.  М.:
Высшая школа, 2002. – 575 с.
4.
Гмурман
В.
Е.
Теория
вероятностей
и
математическая
статистика: учебное пособие. – М.: Высшее образование, 2008. – 479 с.
5.
Гмурман В.Е. Руководство к решению задач по теории
вероятностей и математической статистике: учебное пособие. – М.: Высшее
образование, 2006. – 404 с.
6.
Гнеденко Б.В. Курс теории вероятностей: учебник. – М.:
Едиториал УРСС, 2005. – 448с.
7.
Гурьянова И.Э. Теория вероятностей. Курс лекций: учебно-
методическое пособие. – М.: ФГОБУ ВПО «Финансовый университет при
Правительстве Российской Федерации», 2014. – 104 с.
8.
Кремер Н.Ш. Теория вероятностей и математическая статистика:
учебник.  М.: ЮНИТИ-ДАНА, 2009. – 551 с.
9.
Котюргина А.С. Вероятность: теория и эксперимент: учебное
пособие / А.С. Котюргина, В.Н. Задорожный, Е.И. Федорова.  Омск: Изд-во
ОмГТУ, 2014. – 196 с.
10.
Мхитарян
В.С.
Теория
вероятностей
и
математическая
статистика: учебное пособие. – М.: Московская финансово-промышленная
академия, 2011. – 328 с.
11.
теории
Ниворожкина Л.И. Математическая статистика с элементами
вероятностей
в
задачах
с
164
решениями:
учебное
пособие
/
Л.И. Ниворожкина, З.А. Морозова. – Москва: ИКЦ «МарТ»; Ростов-н/Д: Изд.
центр «МарТ», 2005. – 608 с.
12.
Солодовников А.С. Математика в экономике: учебник: В 3-х ч.
Ч.3. Теория вероятностей и математическая статистика / А.С. Солодовников,
В.А. Бабайцев, А.В. Браилов.  М.: Финансы и статистика, 2008. – 464с.
13.
Тюрин Ю.Н. Теория вероятностей: учебник для экономических и
гуманитарных специальностей / Ю.Н. Тюрин, А.А. Макаров, Г.И. Симонова. 
М.: МЦНМО, 2009.– 256 с.
14.
Фадеева
Л.Н.,
Лебедев
А.В.
Теория
вероятностей
и
математическая статистика: учебное пособие / Л.Н. Фадеева, А.В. Лебедев;
под ред. Л.Н. Фадеевой. –М.: Эксмо, 2010. – 496 с.
165
ПРИЛОЖЕНИЕ 1
Таблица значений функции Гаусса  ( x) 
х
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
4,0
0,00
0,3989
3970
3910
3814
3683
0,3521
3332
3123
2897
2661
0.2420
2179
1942
1714
1497
0,1295
1109
0940
0790
0656
0,0540
0440
0355
0283
0224
0,0175
0136
0104
0079
0060
0,0044
0033
0024
0017
0012
0,0009
0006
0004
0003
0002
0,0001
0,01
0,3989
3965
3902
3802
3668
0,3503
3312
3101
2874
2637
0,2396
2155
1919
1691
1476
0,1276
1092
0925
0775
0644
0,0529
0431
0347
0277
0219
0,0171
0132
0101
0077
0058
0,0043
0032
0023
0017
0012
0,0008
0006
0004
0003
0002
0,0001
0,02
0,3989
3961
3894
3790
3553
0,3485
3292
3079
2850
2613
0,2371
2131
1895
1669
1456
0,1257
1074
0909
0761
0632
0,0519
0422
0339
0270
0213
0,0167
0129
0099
0075
0056
0,0042
0031
0022
0016
0012
0,0008
0006
0004
0003
0002
0,0001
0,03
0,3988
3956
3885
3778
3637
0,3467
3271
3056
2827
2589
0,2347
2107
1872
1647
1435
0,1238
1057
0893
0748
0620
0,0508
0413
0332
0264
0208
0,0163
0126
0096
0073
0055
0,0040
0030
0022
0016
0011
0,0008
0005
0004
0003
0002
0,0001
0,04
0,3986
3951
3861
3765
3621
0,3448
3251
3034
2803
2565
0,2323
2083
1849
1626
1415
0,1219
1040
0878
0734
0608
0,0498
0404
0325
0258
0203
0,0158
0122
0093
0071
0053
0,0039
0029
0021
0015
0011
0,0008
0005
0004
0003
0002
0,0001
166
0,05
0,3984
3945
3867
3752
3605
0,3429
3230
3011
2780
2541
0,2299
2059
1826
1604
1394
0,1200
1023
0863
0721
0596
0,0488
0396
0317
0252
0198
0,0154
0119
0091
0069
0051
0,0038
0028
0020
0015
0010
0,0007
0005
0004
0002
0002
0,0001
0,06
0,3982
3939
3857
3739
3589
0,3410
3209
2989
2756
2516
0,2275
2036
1804
1582
1374
0,1182
1006
0848
0707
0584
0,0478
0387
0310
0246
0194
0,0151
0116
0088
0067
0050
0,0037
0027
0020
0014
0010
0,0007
0005
0003
0002
0002
0,0001
1
e
2

x2
2
0,07
0,3980
3932
3847
3725
3572
0,3391
3187
2966
2732
2492
0,2251
2012
1781
1561
1354
0,1163
0989
0833
0694
0573
0,0468
0379
0303
0241
0189
0,0147
0113
0086
0065
0048
0,0036
0026
0019
0014
0010
0,0007
0005
0003
0002
0002
0,0001
0,08
0,3977
3925
3836
3712
3555
0,3372
3166
2943
2709
2468
0,2227
1989
1758
1539
1334
0,1145
0973
0818
0681
0562
0,0459
0371
0297
0235
0184
0,0143
0110
0084
0063
0047
0,0035
0025
0018
0013
0009
0,0007
0005
0003
0002
0001
0,0001
0,09
0,3973
3918
3825
3697
3538
0,3352
3144
2920
2685
2444
0,2203
1965
1736
1518
1315
0,1127
0957
0804
0669
0551
0,0449
0363
0290
0229
0180
0,0139
0107
0081
0061
0046
0,0034
0025
0018
0013
0009
0,0006
0004
0003
0002
0001
0,0001
ПРИЛОЖЕНИЕ 2
2
Таблица значений функции Лапласа Ф( х) 
х
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
х
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
4,0
0,00
0,0000
0398
0793
1279
1554
0,1915
2257
2580
2881
3159
0,3413
3643
3849
4032
4192
0,4332
4452
4554
4641
4713
0,4772
4821
4812
4893
4918
0,4938
4953
4965
4974
4981
0,4987
0,00
4990
4993
4995
4997
0,4998
4998
4999
4999
5000
5000
0,01
0,0040
0438
0832
1217
1591
0,1950
2291
2611
2910
3186
0,3437
3665
3869
4049
4207
0,4345
4463
4564
4649
4719
0,4778
4826
4864
4896
4920
0,4940
4955
4966
4975
4982
0,4987
0,01
4991
4993
4995
4997
0,4998
4998
4999
4999
5000
5000
0,02
0,0080
0478
0871
1255
1628
0,1985
2324
2642
2939
3212
0,3461
3686
3888
4066
4222
0,4357
4474
4573
4656
4726
0,4783
4830
4868
4898
4922
0,4941
4956
4967
4976
4982
0,4987
0,02
4991
4994
4995
4997
0,4998
4999
4999
4999
5000
5000
0,03
0,0120
0517
0910
1293
1664
0,2019
2357
2673
2967
3238
0,3485
3708
3907
4082
4236
0,4370
4484
4582
4664
4732
0,4788
4834
4871
4901
4925
0,4943
4957
4968
4977
4983
0,4988
0,03
4991
4994
4996
4997
0,4998
4999
4999
4999
5000
5000
0,04
0,0160
0557
0948
1331
1700
0,2058
2389
2703
2995
3264
0,3508
3729
3925
4099
4251
0,4382
4495
4591
4671
4738
0,4793
4838
4875
4904
4927
0,4945
4959
4969
4977
4984
0,4988
0,04
4992
4994
4996
4997
0,4998
4999
4999
4999
5000
5000
167
0,05
0,0200
0596
0987
1369
1736
0,2088
2422
2734
3023
3289
0,3581
3749
3944
4115
4265
0,4394
4505
4599
4678
4744
0,4798
4842
4878
4906
4929
0,4946
4960
4970
4978
4984
0,4989
0,05
4992
4994
4996
4997
0,4998
4999
4999
4999
5000
5000
0,06
0,0239
0636
1026
1406
1772
0,2123
2454
2764
3051
3315
0,3554
3770
3962
4131
4279
0,4406
4515
4608
4686
4750
0,4803
4846
4881
4909
4931
0,4948
4961
4971
4979
4985
0,4989
0,06
4992
4994
4996
4997
0,4998
4999
4999
4999
5000
5000
x t
e 2
1

2 0
0,07
0,0279
0675
1064
1443
1808
0,2157
2486
2794
3078
3340
0,3577
3790
3980
4147
4292
0,4418
4525
4616
4693
4756
0,4808
4850
4884
4911
4932
0,4949
4962
4972
4979
4985
0,4989
0,07
4992
4995
4996
4997
0,4998
4999
4999
4999
5000
5000
dt
0,08
0,0319
0714
1103
1481
1844
0,2190
2517
2823
3106
3365
0,3599
3810
3997
4162
4306
0,4429
4535
4625
4699
4761
0,4812
4854
4887
4913
4934
0,4951
4963
4973
4980
4985
0,4990
0,08
4993
4995
4996
4997
0,4998
4999
4999
4999
5000
5000
0,09
0,0359
0753
1141
1518
1879
0,2224
2549
2852
3133
3389
0,3621
3830
4015
4177
4319
0,4441
4545
4633
4706
4767
0,4817
4857
4890
4916
4935
0,4952
4964
4974
4981
4986
0,4990
0,09
4993
4995
4997
4998
0,4998
4999
4999
4999
5000
5000
ПРИЛОЖЕНИЕ 3
Таблица значений функции Пуассона P( X  m) 

m
0
1
2
3
4
5
6
7

m
m!
e 
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0,9048
0,0905
0,0045
0,0002
0,0000
0,0000
0,0000
0,0000
0,8187
0,1637
0,0164
0,0011
0,0001
0,0000
0,0000
0,0000
0,7408
0,2223
0,0333
0,0033
0,0003
0,0000
0,0000
0,0000
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,0000
0,0000
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,0000
0,0000
0,5488
0,3293
0,0988
0,0198
0,0030
0,0003
0,0000
0,0000
0,4966
0,3476
0,1216
0,0284
0,0050
0,0007
0,0001
0,0000
04493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,0000
0,4066
0,3659
0,1647
0,0494
0,0111
0,0020
0,0003
0,0000
0,3679
0,3679
0,1839
0,0613
0,0153
0,0031
0,0005
0,0001
m
2,0
3,0
4,0
5,0
6,0
7,0
8,0
9,0
10,0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
0,1353
0,2707
0,2707
0,1805
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0498
0,1494
0,2240
0,2240
0,1681
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1045
0,0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0689
0,0413
0,0225
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0452
0,0264
0,0142
0,0071
0,0033
0,0015
0,0006
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0003
0,0027
0,0107
0,0286
0,0572
0,0916
0,1221
0,1395
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
0,0009
0,0004
0,0002
0,0001
0,0000
0,0000
0,0000
0,0000
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0029
0,0014
0,0006
0,0003
0,0001
0,0000
0,0000
0,0000
0,0001
0,0005
0,0023
0,0076
0,0189
0,0378
0,0631
0,0901
0,1126
0,1251
0,1251
0,1137
0,0948
0,0729
0,0521
0,0347
0,0217
0,0128
0,0071
0,0037
0,0019
0,0009
0,0004
0,0002
0,0001
0,0000
168
АЛФАВИТНО-ИМЕННОЙ УКАЗАТЕЛЬ
Байес Томас (1702-1761), английский математик. Поставил и решил одну из
основных задач элементарной теории вероятностей (теорема Байеса).
Бернулли Якоб (1654-1705), швейцарский ученый, принадлежащий к семье,
из которой вышло одиннадцать выдающихся математиков. Его знаменитая
работа «Искусство предположений» была издана через восемь лет после
смерти автора.
Бернштейн Сергей Натанович (1880-1968), советский математик, академик.
Ему принадлежат: первое аксиоматическое построение теории вероятностей
(1917), исследование предельных теорем, разработка применений методов
теории вероятностей к задачам физики и статистики.
Галилей Галилео (1564-1642), великий итальянский физик и астроном.
Открыл законы колебания маятника и падения тел, изобрел телескоп, при
помощи которого сделал ряд выдающихся открытий в астрономии. В 1633 г.
в г. Риме был подвергнут суду инквизиции, вынудившему его отречься от
учения о вращении Земли вокруг Солнца.
Гаусс Карл Фридрих (1777-1855), крупнейший немецкий математик,
родился в семье бедного водопроводчика. Отличительная черта его
творчества – глубокая органическая связь в его исследованиях между
теоретической и прикладной математикой. Работы Гаусса оказали большое
влияние на всѐ дальнейшее развитие высшей алгебры, теории чисел,
дифференциальной геометрии, теории притяжения, классической теории
электричества и магнетизма, геодезии, целых отраслей теоретической
астрономии.
Гюйгенс Христиан (1629-1695), нидерландский математик, физик и
астроном. Является одним из основателей волновой теории света.
Колмогоров Андрей Николаевич (1903-1987), один из самых
замечательных ученых XX века, внесший огромный вклад в развитие
математики и еѐ приложений.
Лаплас Пьер Симон (1749-1827), выдающийся французский ученый, член
Парижской Академии наук, оставил значительный след в различных областях
математики и механики. Ему принадлежит фундаментальный труд
«Аналитическая теория вероятностей», который сыграл значительную роль в
распространении вероятностных идей.
Ляпунов Александр Михайлович (1857-1918), один из наиболее
выдающихся русских математиков и механиков, ближайший ученик
Чебышева. Он создатель теории устойчивости движения, методов
качественной
теории
дифференциальных
уравнений,
метода
характеристических функций и теории вероятностей.
Марков Андрей Андреевич (1856-1922), один из выдающихся
представителей математической школы, созданной Чебышевым. Имеет
работы в различных областях математики, основные его достижения в
области теории вероятностей, которой он посвятил более 25 работ. Его
деятельность привела к полному решению основных вопросов теории
169
вероятностей: предельных теорем, закона больших чисел и способа
наименьших квадратов. Как отметил академик В. А. Стеклов, трудности этих
вопросов не могли быть преодолены в науке до Маркова в течение многих
десятилетий.
Муавр де Абрахам (1667-1754), английский математик. Кроме работ в
области теории вероятностей, известен своими трудами по теории рядов и
теории комплексных чисел. Был членом Королевского общества, а также
членом Парижской и Берлинской Академий наук.
Паскаль Блез (1623-1662), французский ученый, оставивший значительный
след в математике, физике и философии. Свои исключительные способности
проявил в раннем возрасте, к 18 годам был уже автором ряда трудов и
изобретений.
Пуассон Симон Дени (1781-1840), знаменитый французский математик. Его
перу принадлежит работа «Исследование о вероятности судебных
приговоров по уголовным и гражданским делам».
Ферма
Пьер
(1601-1665),
французский
математик,
один
из
замечательнейших ученых своего времени. Вместе с Ньютоном и Лейбницем
его можно считать одним из изобретателей дифференциального исчисления,
а вместе с Декартом он по праву делит славу одного из основателей
аналитической геометрии.
Чебышев Пафнутий Львович (1821-1894), создатель целой математической
школы в России. Он сыграл большую, и в ряде случаев решающую, роль в
развитии многих областей математики. Работы Чебышева в области теории
приближения функций многочленами, теории чисел, теории интегрирования
и теории вероятностей позволяют поставить его имя в ряд с именами
величайших математиков всех времен.
170
Ильина Надежда Ильинична
Мещеряков Евгений Александрович
Алексенко Наталья Владимировна
Бурмистрова Наталия Александровна
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
ДЛЯ ЭКОНОМИЧЕСКОГО БАКАЛАВРИАТА
Учебное пособие
Подписано в печать 00.03.2016г.
Формат 60х84 1/16. Усл. печ. л.
Печать оперативная. Тираж 500 экз.
Изготовлено в ООО «Образование информ»
644020, г. Омск, ул. Серова, 13
Тел.+7(3812)45-1324, 45-13-25, 45-13-73.
e-mail:[email protected]
171
Скачать