Лекции по теории вероятностей и математической статистике

advertisement
В.А. ПАВСКИЙ
ЛЕКЦИИ ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ И ЭЛЕМЕНТАМ
МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
КЕМЕРОВСКИЙ ТЕХНОЛОГИЧЕСКИЙ ИНСТИТУТ ПИЩЕВОЙ ПРОМЫШЛЕННОСТИ
В.А. Павский
ЛЕКЦИИ ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ И ЭЛЕМЕНТАМ
МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Рекомендовано СибРУМЦ высшего
профессионального образования для
межвузовского использования в качестве
учебного пособия для студентов
технологических специальностей
Кемерово 2005
УДК: 519.2 (07)
Печатается по решению Редакционно-издательского совета Кемеровского
технологического института пищевой промышленности.
Рецензенты:
Заведующий кафедрой математической кибернетики КемГУ, доктор физ.мат. наук, профессор Данилов Н.Н.
Кафедра высшей и прикладной математики Кемеровского института
(филиал) РГТЭУ, заведующий кафедрой, кандидат физ.-мат. наук, доцент
Астраков С.Н.
Павский В.А. Лекции по теории вероятностей и элементам математической
статистики: учебное пособие. – Кемеровский технологический институт
пищевой промышленности. – Кемерово, 2004. – 184 с.
ISBN 5-89289-252-2
Учебное пособие содержит классические разделы стандартного курса
теории вероятностей для технических вузов. Приведены основные понятия из
теории случайных процессов, теории массового обслуживания и сведения из
математической
статистики,
необходимые
при
оценке
неизвестных
распределений и параметров распределений случайных величин и процессов.
П
1602090000
У 50(03)  04
ISBN 5-89289-252-2
- Кемеровский
технологический
институт
пищевой промышленности
3
ОГЛАВЛЕНИЕ
ВВЕДЕНИЕ……………………………………………………………………….....5
Часть 1. ПОНЯТИЕ СЛУЧАЙНОГО СОБЫТИЯ И ЕГО ВЕРОЯТНОСТИ……..9
1.1.
Операции над событиями………………………………………….………..10
1.2.
Элементы комбинаторики………………………………………….……….16
1.3.
Вычисление вероятностей событий……………………………….……….22
1.3.1. Классический метод вычисления вероятностей…………………....23
1.3.2. Геометрический метод вычисления вероятностей.………...……....30
1.3.3. Статистический метод вычисления вероятностей ………………....32
1.3.4. Условная вероятность………………………………………………...35
1.4.
Формула полной вероятности и формула Байеса ..……………………….37
1.5.
Независимые испытания…………………………………………………….41
1.6.
Локальная теорема Муавра-Лапласа……………………………………….45
1.7.
Интегральная теорема Муавра-Лапласа…………………………………...47
1.8.
Формула Пуассона…………………………………………………………..49
Часть 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ФУНКЦИИ РАСПРЕДЕЛЕНИЯ…….52
2.1.
Числовые характеристики случайных величин……………………………61
2.1.1. Математическое ожидание, мода, медиана………………………....63
2.1.2. Моменты…………………………………………………………….…66
2.2.
Вычисление числовых характеристик стандартных распределений…….70
2.3.
Функции от случайных величин……………………………………………75
2.3.1. Функции одного случайного аргумента…………………………….75
2.3.2. Многомерные случайные величины………………………………...79
2.3.3. Условные законы распределения……………………………………82
2.3.4. Моменты многомерных случайных величин……………………….94
2.3.5. Случайные процессы………………………………………………..103
2.3.5.1.Марковские процессы…………………………………….....107
2.3.5.2.Непрерывные цепи Маркова……………………………......112
2.3.5.3.Потоки событий……………………………………………...114
2.3.6. Основы теории массового обслуживания………………………….119
4
Часть 3. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ…………………………………………….130
3.1.
Закон больших чисел………………………………………………………133
3.2.
Центральные предельные теоремы……………………………………….136
Часть 4. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ………………..141
4.1.
Оценка функций распределения……………………………………..…....144
4.2.
Точечные оценки неизвестных параметров законов распределения…...154
4.3.
Доверительный интервал…………………………………………………..157
4.4.
Проверка статистической однородности…………………………………164
ЗАКЛЮЧЕНИЕ……………………………………………………………………168
ОБОЗНАЧЕНИЯ…………………………………………………………………..170
ПРИЛОЖЕНИЕ…………………………………………………………………...172
БИБЛИОГРАФИЧЕСКИЙ СПИСОК……………………………………………182
5
Введение
Теория вероятностей – наука о случайных явлениях (событиях). Какие
явления можно назвать случайными? Ответ, который можно дать сразу, – это
события, не поддающиеся объяснению. А если их объяснить, то перестанут ли
события быть случайными? Приведем несколько примеров.
Пример 1. Саша Иванов - средний студент и обычно дает правильные
ответы лишь на половину экзаменационных билетов. На очередном экзамене
Саша на билет ответил и получил положительную оценку. Какие события
можно считать случайными:
а) Саше попался «хороший» билет – событие А;
б) Саша ответил на билет – событие В;
в) Саша сдал экзамен – событие С.
Событие А – случайное, так как Саша мог взять и «плохой» билет, но
почему ему попался «хороший» - это объяснить трудно. Событие В - не
случайно, так как Саша может ответить только на «хороший» билет. Событие С
– случайное, так как состоит из нескольких событий и, по меньшей мере, одно
из них случайное (событие А).
Пример 2. Саша и Маша разыгрывают билет на концерт. Какие из
следующих событий можно считать случайными?
а) Только Саша выиграл билет – событие А;
б) Только Маша выиграла билет – событие В;
в) Саша или Маша выиграли билет – событие С;
г) Оба выиграли билет – событие D.
События А и В – случайные; событие С – не случайное, так как оно
обязательно произойдет. Событие D – не случайное, так как оно никогда, при
данных условиях, произойти не может.
Тем не менее, все эти события имеют смысл и изучаются в теории
вероятностей (при этом событие С называется достоверным, а событие D –
невозможным).
6
Пример 3. Рассмотрим работу столовой, в плане обслуживания клиентов.
Моменты прихода посетителей (событие А) заранее предсказать невозможно,
более того, время, затрачиваемое клиентами на обед (событие В), для разных
клиентов - различное. Следовательно, события А и В
можно считать
случайными, а процесс обслуживания клиентов – случайным процессом (или
случайным явлением).
Пример 4. Английский ботаник Браун (Brown), изучая под микроскопом
пыльцу хвойных растений в воде, открыл, что взвешенные частицы двигаются
беспорядочно под действием толчков со стороны молекул окружающей среды.
Это беспорядочное движение частиц А. Эйнштейн назвал (1905-1906)
броуновским (от имени Brown), а позднее Н. Винер создал теорию винеровских
процессов (1920-1930), являющихся непрерывным аналогом броуновского
движения. Выяснилось, что частица размером в один микрон (10-4 см)
испытывает за секунду со стороны молекул более 1015 ударов. Чтобы
определить траекторию частицы, нужно за секунду измерить параметры 1015
ударов. Это практически невозможно. Таким образом, мы вправе броуновское
движение считать случайным. Поступив так, Эйнштейн открыл новые
возможности изучения броуновского движения, а заодно, и тайн микромира.
Здесь случайность проявляется как незнание или неумение получить
достоверную информацию о движении частиц.
Из примеров следует, что случайные события не существуют в
единственном числе, у каждого из них должно быть, по меньшей мере,
альтернативное событие.
Таким образом, под случайными будем понимать наблюдаемые события,
каждое из которых обладает возможностью реализоваться в данном
наблюдении, но реализуется лишь одно из них.
Кроме того, мы предполагаем, что любое случайное событие «за
бесконечное время реализуется бесконечное число раз».
Это условие хотя и образное, но достаточно точно отражает суть понятия
случайного события в теории вероятностей.
7
В самом деле, изучая случайное событие, нам важно знать не только факт
его появления, но и то, как часто случайное событие появляется в сравнении с
другими, то есть знать его вероятность. Для этого необходимо иметь
достаточный
набор
статистических
данных,
но
это
уже
предмет
математической статистики.
Итак, можно утверждать, что в природе нет ни одного физического
явления, которое бы не содержало элемент случайности, а это означает, что,
изучая случайность, мы познаем закономерности окружающего нас мира.
Современная теория вероятностей редко применяется для изучения отдельного
явления, состоящего из небольшого числа факторов. Основной ее задачей
является выявление закономерностей в массовых случайных явлениях и их
изучение.
Вероятностный (статистический) метод изучает явления с общих позиций,
помогает специалистам познать их суть, не останавливаясь на несущественных
деталях. Это является большим преимуществом по сравнению с точными
методами других наук. Не следует думать, что
теория вероятностей
противопоставляет себя другим наукам, наоборот, она их дополняет и
развивает.
Например, вводя в детерминированную модель случайную составляющую,
часто получают более точные и глубокие результаты изучаемого физического
процесса. Эффективным оказывается и вероятностный подход для явлений,
которые декларируются случайными, независимо от того, являются они
таковыми или нет.
В теории вероятностей такой подход называется рандомизацией (random –
случайный).
Исторические сведения
Принято считать, что теория вероятностей своему возникновению обязана
азартным играм, однако аналогичные права на нее может предъявить,
например,
и
страхование.
В
любом
случае,
теория
вероятностей
математическая статистика появились благодаря потребностям практики.
и
8
Первые серьезные работы по теории вероятностей возникли в середине
XVII века из переписки Паскаля (1623 – 1662) и Ферма (1601 – 1665) при
изучении
азартных
игр.
Одним
из
основателей
современной
теории
вероятностей является Яков Бернулли (1654 – 1705). Изложение основ теории
вероятностей принадлежит Муавру (1667 – 1754) и Лапласу (1749 – 1827).
С именем Гаусса (1777 – 1855) связан один из самых фундаментальных
законов теории вероятностей – нормальный закон, а с именем Пуассона (1781 –
1840) – закон Пуассона. Кроме того, Пуассону принадлежит теорема закона
больших чисел, обобщающая теорему Бернулли.
Большой вклад в развитие теории вероятностей и математической
статистики внесли русские и советские математики.
Автором первого учебника по теории вероятностей на русском языке и
учителем П.Л. Чебышева (1821 – 1894) был В.Я. Буняковский (1804 – 1889).
П.Л. Чебышеву принадлежат фундаментальные работы по закону больших
чисел, А.А. Маркову (1856 – 1922) – авторство создания теории стохастических
процессов (марковских процессов). Его ученик А.М. Ляпунов (1857 – 1918)
доказал центральную предельную теорему при достаточно общих условиях,
разработал метод характеристических функций.
Среди советских математиков, сформировавших теорию вероятностей как
математическую науку, следует отметить С.Н. Бернштейна (1880 – 1968),
А. Я. Хинчина (1894 – 1959) (стационарные случайные процессы, теория
массового
обслуживания),
аксиоматического
А.Н.
построения
Колмогорова
теории
(1903
вероятностей;
–
1987)
ему
(автора
принадлежат
фундаментальные работы по теории стохастических процессов), Б. В. Гнеденко
(р.1911)
(теория
массового
обслуживания,
стохастические
А.А. Боровкова (р. 1931) (теория массового обслуживания).
процессы),
9
Часть 1. ПОНЯТИЕ СЛУЧАЙНОГО СОБЫТИЯ И ЕГО
ВЕРОЯТНОСТИ
Как уже отмечалось в предисловии, теория вероятностей изучает массовые
случайные явления. А что же такое случай? Как к нему относиться? Если нам
повезло, говорим о счастливом случае, если нет, то это – несчастливый случай.
Однако, в целом, к случайностям мы относимся отрицательно, поскольку
заранее не знаем, как себя эта случайность проявит. Конечно, случайность
портила и портит жизнь человека, но она ему и помогает. Для борьбы со
случайностью разработаны эффективные методы. Выясняется, что описание и
формализация случайности является одним из самых мощных инструментов
научного описания мира.
Под случаем мы обычно понимаем либо ограниченность необходимой
информации, либо неумение её использовать, либо полное отсутствие
информации (за исключением той информации, что она отсутствует). Итак,
будем считать, что случай, случайность - понятия для нас интуитивно ясные.
Разобьем случайность на два класса: «хорошая» случайность – когда
можно выявить какие-то закономерности её проявления (то есть имеет смысл
говорить
о
её
количественной
оценке),
и
«дурная»
случайность
–
закономерностей никаких нет (мистика, колдовство, прилёт инопланетян и др.)
«Хорошую» случайность, в отличие от «дурной», можно формализовать.
Изучением именно «хорошей» случайности, и только ею, занимается
современная теория вероятностей – математическая наука, которая по
известным вероятностям одних случайных событий позволяет находить
вероятности других случайных событий.
Случайные
события
будем
называть
просто
событиями,
а
их
количественную оценку - вероятностью события, которая является числом из
промежутка . Прежде всего, мы научимся получать комбинации событий и
вычислять соответствующие им вероятности. Это позволит нам адекватно
10
оценить
действительность,
прогнозировать
результаты,
вырабатывать
оптимальную стратегию поведения.
1.1 Операции над событиями
Первоначальным и, тем самым, математически неопределяемым понятием
для нас, является пространство  случайных событий*. Оно состоит из
элементарных событий (точек) 1, 2, ..., n,… представляющих неразложимый
исход теоретического эксперимента. Количество точек из  может быть
конечно или счетно. Стандартная запись: 1 2 ..., n ... . Любой
конечный (или даже счетный) набор элементарных событий, например,

i1
, i2 ,...,im   , назовем случайным событием. Случайные события
обозначают буквами: А, В, ….
Пусть  =

i1
, i2 ,...,im   . Будем говорить, что событие, 
произошло, если наступило одно из элементарных событий, i1 , i2 ,...,im  .
Объединением (суммой) двух событий А и В называется событие АВ,
состоящее из элементарных событий, принадлежащих хотя бы одному из
событий А или В.
Пересечением (произведением) событий А и В называется событие АВ,
состоящее из элементарных событий, содержащихся одновременно в событиях
А и В.
Дополнением (разностью) событий А и В называется событие А\В,
состоящее из элементарных событий события А, не содержащихся в событии В.
Пусть   , тогда противоположным событию А называется событие
А  , состоящее из элементарных событий пространства , не содержащихся
в событии А, то есть А =  \ А.
Пусть А, В  . Они образуют алгебру событий, если:
*
Мы рассматриваем дискретное пространство, являющееся частным случаем более общего пространства элементарных
событий. Для изучаемого курса теории вероятностей этого достаточно. Более общие случаи будем оговаривать особо.
11
1) А  В  ,
2) А  В  ,
3) А  .
Кроме того, если выполнено условие
4) А \ В  ,
то имеем поле событий.
Очевидно
обобщение
на
любое
конечное
число
событий
A1 , A2 ,...., An   .
Событие, которое никогда не происходит (то есть не содержит ни одной
точки), называется невозможным, обозначается символом  и
 (  )  (  ).
Событие А =  всегда происходит и называется достоверным, при этом
полагаем  = .
События А1, А2   несовместны, если А1  А2 =  (то есть события А1 и
А2 не имеют общих точек).
События А1, А2, ..., Аn образуют полную группу, если  
n
i 1
Ai , а если Аi,
i= 1, 2, …, n, попарно несовместные, то есть ij , j = 1, 2, …, n, Аi  Аj = ,
n
тогда
i 1
Ai = .
Если каждое появление события А влечет за собой появление события В,
то говорят, что А есть часть В, то есть А  В.
Многие задачи теории вероятностей содержат бесконечное число исходов
(например, точки на отрезке прямой, поверхности и др.), и мы можем
столкнуться
с
трудностями
теоретического
характера,
если
любое
подмножество отрезка или поверхности будем считать событием. Чтобы их
избежать, мы вводим специальный класс ℱ подмножеств, состоящий из
несчетных множеств, где любое его подмножество есть событие. Формально
это выглядит следующим образом.
12
Пусть пространство  - произвольное множество (в том числе, несчетное),
а ℱ класс подмножеств из множества .
ℱ называется - алгеброй, если
1)   ℱ,

2)  Аi  ℱ, i  N    Ai  F
 i 1
и



 Ai  F  ,
i 1
3) А  ℱ  A  ℱ.
Таким образом, алгебра событий замкнута относительно конечного числа
теоретико-множественных операций (объединения, пересечения, отрицания), а
- алгебра замкнута относительно бесконечного числа этих операций.
Замечание. По условию, класс подмножеств ℱ содержится в пространстве
 и одновременно, сам содержит это пространство. Возможность такой
формализации становится понятной, если считать ℱ оператором «наведения
порядка» в . Тогда, если, например,  интерпретировать как единичный
объем жидкости, а ℱ - как губку, то, если вся жидкость находится в губке
всюду плотно, получается, что с одной стороны, губка находится в жидкости, а
с другой стороны, вся жидкость находится в губке.
Мерой или количественной оценкой случайных событий из  служит
вероятность р – число, удовлетворяющее следующим аксиомам.
Аксиома 1. Любому событию А  , удовлетворяющему условиям 1) – 3),
поставлено в соответствие неотрицательное число p = Р  А , называемое его
вероятностью.
Аксиома 2. Р  = 1.
Аксиома 3. Если события А1, А2, ..., Аn, ... попарно несовместны, то
 

P
i 1

Ai   P  Ai  .
i 1
13
Пространство , с заданной на нем алгеброй ( - алгеброй) событий и
определенной для каждого события вероятностью, которая удовлетворяет
аксиомам
1-3,
является
центральным
понятием,
определяющим
аксиоматический подход к построению теории вероятностей, введенный
А.Н. Колмогоровым в 30-х годах прошлого века 2.
Определение.
Тройку
(ℱ,Р)
будем
называть
вероятностным
пространством.
Замечание. В данном курсе теории вероятностей мы обсуждаем только
такие случаи, для которых любое подмножество  есть событие, а потому
введение - алгебры ℱ излишне. Однако в целях конструктивности изложения
мы будем писать (ℱ,Р), подразумевая под вероятностным пространством
( Р).
Следствия из аксиом
Следствие 1.
Р    = 0.
В самом деле, имеем  =    и    = , то есть  и  несовместны.
Следовательно, 1 = Р    = Р      =  по аксиоме 3  = Р  + Р  =
1 + Р   . Отсюда Р    = 0.▼
Следствие 2.
Если А  , то Р   = 1 – Р   .
Доказательство сразу следует из условия А   = , А   = .▼
Следствие 3.
Если А  , то 0  Р  А   .
14
В самом деле, так как     , то Р  Р  Р, тогда
0  P  A  1 . Знак равенства возможен тогда, когда А =  или А = , или
P  A  0 и А  .▼
Следствие 4 (Теорема сложения).
Для любых А, В   имеет место
Р  А  В  = Р  А  + Р  В  - Р  А  В .
В самом деле, имеем
А  В = А  ( В \ ( А  В )) и В = ( А  В)  ( В \ ( А  В )).
События правой части несовместные, отсюда
Р  А  В  = Р  А  + Р  В \ ( А  В ),
Р  В  = Р  А  В  + Р  В \ ( А  В ).
Вычитая из первого равенства второе, получаем
Р  А  В  - Р  В  = Р  А  - Р  А  В .▼
Следствие 5.
Для любых А, В  ,
Р  А  В   Р  А  + Р  В .
Доказательство следует из условия Р  А  В    и следствия 4. ▼
Очевидны обобщения на произвольное число событий.
Определение. События А, В из вероятностного пространства (,ℱ,Р)
называются независимыми, если вероятность их совместного осуществления
равна произведению вероятностей этих событий, то есть
Р  А  В  = Р  А  Р  В .
Из определения сразу следует, что
1) Для любого А   события А и  независимы.
2) Если Р  В  = 0 и событие А   произвольно, то В и А независимы.
15
3) Если события А и Вi независимы, i = 1, 2 и В1  В2, то А и ( В1\ В2 )
независимы.
4) Если события А и Вi независимы и Вi попарно несовместны, то есть i j
n
Вi  Вj = , то А и  Bi также независимы.
i 1
5) Событие А не зависит от самого себя тогда и только тогда, когда либо
P  A  0 , либо P  A  1 .
6) Если события А и В несовместны, то есть А  В =  и Р  А   0,
P B  0 , то А и В зависимы.
В
P A
самом
деле,
пусть
B  P  A  P B  0 ,
события
но
по
А
и
условию
В
независимы,
P A
тогда
B  P   0 .
Получили противоречие, то есть А и В - зависимы.▼
Замечание 1. Понятие независимости в теории вероятностей имеет более
глубокий смысл, чем независимость обычная. Принято считать события
независимыми, если они не связаны причинно. На практике, понятие
зависимости и независимости случайных событий относительно. Если события
слабо связаны, и эта связь несущественно влияет на конечный результат, то
такие события считают независимыми, поскольку в этом случае построение
математических моделей реальных ситуаций становится много проще.
Наиболее глубоко в теории вероятностей изучены именно независимые
события.
Замечание 2. Из аксиоматического построения вероятности события
следует, что событие случайно, если оно не достоверно и не невозможно. Это
определение через отрицание и из него следует, что имеет смысл говорить о
вероятности как о некотором определенном, но неизвестном нам числе.
16
Утверждение,
что
вероятность
события
А
существует,
нуждается
в
обосновании, а если оно принято в качестве гипотезы, то в последующей
проверке. Это следует учитывать при построении математических моделей
реальных ситуаций.
Рассматривая вероятность события как число из промежутка [0,1], мы
обычно предполагаем в какой его части это число будет находиться. И чем
больше
мы
имеем
информации
о
случайном
событии,
тем
точнее
предположение. Это позволяет нам определить вероятность как меру
возможности (уверенности) появления случайного события.
Именно так Блез Паскаль в письме Пьеру Ферма в 1654 году написал: «Я
считаю более простым и естественным принять степень уверенности в
появлении достоверного события равной единице. Тем самым, возможность
наступления случайных событий соизмеряется с тем, какую часть единицы они
составляют».
Так впервые была формализована связь между случайным событием и
числом, его измеряющим, – вероятностью.
1.2 Элементы комбинаторики
Комбинаторика – раздел математики, занимающийся решением задач,
связанных
с
выбором
и
расположением
элементов
из
некоторой
совокупности.
В классической теории вероятностей комбинаторика, в основном,
используется
идентичными
для
выбора и
свойствами.
подсчета
Кроме
того,
числа
комбинаций
первоначально
событий
с
комбинаторика
применялась для нахождения вероятностей событий, обладающих различного
вида симметриями.
Пример 1. Сколько существует различных k - мерных векторов,
координаты которых составлены из чисел множества А =  1, 2, ..., n .
17
Решение. Будем исходить из того, что два вектора считаются равными,
если соответствующие координаты представлены одинаковыми цифрами, иначе
 различные.
Число различных k -мерных векторов находим следующим образом.
Первой координатой может являться любое из n чисел множества А,
второй - также любое из n чисел, то есть, для каждого фиксированного числа
r  1, 2, ..., n первой координаты имеем n вариантов для второй. Таким образом,
всего имеем n  n = n2 двумерных различных векторов, далее по индукции
получаем, что всего различных k -мерных векторов будет nk.
Пример 2. Сколько существует различных трехзначных чисел?
Решение. Всего цифр десять: 1, 2, 3, 4, 5, 6, 7, 8, 9, 0. На первом месте
может быть любая цифра, кроме нуля, на втором и третьем месте любая из
десяти цифр. Следовательно, всего различных чисел 9  102 = 900.
Пример 3. Сколько существует различных k - мерных векторов, у которых
числовые значения координат , взятых из множества А= 1, 2, ..., n, не
повторяются.
Решение. Аналогично примеру 1, первой координатой может являться
любая из n цифр множества А, второй - любая из оставшихся (n – 1) цифр, не
совпадающей с первой, и т.д. Таким образом, получаем всего
Ank  n  (n  1)  ...  (n  k  1)
различных векторов.
n
В частном случае, при k = n имеем An  n  (n  1)  ...  2  1 различных векторов.
Это число обозначается n!  1 2  3  ...  n  (эн - факториал).
Замечание. Часто n! называют перестановками, так как n! количественно
определяет число различных перестановок элементов, из которых они состоят.
Например, число перестановок трехтомного собрания сочинений равно шести:
(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1), где цифра означает номер
тома.
Пример 4. Сколько существует различных k - мерных векторов, у которых
числовые значения координат, взятых из множества А = 1, 2, ..., n, не только
18
не повторяются, но и их координаты принадлежат различным подмножествам
множества А. Напомним, что два множества считаются различными, если они
отличаются хотя бы одним элементом.
Решение. Пусть х – число таких k - мерных векторов. Возьмем один из
них. Всего существует k! перестановок координат этого вектора. Умножая k! на
k
х, получим число An векторов, удовлетворяющих условию примера 3, но тогда
x  k !  Ank .
Отсюда искомое число векторов равно
x  Ank k !,
или
x
n  (n  1)  ...  (n  k  1)
.
k!
Если k  n, то х = 0.
Каждый из примеров представляет собой достаточно распространенный
способ выбора в комбинаторике.
Мы будем придерживаться «урновой» схемы: имеется сосуд, в котором
находятся n тщательно перемешанных шаров различающихся только своими
порядковыми номерами. Если из урны извлечено k шаров, то будем говорить,
что имеем выборку объема k. Шары из урны извлекаются случайным образом,
подобно лототрону, при этом извлечение шаров может осуществляться с
возвращением или без возвращения.
При выборе с возвращением фиксируется номер шара, а сам он
возвращается в урну; при выборе без возвращения - шар в урну не
возвращается, то есть выборка не содержит повторяющихся шаров.
Итак, из урны последовательно извлекается k шаров. Сколько различных
вариантов выборки объема k можно получить, если выбор осуществляется:
а) с возвращением, и порядок следования шаров в выборке важен. Число
вариантов равно nk . Этот способ называется простым случайным выбором, и
соответствует примеру 1;
19
б) без возвращения, и порядок следования элементов в выборке важен.
Число вариантов равно Ank . Способ выбора называется размещениями. В
соответствие с примером 3, имеем
Ank  n  (n  1)  ...  (n  k  1) ,
при k  n, Ank  0 ;
в) без возвращения, порядок следования элементов в выборке не важен.
k
Способ выбора называется сочетаниями, число вариантов равно Cn и, в
соответствие с примером 4, вычисляется по формуле:
Cnk 
n  (n  1)  ...  (n  k  1)
,
k!
при k  n  Cn  0 .
Рассмотрим несколько частных случаев, имеющих самостоятельное
k
значение.
Определение. Выборкой объема k из n элементов с повторениями
называется такая выборка, в которой любой из k ее элементов может
повториться более одного раза.
Пример 5. Сколько существует размещений с повторениями при выборке
k шаров из n?
Решение. Так как по определению любой из k шаров в размещениях может
быть повторен от 1 до k раз, то всего вариантов выбора есть nk, то есть имеет
место простой случайный выбор (см. пример 1).
Пример 6. Сколько существует сочетаний с повторениями при выборе k
шаров из n?
Решение. Расположим n шаров на прямой и ограничим их слева и справа
вертикальными черточками | 00 ... 0| (шару соответствует 0).
Возьмем еще (k-1) черточку и произвольно распределим черточки между
шарами, причем, между соседними шарами может находиться одна или более
черточек. Интерпретируя две соседние черточки как ящик, получим, что число
шаров между соседними черточками – это число повторных шаров в ящике.
20
Перечисляя возможные расположения (k- 1) черточек между шарами, получим
число сочетаний с повторениями.
Итак, задача свелась к следующей: имеется (n + k - 1) – мерный вектор,
координаты которого состоят из n шаров и (k - 1) черточек. Так как число
способов расположения (k - 1) черточек по (n + k - 1) месту равно Cnkk1 1 (см.
пример 4), то это и есть искомое число вариантов выбора k шаров из n с
повторениями.
Замечание. Формула сочетаний с повторениями используется, например,
при подсчете числа решений (в целых числах, включая ноль) диофантова
уравнения

 xi  n .
i 1
Число m частных производных порядка k от функции n переменных также
вычисляется по формуле m  Cnkk1 1 .
Приведем некоторые свойства сочетаний.
Рассмотрим бином Ньютона
n
(a  b)   Cnk  a k  b n  k ,
n
k 0
(1)
где Cn0  Cnn  1 , 0! = 1.
Благодаря формуле бинома Ньютона, сочетания иногда называют
биномиальными коэффициентами.
Если в (1) а = b = 1, то получаем
n
2n   Cnk ,
k 0
если а = -b, будем иметь
n
0   (1) k  Cnk .
k 0
Если k  n, то для вычисления сочетаний имеем формулу
21
Cnk 
n!
.
k ! (n  k )!
В самом деле,
Cnk 
n  (n  1)  ...  (n  k  1) n  (n  1)  ...  ( n  k  1)  (n  k )!
n!


.▼
k!
k ! (n  k )!
k ! (n  k )!
Отсюда следует, что
Cnk  Cnn  k .
Для любого целого k и n имеем
Cnk 1  Cnk  Cnk1 .
В самом деле,
n!
n!
n!
1
1




 
(k  1)! (n  k  1)! k ! (n  k )! (k  1)! (n  k )!  n  k  1 k 
n! (n  1)
(n  1)!


 Cnk1 .▼
(k  1)! ( n  k )! ( n  k  1)  k k ! ( n  k  1)!
Cnk 1  Cnk 
Пример 7. В урне находятся n пронумерованных шаров, из которых k
красные и (n - k) черные. Наудачу выбираем без возвращения r шаров. Сколько
различных выборок объема r можно получить, если среди выбранных r шаров s
– красных?
Решение. Разделим урну условно на две половины так, что в одной
находятся k красных шаров, а в другой (n - k) черных. Среди k красных шаров s
шаров можно выбрать Cks способами, а среди (n - k) черных шаров (r – s) шаров
r s
можно выбрать Cn  k способами. Поскольку на каждую фиксированную
r s
выборку красных шаров приходится Cn  k выборок черных, то всего выборок
s
r s
объема r будет Ck  Cn  k , s  0, 1, ..., r .
Замечание. Если в предыдущей задаче мы выбирали бы r шаров из n без
учета их цвета, то всего различных выборок было бы Cnr . С другой стороны,
22
если учесть все возможные варианты выбора красных шаров s, то получаем, что
всего их будет
r
 C ks C nr ks .
s 0
Таким образом, имеем формулу
r
C C
s 0
s
k
r s
nk
 Cnr .
1.3 Вычисление вероятностей событий
Для вычисления вероятности Р А события А   необходимо построить
математическую модель изучаемого объекта, которая содержит событие А.
Основой модели является вероятностное пространство (,ℱ,Р), где  пространство элементарных событий , ℱ – класс событий с введенными над
ними операциями композиции, р = Р {A} – вероятность любого события А,
имеющего смысл в  и входящего в класс событий ℱ 25. Если, например,
A  i1 , i2 ,...,im  , то
из
аксиомы
3,
вероятностей,
следует,
что
 
p   P i j .
m
j 1
Таким
образом,
вычисление
вероятности
события
А,
сведено
к
вычислению вероятностей элементарных событий, его составляющих, а так как
они являются «базовыми», то методы их вычисления не обязаны зависить от
аксиоматики теории вероятностей.
Здесь рассмотрены три подхода к вычислению вероятностей элементарных
событий:
1) классический;
2) геометрический;
3) статистический или частотный.
23
1.3.1 Классический метод вычисления вероятностей
Из аксиоматического определения вероятности следует, что вероятность
существует для любого события А  , но как ее вычислить, об этом ничего не
говорится, хотя известно, что для каждого элементарного события i
существует вероятность рi, такая, что сумма вероятностей всех элементарных
событий пространства  равна единице, то есть
 P     p
i
i 1
i 1
i
 1.
На использовании этого факта основан классический метод вычисления
вероятностей случайных событий, который в силу своей специфичности, дает
способ нахождения вероятностей этих событий непосредственно из аксиом.
Пусть дано фиксированное вероятностное пространство (,ℱ,Р), в
котором:
а)  состоит из конечного числа n элементарных событий,
б) каждому элементарному событию i поставлена в соответствие
вероятность
P  i  
1
, i  1, 2,..., n .
n
Рассмотрим событие А  , которое состоит из m элементарных событий:
A  i1 , i2 ,...,im  , тогда из аксиомы 3 вероятностей, в силу несовместности
элементарных событий, следует, что
m
 
P  A   P i j 
j 1
m
.
n
Тем самым имеем формулу
P A 
m
,
n
(2)
которую можно интерпретировать следующим образом: вероятность событию
А
произойти
равна
отношению
числа
элементарных
событий,
24
благоприятствующих появлению событию А, к числу всех элементарных
событий из .
В этом суть классического метода вычисления вероятностей событий.
Замечание. Приписав одинаковую вероятность каждому из элементарных
событий пространства , мы, с одной стороны, имея вероятностное
пространство и опираясь на аксиомы теории вероятностей, получили правило
вычисления вероятностей любых случайных событий из пространства  по
формуле (2), с другой стороны, это дает нам основание считать все
элементарные события равновозможными и вычисление вероятностей любых
случайных событий из  свести к «урновой» схеме независимо от аксиом.
Из формулы (2) следует, что вероятность события А зависит только от
числа элементарных событий, из которых оно состоит и не зависит от их
конкретного содержания. Таким образом, чтобы воспользоваться формулой (2),
необходимо найти число точек пространства  и число точек, из которых
состоит событие А  , но тогда это уже задача комбинаторного анализа.
Рассмотрим несколько примеров.
Пример 8. В урне из n шаров - k красных и (n - k) черных. Наудачу
извлекаем без возвращения r шаров. Какова вероятность того, что в выборке из
r шаров s шаров – красных?
Решение. Пусть событие {А}  {в выборке из r шаров s - красных}.
Искомая вероятность находится по классической схеме, формула (2):
P  A 
m
,
n
где n~ - число возможных выборок объема r, которые различаются хотя бы
одним номером шара, а m – число выборок объема r, в которых s шаров
красных. Для n~ , очевидно, число возможных вариантов выборки равно Cnr , а
s
r s
m, как следует из примера 7, равно Ck  Cn  k . Таким образом, искомая
вероятность равна
P  A  Cks  Cnr ks Cnr .
25
Пусть дан набор попарно несовместных событий As, s  0, 1, ..., r ,
образующих полную группу, тогда
r
 P A   1 .
s
s 0
В этом случае говорят, что имеем распределение вероятностей событий As.
Распределения вероятностей является одним из фундаментальных
понятий современной теории вероятностей и составляет основу аксиомами
Колмагорова.
Определение. Распределение вероятностей
P  A  Cks  Cnr ks Cnr ,
s  0, 1, ..., r ,
(3)
определяется гипергеометрическое распределение.
Боровков А.А. в своей книге [2] на примере формулы (3) поясняет природу
задач теории вероятностей и математической статистики следующим образом:
зная состав генеральной совокупности, мы с помощью гипергеометрического
распределения можем выяснить, каким может быть состав выборки – это
типичная задача теории вероятностей (прямая задача). В естественных науках
решают обратную
задачу:
по
составу выборок, определяют природу
генеральных совокупностей – это обратная задача, и она, образно говоря,
составляет содержание математической статистики.
Обобщением
полиномиальные
биномиальных
коэффициенты,
коэффициентов
которые
своим
(сочетаний)
названием
являются
обязаны
разложению полинома вида
n
 k 
A  r1 , r2 ,..., rk   a1r1  a2r2  ...  akrk ,

  ai  
 i 1  r1  r2 ... rk  n
где
A  r1 , r2 ,..., rk  
по степеням слагаемых.
n!
,
r1 ! r2 ! ...  rk !
(4)
26
Полиномиальные коэффициенты (4) часто применяются при решении
комбинаторных задач.
Теорема. Пусть имеется k различных ящиков, по которым раскладываются
пронумерованные шары. Тогда число размещений шаров по ящикам так, чтобы
 k

в ящике с номером r находилось ri шаров, i = 1,2,…k,   ri  n  , определяется
 i 1

полиномиальными коэффициентами (4).
Доказательство. Поскольку порядок расположения ящиков важен, а
шаров в ящиках - не важен, то для подсчета размещений шаров в любом ящике
можно воспользоваться сочетаниями.
В первом ящике r1 шаров из n можно выбрать C nr1 способами, во втором
r
ящике r2 шаров, из оставшихся (n - r1) можно выбрать C n2 r способами и так
1
r
далее, в (k – 1) ящик rk-1 шаров выбираем Cnk1( r1  r2 ... rk 2 ) способами; в ящик k –
k 1
оставшиеся rk  n   ri шаров попадают автоматически, одним способом.
i 1
Таким образом, всего размещений будет
Cnr1  Cnr2 r1  ...  Cnrk1r1 ... rk 2 

n! (n  r1 )! ...  (n  r1  ...  rk  2 )!

r1 ! (n  r1 )! r2 ! (n  r2 )! ...  rk 1 ! (n  r1  ...  rk 1 )
n!
.
r1 ! r2 ! ...  rk ! ▼
Пример. По n ящикам случайно распределяются n шаров. Считая, что
ящики и шары различимы, найти вероятности следующих событий:
а) все ящики не пустые = А0;
б) один ящик пуст = А1;
в) два ящика пустых = А2;
г) три ящика пустых  = А3;
д) (n-1) – ящик пуст = А4.
Решить задачу для случая n = 5.
27
Решение. Из условия следует, что распределение шаров по ящикам есть
простой случайный выбор, следовательно, всех вариантов nn.
Прежде, чем считать благоприятные варианты, опишем общий подход к их
нахождению. Расположим (в порядке возрастания номеров) ящики, в которых
находятся неразличимые шары, например,
333221…1.
Эта последовательность означает, что в первом, втором и третьем ящиках
по три шара, в четвертом и пятом по два шара, в остальных (n – 5) ящиках по
одному
шару.
Всего
таких
размещений
шаров
по
ящикам
будет
n! (3! 2! (n  5)!) . Так как шары на самом деле различимы, то на каждую
такую комбинацию будем иметь n! (3! 3! 3! 2! 2!) размещений шаров. Таким
образом, всего вариантов будет (n! n!) (3! 2! (n  5)! 3! 3! 3! 2! 2!) .
Переходим к решению по пунктам примера:
а) так как в каждом ящике находится по одному шару, то имеем
последовательность 111…11, для которой число размещений равно n!/ n! = 1.
Если шары различимы, то имеем n!/ 1! размещений, следовательно, всего
вариантов m = 1n!= n!, отсюда
P A0  
n!
n
n
.
б) если один ящик пуст, то какой-то ящик содержит два шара, тогда имеем
последовательность 211…10, для которой число размещений равно n!  (n-2)!.
Так как шары различимы, то для каждой такой комбинации имеем n!/ 2!
размещений. Всего вариантов
m
n! n!
 n! Cn2 ,
2! ( n  2)!
тогда
P A1  
n!C n2
nn
.
28
в) если два ящика пусты, то имеем две последовательности: 311…100 и
221…100. Для первой число размещений равно n!/ (2!  (n – 3)!). На каждую
такую комбинацию имеем n!/ 3! размещений шаров. Итак, для первой
последовательности, число вариантов равно
k1 
n!
n! n!
   C n3 .
2! (n  3)! 3! 2!
Для второй последовательности всего вариантов будет
n!4!C n4
n!
n!
k2 


.
2!2!(n  4)! 2!2! 2!2!2!2!
Окончательно имеем
4
n!C n
n!
.
m  k1  k 2   C n3  3 
2!
2!
Отсюда
P A2  

C n3  3C n4 .
n
n!
2! n
г) для трех пустых ящиков будет три последовательности: 411…1000, либо
3211…1000, либо 22211…1000.
Для первой последовательности имеем
k1  n! /(3!(n  4)! )  n! / 4! 
n! 4
Cn .
3!
Для второй последовательности
k2  n!/(3! (n  5)! n!/ 3! 2! 
n! 5 5!
 Cn 
.
3!
3! 2!
Для третьей последовательности получаем
n!C n6  6!
k 3  n! /(3!3!(n  6)! )  n! / 2!2!2! 
.
3!3!2!2!2!
Всего вариантов m = k1 + k2 + k3 ,
или
29
C n6  6! 
n!  4
5
3
m
C n  C n  C5 
.
3! 
3!2!2!2! 


Искомая вероятность равна
n! (C n4  C n5  C53  15C n6 )
.
P A3  
n
3!n
д) если (n -1) ящик пуст, то все шары должны находиться в одном из
ящиков. Очевидно, что число комбинаций равно
m
n!
n!
  n.
(n  1)! n!
Соответствующая этому событию вероятность равна
P A4  
n
nn

1
n n1
.
При n = 5, имеем
P  A0  
5! 24

,
55 625
5! C52 48
P  A1  5 
,
5
125
P  A2  
5!
12
C 3  3C54  
,
5  5
2! 5
25
P  A3 
5!
12
4
5
3
C

C

C



,
5
5
5
3! 55
125
P  A4  
5
1

.
55 625
Заметим, что при n = 5 события Аi должны образовывать полную группу,
что соответствует действительности. В самом деле
4
24
48
12
12
1
 P  A   625  125  25  125  625  1.
i 1
i
30
1.3.2 Геометрический метод вычисления вероятностей
Недостаток классического метода вычисления вероятностей в том, что он
рассматривает конечное число равновозможных событий.
И если можно еще этот метод расширить на счетное число событий, то на
большее его возможностей недостаточно. Однако идеи классического метода
можно использовать на геометрических образах и, тем самым, рассматривать
несчетные множества событий.
Пусть дана область Dn из пространства Rn, n = 1, 2, 3, с определенной на
ней мере – mes Dn (мера прямой – длина, мера плоскости – площадь, мера
пространства – объем).
В области Dn выделяется часть Аn (вообще говоря, неодносвязная) с
мерой mes Аn.
В область Dn наудачу бросается точка. Какова вероятность того, что эта
точка попадет в область Аn? Считая, как и при классическом подходе,
попадание точки в область, пропорциональной только ее мере, будем иметь
mes An


P A 
,
mes D n
где область Dn соответствует пространству элементарных событий , с той
разницей, что Dn не нормирована.
Пример 1. Вычислить вероятность того, что для наудачу взятого значения
2
х    ), значение y  0,5  sin x существует.
Решение. Обозначим через А искомое событие, а его геометрический
~
2
1
образ через А . Значение у существует, если 0,5  sin x  0 , то есть sin x 
,
2
для х     .
В силу симметрии, в качестве области D достаточно взять промежуток
0], тогда mes D =  - 0 = .
31
sin x
1
1
2
0
/4
/2
х

3/4
Рис. 1
Из
рис.
1
видно,
что
область
~     3  
А  0;    ;    ,
 4   4  
тогда

 
~
 0,5 .
mes A    2  . Окончательно, P  A 
2

4 2
Пример 2 (Парадокс Бертрана). Наудачу берется хорда в круге. Чему
равна вероятность того, что ее длина
превосходит длину стороны вписанного
равностороннего треугольника (событие А)?
Решение 1. Из соображений симметрии, не нарушая общности, зададим
направление хорды (рис. 2а).
600
х
600
а
х
600
а)
б)
Рис. 2
Проведем
диаметр
длиной
d,
перпендикулярный
этому
направлению.
Очевидно, что эти и только эти хорды, пересекающие диаметр в промежутке
32
 d 3d 
 4 ; 4  , будут превосходить стороны правильного треугольника. В самом
деле, сторона правильного треугольника а = d 3 / 2 , длина хорды находится из

3d d
пропорции:   3d / 4   d 4   / 2 . Таким образом P  A     d  0,5 .
 4 4
2
Решение 2. Из соображений симметрии, закрепим один конец хорды на
окружности. Касательная к окружности в этой точке и две стороны
правильного
треугольника
образуют
углы
по
600
каждый.
Задаче
удовлетворяют только хорды, попадающие в средний угол, а это третья часть
окружности. Отсюда РА  1 3 .
Решения задачи дают разные ответы, хотя логических противоречий нет.
Суть в том, что в задаче не определено понятие проведения хорды наудачу. Так
какой ответ верный?
Очевидно тот, который учитывает все возможные ситуации, то есть
имеющий
наибольшую
вероятность.
Ясно,
что
если
будет
построен
геометрический аналог, с вероятностью превосходящей 0,5, то и ответ будет
другой. Ответ P A  0,5 .
Второе решение, с точки зрения теории вероятностей, дает результат для
более частной задачи.
1.3.3 Статистическое определение вероятности
Классический и
геометрический
методы
вычисления вероятностей
событий представляют собой теоретическую схему, которая основывается на
аксиомах теории вероятностей, и, тем самым, не зависит от реального объекта
исследования.
Для применения этих методов необходимо владеть всей информацией о
возможных исходах эксперимента (пространство ). На практике мы далеко не
всегда можем описать пространство , даже в случае равновозможности
элементарных событий.
33
Например,
вычислить
вероятность
всхожести
семян
практически
невозможно, если использовать классический подход, поскольку трудно
пересчитать количество зерен для посадки, да и размеры зерен влияют на их
всхожесть. Можно говорить лишь о приближенных значениях вероятности
всхода семян, определяя приближенно их среднее количество на единичном
участке поля.
Рассмотрим вновь пример с подбрасыванием монеты. Пусть у нас есть
основание считать монету несимметричной. Тогда, никакие соображения
относительно вероятности выпадения герба не будут иметь решающего
значения, кроме как проведение испытаний. Естественно возникает вопрос:
чему равна вероятность выпадения герба для этой монеты? Пусть при n = 1000
подбрасываний, герб выпал 450 раз, тогда доля выпадений герба составила
0,45. Отклонение от 0,5 всего 5%. Много это или мало? Можно ли считать
монету симметричной?
Ответ на эти вопросы может дать статистический метод вычисления
вероятностей событий.
Пусть проведено n испытаний, в которых событие А появилось m раз.
Определение. Доля числа случаев, в которых событие А появилось,
называется частотой появления события А и вычисляется по формуле
Wn ( A) 
m
.
n
(5)
Говоря о частоте, прежде всего, считают, что результат любого испытания
заранее не предсказуем; учитываются только те результаты, которые мы
ожидали получить. Если появился новый результат, то мы должны
предполагать, что он возник из равноценных начальных условий и одних и тех
же начальных знаний.
Испытания должны быть независимыми, в том смысле, что, во-первых,
каждое повторное испытание проводится при одном и том же комплексе
начальных условий (строго говоря, испытания не могут быть повторены в
точности, поэтому мы должны так ставить эксперименты, чтобы они казались
34
нам одинаковыми), во-вторых, результатом эксперимента являются два исхода:
событие А появилось и событие А не появилось.
Частота должна быть устойчива, то есть, при достаточно большом числе
испытаний, значения частоты подвержены малым колебаниям, которые тем
меньше, чем больше число испытаний.
Определение. Число р, к которому сходится частота, при неограниченном
увеличении числа испытаний, называется статистической вероятностью, то
есть
p  limWn  A  ,
n
где р = Р{А} – вероятность события А.
Данное определение требует комментариев. Обычно, еще до проведения
испытаний, в зависимости от глубины наших знаний об объекте, мы ожидаем
получить конкретный результат. Поскольку число испытаний всегда конечно,
то за вероятность события А мы принимаем либо значение частоты, либо число
близкое к нему (в частности, то которое мы ожидали получить). Таким образом,
значение вероятности события А, полученное статистическим методом, зависит
от двух факторов: частоты и субъективных знаний об объекте исследования.
Например, при достаточно большом числе испытаний с подбрасыванием
монеты, незначительными отклонениями значений частоты от 0,5 можно
пренебречь, если нет оснований, считать монету несимметричной, либо это
отклонение не может существенно повлиять на конечный результат.
Недостаток статистического определения вероятности в том, что
алгоритм ее вычисления не дает ответа на основной вопрос: «Является ли
принимаемое нами значение вероятности события А ее истинным значением?».
Поэтому возникает ощущение того, что вероятность не является объективной
характеристикой случайного события.
Тем не менее, статистический метод является наиболее общим и
универсальным подходом к вычислению вероятностей случайных событий.
Например, для подтверждения симметричности монеты, Д' Бюффон подбросил
35
ее 4040 раз (2048 раз выпал герб), Пирсон провел 24000 испытаний (12012 раз
выпал герб).
1.3.4 Условная вероятность
Пусть имеем вероятностное пространство – (ℱ,Р) и события А, В  ,
произвольны, причем Р В .
Определение. Условной вероятностью
P A / B называется число,
определяемое формулой:
P  A / B 
P  A  B
P  B
, P B  0 .
(6)
событие А произойдет, при условии, 
Следует читать: A / B  

 что В произошло.

Формула (6) считается определением, ниоткуда не выводится и является
отражением здравого смысла. Поясним это на примере геометрического
изображения событий (рис. 3).
A
m-r
r

В
k-r
АВ
Рис. 3
Пусть пространство  состоит из n ( m+k) точек, равноправных между
собой. Событие А насчитывает m точек, событие В - k точек и событие А  В – r
точек. По определению, событие происходит, если в результате эксперимента
реализовалась какая - либо из точек, составляющих это событие. Для условной
вероятности (6), фраза: «Событие А произойдет при условии, что В
36
произошло»,- означает, что должна реализоваться одна из точек события А  В,
где событие В играет роль вероятностного пространства. Следовательно,
P A / B – есть оценка доли участия события А в реализации события В, то
есть
P  A B 
r
.
k
С другой стороны, если рассматривать все пространство , то
P A
B 
r
k
, P  B  .
n
n
По формуле (6) получаем
r k r
P  A B       .
n n k
Теорема умножения. Пусть А, В  , тогда
Р А  В} = P {B} Р А / В} = P {А} Р В / А}.
(7)
Доказательство. Если Р B  , то (7) сразу следует из (6). Если же
РB=0, то Р А  В} = 0 и, следовательно, (7) тривиально.▼
Определение. События А, В   независимы, если
Р А / В} = P {А}.
(8)
В самом деле, для независимых событий, по определению, имеем
Р А  В}= P {А} P {B}.
Делая в (7) замену по формуле (8), получаем эквивалентность определений
независимости событий.
Определение. События независимы в совокупности, если
n  n
P  Bk    P Bk  .
 k 1  k 1
Замечание. Попарной независимости событий (см. аксиому 3 вероятности)
недостаточно для независимости их в совокупности (пример Бернштейна [2]).
37
1.4 Формула полной вероятности и формула Байеса (Bayes)
Формула полной вероятности
Пусть (ℱ,Р) произвольное вероятностное пространство, в котором
события А, В1, В2, ..., Вn  , удовлетворяют условиям:
1) события Вk, k = 1, 2, …, n, попарно несовместны, то есть
Вi Bj = ,  ij, i, j = 1, 2, …, n;
2) событие А происходит с одним, и только одним, из событий Вk, то есть
n
A
(A
Bk ) ;
k 1
тогда имеет место формула полной вероятности
n
P  A   P{Bk }  P{ A / Bk ) .
(9)
k 1
Доказательство. Имеем A 
n
(A
Bk ) , так как события ( A B1 ) , …, ( A Bn )
k 1
попарно несовместны, то по аксиоме 3:
n


P A  P  A
 k 1
 n
Bk     P{ A
 k 1
Bk ) .
Применяя теорему умножения получим
P A   PBk }P{A / B k }.▼
n
k 1
Замечание. События В1, В2, ..., Вn называют априорными гипотезами
(apriory), и обычно, в литературе, на них накладывают еще дополнительное
условие - они образуют полную группу событий [4]. Это условие не является
обязательным, хотя и методически оправдано, в том смысле, что при решении
задач, в целях проверки правильности выбора гипотез, должно выполняться
38
n
 P{Bk }  1.
k 1
На
самом
деле
для
гипотез
Вk
выполняется
неравенство
n
P  A   P{Bk }  1 .
k 1
Если заранее о вероятностях гипотез Вk,, ничего неизвестно, то каждой из n
гипотез Вk приписывается одинаковая вероятность n-1.
Вышесказанное в замечании проиллюстрируем рисунком.
Пусть событие А область, представляющая собой круг малого диаметра
(рис. 4) пространства .
В2
В1
А
В3
В4

Рис. 4
Под гипотезами Вk, k =1,2,3,4, можно считать области
а) из которых состоит событие А (как на рис. 4),
тогда
4 
P  Bk   P  A ,
 k 1 
б) являющиеся секторами большого круга, граница которого помечена
пунктиром, тогда
4 
P  A  P  Bk   1 ,
 k 1 
39
в) являющиеся треугольниками, из которых состоит пространство ,
тогда
4  4
P  Bk    P Bk  1 .
 k 1  k 1
В последнем случае несовместные события Вк образуют полную группу.
Пример. Применяя формулу полной вероятности, вычислить вероятность
того, что при подбрасывании симметричного кубика выпадет четная грань.
Решение
1.
Вероятностное
пространство
  1,2 ,...,6 ; ℱ - множество всех
(ℱ,Р)
дискретное,
подмножеств пространства ,
Pi   1 6 , i = 1, 2, …, 6.
Пусть А = {2, 4, 6  - выпадение четной грани, А  ℱ. В2i ( ℱ) –
выпадение грани с цифрой 2i, i = 1, 2, 3, РB2i   P 2i .
Заметим, что здесь
3
 P B   1/ 2
i 1
2 i
 1. Далее, P   2i= 1, i = 1, 2, 3.
Применяя (9), получаем
Р {A} =
1
1
1
1
1  1  1  .
6
6
6
2
Решение 2. Положим В2 = 2 В4 = 4, В6 = 1, 3, 5, 6.
Тогда Р{B2} =
3
2
1
1
, P{B4}= , P{B6} = , (здесь  B 2i = 1),
6
6
3
i 1
Р {A / B2 } = Р {A / B4 }= 1, Р {A / B6 }=
1
.
4
Применяя (9), получим
Р {A} =
1
1
2 1 1
1  1    .
6
6
3 4 2
Пример показывает, что для гипотез достаточно, что их объединение содержит
n
хотя бы те точки, из которых состоит событие А, то есть А 
k 1
Bk .
40
Формула Байеса
Пусть события А, В1, ... , Вn   , удовлетворяют условиям, необходимым
для получения формулы (9), тогда имеет место формула Байеса
P  Bk A 
P{Bk }  P  A Bk 
n
 P{B }  P  A B 
k 1
k
, k  1, 2,..., n .
(10)
k
Доказательство. Рассмотрим правую часть формулы (7) теоремы
умножения вероятностей, предварительно положив B  Bk , k = 1, 2, ..., n:
PBk   P A Bk   P{A}  PBk A .
Отсюда
P  Bk A 
P  Bk   P  A Bk 
P  A
.
n
Учитывая, что P  A   P  Bk   P  A Bk  , получаем (10). ▼
k 1
Вероятности
PBk A ,
k  1, 2,..., n ,
называют
апостериорными
вероятностями гипотез Вk, поскольку оценка происходит после того, как
событие А произошло.
Пример. Студенту предложили карточку с пятью вариантами ответов,
причем лишь один правильный. Пусть студент правильно решит задачу с
вероятностью р и неверно с вероятностью 1 - р = q. Будем считать, что в этом
случае в ответе студент напишет любой из пяти вариантов с вероятностью k =
= 5-1. Известно, что студент получил верный ответ. Какова вероятность того,
что он его угадал (событие А)[2].
Решение. Пусть {В1}~{студент правильно решает задачу}, {В2}~
{неверно}. Требуется найти PB2 A .
Имеем Р {B1} = p, P {B2} = 1 – p = q. Далее
P  A B1  1 , P A B2  k 1  51 .
41
Используя формулу (10), получаем
P  B2   P  A B2 
(1  p)  k 1
1 p
P  B2 A 



P  B1  P  A B1  P B2   P  A B2  p  1  (1  p )  k 1 (k  1)  p  1

1 p
.
4p 1
1.5 Независимые испытания
(формула Бернулли)
Независимые испытания называются испытаниями Бернулли, если их
можно повторить любое число раз при одних и тех же условиях, причем
каждый раз возможно лишь два исхода: появление события А или события А и
вероятности исходов испытаний не изменяются. Испытания Бернулли – схема
теоретическая, и поэтому ее пригодность к описанию опыта должна быть
обоснована.
Пусть известна вероятность появления события А (при соблюдении
комплекса заданных условий), то есть Р {A} = р. Положим Р{ А }= q, q = 1 - p.
Провели n независимых испытаний. Какова вероятность того, что событие А
появилось ровно k раз, k = 0, 1, 2, …, n?
Построим
вероятностное
пространство
(ℱ,P).
Любая
точка
(элементарное событие) пространства элементарных событий  представляет
собой n – мерный вектор, каждая координата которого есть 1 или 0 (1появилось событие А, 0 – событие А). Очевидно, что число точек пространства
 равно 2n. Класс ℱ - множество всех подмножеств пространства .
Фиксируем k. Нас интересуют только те точки пространства, которые состоят
из векторов, содержащих k единиц и n – k нулей. По теореме умножения
вероятностей каждая такая точка (вектор) имеет вероятность рkqn-k. Число
точек, очевидно, равно числу способов, которыми можно расположить k единиц
по n местам. Как известно, это число равно C nk . По теореме сложения
вероятностей для несовместных событий, получаем формулу Бернулли:
42
Pn (k )  Cnk  p k  q n  k , q = 1 – p , k =0, 1, …, n.
(11)
Каждой точке пространства  соответствует вероятность, вычисляемая по
k
nk
формуле p  q , k =0, 1, …, n. Для фиксированного k имеем C nk точек
пространства . Следовательно, всего точек в  будет С n0  C n1  ...  C nn  2 n .
Наконец, Р {}= 1, что следует из равенства
n
C
k 0
k
n
 p k  q n  k  ( p  q ) n  1.
(12)
n
n
k
nk
k
Здесь использован бином Ньютона (a  b)   Cn  a  b , поэтому
k 0
формулу (11) часто называют биномиальным распределением.
Таким образом, мы не только вывели формулу Бернулли (11), но и
построили события, являющиеся элементарными для нового вероятностного
пространства, удовлетворяющего аксиомам 1-3 вероятности.
Из формулы (11), в частности, следует, что вероятность того, что А не
появится ни в одном из n испытаний, равна qn, а вероятность того, что А
появится хотя бы раз, равна 1 – qn.
В самом деле, получаем из (12), с учетом (11):
n
 P (k )  1  P (0)  1  q
k 1
n
n
n
.▼
k
k
n k
Покажем, что при n , для любого фиксированного k, Cn  p  q  0 .
В самом деле, при каждом фиксированном k
Cnk  p k  q n  k 
n  (n  1)  ...  ( n  k  1) k
 p  (1  p) n  k .
k!
Разделим числитель и знаменатель на nk, тогда
Cnk  p k  q n  k
Введем обозначения
k
k
 1
 k  1  p  n  1  p 
 1  1    ...  1 

n
n
k!




nk
.
43
p k  1  p 
b
k
k!
1
, a  1  p  , где a  1.
Тогда имеем
C  p q
k
n
k
nk
nk
 1
 k 1
 1  1    ...  1 
b n
n 
a
 n

nk
 b  n  0,
a
nk / a n  0 , а b - постоянная.▼
так как nlim

Учитывая формулу (12) и доказанное утверждение, замечаем, что каждый
член суммы
n
C
k 0
k
n
 pk  qnk
убывает, при n , хотя сама сумма всегда равна единице. Так как слагаемые
суммы имеют разные значения, то интерес представляет тот индекс k = k0, для
k
k
nk
которого Cn  p  q
имеет максимальное значение.
k
k
nk
Легко показать, что, функция Pn (k )  Cn  p  q
аргумента k, имеет
один максимум. Тогда для нахождения k0 можно рассмотреть отношение:
Pn (k )
Cnk  p k  q n  k
(n  k  1)  p
 k 1 k 1 n  k 1 
.
Pn (k  1) Cn  p  q
k q
Далее
p
(n  1) p  k
n  k  1 (n  1) p  kp (n  1) p  k  kq
.


1
kq
kq
kq
kq
Возможны ситуации: Pn(k)  Pn(k-1), тогда (n+1)p  k;
Pn(k)  Pn(k-1), тогда (n+1)p  k;
Pn(k) = Pn(k-1), тогда (n+1)p = k.
Последнее выполняется, если (n+1)p – целое.
Таким образом, имеем (n+1)p -1 k0  (n+1)p,
или
 (n  1) p,
k0 = 
 [(n  1) p],
где [x] – целая часть числа х
если (n  1) p  целое,
если (n  1) p  не целое,
(13)
44
Число k0 - называется наивероятнейшим числом.
Если (n+1)p - целое, то имеем второе значение k0 = (n+1)p - 1 = np.
Пример 1. Вероятность того, что база уложится в данный день недели в
норму расходов, равна ¾. Какова вероятность того, что она уложится в норму
расходов в каждый из пяти дней недели?
Решение. Считая, что расходы базы практически не зависят от выбранного
дня недели, воспользуемся формулой Бернулли (11). Имеем n = 7, р = ¾ , k = 5.
Тогда искомую вероятность можно обозначить как Р7(5). Имеем
Р7 5
3
 С 75  
5
2
1
5
7
   21  3 / 4  0,311 .
4 4
Пример 2. Вероятность изготовления бракованной детали на станке равна
0,01. Найти вероятность того, что из 5000 деталей, изготовленных на станке
а) ровно 50 деталей бракованных,
б) бракованных деталей не более 50.
Решение. Из смысла задачи можно считать, что детали изготовлены
независимо друг от друга. Воспользуемся формулой Бернулли, где n = 5000,
р = 0,01, q = 0,99.
50
50
4950
 0,0572 .
Имеем для а) P5000 (50)  C5000 (0,01) (0,99)
50
k
k
5000  k
 0,5033 .
б) P5000 0  k  50   C5000 (0,01) (0,99)
k 0
Чтобы получить числовые значения искомых вероятностей, требуется
применение технических средств. Однако, если вычислять вероятности Рn(k)
непосредственно, то при больших k (или близких к нулю) их значенния будут
ничтожно малы. Поэтому удобно пользоваться рекуррентными формулами.
Для этого находим наивероятнейшее число k0 = 51, при котором значение
вероятности Р5000(51) максимальное. Затем, используя рекуррентные формулы:
P5000 (k  1)  ((n  k  1) / k  q)  P5000 (k ) , k = 51, 50, …, 1, получаем требуемые
значения вероятностей.
45
Видно, что вычисление вероятностей, непосредственно по формулам, при
больших n, k, задача трудновыполнимая, если не пользоваться техническими
средствами. Числовые значения вероятностей можно получить легче, если
воспользоваться приближенными методами.
Решение задачи получим из следующих теорем, доказательство которых
можно найти, например, в [2,5].
1.6 Локальная теорема Муавра – Лапласа
Теорема. Пусть в n независимых испытаниях, вероятность появления
события А постоянна и равна р (0  р  1), тогда имеет место асимптотическая
оценка
Pn (k )  Cnk  p k  q n  k 

n 
1
 ( x) ,
npq
(14)
где
x

2
k  np
1

x

(
x
)


exp
,
2
npq
2

Доказательство теоремы сразу следует из центральной предельной
теоремы, которая рассматривается в части 3 (п. 3.2).
Справедливость формулы (14) проиллюстрирована на рис. 5.
Рис. 5
Изобразим координаты (k, Рn(k)) звездочками. Функцию Рn(k) аргумента k,
можно приблизить, в соответствии с формулой (14):
46
 ( x) 
1
exp  (k  np)2 /(2npq)  ,
2 npq
где np – координата центра тяжести (среднее значение), а
npq характеризует
меру «сжатости» около центра np.
Делая
замену
x  (k  np)
npq , мы преобразуем произвольную
функцию ~( x) к стандартной (х), у которой координата центра тяжести np = 0,
npq  1. Из рисунка видно, что при n , Pn (k )  0 (при этом всегда
а
n
 P (k )  1 )
k 0
n
ошибка уменьшается. Для удобства вычислений, функция (х)
табулирована (см. приложение, табл. 3). Сама функция называется кривой
Гаусса [5]. Функция (х) – четная, (х)   при х  , (х) 10-4, при х  5,
max ( x)  1 / 2  0,3989 .
x
1
Для практических приложений (при n  10, р  ) используют формулу
2
Cnk  p k  q n  k 
 k  np 
1
 
.
npq  npq 
(15)
Пример. Решить пример п 1.5, а).
Решение. Имеем
50
P5000 (50)  C5000
 (0,01)50  (0,99) 4950 
k = 50, np = 50,
 k  np 
1
 
,
npq  npq 
npq  50  0,99  7,04 .
Итак,
P5000 (50) 
1
 (0)  
7,04

по табл. 3  0,3989
для (х)  = 7,04

 0,057 .
47
1.7 Интегральная теорема Муавра-Лапласа
Теорема. Пусть в n
независимых испытаниях вероятность появления
события А в каждом испытании постоянна и равна р, 0 р  1, тогда, для любых
-  а  b  , равномерно относительно а, b, при n  , имеет место
асимптотическая оценка
k2
C
P k1  k  k2  
где х - кривая Гаусса, a 
Функция  ( x) 
2
 p q
k
nk
b

   ( x )dx ,
n 
(16)
à
k2  np
k1  np
b

,
.
npq
npq
x
1
k  k1
k
n
e

t2
2
dt называется функцией Лапласа.

Так как Рn  k  n = 1 для любого n , то из (16) должно следовать, что
1
 () 
2

e

t2
2
dt  1 .

2
 t
e 2 dt , тогда
В самом деле, положим ℑ 


2



t
x
t
  t 



2
2
2
ℑ2    e dt   4 e dt   e dx  4 e
0
0
0 0
 

2
2
2
2
 x2
2
dtdx .
Введем полярные координаты:
t  r cos , x  r sin  ,   0, 2 , r  0 , dtdx  rdrd .
Отсюда

2
ℑ2 = 4 re
0 0
Пуассона.

r2

2
2

0
0
drd  4 d   e

r2
2
rdr  2  1  2 , ℑ=
2
- интеграл
48
Следовательно,  () 
1
 2  1 .▼
2
Для практических приложений вместо (16) используют формулу:
Р k1  k  k2 Ф (в ) – Ф (а ),
(17)
где
a
k2  np
k1  np
b

,
.
npq
npq
Учитывая, что Ф (+) = 1, легко получить Ф (х) + Ф (-х) = 1.
В самом деле, пусть х  0, тогда  ( x) 
x
  (t )dt ,
а  (  x) 

x
  (t )dt 

х

замена



    .
 у   х, dx  dy
 х
Отсюда
Ф (х) + Ф (-х) =
Функция  ( x) 
x


х
    1.
1
2
x
e

t2
2
dt - табулирована, ее значения приведены в

табл. 4 приложения.
Таблица составлена для х  , а для х  , значения находятся по формуле
Ф (х) + Ф (-х) = 1.
Пример. Решить пример п 1.5, б).
Решение. Имеем
50
k
P5000 0  k  50   C5000
(0,01) k  (0,99)5000  k   (b)   (a) ,
k 0
a
0  50
50  50
 7 , b 
 0.
7,07
7,07
По табл. 5 приложения находим
 (0)   (7)  0,5  0,0  0,5 .
49
Отсюда P5000 0  k  50  0,5 .
Сравнивая решение задачи п.1.5. а), б), можно предположить, что, так как
k  50 – наивероятнейшее число, с большой вероятностью реализуется
событие  40  k  60, с центром в точке k0:
P5000 40  k  60  0,037  20  0,7 .
Заметим, что
npq характеризует средние отклонения от среднего значения np
(чем меньше
npq , тем «круче» кривая Гаусса в точке симметрии).
1.8 Формула Пуассона
Приближенные формулы Муавра-Лапласа перестают быть эффективными
при больших отклонениях вероятности р или q от 0,5 и бессмысленны при р
0, поскольку в этом случае, для разумного приближения, требуется проведение
очень большого числа независимых испытаний.
Однако, во многих задачах пищевой промышленности, биологии,
сельского хозяйства, в технике и электронике, возникают именно такие задачи,
то есть приходится рассматривать объекты, состоящие из очень большого числа
однородных элементов, каждый из которых имеет малую реализацию целевой
функции (например, всхожесть зерна, выход из строя транзистора и др.).
Возникает задача оценки, например, вероятности всхожести семян, именно
для таких случаев. Соответствующая оценка предложена Пуассоном.
Пусть в n независимых испытаниях вероятность появления события А, в
каждом из испытаний, равна р (причем р близко к нулю), тогда имеет место
оценка Пуассона:
Pn (k )  C  p  q
k
n
k
nk

k
k!
 e   , где   np, k  n,
(где символ « » читается: «много меньше»).
В самом деле, при k = 0, имеем
50
n
 
Pn (0)  q  (1  p)  1    e  .
n

n
n
Рассмотрим отношение
Pn (k  1)
n  (n  1)  ...  (n  k )  k ! p k 1  q n  k 1

 k 1
.
Pn (k )
n  (n  1)  ...  (n  k  1)  (k  1)! p k  q n  k
После упрощений, получаем
Pn (k  1) (n  k ) p
np
kp





, так как k  n , q 1 и np = .
Pn (k )
(k  1)q (k  1)q (k  1)q k  1
Таким образом, имеем
Pn (0)  e  , Pn (k  1)  Pn ( k ) 

k 1
, k  1, 2,..., n .
Окончательно, получим
Pn (k ) 
Формула Vk 

что
V
k 0
k
k
k!
e  , k 0
k
k!
e   , k  0,1,..., n .▼
(18)
N , называется формулой Пуассона. Очевидно,
1.
Значения V k формулы Пуассона для различных k и  представлены в
приложении (табл. 2).
Пример. В книге на 1000 страниц 100 опечаток. Какова вероятность
обнаружить, в наудачу взятой странице, хотя бы одну опечатку?
Решение. Имеем n = 100, р = 0,001, np = 0,1. В силу независимости выбора
страниц искомая вероятность находится по формуле:
100
k
P100 1  k  100   C100
 (0,001) k  (0,999)100  k  1  P100 (0) .
k 1
0,1
Из формулы (18) получаем P100 (0)  V0  e  0,9048 .
Таким образом, P 1  k  100  1  0,9048  0,0952 .
51
Полученное значение вероятности согласуется и с интуитивным смыслом,
так как в среднем одна опечатка приходится на 10 страниц.
Рассмотренные нами приближенные формулы для формулы Бернулли
имеют важное самостоятельное значение. В качестве приложения оценим
событие

 / n  p   , где  / n - частота,   .
Прежде всего, формулу (17), в интегральной теореме Муавра- Лапласа,
преобразуем к виду:
 k  np k  np k2  np 


k  np
P k1  k  k2   P  1



P
a


b


   (b)   (a ) .
npq
npq
npq
npq




Отсюда





P   p     P    p     P n    np  n  
n


n



 P 


n
  np


pq
npq
 
n 

   
 
n 

pq 

 

n 
    
pq 


n 
   1  2  
pq  

n 
.
pq 
Таким образом:


lim P  p     1  2Ф()  1.
n  n

(19)
Асимптотическая формула (19) является одной из теорем закона больших
чисел (теорема Бернулли п. 3.1); и обосновывает определение статистической
вероятности (см. формулу 4, п.1.3.2.). Для практических приложений, вместо
(19), обычно пользуются приближенной формулой:



P   p     1  2  
n


n 

pq  .
(20)
Это трансцендентное уравнение всегда имеет решение, если неизвестное
только одно.
Пример. Сколько повторных испытаний симметричной монеты нужно
провести, чтобы с вероятностью не меньшей 0,98, частота появления герба
отклонилась от его вероятности не более чем на 0,01.
52
Решение. Из (20), при  = 0,01, р = 0,5, имеем

 1

P    0,01  1  2  0,01

n 2


n
1 1

2 2

;


1  2   (0,02  n )  0,98 ,  (0,02  n )  0,01 .
По табл. 4 приложения значение аргумента находим из равенств
Ф (х) = 0,01 -0,02 n = -2,3
n  115  n  13225 .
или
Часть 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ФУНКЦИИ РАСПРЕДЕЛЕНИЯ
Пусть дано произвольное вероятностное пространство (ℱ,Р).
Введем одно из основных понятий теории вероятностей – случайную
величину. Интуитивно, случайная величина – это переменная (функция),
которая в результате эксперимента принимает
одно из множества своих
возможных значений.
Определение: Измеримая [2] функция , определенная на пространстве
элементарных событий  и принимающая значения из области действительных
чисел, называется случайной величиной
  ,  ,   R .
Поскольку
для
любого
элементарного
(21)
события
 определена
вероятность его реализации, то очевидно, что каждое значение случайной
величины так же имеет свою вероятность. Таким образом, с каждой случайной
величиной
связано
распределение
вероятностей
(в
определении
это
измеримость).
Различают два основных вида случайных величин: дискретные и
непрерывные.
Случайная величина, которая принимает конечное или счетное число
значений, называется дискретной.
53
Например, к дискретным случайным величинам относятся:
а) число отказов технического устройства за определенное время;
б) количество посетителей столовой в каждый рабочий день за месяц;
в) число появлений гербов при подбрасывании монеты в серии из n
испытаний.
Случайная величина называется непрерывной, если она принимает
значения из интервала или, может быть, всей действительной оси.
Например, к непрерывным случайным величинам относятся:
а) время работы технического устройства до первого отказа;
б) отсутствие посетителей в столовой в течение не более чем один час;
в) величина ошибки измерения физических величин.
Дискретная случайная величина полностью определяется своим законом
распределения, который можно представить в виде табл. 1:
Таблица 1

x1
x2
…
xn
…
p
p1
p2
…
pn
…
(pi=1)
где хi, iN возможные значения случайной величины, а рi – соответствующие
им вероятности. При этом сумма вероятностей всех значений случайной
величины всегда равна единице.
В общем случае, случайная величина полностью определяется своей
функцией распределения.
Определение. Функцией распределения F(х) случайной величины 
называется вероятность события   х, х  R , то есть
F(х) = Р   х, х  R .
(22)
Функция распределения существует для любой случайной величины.
Свойства функции распределения.
1) Монотонность: х1  х2)   F (х1)  F (х2);
54
2) непрерывность слева:
lim F ( x)  F ( x0 ) ;
x  x0  0
3) число разрывов 1-го рода не более чем счетно (ступенчатая функция);
4) F(-) = 0;
5) F(+) = 1.
Любая функция, удовлетворяющая свойствам 1) – 5), является функцией
распределения и обратно.
Для любой дискретной случайной величины можно построить ее функцию
распределения. Более того, можно сказать, что величина     называется
случайной, если она имеет функцию распределения.
Определение. Индикатором события А называется случайная величина:
1, если   А,
IА () = 
0, если   А.
Пример 1. Построить функцию распределения индикатора события А,
если известно, что Р   р.
Решение. Случайная величина IА () – дискретная. Закон ее распределения
имеет вид:
IА
0
1
р
1-р
р
.
Функцию распределения определим формулой:
0, x  0;


F ( x)  1  p, 0  x  1;
 1, x  1,

график которой представлен на рис. 6.
55
F(x)
1
1-р
0
х
1
Рис. 6
Очевидно, что вероятностная характеристика случайной величины,
полученная
из
функции
распределения
с
помощью
формальных
математических операций и определенная на всей действительной оси, несет
столько же информации о случайной величине, что и сама функция
распределения. Исключение могут составлять некоторые точки действительной
оси, число которых не более чем счетно.
К такой характеристике можно отнести плотность.
Определение. Функция  (х), удовлетворяющая условиям:
а)  (х)  0,  хR,

б)
  x dx  1 ,

называется плотностью случайной величины .
Из определения видно, что плотность играет ту же роль, что и закон
распределения дискретной случайной величины.
Физически, плотность характеризует распределение единичной массы на
действительной оси. Ёе изменение на участке длиной х, примыкающего к
точке х, оценивается интегралом
х  х
  t dt .
х
56
Свойства плотности
x
F ( x) 
Свойство 1.
   t  dt .
(23)

Доказательство. Проверим свойства 1)-5) функции распределения.
Пусть  (х) - плотность, тогда  (х)  , отсюда
х1
x2

-
1) (х1  х2)    ( x)dx    ( x)dx;
2) непрерывность слева следует либо из непрерывности (х), либо из ее
кусочной непрерывности с разрывами первого рода;
3) следует из существования интеграла на действительной оси;

4) F(-) =
   x dx  0 ;

5) F(+) = 1, из определения.
F ( x)   ( x) .
Свойство 2.
Для
доказательства
достаточно
продифференцировать
(24)
(23)
по
переменному верхнему пределу.▼
Учитывая (23) и (24), функцию распределения называют интегральной, а
плотность дифференциальной характеристикой случайной величины.
Плотность имеет смысл для такой случайной величины, функция
распределения которой дифференцируема; обычно, это непрерывная случайная
величина. Функция распределения - это вероятность, и по определению
безразмерна. Для плотности, как следует из формулы (24), размерность обратна
размерности случайной величины. Физически, плотность характеризует
мгновенное изменение случайной величины в точке х.
Для дискретной случайной величины понятие плотности лишено смысла,
поскольку, как видно из примера для индикатора, она либо равно нулю, либо
имеет бесконечное изменение в точке разрыва.
57
Отметим некоторые полезные свойства функции распределения и
плотности:
1) P a    b  F (b)  F (a ) ,
b
2) P a    b   f ( x )dx ,
a
3) Р х    х+dx =  (х)dx,
4) Р   = а= F (a+0) – F(a-0),
5) Р    а  = F (a +0 ).
Упражнение. Доказать свойства 1 – 5.
Примеры основных распределений
Пример 1. Пусть случайная величина  есть число появлений события А в
n независимых испытаниях (вероятность появления события А в любом
испытании равна р). Построить функцию распределения.
число появлений события А 
Решение. Рассмотрим событие   х ~ 
,
меньших
х


хR.
k
k
nk
По условию, если P   k   Cn  p  q , то полагаем, F(x)=0 для х  0.
F ( x)  P   x   P   k , для 0 х  n, и F(x) = 1, для х  n. Таким
kx
образом,

0,
x  0;


F ( x)   Cnk  p k  q n  k , 0  x  n;
ê  õ

1,
x  n.
График функции имеет ступенчатый вид (рис.7):
(25)
58
F(x)
1
-1
…
0
1
2
3
4
5
… n-1
х
n
Рис. 7
Из графика видно, что свойства 1) – 5) выполняются. Величину скачка
функции в точке х = k находим из равенства
P  k  F (k  0)  F (k  0)  Cnk  p k  q n  k .
Пример 2. Будем говорить, что случайная величина 
имеет
распределение Пуассона, если ее функция распределения имеет вид:
0, x  0;


F ( x)    k  
 k !  e , x  0.
k  x
(26)
Свойства 1)- 4) очевидны. Проверим 5):

k
k 0
k!
F ()  
e


k
k 0
k!
 e 

 e    e  1 .
F(x)
1
...
…
-1 0
1
2
3
… n
n+1
Рис. 8
…
x
59
Величина скачка в точке х = k равна Vk 
k
k!
 e  ,
k  0,1,2,... . Число
разрывов счетно. График функции представлен на рис. 8.
Пример 3. Будем говорить, что случайная величина  равномерно
распределена на (а, в], если ее функция распределения имеет вид:
0,
x  a;

x  a

F ( x)  
, a  x  b;
b

a

1,
x  b.

(27)
Плотность равномерного распределения
0, x  a;

 1

 ( x)  F ( x)  
, a  x  b;
b  a
0, x  b.

(28)
F(x)
1
F(x0)
a
x0
0
b
х
(х)
1 (b  a)
F(x0)
a
0
х0
b
х
Рис. 9
Из графиков (рис.9) видно, что значение F ( x0 ) 
(интеграл) области, ограниченной справа прямой х = х0.
x0  a
есть площадь
ba
60
Пример 4. Случайная величина  распределена нормально, если ее
функция распределения имеет вид:
F ( x) 
x
1
2  



2
 exp   y  a  / 2 dy ,
2

а плотность
1
  x 
2  
 exp  ( x  a)2 / 2 2  , >0, a – const.
Свойства функции распределения 1 - 4 очевидны. Проверим свойство 5.
F () 
1
2  

e


( x  a )2
2

=интеграл Пуассона ℑ =
2
x  a

 y

dx   

 dx   dy 
2 =

2
y

1
  e 2 dy 
2 
1
 2  1 .
2
Схематично график плотности (рис. 10) имеет вид:
a
Рис. 10
Постоянная а характеризует сдвиг функции (x) по оси ОХ относительно
начала координат, а  - меру «сжатости» кривой около центра в точке х = а .
Пример 5. Случайная величина  имеет показательное (экспоненциальное)
распределение, если ее функция распределения определяется по формулой
 0, х  0,
F ( x)   -xλ
1-e , x  0, ( λ  0 - const).
(29)
Если х – интерпретировать как время, то функция распределения будет
иметь вид (рис. 11):
61
F (t )  1  e t , t  0.
F(t)
1
0
1
t
Рис. 11
Это распределение играет важную роль в технике и носит название
функции надежности,  - интенсивность с размерностью обратной времени [1].
 t
Плотность  (t )    e , ее график функции имеет вид (рис. 12):
Рис. 12
2.1 Числовые характеристики случайных величин
Случайная
величина
полностью
определяется
своей
функцией
распределения (или плотностью, если она существует). Однако, чтобы эту
функцию найти, требуется иметь не только большой объем статистических
данных, но и быть уверенным в том, что они отражают все существенные
свойства случайной величины. К сожалению, это бывает редко, а во многих
случаях в этом нет необходимости. Достаточно бывает проанализировать часть
свойств случайной величины.
62
Рассмотрим некоторые типичные плотности, и определим по ним
числовые характеристики, знание которых поможет получить информацию о
случайной величине, без знания вида самой плотности.
Рис. 13
Из графиков плотностей (рис. 13, 14) видно, что желательно знать
абсциссу центра тяжести х0, сгруппированность большей части площади около
центра 1, 2, асимметричность 3, крутость 4, число максимумов х1, х2,
вероятность максимального значения плотности х0 (рис.13), х1, и другие.
Рис. 14
Знание хотя бы части этих характеристик позволяет достичь желаемой
цели без знания плотности. Наконец, при исследовании какой-либо проблемы,
мы начинаем ее изучение с общих позиций, оцениваем ее в среднем. Именно
для изучения этих сторон, в первую очередь, и предназначены числовые
характеристики случайных величин. Мы рассмотрим здесь лишь некоторые из
них.
63
2.1.1 Математическое ожидание, мода, медиана
Пусть имеем произвольное вероятностное пространство (ℱ,Р), на
котором определена случайная величина .
Определение. Математическим ожиданием или средним значением
случайной величины  называется число М, которое находится по формуле:
а) если случайная величина  дискретна, то есть задана табл. 2,
Таблица 2

x1
x2
…
xn
…
p
p1
p2
…
pn
…
(pi=1),
iN,
то
M    xi pi ,
(30)
i
и существует, при условии, что ряд в правой части (30) сходится;
б) если случайная величина  непрерывна с плотностью (х), то
M 

 x   ( x)dx ,
(31)

и существует, при условии, что несобственный интеграл в правой части (31)
сходится.
Математическое ожидание аналогично понятию средне-взвешенного и
интерпретируется как абсцисса центра тяжести распределения массы на
прямой.
Свойства.
1). Если  = а – const, то
Ма = а.
В самом деле, рассматривая а как дискретную случайную величину с законом
распределения
Р  а =1, Р  а ,
получаем по формуле (30):
64
М = 0Р  а+ аР  а= а1= а.▼
2). Постоянную можно выносить за знак математического ожидания
М(а) = аМ.
В самом деле, если , например, непрерывная случайная величина, то




M (a ) 
 a  x  ( x)dx  a   x   ( x)dx  a  M  .▼
3). Для любых случайных величин , 
М (+) = М+ М
4). Если случайные величины ,  независимы, то
М () = М М.
В самом деле, если случайные величины независимы, то их совместная
плотность, равна произведению плотностей случайных величин *, то есть
 (х,у) = (х) (у),
тогда
M (   ) 
 



 



  x  y    x, y  dxdy   x    x   y   y  dxdy   x  x  dx   y   y  dy 
= М М.▼
5). Всегда M  M  .
В самом деле, имеем
M 




 x    x  dx  
x  ( x)dx  M  . ▼
Пример. Найти математическое ожидание индикатора события А  .
1, если   А,
Решение. По определению I()=IA() = 
, тогда для любого
0
,
если


A
.


М (I()) = Р()1 (1  Р ()).
Так как A 
*
 , то МI(А)) = М(  ( I ( ))   M ( I ( ))   P( )  PA.
О независимости случайных величин смотри ниже
65
Таким образом, вероятность события А   можно записать через
математическое ожидание индикатора события А.
Математическое ожидание случайной величины  является важнейшей,
среди ее «линейных характеристик». На практике, в качестве характеристик,
дополняющих математическое ожидание, используют моду и медиану [3].
Определение. Модой М0 дискретной случайной величины  называется ее
наивероятнейшее значение к0 .
Модой непрерывной случайной величины  называется любое из значений
х, в котором плотность имеет максимум.
Графическая интерпретация моды приведена на рис. 14.
Определение. Медианой непрерывной случайной величины  называется
ее значение Ме, для которого
Р  МеР  Ме.
Ме
Рис. 15
На рис. 15 изображена плотность вероятности, где медиана есть абсцисса
Ме = х, для которой
x


 (t )dt 

  (t )dt.
x
Можно определить медиану и для дискретной случайной величины,
например, как среднее арифметическое наименьшего и наибольшего ее
значений [1], однако обычно медиана используется при изучении непрерывных
случайных величин.
66
2.1.2 Моменты
Пусть случайная величина  имеет математическое ожидание М = а.
Введем новую случайную величину  =  - а. Случайная величина  называется
отклонением случайной величины .
Математическое ожидание отклонения равно 0.
В самом деле, имеем
М = М ( - а) = М - Ма = а – а = 0 .▼
Геометрически это означает, что среднее значение отклонения всегда
находится в начале координат.
Определение. Начальным моментом к порядка к случайной величины 
k
называется математическое ожидание случайной величины к:  k  M ( ) ,
кN, и вычисляется по формуле:
а)  k 
(x )
i
k
 pi , iN, если  - дискретная;
(32)
i
б)  k 

x
k
  ( x)dx , если  - непрерывная.
(33)

Начальные моменты порядка к существуют, если их правые части в (32) и
(33) имеют смысл.
Математическое ожидание есть начальный момент первого порядка М=1.
Определение. Центральным моментом к порядка к, случайной величины ,
называется математическое ожидание к-ой степени отклонения
к = М ( - М )к, к  .
и вычисляется по формуле:
а) k 
 ( x  M )
i
 pi , iN, если  - дискретная;
(34)
  ( x)dx , если  - непрерывная.
(35)
k
i
б)  k 

 (x  M )

k
67
Очевидно, что если существует момент порядка к, то существуют все
моменты низшего порядка.
Определение.
Дисперсией
случайной
величины

называется
центральный момент второго порядка. Дисперсия обозначается символом D:
D = M ( - M)2 .
(36)
Дисперсия число неотрицательное, и характеризует средние отклонения
случайной величины от ее среднего значения.
Свойства дисперсии
Пусть   - случайные величины и    R, тогда
1) дисперсия постоянной равна 0, то есть D = 0.
В самом деле, при   
D = M (  )2 = M (2 = M0 = 0.▼
2) для любой случайной величины  и   R
D() = 2 D.
В самом деле,
D() = М (())2 = М((-М))2 = М2 ()2) = 2 М)2 =
=2 D .▼
3) если  и  независимы, то
D (  ) = D + D.
В самом деле, имеем:
D (    М(      2 =     2     
+     (      )  D +D         
=D  D,
так как из независимости  и  следует независимость их отклонений. ▼
Часто вместо формулы (36) используют эквивалентную ей формулу
D = (2) – (2.
В самом деле,
(37)
68
D = М     .▼
Для практических приложений более удобной характеристикой случайной
величины
является
среднеквадратичное
(стандартное)
отклонение
,
вычисляемое по формуле:
 
D .
(38)
Среднеквадратичное отклонение имеет ту же размерность, что и сама
случайная величина, а дисперсия - квадратичную. Основной недостаток
стандартного отклонения, в отличие от дисперсии, в том, что оно не обладает
свойством аддитивности. Это означает, что, если для независимых случайных
величин  и 
D ( + ) = D + D,
то для стандартного отклонения
 (  ) 
D      D  D .
Математическое ожидание и дисперсия наиболее популярные числовые
характеристики случайных величин, поскольку они отражают наиболее важные
свойства распределения. Для детального изучения случайных величин
применяются моменты высших порядков. Мы рассмотрим здесь коэффициент
асимметрии и эксцесс.
Определение. Асимметрией распределения называется свойство кривой
распределения, указывающее на отличие от симметричности распределения
случайной величины.
Мерой асимметрии распределения является коэффициент асимметрии Sк,
определяемый равенством
Sk 
3

3
,
где 3- третий центральный момент распределения вероятностей случайной
величины .
Асимметрия положительна, если Sк , отрицательна, если Sк  и равна
нулю, если распределение симметрично.
69
При положительной асимметрии более «длинная» часть плотности
распределения лежит правее моды и отрицательна, если левее моды.
Замечание.
Для
распределений
симметричных
относительно
математического ожидания все моменты нечетного порядка, если они
существуют, равны нулю.
В самом деле, например, если случайная величина имеет плотность х, то
а
 2к 1   ( х    ) 2к 1  ( х)dx  0 , к = 0, 1, ...,
а
что сразу следует из свойств интеграла от нечетной функции с симметричными
пределами.
Таким образом, любой центральный момент нечетного порядка может
быть использован для характеристики асимметрии.
Определение. Коэффициентом эксцесса (эксцессом) распределения
вероятности случайной величины  называется числовая характеристика Еk,
определяющая «островершинность» плотности распределения, и вычисляется
по формуле:
Ek 
4

4
3,
где 4 – четвертый центральный момент вероятностного распределения. Число
3 связано с эксцессом нормального распределения, так как для него
 4 / 4  3 . В силу исключительной важности нормального распределения в
теории вероятностей с ним сравниваются распределения вероятностей
отличных от нормального. Таким образом, для нормального распределения Еk =
0. Если вершина распределения более «остра» чем нормальное, то эксцесс
положителен, если более «плоска», то эксцесс отрицателен. Геометрическая
интерпретация этого факта представлена на рис. 16.
70
(х)
Ех
Ех=0
Е х 0
х
0
Рис. 16
Рассмотренные числовые характеристики случайных величин являются
наиболее употребительными на практике. Достаточно часто ими пользуются
для приближенной замены одного распределения другим, более подходящим.
2.2 Вычисление числовых характеристик стандартных
распределений
Вычислим
математическое
ожидание
и
дисперсию
основных
распределений.
Биномиальное распределение.
1.
k
k
nk
Имеем P   k   Cn  p  q , q  1 - p , k  0, 1, ..., n тогда
k  n  (n  1)  ...  (n  k  1) k n  k
 p q 
k
!
k 1
n
n
M    xk pk   k  Cnk  p k  q n  k  
k
k 1
n 1
(n  1)  ...  (n  1  m  1) m n 1 m
 m  k  1  np  
 p q
 np   Cnm1  p m  q n 1 m 
m!
m0
m0
 np  1  np .
n 1
Для вычисления дисперсии воспользуемся следующим приемом [5].
Введем независимые случайные величины i :
 1,
i,  i  
 0,
Тогда
если событие А появилосьв испытании i,
в противном случае, i  1, 2, ..., n.
71
n
  i ,
i 1
i 
Di   xi2 pi  ( M i )2 12  p  0  q 2  (1  p  0  q)2 
i
 p  p2  p  q .
В силу независимости случайных величин i :
n
 n  n
D  D  i    Di    p  q   n  p  q .
i 1
 i 1  i 1
Итак, для биноминального распределения
М = np,
D = npq.
2. Распределение Пуассона.
Имеем P   k 
k
k!
 e  , к=0, 1, 2, … (см стр. 50), тогда



k
 1
k 1
k 1
k!
M    xk pk   k  Vk   k 

i
i 0
i!
  e 

e

 k 1

  e 

k 1
(k  1)!
 k  1  i 
   e    e   .
Далее,
D  M ( )   M  
2
2
  1
 k 
 e      e   
 2 
k!
  1 !

2
k



2
ê 1
   k  1   k 1   k 1 
2
  e 
    e 

   

k 1
k 1  k  1 !
 k  1 !
 k 1  k  1 !

i
i


i
 
 
 k  1  i    e   
     2    e       e  e    2   2   
i 0 i! 
 i 0 i!


 k 1   k  1  i 
ê 1
2

 2   .

Здесь мы воспользовались рядом Маклорена e 
распределения Пуассона
M = , D = .
3. Равномерное распределение.

k
 k ! . Таким образом, для
k 0
72
Используя формулы (28) и (31), имеем


b
b
1
x
x2
M    x    x  dx   x  0dx   x 
dx   x  0dx  
dx 

a
b

a
b

a
2
b

a




a
b
a

a
b
ba
.
2

  x  M 
D 

b  a 
ba
1

   x  dx    x 

dx


.
2  ba
12
a
2
2
b
2
Таким образом, для равномерного распределения
ba
b  a 
M 
, D 
.
2
12
2
4. Экспоненциальное распределение.
 x
Учитывая, что  ( x)    e , x0, получаем
M    1 , D   2 .
5. Нормальное распределение.
M 


1
2  

 x  exp    x  a 

2
/ 2
2

x  a

t 

dx   

dx    dt 

a
  t 2 2  t 2 
t 2 2
  e dt 
  e d   
 2
2 
2 

2
1
  ( A   t )  e  t 2 dt 
2 
a
 2  0  a ,
2

t 2
 e dt  2 .
2
так как

D 
1
2  


  x  a

2

e
 x  a 2
2
2
x  a

 t   2  2 t 2 2

dx   
  t  e dt 

2



dx    dt 

73
2

 t  et
2

2
2
 t2 
2 

  exp    dt  0   2   2 .
2 
 2

Итак, для нормального распределения
M   a , D   2 .
Вычислим эксцесс Еk.
x  a

 t   4  4 t 2 2
 ( x  a)2 

   x  a   exp  
  t  e dt 

 dx   
2 2 

2   
2


dx    dt 

1
4 
4
 4  4 t 2
4  3
 4 3 t
t 2

  t  e dt 
  t  d (e
)
t e
2 
2 
2
2
2
2
2




3 4
3 4
2
t 2 2

  t  e dt  {учитывая вычисление дисперсии} 
 2  3 4 .
2 
2
4
3 4
Отсюда Ek  4  3  4  3  0 .


Итак, для нормального распределения
M   a , D   2 , 4  3 , Ek  0 .
Приложения нормального распределения
Пусть случайная величина  имеет нормальное распределение. Вычислим
вероятность события     
Из свойств функции распределения (стр.53) имеем:
P        F (  )  F ( ) 

1
2  


1
2  

  exp( ( y  a) 2 2 2 ) dy 


  exp   y  a  / 2 2 dy .

2
Введя новую переменную x  ( y  a) /  , получаем
1
 a
  a 

x

P         






 , где
2
  
  
x
t 2
 e dt .
2

74
В частности
 
P    a     1  2    ,
 
(или P 
 
  a     2   , если  ( x) 
 
(39)
x
1
t2 2
e
 dt ).
2 0
Так как на вероятность события не влияют неслучайные преобразования
над случайной величиной, то, полагая а = 0, получим:
 
P       1  2    .
 
(40)
Пример (правило трех ). Пусть случайная величина , характеризующая
ошибки измерений, подчинена нормальному закону. Найти вероятность того,
что ошибки измерения  не превзойдут 3.
Решение.
Ошибкой
измерения
называется
отклонение
реального
результата от истиного. Ошибка измерения является случайной величиной,
если она есть результат действия только случайных факторов (в отличие от
систематических ошибок, которые изменяются по определенному закону или
постоянны во всей серии испытаний).
Если ошибки измерения случайны, то они симметричны относительно
нуля, поскольку в силу их случайности, разумно предположить, что ошибки,
равные по величине и противоположные по знаку, должны встречаться
одинаково часто.
С учетом сказанного, воспользуемся формулой (40). Имеем
Р     = 1 - 2Ф(-3) = 1 - 0,00135 = 0,9973.
Таблица 3
n

2
3
4
P   n 
0,6826
0,9544
0,9973
0,9997
%
32%
5%
0,7%
0,07%
75
Важность «правила трех  » в том, что ошибки измерения для нормально
распределенных величин, превышающих 3 практически невозможны, менее
3 существенны (см. табл. 3).
2.3 Функции от случайных величин
2.3.1 Функции от одного случайного аргумента
Рассмотренные нами
основные
законы
распределения
случайных
величин, в чистом виде, встречаются не так уж и часто. Область их применения
можно значительно расширить, если случайные величины, описывающие
случайные явления, выражать через функцию от других случайных величин
или хотя бы, через неслучайную функцию одной случайной величины.
Пусть, например, нас интересует распределение случайной величины ,
которая связана функционально со случайной величиной  по формуле ,
для которой функция распределения F(x) известна. Задача состоит в
нахождении функции распределения случайной величины , где
F  y   P  y , y  R .
В некоторых случаях решение задачи может быть получено из здравого
смысла, которое должно быть проверено формально.
Пример.
Дискретная
случайная
величина

задана
законом
распределения

-1
0
1
р
1
3
1
3
1
3
2
Построить закон распределения случайной величины    .
Решение. Случайная величина  неотрицательна и, очевидно, принимает
два значения. Закон распределения имеет вид:
76

0
1
р
2
3
1
3
Замечание. Законы распределения для случайных величин  2 и 
различны. Это означает, что  2  . В самом деле, слева мы над случайной
величиной произвели неслучайную математическую операцию: возведение в
квадрат и получили два значения   , а справа стоит произведение двух
случайных величин. Эта случайная величина , для которой имеем три
различных значения. Закон распределения имеет вид:

-1
0
1
р
2
9
5
9
2
9
Рассмотренный пример демонстрирует подход построения закона
распределения для функции одного случайного аргумента дискретной
случайной величины.
Проведем построение функции распределения случайной величины ,
являющейся функцией случайной величины , с заданным распределением
F(х).
Определение. Пусть функция у = х строго монотонна в области
х)уУ), где символ «» читается как «и».
Функция -1 называется обратной к , если она определена на множестве
Уи
 1 ( ( x))   ( 1 ( x))  x .
77
Если  х возрастающая и х у, то х -1у, если  х убывающая, то
x   1 ( y ) .
Рассмотрим случайную величину  с функцией распределения Fх и
плотностью х. Пусть у =  х строго монотонная и дифференцируемая,
вместе со своей обратной, функция. Пусть случайная величина .
Требуется найти F у и  у, где уУ - значения случайной величины .
По определению, имеем
F  у = Р у, тогда, если  х возрастающая, то
Р  у = Р   -1 у.
Отсюда
F у = F -1(у)),
или
 1  y 
F ( y ) 

 ( x)dx .

Для плотности получаем:
d   1 ( y) 
d
1
  y  
F  y      ( y)  
.
dy
dy
(42)
Если  х - убывающая, то
P      y
  P      y   , но тогда F  y   1  P   
1

-1
( y) .
Отсюда
F  y   1 
 1  y 

 ( x)dx .

Для плотности, аналогично, получаем
  y  
d
d
F  y      1 ( y )    1 ( y )
dy
dy
(43)
Учитывая, что производная убывающей функции отрицательна, правая
часть (43) положительна.
Объединяя (42) и (43), получаем:
78
  y     1 ( y)  
d 1
 ( y)
dy
(44)
Пример. Пусть случайная величина  имеет функцию распределения F(х),
а случайная величина     , ,   R.
Найти F (y) и  y, где у – значение случайной величины  из области У.
Решение. Если   , функция у = х   возрастающая, тогда
 y
F  y   F 
 

,

отсюда
  y  
d
 y  1  y 
F 
   

dy       
Если   , то у = х +  - убывающая, тогда
 y
F  y   1  F 
 

,

отсюда
  y   
1

 y 
.
  
 
Учитывая (44), для плотности получаекм
  y  
Пример.
Пусть
случайная
1

 y 
.
  
 
величина

имеет
экспоненциальное
распределение F  x   1  exp  x , х . Найти распределение случайной
величины  = е-, .
Решение. Имеем
F(y) = P  y= Pe-  y.
Если у  0, то событие
то событие
e
  
e
  
 y невозможно, тогда F(y) = 0. Если у 1,
 y - достоверное, тогда F ( y) = 1.
79
Пусть теперь у, тогда




1
1
P  e    y  P    ln y  P    ln y   1  P    ln y  









 exp  ln y   y  .


Таким образом, с учетом того, что P   0  P   1  0 имеем,
0, для у  0,
 λ

F  y    у β , для 0  у  1,
1, для у  1,


 ,   0.
2.3.2 Многомерные случайные величины
Развитие
аппарата
многомерных
случайных
величин
в
теории
вероятностей так же важно, как и развитие функций нескольких переменных в
математическом анализе.
Пусть имеем вероятностное пространство (, ℱ,Р), ( совпадает с Rn) с
заданными на нем случайными величинами 1=1(), 2=2(),…, n=n(),
.
Определение. Случайную величину  = 1, 2, …, n) назовем n –
мерным
случайным
вектором,
являющимся
отображением

Rn.
Отображение измеримо, в том смысле, что для любого множества из класса ℱ
определена функция распределения.
F
1 ,..., n

( x1 ,..., xn )  F   x , где x  ( x1,..., xn ) .
(45)
Функция распределения (45) однозначно определяет распределение
вероятностей Р1 х1, 2 х2,…,n xn и обладает свойствами, вполне
80
аналогичными свойствам функции распределения одной переменной, а именно,
F    x  :
1) неубывающая по каждому аргументу вектора х ;
2)
lim
xi 
F  x1 ,..., x n   F  x1 , x 2 ,..., xi 1 , xi 1 ,...x n , i  1,2,..., n ;
3) непрерывна слева по каждому аргументу;
4)
5)
lim
x 
F x1 ,..., x n   0,   1,2,..., n ;
lim F  x1 ,..., x n   1.
x1 
..........
xn 
Дальнейшее построение теории многомерных случайных величин
приведем для двухмерного случайного вектора ().
Пусть  не обязательно совпадает с R2. Рассмотрим случайный вектор
(,    R2, где =   . Любое подмножество А   назовем
событием. Класс ℱ определим как алгебру событий, каждое из которых можно
получить из множеств
( х у)), где х, у.
Вероятность события А определим как
Р=Р   А .
Тем самым построено вероятностное пространство ,Р), как частный
случай рассмотренного ранее.
Из свойств функции распределения легко получить:
а) Ра1   в1,  у = Fв1,у) - F(а1,у)
Графическая иллюстрация представлена на рис. 17 (включение границы в
допустимую область обозначено жирной чертой).
б) Ра1   в1, а2   в2 = Fв1,в2) - F(а1,в2) - F(в1,а2) + F(а1,а2)
Графическая иллюстрация представлена на рис. 18.
81
у
у
b2
a2
0
a1
b1
х
0
a1
Рис. 17
b1
х
Рис. 18
Распределение вероятностей случайного вектора назовем дискретным,
если он принимает не более, чем счетное число значений.
Распределение случайного вектора назовем абсолютно непрерывным, если
для любого подмножества А, со значениями из R2,
P ( ,)  A     x, y  dxdy
À
или в эквивалентной форме
F ,  x, y  
x
y
    z, t dzdt .
(46)
 
Функция х,у называется плотностью распределения случайного
вектора . Из (46) следует, что
 2 F  x, y 
xy
   x, y  .
Если существует плотность х,у, то существуют и плотности (х), (у).
Рассмотрим два примера, часто используемые в приложениях.
Пример (полиномиальное распределение).
Пусть  - целочисленный случайный вектор. Распределение 
зададим формулой:
82
Pn    k1 ,   k2  
n!
nk k
 p1k1  p2k2  1  p1  p2  1 2 ,
k1 ! k2 !  n  k1  k2 !
где 0  к1 + к2  n, р1 = РА1, р2 = РА2, 1 - р1- р2 = Р \ А1А2), А1, А2  ,
А1  А2  
Применим описанное распределение при построении математической
модели процесса разделения сыпучих материалов [7].
При разделении сыпучего материала на три группы по среднему
диаметру частиц (события Аi) установлено, что вероятность РАi частицы
принадлежать группе i равна рi, i=1,2,3. Распределение вероятностей, того, что
среди n частиц кi частиц принадлежит группе i (к1+к2+к3=n) определяется по
формуле полиномиального распределения, где к3 = n - к1 – к2.
Пример (Двумерное нормальное распределение).
Пусть дана двумерная случайная величина . Будем говорить, что она
нормально распределена, если ее функция распределения имеет вид:


1
2

 , ( x, y) 
   exp 
 k  t , z   dtdz
2
2


2        1  r  
 2 1  r 

x
1
где

2
 x, y 
 x  M 

2
 2
эллипсом рассеивания [3], а

y
2r  x  M     y  M  
   
r

 y  M 
 2
M    M      M  
   
-
- называется
называется
коэффициентом корреляции, о котором будем говорить ниже.
2.3.3 Условные законы распределения
Из свойств функций распределения многомерных случайных величин
следует, что, зная закон вектора , можно определить законы распределения
отдельных случайных величин  . В самом деле, имеем
83
F  x   F ,  x,   
x 
    t , y  dtdy .
(47)
 
Дифференцируя (47) по х, получаем, для плотности распределения ,
формулу:
 ( x)  F  x  
'

   x, y  dy .

Аналогично, получаем выражение плотности распределения :
 ( y )  F  y  
'

   x, y  dx .

Естественно, возникает обратная задача: зная законы распределения
отдельных случайных величин, найти закон распределения случайного
вектора?
Для независимых случайных величин это, очевидно, можно, но для
зависимых, в общем случае, нельзя, если зависимость неизвестна.
Обратная задача решается положительно, если ввести условные законы
распределения.
Определение. Условным законом распределения случайной величины 
случайного
вектора
,
называется
функция
распределения
F(х/у),
полученная при условии, что случайная величина   у.
Аналогично определяется условная плотность распределения (х/у).
Зная закон распределения одной из случайных величин и условный закон
распределения другой, можно построить закон распределения двумерного
вектора.
Из определения следует, что
F ( x / y)  P  x  /  =y  ,
отсюда, по определению условной вероятности,
F ( x / y)  P   x  /   y  
1
x

  y  
  t , y  dt .
84
Дифференцируя это равенство по х, получаем условную плотность
  x / y  
1
   x, y  .
 ( y )
(48)
Из (48) следует, что
  x, y     y     x / y     x    y / x  .
(49)
Формула (49) называется теоремой умножения законов распределения
случайных величин.
Аналогичные
формулы
можно
получить
для
условного
закона
распределения случайной величины  вектора ().
Определение. Случайные величины   называются независимыми,
если закон каждой из них не зависит от того, какое значение приняла другая
случайная величина, иначе они зависимы.
Независимость означает, что для случайной величины (), х,у)  R2
выполняется
Р х у = Р хР у
(50)
F(x, y) = F(x)F( y).
(51)
или
Если случайная величина () имеет плотность, то
(х, у) = (х)(у).
(52)
Любое из этих равенств является необходимым и достаточным условием
независимости случайных величин .
Пример. Случайная величина () задана законом распределения
(табл.4).
85
Таблица 4


0
1
0
1
3
1
3
1
1
6
1
6
Проверить, являются ли случайные величины  независимыми, если их
законы распределения имеют вид:

0
1
р
1
2
1
2

0
1
р
2
3
1
3
Решение. Для проверки, достаточно показать справедливость формулы (50)
или (51).
Положим
p  P   0 ,
1
p
2
 P   1 ,
а
p  P   0 ,
1
p  P   1 .
2
Из свойства 2), функции распределения многомерных случайных величин,
следует, что
а) для случайной величины :
p p p , p p p ,
1
11
12
2
21
22
б) для случайной величины :
p p p , p p p ,
1
11
12
2
21
22
1
 р 11 р 12   2

где 

2
р
р
 21 22  
3
1

2 .
1

3
86
Представим табл. 4 в виде:


0
1

0
1
1 2

2 3
1 1

2 3
1
2
1 2

2 3
1 1

2 3
1
2

2
3
1
3
1
Отсюда видно, что условие независимости (50) выполняется. Для проверки
достаточно рассмотреть всевозможные пары с повторениями из выборки
(0,5; 0,5; 1,5) для пары (х,у). Например, из ( x, y )  (0,5;0,5) следует, что
P   0,5;   0,5  1/ 3 .
С
другой
стороны
P   0,5  P   0,5  1/ 2  2 / 3  1/ 3 .
Важное значение в теории вероятностей и ее приложениях имеют суммы
случайных величин. Нахождение функции распределения суммы по известным
распределениям отдельных случайных величин является первостепенным.
Теорема. Пусть 1 и 2 положительно определенные независимые
случайные величины с распределениями F1 и
F2. Если 2(х) – плотность
случайной величины 2, то
x
P 1   2  x   F1  x  t    2  t  dt , x  0,  .
0
Доказательство. Рассмотрим промежуток [0, х] и разобьем его на n частей
х0 = 0< x1<…< xn-1 < xn = x. Пусть xi  xi  xi 1 - длина интервала i, i = 1, 2,…, n.
Рассмотрим события Ai , Bi   1  х  xi ,  2   xi 1 , xi   . Реализация любого
из них приводит к появлению события  1   2  x.
Так как события
Ai , Bi 
несовместны, а случайные величины 1 и 2
n
независимы, то Р 1   2  x   PAi   PBi .
i 1
87
xi xi , где ~x i некоторое
Учитывая, что PBi   Pxi 1   2  xi 1  xi    ~
число из промежутка  x i 1 , x i , получаем
n
Р 1   2  x   F  x  x i  2 ~
x i x i .
i 1
Рассматривая
правую
часть
как
интегральную
сумму,
при
n   и max x i  0 , будем иметь
x
P 1   2  x   F  x  t    2  t  dt . ▼
(53)
0
Если 1(х) – плотность случайной величины 1, то аналогично
x
P 1   2  x   F2  x  t   1  t  dt .
(53')
0
Формулы (53) и (53') называются сверткой распределений F1 и
F2 и
обозначаются символом
x
F1  F2  x    F1  x  t  2 t dt .
0
Дифференцируя формулы (53) и (53') по аргументу х, получаем
аналогичную формулу для плотности суммы (1 + 2):
x
x
0
0
   x    1  x  t    2  t  dt    2  x  t   1  t  dt .
1
2
Если случайные величины 1, 2 определены на всей действительной оси,
то для свертки имеет место
   x  
1
2


   x  t     t  dt     x  t    t  dt .
1
2

2

Доказательство можно найти, например, в [5].
В классе распределений операция свертки обладает свойствами:
1) коммутативности: F1  F2  F2  F1 ;
2) ассоциативности: F1  F2  F3   ( F1  F2 )  F3 ;
1
(54)
88
3) дистрибутивности:
( 1 F1   2 F2 )  F3   1 F1  F2    2 F2  F3 ,  1 ,  2  R. .
Пример. Пусть даны случайные величины i, i = 1,2,3,4, равномерно
распределенные на 1). Требуется вычислить плотность их суммы для
различных i.
 0, x   0,1 ,
 1, x   0,1 ,
 ( x )  
Решение. Имеем
i
i  1,2 ,3,4 .
 i (x )
1
0
х
1
Рис. 19
Для вычисления плотности воспользуемся геометрическим подходом.
Изобразим 1 и 2 на плоскости в декартовой системе координат
Вычислим вероятности событий 1 + 2  х для разных х R. Очевидно,
что
Р1   2  х  /  x   ,0   0, а Р1   2  х  /  x  2,    1.
2
2
1
2-х
1
2-х
х
0
х
1
1
0
а)
х-1
1
б)
Рис. 20
х
1
89
Пусть
х0,1
(рис.20,
а)),
тогда
Р1   2  х  /  x  0,1 
х2
,
2
12 ( х)  х, х  0,1.
соответствующая плотность
Для х1,2 (рис. 20, б)), имеем


P 1   2  x  /  x  1, 2
2  x
1
2
2
, отсюда 1  2 ( x)  2  x ,  x  1,2 .
Таким образом, получаем

1  2
 0, x   0, 2;
 x    x, x  0,1;
2  x, x  1, 2.

(55)
Графическая иллюстрация плотности представлена на рис. 21.

1  2
( х)
0
1
2
х
Рис. 21
Для более общего случая геометрический образ трудно воспринимается,
поэтому воспользуемся следующими рассуждениями.
Для х0,2, очевидно,  
1  2
( x)  0 .
Пусть х0,1, тогда по формуле свертки, имеем (рис. 22, а))

x
1  2
( x)   dy  x .
0
90
    х 
1 2
0
    х 
1 2
1 1
х
х-1
0
а)
1
1
б)
Рис. 22
Для х1,2, получаем (рис. 22, б)) 1 2 ( x) 
1
 dy  2  x .
x 1
По аналогии с предыдущим вычислим плотность:

0, для х  0,3 ,

х
х2
, для х  0,1 ,
   х  у  dy 
2
0
 1
х 1
 1  2 3 ( x)     х  у  dx   2   х  у  dy 
0
 х 1

х  12  2  х 2 , для х  1,2 ,
 1 
2
2

2
 1
  2   х  у  dy  3  х  , для х  2,3 .
 х  2
2
Плотность суммы 1+2+3 «склеена» из трех кусков различных парабол.
Соответствующая
кривая
напоминает
плотность
нормального
распределения (рис. 23), что является не случайным. Объяснение этому факту
дает центральная предельная теорема, о которой мы будем говорить ниже [2].
91
     х 
1 2 3
1
2
0
1
2
Рис. 23
Наконец, для суммы 1   2   3   4 , имеем

0, для х  0,4  ,

2
 х  х  у  dx, для х  0,1 ,
0
2

х 1
 1  х  у 2
2  х  у 2
dy   1 


2
2
х

1
0

  х  у  12
 1  2 3  4 ( х)  
dy, для х  1,2 ,
2

 1
2  х  у 2 х  у  12

dy 
  1
2
2
х2
 х2
2
  3   х  у  dy, для х  2,3 ,
 0
1
2
  3   х  у  dy, для х  3,4  .
 х 3
2
Или, окончательно,
3
х
92

0, для х  0,4  ,
 3
х
 6 , для х  0,1 ,


х  33 2  х 3

 1  2 3  4 ( х)   х  1 

, для х  1,2 ,
3
6



х - 2 3 3 - х 3
, для х  2,3 ,
3 - х 
6
6

 4 - х 3
, для х  3,4 .

 6
Искомая плотность «склеена» из четырех кусков кривых третьего порядка,
которая еще ближе приближена к нормальной кривой.
Задача. Прибор испытывается на экстремальную нагрузку. Установлено,
что время х, до которого он выдерживает нагрузку, является случайной
величиной  с равномерным распределением на единичном отрезке 0,1).
Требуется найти Р t - вероятность того, что за время t, t  0,2,
прибор откажет два раза. Решить задачу для t  0,5; 1; 1,5 (временем
восстановления прибора пренебречь).
Решение. Пусть х момент первого выхода прибора из строя, х0,1,
тогда за оставшееся время t – х прибор должен выйти из строя еще раз.
Иллюстрация этого факта приведена на рис. 24.
0
x
1
t
2
t-x
Рис. 24
Пусть
 (х) - плотность распределения времени работы прибора до
первого отказа, тогда
  (t ) - плотность распределения
времени
двукратного выхода прибора из строя за время t, которая вычисляется по
формуле:
93
1
  (t )    (t  x)   x  dx /
0
или, учитывая результаты предыдущего примера (формула (55)), получаем
 0, t   0,2;

  (t )   t , t  0,1;

2  t , t  1,2.
Таким образом
t
P     t   
 
( x)dx
0
или




P     t  


t2
2t 

2
0, t   0, 2;
t2
, t   0,1;
2
 1, t  1, 2.
Вероятности для конкретных значений t приведены в табл. 5
Таблица 5
t
Р    t
0,5
1
1,5
1/8
1/2
7/8
Как видно из примеров, изучение суммы случайных величин имеет
важное значение (например, в теории надежности, теории восстановления,
химии, технологических процессах и др. [1]).
Если для математического ожидания суммы случайных величин задача
решается просто, то для нахождения их дисперсии мы сталкиваемся с
трудностями, если случайные величины зависимы.
94
2.3.4 Моменты многомерных случайных величин
Определим, по аналогии, начальные и центральные моменты системы
двух
случайных
величин
в
предположении
существования
их
ряда
распределения (или плотности).
Определение. Начальным моментом порядка (к + r) системы случайных
величин (,) называется число
 k ,r
 n n
k
r
  ( xi )  ( y j ) pij , если (, ) - дискретная
 i 1 j 1
 M ( k   r )    

x k  y r  ( x, y )dxdy, если (, ) - непрерывная



-  
В частности, 1,0 = ,  0,1 = , n  N.
Определение.
Центральным
моментом
порядка
(к+r)
системы
случайных величин ( ) называется число


k , r  M   M      M  ,
k
r
(57)
в частности  2,0  D ,  0,2  D .
Выясним что представляют собой начальный момент 1,1 и центральный
момент 1,1 системы (.
Рассмотрим более общую задачу. Пусть 1, 2, …, n - произвольные
случайные величины. Вычислим дисперсию их суммы:
2
 n
 n 
 n 
 n

 n
D    i   M    i  M    i    M    i  M  i    M   ( i  M  i ) 2 
 i 1 
 i 1  
 i 1

 i 1
 i 1

2

2 i  M i    j  M  j    M i  M i   2 M i  M i    j  M  j 
i j
n
2
i 1
i j
или
 n  n
D  i    Di  2 M i  M i    j  M  j  .
i j
 i 1  i 1


(58)

95
2
Число слагаемых во второй сумме, правой части (58), равно C n .
Если бы случайные величины были независимы, то, в силу свойств
математического ожидания,


i  j , M i  M i    j  M  j   M i  M i   M  j  M  j   0 .


Число M i  M i    j  M  j
 ,
в формуле (58), является вторым
смешанным центральным моментом 1,1 пары случайных величин i, j .
Его можно рассматривать как меру зависимости случайных величин.
Определение. Ковариацией случайных величин ,  называется
математическое ожидание произведения их отклонений
Cov  ,   M    M     M   .
(59)
Ковариация существует, если существуют дисперсии каждой из
случайных величин. Очевидно, что дисперсия есть частный случай ковариации,
так как при    имеем Cov( , )  M   M    D .
2
Если случайные величины независимы, то ковариация равна 0.
Утверждение сразу следует из свойств математического ожидания отклонений
этих величин. Обратное неверно.
Вместо формулы (59) часто используется формула
Cov( , )  M (   )  M   M  .
(60)
В самом деле, имеем
M    M     M    M       M    M  M  M   M () 
2M   M  M   M  M ( )  M   M . ▼
Пример. (Игра в лотерею). У каждого играющего в лотерею свой номер.
Карточки с номерами собирают и тщательно тусуют. Затем по очереди, в
соответствие с номером, игроки подходят и берут карточки. Получает приз
тот, кто взял свой номер. Оценить, сколько призов в среднем следует
приготовить.
96
1, произошло событие Ак ,
Решение. Определим сл. в. к = 
0, произошло событие Ак .
n
Ак ~игрок с номером к вытащил карточку с номером к. Пусть     к к 1
случайная величина, характеризующая число призеров. Ясно, что свою
карточку игрок берет с вероятностью n-1:
P  k  1 
1
n 1
, P  k  0 
, k,
n
n
но тогда
M k  1
1
n 1
1
 0
 ,
n
n
n
то есть, имеем одно совпадение при любом n.
Найдем дисперсию:
D  D k   D k  2 Cov i , j  ,  k ,
i j
D k  M  k    M  k  
2
2

1 1 n 1

 2 ,
n n2
n

Cov i , j   M i  M i    j  M  j   M (i   j )  M i  M  j .
Из определения  k следует, что  i   j может быть равно 1 или 0, причем
i   j  1,
если
M i   j  

обе
карты
на
своем
месте,
то
есть
 i, j ,
1 1
1


.
n n  1 n  n  1

Итак, Cov i , j 
1
1
1
 2 2
, а так как число слагаемых у
n  n  1 n
n  n  1
2
второй суммы есть Cn , то
D  n 
n 1
1
n  1 n   n  1
2

2

C


 2
 1.
n
n2
n 2   n  1
n
n   n  1
97
Таким образом, с учетом средних отклонений, получается, что независимо от
числа игроков следует приготовить M  D  1  1  2 приза в среднем.
Пример. Пусть случайная величина
 , 
распределена равномерно в
круге D радиуса R (для простоты центр круга поместим в начало координат).
Определим плотность
 
 2 1
, если x 2  y 2  R 2 ,
 х, у    R
 0,
если х 2  у 2  R.
Вычислим Cov , . В силу симметрии, M   0 , M   0 . Далее,
R
1
Cov  ,    x  y    x, y  dxdy 
  dx
2

R
D
R

R2  x2

dy  0 ,
R2  x2
то есть   некоррелированы, хотя и зависимы. В самом деле, имеем


1
2R
2
1
2
  x      x, y  dy  
dy



y

dx



, 
,
2
 2
 R2  R
R

R  R
  R
R
тогда
  x     y  
4
1

   x, y  .
 R2  R2
Задача. Доказать, что для нормального распределения случайных величин
  из некоррелированности вытекает их независимость.
Из примера видно, что величина ковариации зависит от размерности
случайных величин  . Целесообразно ввести безразмерную характеристику,
которая будет являться мерой зависимости случайных величин.
Определение. Случайная величина * называется нормированной, если
М* =0, D*= 1. Любую случайную величину  можно нормировать заменой
* 
  М
.
D
Определение. Коэффициентом корреляции r   случайных величин

,
входящих
в
двумерную
нормированную ковариацию:
случайную
величину
,
назовем
98
r  ,  
Cov , 
.
D  D
Если r   = 0, то говорят, что случайные величины  
некоррелированы. Независимые случайные величины всегда некоррелированы.
Если рассматривать геометрический образ случайных величин в
декартовых координатах, то для их некоррелированности достаточно, чтобы их
совместное
распределение
было
симметрично
относительно
прямой
параллельной любой из осей координат.
Свойства коэффициента корреляции
r  ,    1 .
1)
В самом деле, имеем
D *  *  D *  D * 2r  ,   2  2r  ,   0,
или
1  r  ,   0, что эквивалентно неравенству  1  r  ,   1. ▼
2) если  и  независимы, то r  ,    0 . Доказательство следует из
независимости  * и *.▼
3) r  ,   1 тогда и только тогда, когда случайные величины
линейно зависимы, то есть      ,
 ,   R.
Если   , то r   = -1, если   , то r   = 1.
Пусть     , тогда
r  ,  
Cov  ,   
D  D  

2



M  *  
1 


 .▼
Обратно, пусть r  ,    1. Возьмем r   = -1,
тогда


D  *   *  21  r  ,   0 , следовательно  * *  c .
99
Возвращаясь к  , получаем
  M   M

 c.
D
D
Для r   = 1, возьмем D *  *. ▼
4)
Если r    0, то случайные величины зависимы.
Из свойств коэффициента корреляции следует, что он характеризует
тесноту линейной связи в том смысле, что с возрастанием одной случайной
величины другая линейно увеличивается (если r) или линейно
уменьшается (если r    ), в среднем.
Пусть имеем набор случайных величин 1, 2, …, n, представляющих
некоторый объект для исследования. Математический анализ этого объекта
можно проводить, если известны:
а) математические ожидания Мi,
б) дисперсии случайных величин Di,
2
в) парные коэффициенты корреляции rij, число которых равно Сn ,
где i, j = 1, 2, …, n.
Для оценки совокупного поведения системы случайных величин, часто
рассматривают корреляционную матрицу
rij 
 1

r
  21
.

 rn1
r12
1
.
rn 2
... r1n 

... r2 n 
,
.
. 

... 1 
где rij = rji – коэффициенты корреляции случайных величин i, j.
Изучение этой матрицы задача достаточно сложная и выходит за рамки
данного курса [1].
Замечание. Можно рассматривать корреляционную матрицу, элементами
которой являются корреляции случайных величин, а по главной диагонали идут
100
их дисперсии. По такой матрице можно судить о величине рассеяния системы
случайных величин относительно их среднего значения.
Еще одним видом зависимости случайных величин являются линии
регрессии.
Пусть имеем пару (,  хy).
Определение.
Условным
математическим
ожиданием
случайной
величины  (или ), при фиксированном значении случайной величины   х,
(или   у назовем число
 y j  p ij , если  ,  - дискретные,
j
  
M  

   x    y    y dy, если  ,  - непрерывные,
 x






 M  
  



 xi  p ij , если  ,  - дискретные,

i
  

y  


x
  x    y dx, если  ,  - непрерывные. 


 

(61)
(62)
Из формул (61), (62) видно, что при изменении значений х (значений у)
изменяется и величина М     х   величина М    



Определение.
Функция
 х   М     х 


 .
у  
называется
функцией
 регрессии случайной величины  на . Аналогично,   у   М  
   у
функция регрессии случайной величины  на .
Кривые, которые заданы функциями у    х  и х    у , называются
линиями регрессии. Ясно, что функции , не являются, вообще говоря,
обратными, поскольку взаимное влияние случайных величин друг на друга, как
правило, различно. Это становится очевидным, если заметить, что при
фиксированном значении   х, значение у =  (х) определяется как условное
среднее значений уУ, которое может даже и не принадлежать множеству У.
101
Разумно считать, что линии регрессии у =  (х) и х    у  различны и
имеют, как правило, сложную функциональную зависимость.
Нахождение истинной линии регрессии задача трудновыполнимая. На
практике, как правило, поступают следующим образом.
Если, из каких-либо соображений, общий вид линии регрессии известен,
например, у =  , , ), то задача состоит в нахождении числовых параметров
,,, которые обычно являются композицией из моментов случайных величин.
Эта задача решаемая.
Другим, наиболее часто используемым в инженерных расчетах подходом,
является приближение линии регрессии многочленом степени n. Приближение
тем точнее, чем выше его степень. Обычно выбирают метод наименьших
квадратов (М.Н.К.) [4]. Пусть задан класс многочленов, накладывающий на
выборку одинаковое число связей, которое равно числу неопределенных
коэффициентов многочлена. Наилучшее уравнение приближенной регрессии
дает тот многочлен степени n, для которого наименьшее значение имеет
n
функция   y i  f  x i 2 , где (хi, yi) –совокупность опытных данных.
i 1
Пример. Пусть линия регрессии приближается линейной функцией, то
есть

y
 х   .
Здесь y означает, что истинная линия регрессии у =  (х) заменяется на
линейную функцию.
Требуется подобрать коэффициенты   так, чтобы эта линейная функция
была наилучшей.
Решение. Рассмотрим коэффициент корреляции, имеем
     r  ,   Cov  ,   Cov  ,   
где      , а    D ,   
Учитывая (60),
D .
102
Cov  ,     M         M  M     ,
или


Cov  ,      M 2   M     M   M   2 .
2
Отсюда

Cov  ,   
 2


 r  ,  .

Для нахождения  заметим, что, если линия регрессии линейна, то
 x  X  справедливо M     х   x   , то есть


M  M  
или
  M    M   M 

 r  ,   M  .

Таким образом,
y  r  ,  


 x  M    r  ,   M  .


(63)


 y  M     r  ,   M .


(64)
Аналогично получаем
x  r  ,  
Упражнение. Показать, что те же самые результаты дает метод
наименьших квадратов.
Если r  ,   0 , то случайные величины зависимы и оцениваются
острым углом между прямыми (63) и (64).
103





0

0
а)
б)
Рис. 25
На рис. 25 а), коэффициент корреляции r ,  , так как с увеличением
значений , значения  увеличиваются. На рис. 25 б), коэффициент корреляции
r , , так как с увеличением значений , значения  убывают. Если прямые
перпендикулярны, то r ,)  . Это означает, что случайные величины
некоррелированы.
2.3.5 Случайные процессы
Пусть имеем произвольное вероятностное пространство (ℱ,), на
котором задана случайная величина   ,   . Рассмотрим функцию
(t)= t), где t  T, Т – множество, интерпретируемое нами как время.
Определение. Семейство случайных величин t) параметра tТ,
определенное для каждого , называется случайным процессом.
На вероятностном пространстве можно задать любое конечное, или даже
бесконечное, семейство случайных величин. Однако, если они независимы, то
такой процесс трудно назвать случайным. Отличительной особенностью
случайного процесса является, именно, зависимость случайных величин,
которая
осуществляется
через
связующий
параметр
t.
Задание
вида
зависимости приводит к возникновению классов случайных процессов
104
(например, процессы с независимыми приращениями 2, марковские процессы
5, пуассоновские процессы 8 и др.), каждый из которых имеет свою,
наиболее эффективную область применения. Способы описания случайных
процессов, в основном, индивидуальны и приспособлены под тот или иной
класс. Существует развитая общая теория случайных процессов 6, которая
является в свою очередь, частью общей теории случайных функций.
Пример 1. Последовательность случайных величин 1, 2, …, n, …,
являющаяся результатом работы датчика случайных чисел, образующего
двухзначные целые числа в моменты времени t{1,2,…}, образует случайный
процесс. В этом случае говорят о случайном процессе с дискретным временем
и дискретными состояниями.
Пример 2. Срок службы фильтра, модулей по очистке воды, можно
рассматривать
как
случайный
процесс
со
временем
tТ=[0,Т1],
где
пространство элементарных событий  = {хлор, нефтепродукты, фенол,
пестициды, тяжелые металлы и др.}, Т1 – срок службы фильтра. Здесь
случайный процесс с непрерывным временем и дискретным числом состояний.
Пример 3. Пусть время работы технического устройства является
случайной величиной  с экспоненциальной функцией распределения
F t   1  exp  t ,   1 t ср ,
(63)
tср – среднее время наработки прибора на отказ.
Число отказов к = 0,1,2,…n прибора за время Т образует случайный процесс с
непрерывным временем и дискретными состояниями.
Пусть имеем случайный процесс  t) =  t). При любом допустимом
значении t = t1 случайный процесс становится случайной величиной
t1)=t1), для которой имеем свою функцию распределения F1(х) = F(х, t1).
Будем говорить, что в этом случае имеем сечение случайного процесса. Если
фиксировать случайное событие 1, то имеем реализацию случайного
процесса, то есть неслучайную функцию 
1
=  1 t), являющейся функцией
105
параметра t. Итак, при одном сечении процесса и одной реализации, вся
информация о нем содержится в системе
 F1  х   F  х, t1 ,

  1    1 , t .
Интуитивно ясно, что этой информации явно недостаточно для изучения
случайного процесса.
Рассмотрим пример 3. Так как имеем случайный процесс с непрерывным
временем, то при t = t1, случайная величина
1=  t1) имеет закон
распределения, представленный табл. 6.
Таблица 6
(t1)
x0 (t1)
x1(t1)
…
xn (t1)
…
P(t1)
P0(t1)
P1(t1)
…
Pn(t1)
…
 Рn t1   1 .
Значения случайной величины  (t1)  xn(t1) = n, n = 0, 1, … .
Зафиксируем элементарное событие  =n, n, тогда имеем
реализацию случайного процесса, или функцию одной переменной 1 =1 (t),
t[0,.
Рn t 
1
n=2
n=1
n=0
0
1
2
1
2
1 
t
Рис. 26
Рис. 26 иллюстрирует ситуацию, когда в начальный момент времени t=0
прибор находится в рабочем состоянии. При n = 1 максимальное значение
2
1(t)=Р1(t) равно 1  , при n = 2 максимальное значение 2 (t) = Р2(t) равно 1  .
Разобранный нами случайный процесс называется пуассоновским.
106
Из примера видно, что изучение случайных процессов тесно связано с
распределением вероятностей. Однако далеко не всегда реализация случайного
процесса имеет траекторию, представляющую «вероятностную кривую» (то
есть без пересечений и со значениями из [0,1]).
Пример 4. Частица совершает движение «скачком», двигаясь по
перпендикулярным прямым, на бумаге в клетку, случайным образом, фиксируя
свое положение в точке пересечения прямых в моменты ti, i = 1, 2, …, n. В
результате имеем достаточно сложную кривую (рис. 27). Реализация
случайного процесса – траектория, описываемая параметрически парой
(1 (t), 2 (t)), t[0,Т .
t4
 2 t 
•
• t1
t3
•
•
t5
•
t2
1t 
0
Рис. 27
Пусть имеем случайный процесс t)= t), тогда, при любом
фиксированном t=t1 (по аналогии со случайной величиной), имеем закон
распределения
F  t , x   P t   x .
(64)
Функция (64), двух переменных, F(t, x), называется одномерным законом
распределения случайного процесса t). Очевидно, что одномерный закон
распределения не может являться достаточной характеристикой случайного
процесса, поскольку он представляет только одно сечение, по которому
невозможно делать выводы о всем процессе.
Ясно, что чем больше сечений, тем точнее задан случайный процесс,
однако, и сложность изучения его резко возрастает. Для n сечений мы имеем
функцию 2n переменных. На практике, более чем
используются редко.
двумерные законы
107
Рассмотрим двумерный закон распределения
F t1 , t 2 , x1 , x 2   P t1   x1 ,  t 2   x 2  ,
(65)
который составлен по двум сечениям процесса. Функция четырех переменных
(65), оказывается, является исчерпывающей характеристикой для специального
типа случайных процессов – процессов без последействия или марковских
процессов (пример 3).
Марковские процессы широко используются в инженерной практике,
поскольку основаны на независимости специального класса случайных
событий.
2.3.5.1 Марковские процессы
Понятие марковкой цепи принадлежит русскому математику А.А.
Маркову (в статьях 1906-1908 гг., где он использовал новое понятие для
статистического анализа распределения букв в поэме А.С. Пушкина «Евгений
Онегин»). Само понятие «Цепь Маркова» было предложено русским
математиком А.Я. Хинчиным.
Пусть имеем некоторую систему S, которая может находиться в одном из
конечного или счетного множества несовместных состояний Сi, i N. Переход
системы от состояния к состоянию, вообще говоря, случаен и возможен только
в фиксированные моменты времени tn, n= 0,1,2,… . Опишем функционирование
системы в терминах случайных процессов.
Пусть в момент времени tn, система S перешла из состояния Сj в
состояние Сi. Для ее описания зададим дискретный случайный процесс
функцией tn) =  i, tn), i = 1, 2, …; n = 0, 1, … . Элементарное событие i
отражает пребывание системы S в состоянии Ci. Кроме того, нам необходимо
задать начальное распределение вероятностей для момента времени t = t0 и, в
общем случае, задать все сечения процесса и возможность его реализации.
108
Получить
такую
информацию
о
случайном
процессе
задача
трудновыполнимая, да и в ряде случаев не нужная, если использовать понятие
цепей Маркова.
В самом деле, пусть имеем последовательность (цепь) зависимых
целочисленных случайных величин n = tn), n = 0,1,… . Если в момент tn
система пришла в состояние Ci, то будем считать, что n = i.
Определение. Последовательность случайных величин {n}, n = 0,1,…
образует цепь Маркова, если
Pn  i / 0  i0 , 1  i1, ..., n  2  in  2 , n 1  j  Pn  i / n 1  j  pij( n) ,(66)
с начальными условиями
P  0  i  pi 0 ,
 p   1 .
0
(67)
i
i
(n )
Вероятности рij
Маркова,
- называются вероятностями перехода. Свойство (66), цепи
называется
свойством
отсутствия
последействия,
которое
интерпретируется так: поведение процесса в будущем зависит только от
фиксированного настоящего и не зависит от его прошлого.
Определение. Цепь Маркова {n}, n = 0, 1, …, называется однородной,
(n )
если вероятности перехода рij
не зависят от времени, то есть
n , pij( n)  pij .
(68)
Определение. Цепь Маркова называется неприводимой, если каждое ее
состояние может быть достигнуто из любого другого, то есть для любых двух
(к )
состояний системы S Сi, Cj, существует целое число к, такое, что рij  .
Для однородной цепи имеем рij  .
(n)
Пусть  j  Pn  j - вероятность того, что в момент времени tn
система находится в состоянии Сj. Интерес представляет существование
предела
109
 j  lim  jn  , j  N .
n 
(69)
Нахождение распределения {j} является основной задачей цепей Маркова.
Если предел существует, то говорят, что система S имеет стационарный режим
функционирования, если j  j  0 . Предельные вероятности {j} не зависят
от начальных условий, j ,  j , означают долю времени, в течение которого
система находится в состоянии Сj, jN,
и однозначно определяются
равенствами:

i
 1,
(70)
i
 j   i  pij , j .
(71)
i
Формула (70) называется условием нормировки.
Система алгебраических уравнений (71) является однородной, и для ее
однозначного решения необходимо использовать (70), при этом, любое одно
уравнение из системы (71) можно исключить.
Матрица П, составленная из элементов
рij , называется матрицей
вероятностей перехода:
   pij  .
(72)
Зададим вектор вероятностей состояний системы
   p1 , p2 ,..., pn ,... .
тогда система (71) записывается в виде
   .
(73)
Часто представляют интерес переходы системы из состояния в состояние
в произвольный момент времени (переходный режим).
Для этого нужно определить распределение вероятностей
   
n
j
пребывания системы в состоянии Сj в момент tn. Зададим вектор вероятностей

n 
в момент tn равенством
110

( n)


 p1n  , p 2n  ,..., p nn  ,... .
Используя (71) и определение вероятностей переходов (66), имеем

0

1

 0
 ,

0
0
где   p1 , p2 ,... - начальное состояние системы (67). Отсюда для любого n,
по рекуррентной формуле, получаем

 n

 n 1
0
      n , n N .
(74)
Уравнение (74) дает общий метод вычисления вероятностей на n-м шаге
0
процесса по заданной матрице переходов П и начальном распределении  .
Если стационарный режим существует, то
  lim 
n 
n
.
(75)
Пример. Рассмотрим систему S, которая находится, в любой момент
времени t, в одном из трех состояний С1, С2, С3. Переход системы от состояния
к состоянию происходит мгновенно в фиксированные моменты времени tк = к,
к  N, в соответствии с размеченным графом [3] состояний рисунка 28.
3/4
С1
1/2
3/4
С2
1/4
С3
1/4
1/4
Рис. 28
Требуется оценить скорость сходимости к стационарному режиму и вычислить
стационарное распределение вероятностей.
Решение. Вычислим стационарное распределение вероятностей, то есть
найдем собственный вектор    р1 , р 2 , р3  , где pi  P Ci  , i=1, 2, 3.
Имеем      , где
111
 0 3/ 4 1/ 4 
  1/ 4 0 3/ 4  .
1/ 4 1/ 4 1/ 2 


С учетом условия нормировки p1  p2  p3  1 имеем систему
 p1  0  p1  (1/ 4)  p2  (1/ 4)  p3 ,
 p  (3/ 4)  p  0  p  (1/ 4)  p ,
 2
1
2
3

 p3  (1/ 4)  p1  (3/ 4)  p2  (1/ 2)  p3,
1  p1  p2  p3 .
(*)
Решая ее (например, без уравнения помеченного (*)), получаем стационарное
распределение вероятностей:
   0,2; 0,28; 0,52  .
Оценим скорость сходимости. Для этого вычислим вероятности перехода
рijn  по формуле (74) при различных начальных условиях:
а) р(0) = (1,0,0),
результаты представлены в виде табл. 7.
Таблица 7
n
0
1
2
3
4
…

р1n 
1
0
0,250
0,178
0,203
…
0,2
р 2n 
0
0,75
0,062
0,359
0,254
…
0,28
р3n 
0
0,25
0,688
0,454
0,543
…
0,52
б) р(0) = (0,1,0),
соответствующие результаты отражены в табл. 8.
112
Таблица 8
n
0
1
2
3
4
…

р1n 
0
0
0,187
0,203
0,199
…
0,2
р 2n 
1
0,75
0,375
0,250
0,289
…
0,28
р 3n 
0
0,25
0,438
0,547
0,512
…
0,52
в) р(0) = (0,0,1),
в итоге получаем табл. 9:
Таблица 9
n
0
1
2
3
4
…

р1n 
0
0
0,187
0,203
0,199
…
0,2
р 2n 
0
0,75
0,313
0,266
0,285
…
0,28
р3n 
1
0,25
0,500
0,531
0,516
…
0,52
Из таблиц видно, что вхождение системы в стационарный режим
происходит достаточно быстро, так как, уже после четырех шагов, вероятности
мало отличаются от предельных, независимо от начальных условий.
Замечание. Оценка скорости сходимости переходных вероятностей к
стационарным зависит от собственных значений матрицы П и иллюстрируется
барицентрической системой координат [8].
2.3.5.2 Непрерывные цепи Маркова
Если система с конечным или счетным числом состояний может
переходить из одного состояния в другое в любой момент времени t, то будем
говорить, что задана цепь Маркова с непрерывным временем.
Определение. Случайный процесс t образует непрерывную цепь
Маркова, если для произвольной последовательности t i , i = 1, 2, …, n, такой,
что t0 t1 … tn, выполняется
113
P  tn   j   t0   i0 ,  t1   i1, ...,  tn 1   in 1  P tn   j  tn 1   in 1 . (76)
Это определение является непрерывным аналогом определения (66).
Интерпретация та же самая: состояние системы S в будущем зависит только от
текущего ее состояния (настоящего) и не зависит от того, как и когда
система попала в это состояние.
Определение. Цепи Маркова, сформулированные в терминах случайных
процессов, называются марковскими процессами.
Рассмотренные здесь цепи Маркова - суть марковские процессы.
Непрерывные марковские процессы отличаются от дискретных тем, что
случайные
изменения
состояний
системы
зависят
от
непрерывно
изменяющихся параметров.
Пусть задан процесс (t), определяющий состяние ситемы в момент
времени tT. Зададим процесс ее развития: если, в данный момент времени 
(<t), система находится в состоянии i, то в последующий момент времени t она
будет находится в состоянии j с вероятностью Pij ( , t ) , независимо от
поведения системы до момента . Для такой системы вероятности
Pij ( , t )  P (t )  j /  ( )  i ,
i, j  N ,
называются переходными вероятностями марковского процесса.
Определение. Марковский процесс (t) называется однородным, если
переходные вероятности Pij ( , t ) зависят только от разности (t-), то есть
Pij ( , t )  Pij (t   ) .
В общем случае вместо переходных вероятностей можно рассматривать
соответствующие плотности вероятностей. В качестве примера, можно
привести броуновское движение, распространенное на непрерывный случай
(Винеровский процесс 2).
114
2.3.5.3 Потоки событий
Потоком событий называется появление однородных событий в
случайные моменты времени.
Т1
0
1
Т2
2
Тn-1
3
…
n-1
n
Тn
n+1
…
t
Рис. 29
Рассмотрим временную ось (рис. 29). Поток событий представляет собой,
вообще говоря, последовательность случайных точек 1 2…n на оси,
разделенных временными интервалами Тi = i+1i), iN,
длина
которых
случайна.
Потоки событий различаются по законам распределения длин интервалов
Ti между событиями, по их зависимости или независимости, регулярности и др.
Наиболее изучены потоки, которые обладают следующими свойствами:
а) стационарность – все его вероятностные характеристики не меняются
со временем;
б)
отсутствие
последействия
–
для
любых
непересекающихся
временных интервалов на временной оси, число событий, находящихся на
одном интервале, не зависит от того, сколько их и как они оказались на другом
интервале;
в) ординарность – практическая невозможность на достаточно малом
временном интервале появиться двум и более событиям.
Для формализации этих свойств, введем понятие интенсивности.
Пусть Рi t , t  - вероятность того, что за время t, примыкающего к
моменту времени t, появилось i событий, iN.
Рассмотрим полную группу несовместных событий, для которой, по
определению, имеем

 Pi t , t   1.
i 0
(77)
115

Введем обозначение, пусть Р1 t , t    Pi t , t  - вероятность того, что
i 2
за время t появилось более одного события.
Тогда формула (77) примет вид
Р0 t , t   P1 t , t   P1 t , t   1 .
(78)
Из определения ординарности следует, что
P1  t , t   0  t  ,
(79)
где 0(t) – бесконечно малая более высокого порядка, чем наименьшая из
вероятностей P0 (t , t ) и P1  t , t  , то есть lim 0t  / t   0 .
t 0
Обозначим через M  t   математическое ожидание числа событий
появившихся за время t , тогда, по определению,

M   t , t     i  Pi  t , t  .
i 0
С учетом ординарности и свойств бесконечно малой, имеем
М  t , t   0  P0 t , t   1  P1 t , t   0t 
или
M  t , t   P1 t , t   0t .
Положим
P t , t 
M  t , t 
 lim 1
.
t
t
t 0
t 0
 t   lim
Определение. Функция
 t  параметра t называется интенсивностью
(плотностью) ординарного потока событий в момент t, если
M  t , t 
.
t
t 0
 t   lim
Стандартная трактовка
(80)
 t  - среднее число событий, приходящихся на
единицу времени, для участка t , примыкающего к моменту t.
Ясно, что t ,
 t   0 , и имеет размерность обратную времени - 1 вр .
116
Пример. Среднее число событий ординарного потока, на интервале
длиной , примыкающего к t, равно
M   t  ,   
t 
   t  dt ,
(81)
t
в частности, для стационарного потока, имеем
M  t ,      , то есть  t   .
Наконец, отсутствие последействия формулируется следующим образом.
Пусть Pn t     вероятность того, что за время , примыкающего к
моменту времени t, появилось к событий при условии, что в момент времени t
было n-к событий. Тогда условие отсутствия последействия означает, что
Pn t     Pn k t   Pk t ,  , к = 0, 1, …, n.
(82)
В частности, при   t и к = 1, имеем
Pn  t  t   Pn 1 t   P1 t , t  .
(83)
Замечание. Формула (82) в терминах биологии может интерпретироваться
как вероятность роста популяции [6] на к единиц за время . Аналогично, имеет
смысл говорить о гибели популяции на к единиц за время , если в момент t
популяция состояла из (n+k) единиц, то есть
~
Рn t     Pnk t   Pk t ,  .
Определение. Поток событий называется простейшим, если он обладает
свойствами:
а) стационарности:  = const,
б) отсутствия последействия:
Pn  k  t  t   Pn t   Pk t , t  .
в) ординарности:
Р1 t  t   0t  .
Замечание. Простейший поток событий является достаточно общим, в том
смысле, что получаемые вероятностные характеристики функционирования
117
систем в условиях простейшего потока, как правило, наиболее пессимистичны,
то есть «хуже не будет».
Покажем что, если поток событий простейший, то распределение длин
интервалов
между
поступлениями
любой
пары
соседних
событий
показательное (экспоненциальное) с плотностью
  t   et ,   0 , t  0,  
(84)
Следующие постулаты сразу следуют из определения простейшего потока:
1) для всякого малого t0, существует ненулевая вероятность появления
события;
2) если система начинает функционировать с момента t = 0, то первое
появление события имеет место в момент t  0.
Рассмотрим функцию
t
f  t   1      d .
(85)
0
если
 t  - плотность, то
f t   Pпервое событие появилось после момента t .
Из свойства отсутствия последействия, имеем
f  t , t   f t   f  t  , t  0,   , t  0 .
Вычитая из обеих частей (86) f (t), получим
f  t , t   f  t    f  t   1  f  t   .
Разделим обе части на t, и перейдем к пределу по t:
lim
t  0
f  t , t   f  t 
t
  f  t   lim
1  f  t 
t  0
Если пределы существуют, то полагая
1  f t 
0,
t
t 0
  lim
будем иметь
f   t    f  t  , где f  0   1.
t
.
(86)
118
Решая это уравнение, получаем выражение
f t   e t .
Подставляя его в (84), получим
e
t
t
 1     d
0
или
t
    d  1  e
 t
.
(88)
0
Дифференцируя (88), получаем требуемое
 t   e t .▼
(89)
Определим
Vk t   Pв интервале (0, t ) появилось ровно к событий  .
Учитывая условие отсутствия последействия, можем воспользоваться сверткой
t
t
0
0
Vk  t    Vk 1  t        d   Vk 1      t    d , k  N.
(90)
Используя (89), имеем
t
Vk  t    Vk 1     e  t   d .
(91)
0
Из смысла f t  и (90), при k = 0, получаем
V0 t   e t .
(92)
Дифференцируя (91) по t, приходим к системе уравнений
dVk  t 
dt
 Vk  t   Vk 1  t  , k  N .
(93)
Система рекуррентных линейных дифференциальных уравнений (93) легко
решается, начиная с k = 1, если учесть (92) и начальные условия: Vк(0) = 0, kN.
Решение системы (93) имеет вид:
Vk  t 
 t 

k!
k
 e  t , k = 0, 1, 2, ... .
(94)
119
Формула
(94)
представляет
пуассоновский
процесс
(или
чисто
случайный процесс) с дискретным пространством состояний и непрерывным
временем.
Система уравнений (93) называется системой уравнений чистого
рождения [6].
Вывод. Если в некоторой системе S переходы ее из одного состояния в
любое другое удовлетворяют условиям простейшего потока, то говорят, что
имеет место пуассоновский процесс с непрерывным временем. Обратное также
справедливо.
Пуассоновский
процесс
обладает
некоторыми
замечательными
свойствами, используя которые легко получать системы уравнений вида (93),
часто применяемые в системах массового обслуживания.
2.3.6 Основы теории массового обслуживания
Под системой массового обслуживания (СМО) будем понимать
комплекс, состоящий из а) случайного входящего потока требований
(событий), нуждающихся в «обслуживании», б) дисциплины очереди, в)
механизма, осуществляющего обслуживание.
Входящий поток. Для описания входящего потока обычно задается
вероятностный
закон,
управляющий
последовательностью
моментов
поступления требований на обслуживание и количеством требований в каждом
поступлении
(то
есть
требования
поступают
либо
единичные,
либо
групповые). Источник, генерирующий требования, считается неисчерпаемым.
Требование, поступившее на обслуживание, может обслуживаться сразу, если
есть свободные обслуживающие приборы, либо ждать в очереди, либо
отказаться от ожидания, то есть покинуть обслуживающую систему.
Дисциплина очереди. Это описательная характеристика. Требование,
поступившее в систему, обслуживается в порядке очереди – дисциплина
очереди: первым пришел – первым обслужен. Другая дисциплина очереди:
120
последним пришел – первым обслужен - это обслуживание по приоритету.
Наконец, обслуживание требований может быть случайным.
Механизм обслуживания. Характеризуется продолжительностью и
характером процедур обслуживания. Обслуживание может осуществляться по
принципу: на одно требование – один обслуживающий прибор. Если в системе
несколько
приборов,
то
параллельно
могут
обслуживаться
несколько
требований. Часто используют групповое обслуживание, то есть требование
обслуживается одновременно несколькими приборами. В некоторых случаях
требование обслуживается последовательно несколькими приборами – это
многофазовое обслуживание.
По окончании обслуживания требование покидает систему.
Анализ
системы
массового
обслуживания.
Целью
является
рациональный выбор структуры обслуживания и процесса обслуживания. Для
этого требуется разработать показатели эффективности систем массового
обслуживания. Например, требуется знать: вероятность того, что занято или
свободно k приборов; распределение вероятностей свободных или занятых
приборов от обслуживания; вероятность того, что в очереди находится
заданное число требований; вероятность того, что время ожидания в очереди
привысит
заданное.
К
показателям,
характеризующим
эффективное
функционирование системы в среднем, относятся: средняя длина очереди;
среднее время ожидания обслуживания; среднее число занятых приборов;
среднее время простоя приборов; коэффициент загрузки системы и др. Часто
вводятся экономические показатели. Разработкой математических моделей,
получением числовых результатов и анализом показателей эффективности
занимается теория массового обслуживания.
Таким образом, основные элементы системы массового обслуживания
укладываются в следующую схему (рис. 30):
1
2
3
. . .
поток требований
дисциплина очереди
входящий
механизм обслуживания
121
выходящий поток
обслуженных
требований
n
Рис. 30
Рассмотрим одну из задач теории массового обслуживания, ставшую уже
классической.
Постановка задачи. Пусть имеем СМО, состоящую из n идентичных
параллельных каналов (приборов) обслуживания, на которую поступает
случайный поток требований интенсивностью . Интервал времени между
поступлениями соседних требований является случайной величиной ,
образующей пуассоновский процесс
Vk  t  
k
k!
e  t ,
где Vk t   вероятность того, что за время t в СМО поступит ровно k
требований,  - среднее число требований, поступающих в СМО в единицу
времени.
Если требование поступившее в СМО застает все приборы занятыми, то
оно встает в очередь и ждет до тех пор, пока не освободится обслуживающий
прибор. Время обслуживания требования любым прибором является случайной
величиной , удовлетворяющий экспоненциальному закону распределения:
F  t   P  t  1  exp    t 
где   1 tcp , t cp - среднее время обслуживания требования.
122
Каждый прибор, в любой момент времени t 0, может обслуживать не
более одного требования. Обслуженное требование покидает СМО. Требуется
проанализировать эффективность работы системы.
Решение. Обозначим через
Рk t  - вероятность того, что в момент
времени t в системе находится k требований.
Пусть t – достаточно малый промежуток времени.
Вероятность
того,
что в СМО за время t не поступит ни одного требования:
V0 t   e t  1  t  0t .
Вероятность того, что в СМО за время t поступит одно требование:
V1 t  
t  e t  t  0t .
1!
Вероятность того, что за время t в СМО поступит два или более
требований:

t 2
 ...  0t .
Vk t   1  V0 t   V1 t  

2!
k 2
Вероятность того, что за время t требование будет обслужено:
1  e  t  t  0t .
Вероятность того, что за время t будет обслужено два или более
требования:
t 2
2!
 ...  0t .
Вероятность того, что за время t будет обслужено одно из к требований,
находящихся в системе, найдем следующим образом:
123
Ртребование не будет обслужено за время t= e  t ;


ни одно из к требований   t k
P
 1  kt  0t  ;
= e
не будет обслужено за t 
будет обслужено одно из 
kt
 kt  0t .
P
 =1  e
к требований за t

Вероятность того, что за время t произойдет более одного события
(например, поступит требование и какое – нибудь обслужится), есть
бесконечно малая более высокого порядка, чем t - 0 (t).
Для 0  k  n – 1 имеем разностное уравнение
Pk  t  t   Pk  t   1    t  0  t    1  k    t  0  t   
 Pk 1  t     t  0  t    Pk 1 t     k  1    t  0  t    0  t  .
(95)
При получении уравнения мы воспользовались формулой полной
вероятности и свойствами пуассоновского процесса.
В словесной формулировке это звучит так: вероятность того, что в
момент времени (t+t) в системе находится к требований (k  n – 1) равна
вероятности того, что в момент t в системе находилось к требований и ни
одного требования не поступило и не было обслужено, или вероятность того,
что в момент времени t в системе находилось (k-1) требование и за время t
поступило одно требование в систему, или вероятность того, что в момент
времени t в системе находилось (k+1) требование на обслуживании и за время
t одно из (k+1) требований было обслужено, или вероятность того, что за
время t произошло более одного события.
Преобразуем уравнение (95) к виду:
Pk  t  t   Pk  t      k    t  Pk t     t  Pk 1 t    k  1    t  Pk 1 t   0  t 
Разделив обе части на t и переходя к пределу, получим
Рк t     к Pк t   Pк 1 t   к  1Рк 1 t , 1 к  n-1.
(96)
Для к  n заметим, что за время t может быть обслужено не более чем
одно из n требований, так как число обслуживающих приборов равно n.
124
Таким образом, для к  n, имеем уравнение
Pk  t  t   Pk  t   1  t  0  t    1  k t  0  t    Pê 1 t  t  0  t   
 Pk 1  nt  0  t    0  t  .
Производя выкладки, аналогичные уравнению (95), получим
Pk '  t      n     Pk  t     Pk 1 t   n    Pk 1 t  .
(97)
Заметим, что при к = 0, вероятность Pк 1 t   P1 t   0.
Учитывая это, окончательно имеем систему уравнений:
 P  t   P t   P t ;
0
1
 0
 Pк t     к Рк t   Рк 1 t   к  1Рк 1 t ,

1  к  n - 1;


 P t     n Р t   Р t   nР t , к  n.
к
к 1
к 1
 к
(98)
Пусть начальные условия имеют вид:
Р0 0   1, Рк 0   0, к  1.
(99)
Решение системы (98), с начальными условиями (99), слишком громоздко
[8], однако решение для стационарного режима оказывается простым.
В самом деле, если (/n)  1, то СМО эргодична, то есть
к , lim Pк t   Pк  0 существует, но тогда к, lim Pк  t   0 .
t 
t 
Тем самым система (98) сводится к системе однородных алгебраических
уравнений:
 0  Р0  Р1 ;

0    к Рк  Рк 1  к  1Рк 1 , 1  к  n  1;
 0    n Р  Р
к
к 1  nРк 1 , к  n.

(100)
Чтобы система (100) имела единственное решение, добавим условие
нормировки:

 Р к  1.
к 0
Для решения системы (100), с условием (101), введем обозначения
(101)
125
 z к  кРк  Рк 1 , к  1,..., n ;
~
 z к  nРк  Рк 1 , к  n.
(102)
В новых обозначениях, система (100) примет вид:
 z 0  0;

 z к  z к 1  0;
~
~
 z к  z к 1  0.
Отсюда следует, что
к, z к  0, ~
z к  0.
Возвращаясь к обозначениям (102), получаем
 кРк  Рк 1, к  1,2,..., n;

nРк  Рк 1, к  n .
Выразим все вероятности через Р0. Имеем при к = 1
Р1 

Р0 .

При 1 к  n
k
  1

Pk 
 Pk 1      P0 .
k
   k!
(103)
При к  n,
  
Pk  

 n 
k n
 Pn .
или
Pк 
 к
 к n!n к n
P0 .
Для нахождения Р0 , воспользуемся условием нормировки (101):
k
k

  1
 
1


P

 P0  1 .


 
  
0
k!
n! n k  n
k 0   
k n   
n 1
После элементарных преобразований, получим
(104)
126
1
 n 1    k 1    n 1     s 
P0         

  .
 k  0    k !    n! 
n

s 0 
 

Учитывая, что  / n  1, имеем

s
 
1
     .
s 0 n 
1
n
(105)
Окончательно получаем:

n
k
 n 1







1
P0   
  
 k 0 k !
   n!1  

 n


1



 ,


  /  к
Р0 , 1  к  n  1;

 к!
Pк  
к
  /   Р , к  n,  n  1.
 n! n к n 0
Замечание. Условие
 n  1, означает, что входящий поток меньше,
чем суммарный выходящий, иначе ряд в (105) был бы расходящимся, то есть
система не была бы эргодична.
Если Рк известны, то многие показатели эффективности можно
вычислить путем элементарных алгебраических операций, например,
1) Р система свободна   Р0 ;
 занято к обслуживающих 
2) Р
  Рк ;
приборов,
к

n



все приборы

3) P 

Π

 Pk

заняты
обслуживан
ием
k
n


или
     /  n  1! n      P0 ;
n
127
время ожидания

4) Р  t 0   P 
,
в очереди большее t 0 
P  t0    exp    n    t0  ;
5) tож – среднее время, в течение которого требование ждет начала
обслуживания,
tî æ   /  n    ;
6) А – средняя длина очереди,
А

2
 кРк   n   Pn / 1   n  ,
к  n 1
n
 
где Рn     P0 / n!;
 
7) В- среднее число обслуживаемых требований,
В
n 1

к 0
к n
 кРк  n   Pк    ;
8) R- среднее число требований в системе,
R = A +B;
9) L – среднее время пребывания требования в системе,
L   / n    
1

;
10) K3 - коэффициент загрузки системы,
К 3  В n.
Будем считать, что предложенные здесь показатели эффективности (в
зарубежной литературе их называют операционными характеристиками) дают
достаточно полное представление о функционировании СМО.
Решение системы дифференциальных уравнений рождения и гибели вида
(98), в переходном режиме, очень громоздко, да и, в ряде случаев, не является
необходимым, поскольку реальные системы достаточно быстро входят в
стационарный режим функционирования. Кроме того, учитывая, что получение
128
необходимых формул для стационарного режима не вызывает особых
трудностей, делает его привлекательным для анализа систем.
В ряде случаев получение алгебраических уравнений для стационарного
режима можно записать сразу, если воспользоваться методом декомпозиции.
Суть метода. Функционирование системы S представляется в виде
связного графа ее состояний С i , i  N . Переход системы из состояния Ci в
состояние Сj графически осуществляется по направленным отрезкам с
заданными интенсивностями переходов
 ij . Если переход невозможен, то
 ij =0.
В стационарном режиме действует принцип равновесия: сумма «входов»
в любое состояние равна сумме «выходов» из него. Это позволяет
записать
уравнения
равновесия
по
каждому
из
состояний
(метод
декомпозиции).
Рассмотрим применение метода декомпозиции на примере следующей
задачи из теории надежности процесса гибели и рождения с конечным числом
состояний [8].
Пусть имеем однородный марковский процесс с конечным числом
состояний С к , к = 0, 1, …, n. Если в момент t процесс находится в состоянии
Cк, то за бесконечно малое время t он
с вероятностью
перейдет в состояние C к 1 , с вероятностью
к  t  0(t )
 к t  0(t ) перейдет в
состояние C к 1 и с вероятностью 1  к   к t  0(t ) останется в
состоянии C к . Если процесс находится, в момент t, в состоянии C 0 , то за
время t он может остаться в состоянии C 0 или перейти в состояние C1 ; если
же процесс находится в момент t в состоянии C n , то за время t он может
остаться в состоянии C n или перейти в состояние C n 1 . Обозначим через
Pк t - вероятность того, что в момент времени t процесс находится в
129
состоянии к, к = 0, 1, 2, …, n. Представим наш процесс в виде графической
схемы (рис. 31).
0
1
C0
 n 1
C1
...
C n 1
2
1
Сn
n
Рис. 31
Очевидно,
что
процесс
эргодический,
следовательно
к, lim Pк t   Pк  0 . В силу условия равновесия, для стационарного режима,
t 
имеем (по каждому состоянию)
C0 :
0 P0  1P1 , Ck :
k Pk  k 1Pk 1 ,
для 1  к  n-1, Cn : n 1Pn 1  n Pn .
Таким образом, получаем однородную систему алгебраических уравнений:
0 Р0  1 Р1  0;

  к Рк   к 1 Рк 1  0, 1  к  n  1;
 P   P  0,
 n1 n1
n n
(106)
которая имеет единственное решение, если добавить условие нормировки
n
 Р к  1.
(107)
к 0
Окончательно получаем:
Рк 
    ...  к 1
к 1
Рк 1  0 1
Р0   к Р0 .
к
1 2 ... к
Учитывая (107) находим
Рк   к
n
  i ,  0  1.
i 0
Упражнение. Записать граф – схему СМО предыдущей задачи, составить
уравнения равновесия и получить значения вероятностей Рк , к = 0,1,2,… .
130
Замечание. Система уравнений вида (98) является частным случаем
предельного перехода при t  0 в уравнениях Колмогорова – Чепмена
для однородных во времени марковских процессах [2], которые имеют вид:
Рij t  t    Pim t Pmк t , t  0 i, к ,
(108)
m
в момент t система будет содержать к требований, при 
где Рiк t   P
.
условии,
что
в
момент
t

0,
в
системе
было
i
требовани
й


Система уравнений рождения и гибели отличается от системы (108) тем,
что переходы возможны только из соседних состояний:
 Рi ,к t  t   Pi ,к 1 t Pк 1,к t   Рiк t Pк ,к t  

 Pi ,к 1 t Pк 1,к t , к  1;
 Р t  t   P t P t   Р t P t .
i ,0
i ,0
0, 0
i ,1
1,0

(109)
Из системы (109), с точностью до обозначений, предельным переходом легко
получить систему (98).
Часть 3. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ
Реальности нашей действительности подтверждают принцип, согласно
которому определенного вида действия случайных событий, при весьма
широких допущениях, приводят к результату, не являющемуся случайным.
Благодаря этому принципу, законы теории вероятностей можно получать из
закономерностей, присущих массовым случайным явлениям (событиям).
Некоторые законы можно сформулировать в виде предельных теорем,
основывающихся на устойчивости среднего результата случайных факторов
(например, оценка вероятности, числовых характеристик случайных величин,
их распределений и др.).
Мы рассмотрим две группы предельных теорем.
К первой группе относятся теоремы, в которых, при определенным
образом организованных условиях, доказывается сходимость случайных
величин или функций от них к некоторым постоянным. Эта группа теорем
131
носит название закона больших чисел. Примером может являться теорема
Бернулли.
К другой группе предельных теорем относятся теоремы, использующие
предельные
свойства
сумм
случайных
величин,
где
пределом
последовательности частичных сумм являются не постоянные, а неслучайные
функции (например, нормальное распределение или распределение Пуассона).
В частности, в центральных предельных теоремах формулируются условия,
при которых последовательности частичных сумм случайных величин сходятся
к нормальному распределению
Замечание. Предельные теоремы и приближенные формулы (например,
формула Пуассона) справедливы тогда, когда общее число испытаний заранее
фиксировано. Если допустить, что, например, при подбрасывании монеты,
игрок может закончить игру в выгодный для себя момент, то в целом результат
игры не может быть оценен нормальным распределением, поскольку считается,
что за достаточно длительное время произойдет любое, пусть и маловероятное,
но мыслимое событие, то есть при n   вероятность любому событию
произойти близка к единице.
Докажем некоторые неравенства, которые, может быть, малопригодны на
практике, в силу своей общности, но очень важны и эффективны в
теоретических исследованиях.
Теорема. Для любой случайной величины , с заданной функцией
распределения F(x), имеет место неравенство
 0, Р    
Доказательство. Пусть
М
к
к
, к  N.
(110)
  х  - плотность случайной величины , тогда
имеем цепочку неравенств
P       P             A   ,  
    x  dx  
A
A
x
k
k
  x  dx 
1
k



x    x  dx 
k
 ,    P    A 
M
k
k
.▼
132
Следствие 1. Пусть случайная величина 
положительно определена,
тогда
Р    
М

.
Следствие 2. (Неравенство Чебышева). Если дисперсия случайной
величины  существует, то
Р  М    
М   М 2
2
или
Р  М    
D
.
(111)
Вместо (111), часто используют неравенство
D
Р   М     1 
.
(112)
2
2
Пример. Оценить вероятность того, что произвольная случайная величина,
с конечной дисперсией, отклонится от своего математического ожидания более
чем на 3.
Решение. Из формулы (111), имеем
Р   М  3  
2
3 
2
 1 9  0, 1 .
Для сравнения, если случайная величина распределена нормально, то
Р   М  3   0,00135,
а если имеет распределение Пуассона, то
Р   М  3   1 9 .
Полученная оценка для распределения Пуассона
Vk 
k
k!
e  , k  0, 1, ... ,
133
отражает факт универсальности его применения, в том смысле, что
распределение устойчиво к некоторым ослаблениям условий необходимых при
его выводе.
3.1 Закон больших чисел
Теорема (Чебышева). Для последовательности независимых случайных
величин 1 ,  2 ,..., n ,..., с дисперсиями ограниченными в совокупности (то есть
n, D n  С ), имеет место асимптотическая оценка*
1 n

1 n
P


M



  1, n   .
  0 ,   i

i
n
n
i 1
 i 1

(113)
1 n
1 n
Доказательство. Положим     i , тогда M    M  i . Для
n i 1
n i 1
каждого фиксированного n, в силу (112), имеем
P
   M  <   1  D .
2
(114)
Из свойств дисперсии следует, что
n
1 n
nC C
1 n  1
D  D  i   2 Di  2  Di  2  .
n i 1
n
n
i 1
 n i 1  n
Усилив (114), получим


Р   М    1 
C
.
n
Переходя к пределу при n  , и, учитывая, что вероятность больше единицы
не бывает, получаем требуемое. ▼
Замечание. Теорема Чебышева справедлива и для случайных величин, у
которых функции распределения, вообще говоря, различны.
Из теоремы Чебышева можно получить важные частные случаи.
* Последовательность {n} сходится по вероятности к , если для всякого  0, Р{n-  }0 при n.
Формула (113) определяется как сходимость по вероятности дополнительной вероятности к событию {n-}.
134
Теорема. (Хинчина). Дана последовательность независимых случайных
величин 1 ,  2 ,..., n ,… с одним и тем же распределением и ограниченной
дисперсией, тогда
1 n
 n i 1

  0 , Р   i  a     1 при n  ,

где
a  M i , i .
Пример. Дана последовательность независимых случайных величин
1 ,  2 ,..., n ,…, заданных на вероятностном пространстве (,ℱ,Р) с функцией
распределения Коши:
i, F  x  
i
1 1
 arctgx , i  N .
2 
Можно ли применить к этой последовательности теорему Хинчина?
Решение. По условию теоремы Хинчина, дисперсии случайных величин
ограничены. Проверим это условие. Найдем сначала математическое ожидание.
Имеем
i, M i 



xFi  x  dx 
1

x
 1  x2 dx .
 
Так как математическое ожидание не существует, то не существует и
дисперсия, следовательно, теорема Хинчина для этой последовательности
неприменима по двум ее условиям.
Замечание. Для теоремы Хинчина, вообще говоря, кроме независимости
случайных величин достаточно существование конечного
математического
ожидания [5].
Из теоремы Хинчина следует, что, если при многочисленных измерениях
некоторой величины, допускаются случайные ошибки, то их среднее
арифметическое дает измерение, наиболее близкое к истинному.
135
Теорема (Бернулли). Пусть  - число появлений события А в n
независимых испытаниях, а р– вероятность появления события А в каждом
испытании, тогда


 p     1 при n   .
n

 0, Р
Доказательство. Рассмотрим независимые случайные величины  i , где
1, если в испытании i событие А появилось,
i,  i  
0, в противном случае,
n
тогда     i . Далее i, М i  1  p  0  q  p, D i  p  q  1 4 .
i 1
Ограниченность дисперсии следует из того, что, взяв производную от


выражения  p  q  p   p1  p   1  2 p,
получаем, что максимальное значение р = 1/2,
тогда q  1  p  1 2 .
n
Все условия теоремы Чебышева выполнены. Учитывая, что     i ,
i 1
получаем
1 n



1 n
 0, P   p     P  i   p     1 при n   .▼
n i 1
n

 n i 1

Теорема Бернулли утверждает, что чем больше мы будем проводить
независимых испытаний, тем точнее будет оценка вероятности события А в
среднем.
Теорема
(Пуассона).
Если
для
последовательности
независимых
испытаний вероятность появления события А в испытании к равна p к , к N , то
 1

  pi     1 при n   .
n n

  0 , Р
Доказательство. Достаточно заметить, что
i, D i  pi  qi  1 4 ,
136
то есть дисперсии ограничены в совокупности. Все остальные условия теоремы
Чебышева, очевидно, выполняются. ▼
Из теоремы Пуассона следует, что, если при проведении независимых
испытаний, вероятность появления события А меняется незначительно за счет
случайных причин, то при достаточном числе испытаний мы получим значение
близкое к истинному значению вероятности события А.
Для произвольной последовательности случайных величин закон
больших чисел может быть сформулирован следующим образом.
Теорема (Маркова). Дана последовательность произвольных случайных
величин 1 ,  2 ,..., n ,… и для каждого фиксированного n
 n 
D   i 
 i 1 
n
2
 0 ,
(115)
n
тогда
1 n

1 n
  i   M i     1 при n   .
n i 1
 n i 1

  0 , Р 
Условие (115) означает, что для любого конечного n, среди случайных
величин 1 ,  2 ,..., n нет таких, которые существенно влияли бы на их сумму.
Закон
больших
чисел
фактически
обосновывает
статистическую
вероятность [4], устойчивую к ослаблениям условий ее получения, если число
испытаний достаточно велико.
3.2 Центральные предельные теоремы
Пусть дана последовательность случайных величин 1 ,  2 ,..., n , … .
n
Пусть  n    к - частичная сумма последовательности.
к 1
В классической постановке центральные предельные теоремы описывают
поведение частичных сумм  n , когда n достаточно большое.
137
В большинстве случаев, будем говорить, что к последовательности
случайных величин применима центральная предельная теорема [5], если для
любых действительных чисел   .
 x2 
1 
dx,
Р Вn   n  An  Bn  
 exр  

n 
2 
 2 
2
где Bn

n
n
к 1
к 1
(116)
 D к , а Аn   М к .
Практически, формула (116) дает оценку вероятности того, что сумма
нескольких случайных величин примет значение из заданного интервала. В
современных центральных предельных теоремах в качестве предельных
распределений рассматриваются распределения, отличные от нормального,
обычно это локальные предельные теоремы (распределение Пуассона, Коши
распределения, распределение Стьюдента, 2 – распределение и др).
Теорема (Линдеберга – Леви). Пусть 1 ,  2 ,..., n ,…- последовательность
независимых
случайных
величин,
заданных
на
одном
вероятностном
пространстве. Пусть существуют
М n  a, и D n   2 , n,
тогда для любых   имеет место
n

  к  na

Р   к 1


n


Теорема
независимых
(Ляпунова).
случайных


 x2 
1 

 n
 exр  dx.

2


 2 


1 , 2 ,..., n ,...
Пусть
величин,
у
которых
-
последовательность
существуют
конечное
математическое ожидание - М к , дисперсия - D к и третий центральный
момент  3к  М  к  М к 3 , к, n  N .
n
Если
lim  
n 
k 1
k
3
 n
3/ 2 
(

)

k

  0,
 k 1

(117)
138
то закон распределения нормированной суммы
n 
 n  An
Bn
сходится по вероятности к нормальному распределению, то есть
1
P   n  x 

n 
2
 t2 
 exp   2  dt .
x
Доказательство теорем можно найти в [2,5].
Замечание. Условие (117) означает, что влияние любой из случайных
величин к последовательности на их сумму несущественно, иначе сходимость
определялась бы распределением той случайной величины, у которой
дисперсия намного больше, чем у других случайных величин.
Следствие. Если дана последовательность 1 ,  2 ,..., n ,… одинаково
распределенных случайных величин с конечной дисперсией, то имеет место
сходимость равномерно по х
 1
P
 n D
n
 
k 1
k
 M k 
x

 t2 
 x  
  exp    dt .
n 

 2

Пример 1. В n испытаниях Бернулли с вероятностью успеха р в каждом
из испытаний, число успехов можно представить в виде суммы
n
  i ,
i 1
где i равно единице или нулю, в зависимости от того был ли успех в
испытании i или нет (см. теорему Бернулли). Так как испытания независимые,
то к сумме применимо следствие из центральной предельной теоремы. Поэтому
распределение для  приблизительно нормально, то есть
М  np,   npq.
В сущности, это есть теорема Муавра-Лапласа.
Пример 2. На странице 88 рассмотрен пример со случайными
величинами  i , i  1,2,3,4 , одинаково и равномерно распределенными на
139
[0,1). При рассмотрении сумм 1 , 1   2 , 1   2   3 , 1   2   3   4 , было
отмечено, что их плотности тем больше напоминают нормальное, чем больше
слагаемых в сумме.
Теперь в силу теоремы Линдеберга-Леви мы можем утверждать, что
1
 n

  i , x  

exp   x 2 2  ,
n 
2
 i 1


n

где   i , x  - плотность случайной величины
 i 1

n

i 1
i
.
Задача. Доказать, что
n nк
1
е n  .
2
n к 0 к!
lim 
Решение. Воспользуемся следствием к теореме Ляпунова. Предположим,
что сл. в. 1 ,  2 ,..., n ,… распределены в соответствии с законом Пуассона, с
параметром =1. В силу следствия, имеем
x 1
 t2
 1 n




Р


1

х




exp
 к

 n 
 2
 n  1 к 1

 2


dt,


или
n

n

1
P   к  nx  n   при x  0  P   к  n  Ф0   ,
2
1

1
 n 
так как
  0 
1
2
0
e

t2
2
dt 

1
.
2
Покажем, что
n
 n nk  n
P   k  n    e .
 k 1
 k 0 k !
Предварительно докажем лемму.
Лемма. Пусть даны случайные величины
закону Пуассона с параметрами 1 ,  2 , тогда
1 ,  2 , распределенные по
140
P1   2  к 
1  2 к
к!
е 12  .
Доказательство. Пусть
P 1  k 
1k
k!
e
 1
, P  2  k 
2k
k!
e
 2
,
тогда Р1   2  к  Р1  к   2 , кN. Отсюда
 2i  2 1k  i  e 1
P 1   2  k   P  2  i  P 1  k  i    e 
 k  i !
i 0
i 0  i!
k

e
  1  2 
k!
ê
k!  2i  1k  i e  1


i
!

k
i
!
k!


i 0
   2 
k
k
C
i 0
i
k
   2 
 1
 
i
2
k i
1
k!
k
e




 1  2

.▼
Далее, по индукции, легко показать, что, если  1 ,  2 ,...,  n распределены
по закону Пуассона, то
r
 n 
 i n
 n
  i 1   i1 i
P   i  r  
e
.▼
r
!
 i 1

Вернемся к задаче.
n
Рассмотрим событие   i  r . Его можно представить в виде объединения
i 1
несовместных событий:
n  n
n

  i  r      i  j , r.
i 1

j  0  i 1
Следовательно, для r = n
i
 n 1  n
1
n

 n  n
 n n n
P    i  n  P      i  j    P    i  j    е n


.

i
!
2
i

1
i

0
i

1
i

0
i 1





j

0


Замечание. Лемма представляет собой пример вычисления свертки
дискретных
неотрицательных
распределенных по закону Пуассона.
целочисленных
случайных
величин,
141
Практически,
центральными
предельными
теоремами,
можно
пользоваться и тогда, когда имеется сумма небольшого числа случайных
величин (n10).
В
частности,
широко
применяется
приближенная
замена
одних
плотностей на другие, более удобные.
Не следует думать, что все центральные предельные теоремы используют
нормальное распределение как предельное. Например, в случайных процессах в
качестве
предельных
рассматриваются
2-распределение, распределение
Пуассона, Коши распределение, гамма распределение и др. Эти распределения
относятся к классу безгранично делимых распределений (то есть таких,
которые
представимы
как
n–кратная
свертка
(nN)
,
одинаковых
распределений вероятностей). Доказано, что они и только они могут быть
предельными для сумм независимых случайных величин [2]. Рассматриваются
также предельные теоремы перехода от дискретных случайных процессов к
непрерывным.
Часть 4. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Как уже отмечалось, теория вероятностей – математическая наука,
задачей которой является вычисление вероятностей одних случайных событий
по известным вероятностям других случайных событий; если известна функция
распределения какой – либо
случайной величины, то теория вероятностей
предлагает методы нахождения ее числовых характеристик, функцию
распределения другой случайной величины и так далее.
В решении большинства таких задач существенную помощь оказывает
построение вероятностного пространства (,ℱ,Р). Более того, можно сказать,
что
вероятностное
пространство
является
определяющим
в
создании
математической модели эксперимента или случайного явления [2].
Практически любая, сколько-нибудь сложная реальная система может
быть описана и проанализирована, с той или иной точностью, методами теории
142
вероятностей, если удается построить вероятностное пространство. Для
этого необходимо знать вероятности исходных случайных событий или
распределение вероятностей случайных величин, описывающих реальную
систему.
В случаях, когда вероятностное пространство построить не удается,
ограничиваются числовыми характеристиками.
Таким образом, чтобы описать реальную систему вероятностными
методами, при функционировании которой возникают явления, описываемые
случайной
величиной
(и,
тем
самым,
обладающие
статистической
устойчивостью), необходимо выработать методы проверки теории на опыте.
Однако одних методов недостаточно, поскольку, в силу специфики случайных
явлений, необходимо решить следующую проблему: как зная лишь часть
(эмпирические данные) сделать выводы о целом (распределение вероятностей,
числовые характеристики и др.)? Для пояснения сказанного, рассмотрим три
примера.
Пример 1. Найти траекторию S (t) движения точки, заданной уравнением
S '' t   a, a  R, t  0,   .
Траектория будет определена, если задать начальные условия, например,
S 0   0, S ' 0   V0 . Таким образом,
S t   V0 t 
at 2
.
2
Пример 2. Используя симплекс – метод, максимизировать выражение:
5y1+8y2 , при ограничениях
 у1  у 2  2,
 у  2 у  0,
 1
2

 у1  4 у 2  1,
 у1  0, у 2  0.
Ответ: у1 = 1, у2 = 0,5.
143
Пример 3. На основании многолетних наблюдений установлено, что в
августе, в среднем, 8 дождливых дней, а в сентябре – 13. Можно ли принять за
вероятность события того, что наудачу взятый день дождливый –
а) в августе, число 8/31;
б) в сентябре, число 13/30;
в) в августе или сентябре – 21/61?
Решение. Если в примерах 1, 2 ответ содержится в самом методе, то
здесь мы должны обосновать правомерность принятия частоты за вероятность.
Это можно сделать на основании закона больших чисел для пп. а), б). Для п. в),
сначала
следует
убедиться
в
статистической
однородности
объектов
исследования, а затем, если это окажется правомерным, применить закон
больших чисел. Так как однородность нарушена (август - лето, а сентябрь уже
осень), то оценка будет слишком грубая и, в данном случае, неправомерна.
Ответ: а), б) – можно, в) – нельзя.
Математическая статистика - раздел математики, посвященный
математическим
методам
систематизации,
обработки
и
использования
статистических данных для теоретических исследований и практических
выводов.
Статистические данные – есть результат эксперимента (наблюдения).
Результаты наблюдения бывают количественные (например, процентное
содержание отдельного компонента в продукте) и качественные (например,
органолептические оценки: вкус, запах, цвет и др.). Качественные результаты
наблюдений всегда можно выразить количественно ( в нашем случае, в баллах).
Таким образом, статистические данные – набор числовых значений,
полученных многократным повторением эксперимента.
Замечание. Математическая статистика тесно связана с теорией
вероятностей, но не следует из неё, хотя только она позволяет испытать методы
теории вероятностей на практике. Этим объясняется использование в
математической
статистике
многих
положений
теории
вероятностей
(статистическое оценивание распределений и их числовых характеристик,
144
закон больших чисел, теория ошибок, в основе которой лежит центральная
предельная теорема и др.). С другой стороны, теория вероятностей изучает
только такие случайные явления, которые имеют соответствующие им
распределения вероятностей, а математическая статистика изучает массовые
явления произвольной природы и, помимо вероятностных, имеет свои
собственные
методы
с разработанной
системой
понятий
и
техникой
вычислений.
Статистика имеет почтенный возраст, однако, как математическая
статистика, эта наука завоевала право так называться лишь в 20 – м веке.
Математическая статистика (status-положение, состояние) в настоящее
время включает в себя, последовательно:
а) сбор статистических данных – конечный набор отдельных элементов
из некоторой совокупности (реального явления);
б) исследование этих элементов
- выявление закономерностей,
присущих всей совокупности;
в) разработку приемов и методов анализа отобранных элементов;
г) прогнозирование поведения явления.
Несмотря на то, что последний раздел относится к теории вероятностей,
его выполнение необходимо для подтверждения адекватности модели реальной
ситуации (явления).
4.1 Оценка функций распределения
Теоретической
генеральная
основой
статистического
исследования
является
совокупность Г, представляющая собой отображение всех
свойств реального явления в некоторое числовое множество.
Исходным
материалом
статистического
исследования
является
совокупность статистических данных, представленных в виде конечного набора
n чисел:
х1 , х 2 ,..., х n
(118)
145
из генеральной совокупности Г.
Набор чисел (118) называется выборкой объема n, если он получен в
соответствии с правилами комбинаторики при выборе с возвращением.
Пусть  - случайная величина, определенная на множестве Г, с функцией
распределения F(x).
Поставим задачу: по выборке (118) получить как можно больше
информации о всей генеральной совокупности (в идеале, это построение
вероятностного пространства (Г, F(x)), хотя, в ряде случаев, ограничиваются
оценкой числовых характеристик случайных величин).
Замечание. Интуитивно ясно, что выборка (118) должна быть
репрезентативна, то есть ее элементы должны отражать все основные свойства
реального явления. Если это неизвестно, то следует полагаться на интуицию. В
любом случае, репрезентативность выборки можно оценить только при
проверке построенной статистической модели на адекватность.
Выберем из выборки (118) элементы в порядке их возрастания
хi1  хi2  …  хiк .
(119)
Упорядоченная выборка (119) называется вариационным рядом, а его
элементы признаками. Обозначим через
mr
число повторений признака r,
r  1,2,...к , тогда выборку (118) можно представить в виде простой
статистической табл. 10.
Таблица 10
х ir
xi1
xi2
...
xi
тr
т1
т2
...
тк
к
( mr = n) .
Числа тr называют абсолютной частотой, r  1,2,..., к.
Как правило, таблица 10 составляется для дискретных, случайных величин.
146
Для непрерывных случайных величин используется табл. 11.
Таблица 11
интервалы
х
ir , x i
r 1

х
i1
, x i2
относит.
частота
W1 
m
Wr  r
n
m1
n
11
i2

...
m2
n
...
, x i3
W2 
x
ik 1
, x ik
Wk 1 
x

mk 1
n
можно
изобразить
графически
ik
, x ik  1
Wk 
mr
называется относительной частотой,
n
Величина Wr 
Табл.
x

в

.
mk
n
 mr  1.
виде
гистограммы,
представленной на рис. 32.
Нr
…
0
xi
1
xi
2
хi3
xxii
54
…
xi
k 1
xi
k
xi
k 1
x
Рис. 32
Гистограмма – набор прямоугольников, в основании которых лежат
длины hr интервалов xir , xir 1 , r  1,2,...к , а их высоты определяются

равенством Н r  Wr / hr .
Учитывая,
что
сумма

площадей
прямоугольников
равна
 H r  hr   Wr  1 , то гистограмма есть статистический аналог плотности.
147
Замечание. Часто, при исследовании непрерывной случайной величины
для выборок большого объема (n 50) рассматривают интервалы равной длины
h, определяемые формулой
h
xmax  xmin
,
к
xmin  xi , xmax  xi . Обычно k  5  lg n , что продиктованол практической
1
k
целесообразностью.
Величина R = x max  x min
называется размахом выборки (118) (или
вариационного ряда (119)).
Желательно, чтобы, при выборе длин интервалов hr гистограммы, не
получались прямоугольники с площадью равной 0. В противном случае, это
может привести к неверному выбору плотности распределения. Положение
всегда можно исправить путем соответствующего изменения длин интервалов
hr.
Если выборка (118) достаточно большого объема и репрезентативна, то
можно построить эмпирическую функцию распределения исследуемой
~
случайной величины , Fn ( x)  P  x, которая определяется формулой:
для х  x min ,
0,

~
m
Fn ( x)   , для x min  x  x max ,
n
для x  x max ,
1,

где x
min
 xi1 , x
max
 xiк
(120)
, а m – число элементов выборки (118), не
превосходящих заданного х.
Если случайная величина  - непрерывна, то эмпирическая функция
может быть задана формулой
r
~
Fn ( xi r )   Wi .
i 1
(121)
148
Свойства эмпирической функции распределения
~
1) x   ,  , 0  Fn ( x)  1,
~
~
2) x1  x2   Fn ( x1 )  Fn ( x2 ),
~
3) Fn ( x) имеет ступенчатый вид, непрерывна слева по определению,
~
4) если x  x min , то Fn ( x)  0,
~
5) если x  x max , то Fn ( x)  1.
Видно, что свойства эмпирической функции распределения вполне
аналогичны теоретической.
~
Для оценки эмпирической функции распределения Fn ( x) теоретической
F (x) используют критерий Колмогорова А.Н.
Теорема. Если функция F(x) непрерывна, то

~
Р  max
Fn ( x)  F ( x)  z   k ( z ) при n,
n
 x( ,)
где
0 при z  0,

k ( z )   
к
2 2
  (1) exp(2к z ), z  0.
к 
Функция k (z) называется функцией Колмогорова 2. Её значения
табулированы и приведены в приложении (табл. 5).
Замечание. Из теоремы следует, что критерий Колмогорова применим
для оценки только непрерывных распределений.
Пусть требуется проверить гипотезу Но о том, что случайная величина 
имеет своей функцией распределения непрерывную функцию F(x). Проведем n
~
независимых испытаний и построим эмпирическую функцию Fn ( x). Согласно
~
теореме Гливенко [2] Fn ( x) есть приближение к функции F (x) .
~
~
Величина Dn  Fn ( x)  F ( x ) есть мера отклонения Fn ( x) от F ( x).
Пусть   0
и


z0 такое, что P Dn  0   , где  0 n  z 0 . Если
можно считать, что в единичном испытании практически невозможно
149
произойти событию, вероятность которого равна , то мы приходим к
следующему критерию проверки гипотезы Н0 (Критерий Колмогорова).
Выдвигаем гипотезу Н0: F(x) – функция распределения исследуемой
сл. в. .
1) Находим Dn 
~
max Fn ( x)  F ( x) .
 x
2) Вычисляем z0  Dn n.
3) По таблице находим k ( z 0 )   0 .
4) Если  0 достаточно велико (больше 0,2),
то гипотезу Н0 принимаем.
Пример 1. При
растворителя
через
концентрировании
мембрану
молочного сырья проницаемость
является
случайной
величиной
,
распределенной по эмпирическому закону:
~
Fn ( )  P   .
Таблица 12
(мин)
5
10
15
20
25
30
35
40
45
Рn ( )
0,135
0,26
0,36
0,45
0,518
0,57
0,628
0,648
0,735
50
55
60
65
70
75
80
0,78
0,72
0,83
0,85
0,875
0,892
0,91
Требуется, используя критерий Колмогорова, подобрать теоретическую
функцию распределения сл. в.  при числе опытов n = 16.
Решение. Из практических соображений есть основание считать, что
искомой функцией является экспоненциальное распределение:
F ( )  1  e  ,   0,03
1 
.
 мин. 
Составим таблицу значений теоретической функции распределения.
150
 (мин)
5
10
15
20
25
30
35
40
45
10-3F()
139
259
362
451
528
593
650
700
741
50
55
60
65
70
75
80
777
808
835
858
878
895
909
Максимальный разброс Dn при  = 55 мин. равен: Dn  Fn ( )  F ( )  0,088 ,
тогда
z0  0,088  16  0,352 . По табл. 5 приложения находим, при
z0  0,352 значение 0  0,999 Так как 0  1  ,2, то гипотезу об
экспоненциальности распределения проницаемости принимаем.
Рис.
33
демонстрирует
приближение
эмпирической
функции
~
Fn ( ) экспоненциальной.
1
0
5 10
15
20
25
30
35
40
45
50
55
60
65
70 75
80
 (мин)
Рис. 33
Критерий Колмогорова обладает наглядностью и простотой, однако, для
его применения необходимо знать не только вид теоретической функции
распределения, но и значения всех, входящих в неё, параметров. Заметим, что
такая ситуация редко встречается на практике.
151
Другим критерием проверки гипотезы, о соответствии эмпирической
функции распределения теоретической, является критерий 2 (Пирсона).
Пусть
имеем
табл.
11.
Требуется
проверить
согласование
экспериментальных данных с гипотсзой о том, что случайная величина  имеет
теоретическое распределение F(x).
Находим теоретические вероятности попадания случайной величины  в
каждый интервал табл. 11:
р1, р2, …, рк.
Меру расхождения 2 вычисляем по формуле Пирсона 3:
 02  n Wi  pi  / pi .
2
i
Распределение 2 зависит от объема выборки n и числа степеней свободы r:
 2   2 (n, r ) .
1 p
Во всех случаях имеем одно ограничение:
W  1
i
значит, число степеней
i
свободы r  n  1. Если в теоретическом распределении присутствует один
параметр (например а  М ), то число степеней свободы r  n  2. Если два
параметра, (например, а  М ,
  D ), то число степеней свободы
r  n  3 и. т. д.
Зададим доверительную вероятность р. Гипотеза о законе распределения
F(x) принимается, на уровне значимости р, если
 02   12 p  n, r .
При использовании критерия 2 желательно, чтобы объем выборки был
достаточно велик (n>50), а число интервалов к  5.
Пример
2.
Для
проверки
соответствия
опытных
данных
экспоненциальному распределению примера 1, применим критерий 2. Объем
152
выборки n = 16, число степеней свободы r = 16-2 = 14. Будем считать, что число
интервалов к = 16.
Взяв середину интервалов из табл. 12, получим следующую таблицу:
Таблица 13
i
pi  Wi
iрi
2,5
7,5
12,5
17,5
22,5
27,5
32,5
0,135
0,125
0,1
0,09
0,068
0,082
0,048
0,338
0,938
1,250
1,575
1,530
2,255
1,560
37,5
42,5
47,5
52,5
57,5
62,5
67,5
72,5
77,5
0,052
0,04
0,04
0,03
0,02
0,02
0,025
0,017
0,018
1,950
1,700
1,900
1,575
1,150
1,250
1,688
1,233
1,395
Из табл. 13 находим:    i pi  23,3 .
i
Для теоретической функции распределения
F    1  exp    , где
  1  значения вероятностей рi найдем из формулы:
рi  F  i   F  i 1 ,  0  2,5 ,
или
pi  1  exp   i 1 23,3  1  exp   i 23,3.
Результат сведем в таблицу:

2,5
7,5
17,5
22,5
27,5
32,5
pi
0,193
0,349
0,576
0,658
0,724
0,778
0,0174
0,00536
0,0012
0,0024
0,0034
0,00067
( pi  Wi ) 2
pi
153
37,5
42,5
47,5
52,5
57,5
62,5
67,5
72,5
77,5
0,821
0,855
0,884
0,906
0,924
0,949
0,951
0,960
0,968
0,019
0,001
0,0051 0,0024
0,00022
0,0017
0,0014 0,00071
0,00125
Составим сумму
(Wi  pi ) 2
 0  n
= 16  0,0829 = 1,326.
pi
i 1
n
2
Зададим доверительную вероятность р=0,95.
По таблицам приложения (табл. 6), при n - r = 16 – 2 = 14 степеней
свободы, определяем значение 2 = 23,7,а так как  02  1,326   2  23,7 , то с
вероятностью р = 0,95 гипотеза, о соответствии эмпирической функции
теоретической, принимается.
Упражнение. Решить пример для случая, когда число интервалов к = 8.
Замечание. В предлагаемых примерах соответствие настолько хорошее,
что вызывает сомнение в том, что эмпирические данные не подтасованы. В
практических приложениях уже при   0,3 гипотезу можно считать
правдоподобной, тем более, если критерий Колмогорова дает аналогичный
результат.
Замечание. Следует заметить, что для критерия Колмогорова параметр
0,03 взят интуитивно, а для критерия 2, он получен по опытным данным.
Если бы мы для поверки гипотезы использовали бы   0,03 в критерии 2, то
соответствие было бы еще лучше. Следовательно, можно поставить задачу о
нахождении
интервала
допустимых
значений
параметра
,
которая
рассматривается ниже.
Как видно, для применения критерия Пирсона, необходимо иметь
достаточно большой объем выборки, да и его использование, по сравнению с
критерием Колмогорова, достаточно громоздко. Тем не менее, применение
154
критерия Пирсона обладает тем преимуществом, что числовые значения
параметров теоретической функции распределения можно получить из
имеющейся выборки, то есть заранее нам достаточно знать только общий вид
теоретической функции распределения, причем любой случайной величины.
Критерий
Колмогорова в этом смысле более жесткий. Желательно при
проверке гипотезы о соответствии теоретической функции распределения
эмпирическим данным, применять оба критерия.
Задача нахождения теоретической функции распределения требует
проведения достаточно большого числа опытов, а также, по крайней мере,
общего вида искомой функции. Такая ситуация далеко не всегда встречается на
практике.
Чаще всего имеется выборка относительно малого объема или вид
теоретической функции распределения неизвестен.
В этом случае обычно вычисляют числовые характеристики случайных
величин (моменты, вероятности и т. д.).
4.2 Точечные оценки неизвестных параметров законов распределения
Здесь мы рассматриваем задачи определения неизвестных параметров
законов распределения случайных величин в условиях относительно малых
объемов эмпирических данных. Ясно, что каким бы не был объем выборки,
значение параметра, который мы оцениваем, будет приближенным. Это
приближение называется оценкой параметра. Для того чтобы оценка была
наилучшей, требуется иметь о ней наиболее полное представление.
Пусть случайная величина  распределена по закону, который содержит
неизвестный параметр а . Требуется найти для него подходящую оценку
а~ по
результатам выборки:
х1 , х 2 ,..., х п .
(122)
155
При выборе условий, налагаемых на оценку а~ неизвестного параметра а
прежде мы должны построить математическую модель эксперимента. Под этим
мы понимаем следующее:
1) выборка (122) является n–мерным случайным вектором
(1, 2 ,..., п ),
где случайные величины  i , i  1,2,..., n, определены
на одном и том же
пространстве элементарных событий и имеют, соответственно, одну и ту же
функцию распределения и, тем самым, одни и те же параметры;
2) выборка (122) репрезентативна, то есть любой элемент пространства
элементарных событий имеет одинаковую вероятность попасть в выборку.
Таким образом, оценка а~ параметра а есть n–мерная неслучайная
функция n случайных аргументов  i ,
i  1, 2, ..., n :
a~  a~ ( 1 ,  2 ,..., n ) .
Принято считать, что оценка а~ должна удовлетворять условиям
а) несмещенности:
М (а~)  а,
практически это означает, что систематические ошибки отсутствуют;
~
б) эффективности, то есть оценка а~ более эффективна чем а~ , если
~
М (а~  а)2  M (a~  a)2 ;
эффективность оценки а~ означает, что её дисперсия меньше, чем дисперсия
других оценок;
в) состоятельности, то есть
a(1,...,n )  a при n  
состоятельность означает, что для оценки а~ выполняется закон больших чисел
(теорема Чебышева или её следствия, см. раздел 3).
Замечание. На практике не всегда удается удовлетворить всем этим
требованиям по соображениям объективного или экономического характера.
Тем не менее, желательно пытаться исследовать оценку на достоверность.
156
Итак, пусть имеем выборку (122). Для оценки математического ожидания
а  М
случайной величины  всем условиям удовлетворяет средняя
арифметическая [4]:

1
n
 xi .
(123)
п i 1
Для оценки дисперсии, в условиях выборок относительно большого
объема, используется выборочная дисперсия:
1 n
2
s   ( xi   ) ,
n i 1
2
(124)
или
1 n 2
s   xi  ( )2
n i 1
2
(125)
Выборочная дисперсия не удовлетворяет условию несмещенности.
Всем трем условиям удовлетворяет исправленная дисперсия.
s 2  n s2
n 1
или
s 2  1  ( xi   )2 .
n 1 i
(126)
Ясно, что если выборка имеет достаточный объем (n>50), то использовать
можно как формулу (124), так и (126).
Для оценки среднеквадратичного отклонения наилучшей оценки не
найдено. Обычно рассматривают
s  s2
,
s2  s2 .
Для вычисления моментов более высокого порядка можно использовать
статистические аналоги, но они с увеличением порядка снижают точность
оценки.
Таким образом, в условиях ограниченного объема выборки мы имеем
методику оценки неизвестных параметров распределения. Такая оценка
называется точечной.
157
4.3 Доверительный интервал
При применении критерия Колмогорова значения всех параметров
теоретической
функции
распределения
должны
быть
известны.
При
применении критерия 2, для той же функции, параметры, если они неизвестны,
оцениваются приближенно. (Например, для экспоненциального распределения
параметр оценивается средним арифметическим). Естественно возникает
вопрос: «В каких интервалах могут находиться оцениваемые параметры, чтобы
гипотеза о соответствии эмпирической функции распределения теоретической
была принята?»
Кроме того, если мы оцениваем только параметры, не зная функции
распределения, нахождение допустимого интервала важно, например, для
оценки ошибки принятого точечного значения параметра.
Мы приходим к задаче нахождения случайного интервала, покрывающего
теоретический параметр. Прежде всего, на действительной прямой мы должны
найти точку являющуюся серединой случайного интервала. В идеале это
значение теоретического параметра, но мы его не знаем. Тогда берут такую
точечную оценку а~ , которая была бы наилучшим приближением к
теоретическому параметру
а
(например, для оценки математического
ожидания берут среднее арифметическое). Затем находят границы интервала
(а~   , а~   ) . Значения  также случайны, следовательно, мы должны задать  вероятность того, что наш интервал покрывает теоретический параметр а .
Итак, имеем уравнение

Р а~  а      .
(127)
Задача решалась бы просто, если бы мы знали закон распределения
оценки а~ , который на самом деле неизвестен. Однако, если оценивается
математическое ожидание и дисперсия, а число опытов n > 20, то для них, в
силу центральной предельной теоремы, считают закон распределения средней
арифметической  и дисперсии s 2 нормальным, тогда имеем из (127)
158

Р   M  


  ,


а так как  распределена нормально, то

 

s
  2  
(128)
 t2 
1 x
2
2
exp

   dt , s  s .
2
2 


 ( x) 
где
 1

В уравнении (128) одно неизвестное -   , которое легко найти. Тогда
доверительный интервал будет иметь вид.
    M     
Аналогичным
образом
можно
получить
(129)
доверительный
интервал
для
дисперсии:
s 2    D  s 2   .
В
целях
удобства
вычисления
доверительных
(130)
интервалов
для
математического ожидания и дисперсии вместо (129) и (130) рассматривают
интервалы:
а)   t     M    t    ,

(131)

б ) s 2  t   2  D  s 2  t   2 ,
S
(132)
S
где


s2 s
1   
(arg  – аргумент ),
t  arg 

,   
n
n
 2 

  2  2  s / n  1.
S
Итак, если число испытаний n > 20, то для оценки математического
ожидания и дисперсии доверительные интервалы, с удовлетворительной для
практики точностью, находятся по формулам (129) и (130) или (131) и (132).
Более
точные
методы
требуют,
для
построения
доверительных
интервалов, знать заранее вид закона распределения исследуемой случайной
величины .
159
Пример. Пусть имеем n = 22 результата измерения х1,х2,…,х22 объема в
мм3 некоторой физической величины: 3,1; 3,3; 2,9; 3,0; 3,1; 3,2; 2,8; 2,7; 3,1;
3,2; 2,9; 3,0; 2,9; 3,1; 2,8; 2,9; 3,2; 3,3; 2,9; 3,1; 3,2; 3,0. Построить
доверительный интервал для математического ожидания  и дисперсии D.
Решение. Считая, что объем физической величины является случайной
, распределенной по нормальному закону, воспользуемся
величиной
формулами (131) и (132).
Имеем
  t   M    t   ,

s 2  t    2  D  s 2  t   2 .
S
1
n
   xi 
1
 xi  3,0318,
22
S

1
2
s2 
 xi     0,0303 .
n 1

s2
0,0303
Отсюда, учитывая (131),   

 0,037, а из (132), имеем
n
22

s2

2 2
2
s 
 0,0303  0,0094 .
n 1
21
1  
Значение t  arg Φ1    / 2. Зададим   ,, тогда Ф
 2

  Ф 0,975 .

По табл. 3 приложения, находим t  1,96 .
Таким образом, окончательно получаем
3,0318 – 1,960,037 <  < 3,0318+1,960,037,
0,0303 – 1,960,0094 < D < 0,0303+1,960,0094,
или
2,9593 <  < 3,1043,
0,0119 < D < 0,0487.
Предположение о нормальности закона распределения произвольной
случайной величины далеко не всегда оправдано даже при больших выборках.
В некоторых случаях удается построить доверительный интервал, относительно
точно, если заменить закон распределения случайной величины , содержащий
неизвестные параметры, на достаточно близкий к ней закон распределения,
160
этих параметров не содержащий. Мы рассмотрим здесь случай только
нормально распределенной случайной величины с неизвестными параметрами
а и . Для этого потребуются следующие распределения:
1). Распределение Стьюдента (Госсетта). Плотность распределения
Стьюдента (или t – распределения) c ( n – 1 ) степенью свободы:
Sn 1(t ) 
n
 
 
2
(n  1)  
n

t 2  2
 1 
, t  R.

n

1
 n 1 
 

 
 2 
(133)
Доказано, что, если  нормально распределенная случайная величина, то
случайная величина   n
  M
s
2
подчинена закону (133).
2). Распределение 2.Плотность распределения 2 c (n-1)
степенью
свободы:
1
 n 1
n 1
z

 2 2  Г  n  1    х 2 1  e  2 при
 п 1 ( х)  
 2  



0
при
х  0,
(134)
х  0.

(п  1)  s 2

Данное распределение имеет случайная величина  
, где s 2
D
исправленная дисперсия нормально распределенной случайной величины .
Легко заметить, что распределение Стьюдента (133) можно использовать
при построении доверительного интервала для математического ожидания, а
распределение 2 (134) при построении доверительного интервала для
дисперсии.
В самом деле, пусть доверительные интервалы для М и D определяются
доверительной вероятностью .
161
Построим доверительный интервал для М. Возьмем его симметричным
относительно  , взяв   за половину длины интервала. Ясно, что величина
  удовлетворяет равенству
P
   M      .

Переходя от случайной величины 
к случайной величины ,
распределенной по закону Стьюдента, получим
P    t    ,
где t  n   
s2 .
Значение t  найдем из условия (с учетом четности функции S n 1 t ):
t
2  S n1 t dt   .
(135)
0
При различных значениях доверительной вероятности  и числе
испытаний n, значения t  представлены в табл. 7, приложения.
Таким образом, из условий:

  M  

2
и t  n    / s .
получаем доверительный интервал для оценки математического ожидания
случайной величины :
  t

s2
 M    t 
n

s2
.
n
(136)
Для оценки дисперсии, рассмотрим распределение 2 для случайной

величины   n  1s 2 / D . Зная закон распределения , можно найти
доверительный интервал, в который случайная величина
вероятностью  .
Плотность  n 1  x  имеет вид, изображенный на рис. 34.
 попадает с
162
 n1  x 
0
х
t
Рис. 34
Выбрать интервал t  так, как для оценки математического ожидания мы
не можем, поскольку распределение 2 не симметрично. Будем выбирать
интервал t  таким образом, чтобы вероятность выхода случайной величины 
за пределы интервала влево и вправо (заштрихованные области на рис. 31)
были одинаковы и равны
1 
.
2
2
Построение интервала с таким свойством сводится, очевидно, к


выполнению условия
P    2  p ,
(137)
где случайная величина  имеет распределение 2 с r степенями свободы. При
числе степеней свободы r=n-1, находим два значения 2 из уравнения:
2
   x  dx  p ,
n 1
0
а) для левого конца интервала (рис. 34), при р   2 , имеем  2  12 ;
б) для правого конца интервала, при р  1   2 , имеем  2   22 .
Соответствующие значения  2 приведены в табл. 6, приложения.

(п  1)  s 2
Из (134) учитывая, что  
и (137), получаем:
D
163

(п  1)  s 2
а) для левого конца  
 12 ;
D

(п  1)  s 2
б) для правого конца  
  22 .
D
Окончательно, доверительный интервал для оценки дисперсии имеет вид
n  1s 2


n  1s 2
 D 
.
12
(138)
 22
Пример. Построить доверительный интервал для математического
ожидания и дисперсии нормально распределенной случайной величины 

  3,0318, s 2  0,0303, n  22.
Решение. Дано: n = 22, число степеней свободы r = n-1 = 21, при
доверительной вероятности   ,:
а) для  имеем, из (136),
3,0318  2,08 
0,0303
0,0303
 M  3,0318  2,08 
,
21
21
где t   2,08 получено из табл. 7, распределения Стьюдента, при r = 21 степени



свободы и   ,   0,025, 1   0,975 .
2
2

Окончательно
2,9528<M<3,1108;
б) для D, при  = 1-  ,0.
Из формулы (138) и приложения, таблица 7, для р=
имеем 12  37,6 , а
для р  1 

2
 0,975 u

2
 0,025 и
r  21 , имеем
r = 21,
 22  9,9 .
Тогда для D , из формулы (138), получаем
0,0303  21
0,0303  21
 D 
или 0,017  D  0,064 .
37,6
9,9
Сравнивая
интервальных
результаты
оценок,
для
можно
приближенного
выдвинуть
гипотезу
и
точного
о
том,
методов
что
если
164
доверительный интервал для математического ожидания меняет центр
симметрии, то для дисперсии он тем больше, чем ближе к нормальному
распределению выборка.
4.4 Проверка статистической однородности
Теория вероятностей изучает такие события, результат которых устойчив,
или, что тоже самое, статистически однороден. Как определить, достигли мы
желаемого результата, после проведенной серии экспериментов, или нет?
Следует ли провести еще одну серию, чтобы закрепить свои предположения?
Ясно, что исчерпывающего ответа на эти вопросы получить нельзя.
Однако
некоторые
оценки
сделать
можно,
если
использовать
центральную предельную теорему.
Пусть имеем случайную величину  =  (1, …, n), с нормированным
нормальным распределением (М = 0, D = 1), где 1, ..., n – результат серии
экспериментов.
Поставим задачу. Проведено две серии экспериментов: в первой серии из
n1 экспериментов событие А появилось 1 раз, а во второй серии из n2
экспериментов событие А появилось 2 раз. Можно ли предполагать что
вероятность события А одинакова в обоих случаях?
Пусть в первой серии Р{А}= р1, а во второй Р{А}= р2. Верна ли гипотеза
Н0: р1 = р2?
Для ответа на вопрос, необходимо чтобы разность частот  
1
n1

2
n2
,
была достаточно мала, тогда ее можно объяснить случайными причинами. Если
ошибка  в самом деле мала, то естественно предположить, что случайные
величины 1 и 2 распределены нормально, то есть при р1 = р2, будем иметь
 

М  М  1   M  2
 n1 
 n2

  0 .

165
Если считать, что серии опытов независимы, то  имеет распределение
 

близкое к нормальному, у которого M  0 и D  D 1   D 2
 n1 
 n2

.

Если значение D известно, то по табл. 3 приложения, нормального
распределения, можно получить ответ на вопрос.
Серии опытов, в силу предположения, будем считать сериями испытаний
 
  1
1
Бернулли, тогда если р1 = р2 = р, то D 1   D 2   2 D1  2 D 2 
n2
 n1 
 n 2  n1

p1 1  p1 n1
n12

p 2 1  p 2 n 2
n 22
1
1 
 .
 p1  p  
n
n
 1
2 
Значение р неизвестно, но используя данные эксперимента, можно
заменить р на
  2
~
p 1
n1  n 2
(так как это лучшее, что можно предложить в данной ситуации), тогда
1
1 
   : ~p 1  ~p    .
 n1
(139)
n2 
Случайная величина  нормирована и имеет приблизительно нормальное
распределение, из которого следует, что значения  >2 3 маловероятны.
В самом деле, например, для = - 1,96, по табл. 3 приложения находим
Ф(-1,96) = 0,0250, а для  = 1,96, значение Ф ( >1,96) = 0,0250 (рис. 35).
х
1
2
0,0250
-1,96
-1
0
1
Рис. 35
1,96
х
166
Представим сказанное на языке теории вероятностей, то есть определим
область принятия гипотезы Н0.
Заранее зададим малое  (например,  = 0,05), означающее, что событию с
такой вероятностью произойти практически невозможно. Число  называется
уровнем значимости. Используются значения 0,1; 0,05; 0,02; 0,01; 0,001.
Пусть значение случайной величины , в данной серии испытаний,
оказалось равным  =. Если   0, то находим Р = Ф; Если  >0, то
имеем Р > = 1-Ф+  (табл. 3 приложения).
Объединяя, значения вероятностей, получаем Р  > = 2Ф- (в нашем
случае, Р  >=20,025 = 0,05, рис. 35). При 2Ф-  , гипотеза Н0
отвергается, иначе – данные выборки не противоречат гипотезе Н0 и ее нет
оснований не принять, если отсутствует субъективный фактор.
Замечание. Так как, например, как в нашем случае, при Ф = 0,0250
следует, что  = -1,96, то область принятия гипотезы Н0 есть -1,96    1,96.
Если значение вероятности равно или близко к , то принять гипотезу Н0
или отвергнуть, зависит от изучаемого объекта и субъективного фактора.
Задача. Пусть вероятность успеха р, заданной серии n испытаний
Бернулли предполагается равной числу р0 . Если проверяется гипотеза Н0:
р = р0, то случайная величина


 p  : р 0 1  р 0  / n ,
n

 
(140)
(где  - число успехов в серии)
имеет, приблизительно, стандартное нормальное распределение.
Вывод формулы (140) вполне аналогичен предыдущим рассуждениям.
Пример. Проверяется симметричность монеты, гипотеза Н0: р0 = 0,5, по
двум проведенным сериям из n испытаний Бернулли каждая, для уровня
значимости  = 0,05.
167
Герб имеет частоту а) в первой серии 1 n  0,480 , б) во второй серии
 2 n  0,490 . Требуется проверить однородность выборок и выполнение
гипотезы Н0 для первой, второй и обеих серий.
Решение. Проверим выборки на однородность. Имеем, по формуле (139),
  0,480  0,490  : 0,4851  0,485 0,001  0,001  0,447 .
Так как -0,447>-1,96 (см. замечание), то гипотеза Н0 принимается, то есть
с вероятностью 0,95 можно считать, что монета симметрична.
Проверим монету на симметричность по первой выборке. По формуле
(140) имеем
  0,480  0,490  : 0,51  0,5 / 1000  1,26 .
Так как –1,26 >-1,96, то гипотезу Н0 принимаем. Для других вариантов
результат, очевидно, будет лучше.
168
ЗАКЛЮЧЕНИЕ
В пособии изложены основы теории вероятностей и элементы
математической статистики. К сожалению, в силу особенностей учебной
программы, представленный материал может быть использован лишь для
первого знакомства с этой математической дисциплиной.
Остановимся на общей характеристике материалов пособия.
В первой и второй частях даны основные сведения о теории вероятностей
как математической науке, изучающей множества специальной структуры,
элементы которых имеют меру (вероятность, распределение вероятностей). Это
позволяет
рассматривать
теорию
вероятностей
как
раздел
теории
интегрирования. Поэтому в ней большее внимание уделено распределению
вероятностей случайных величин.
В третьей части рассматриваются предельные теоремы, которые
помогают
раскрыть
философско-познавательную
ценность
теории
вероятностей, возможности ее метода исследования.
Кроме того, предельные теоремы являются теоретическим обоснованием
применения ряда методик математической статистики.
Многочисленные приложения теории вероятностей (теория случайных
процессов, марковские процессы, стационарные процессы и др.), с одной
стороны, подчеркивают ее фундаментальность, с другой стороны, являются
источником дальнейшего развития самой теории.
Четвертая часть посвящена элементам математической статистики,
которые в краткой форме знакомят с выборочным методом, оценкой функции
распределения и параметрами распределения случайной величины, некоторыми
критериями оценок.
Для желающих получить приемлемые для научных и практических
исследований,
знания
по
теории
вероятностей,
можно
рекомендовать
фундаментальную книгу В. Феллера «Введение в теорию вероятностей и ее
приложения», т. 1, 2, написанную более 50-ти лет тому назад и не потерявшую
своей значимости в настоящее время.
169
Прекрасным учебником, и одновременно справочным пособием, по
теории вероятностей, в современном изложении, будет служить вам книга А.Н.
Ширяева «Вероятность»: Уч. пособие для вузов, 2-е издание перераб. и доп.:
М., «Наука», Г.Р.Ф.-МЛ., 1989, - 640с.
Имеется новое издание в 2-х книгах из-во МНЦМО, 2004г. – 520с., ISBN
5-94057-07-036-4 (пер). ISBN 5-94057-036-4 (Internet – магазин).
Автор выражает благодарность доценту кафедры Ивановой С.А. за
замечания и исправления.
170
ОБОЗНАЧЕНИЯ

- пространство элементарных случайных событий i,

- генеральная совокупность,

- невозможное случайное событие,
ℱ
- -алгебра событий,
Аkn
- число размещений,
Ckn
- число сочетаний,
p = P {A}
- вероятность случайного события,
N
- множество целых чисел,
R
- множество действительных чисел,
, 
- «и»,

- «или»,

- квантор всеобщности

- квантор существования
[x]
- целая часть числа х,
exp(x)
- ex,
 =  ()
- случайная величина (сл.в.),
F(x) - функция распределения сл.в.  ,
=P { <X}
(x)
- плотность сл.в.  ,
(x)
- функция Гаусса (нормированная плотность нормального
распределения),
(x)
- функция Лапласа (нормированное нормальное
распределение),
M
- математическое ожидание сл.в. ,
D
- дисперсия сл.в. ,

- средне - квадратическое отклонение сл.в.  ,
Cov(,)
- ковариация сл.в. , ,
171
r,
- коэффициент корреляции сл.в. , ,
o(t)
- бесконечно малая более высокого порядка, чем t
 = (, t)
- случайный процесс,
Vk(t)
- пуассоновский процесс,
mr
- абсолютная частота,
Wr
~
Fn
- относительная частота,
k(z)
- функция Колмогорова,
2
- распределение Пирсона,
ξ
- средне арифметическая,
s2
- выборочная дисперсия,
s2
- исправленная дисперсия,

- доверительная вероятность,
Sn-1 (x)
- плотность распределения Стьюдента с (n-1) степенью
- эмпирическая функция распределения,
свободы,
n-1 (x)
- плотность распределения 2 с (n-1) степенью свободы,
p
lim
n
- сходимость по вероятности,
(t)
- интенсивность (плотность) потока случайных событий
172
ПРИЛОЖЕНИЕ
Таблица 1
Значения некоторых числовых величин
2 =1,4142135623730950488016887242096980785697…
=3,1415926535897932384626433832795028841972…
e=2,7182818284590452353602874715526624977572…
Значения функции f ( x)  e  x .
x
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
0,16
0,18
0,2
0,22
0,24
0,26
0,28
0,3
0,32
0,34
0,36
0,38
exp(-x)
1,000000
0,980199
0,960789
0,941765
0,923116
0,904837
0,88692
0,869358
0,852144
0,83527
0,818731
0,802519
0,786628
0,771052
0,755784
0,740818
0,726149
0,71177
0,697676
0,683861
x
0,4
0,42
0,44
0,46
0,48
0,5
0,52
0,54
0,56
0,58
0,6
0,62
0,64
0,66
0,68
0,7
0,72
0,74
0,76
0,78
exp(-x)
0,67032
0,657047
0,644036
0,631284
0,618783
0,606531
0,594521
0,582748
0,571209
0,559898
0,548812
0,537944
0,527292
0,516851
0,506617
0,496585
0,486752
0,477114
0,467666
0,458406
x
0,8
0,82
0,84
0,86
0,88
0,9
0,92
0,94
0,96
0,98
1
1,02
1,04
1,06
1,08
1,1
1,12
1,14
1,16
1,18
exp(-x)
0,449329
0,440432
0,431711
0,423162
0,414783
0,40657
0,398519
0,390628
0,382893
0,375311
0,367879
0,360595
0,353455
0,346456
0,339596
0,332871
0,32628
0,319819
0,313486
0,307279
x
3
3,2
3,4
3,6
3,8
4
4,2
4,4
4,6
4,8
5
5,2
5,4
5,6
5,8
6
6,2
6,4
6,6
6,8
7
exp(-x)
0,049787
0,040762
0,033373
0,027324
0,022371
0,018316
0,014996
0,012277
0,010052
0,00823
0,006738
0,005517
0,004517
0,003698
0,003028
0,002479
0,002029
0,001662
0,00136
0,001114
0,000912
173
Таблица 2
Значения функции  ( x) 
x
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
1
e
0
1
2
3
4
5
2
6
0,3968
0,3907
0,3809
0,3677
0,3514
0,3325
0,3115
0,2890
0,2654
0,2413
0,2173
0,1937
0,1709
0,1494
0,1292
0,1107
0,0939
0,0788
0,0655
0,0539
0,0439
0,0354
0,0283
0,0224
0,0175
0,0136
0,0104
0,0079
0,0060
0,0044
0,0033
0,0024
0,0017
0,0012
0,0009
0,0006
0,0004
0,0003
0,0002
0,3965
0,3902
0,3802
0,3668
0,3503
0,3312
0,3101
0,2874
0,2637
0,2396
0,2155
0,1919
0,1691
0,1476
0,1276
0,1092
0,0925
0,0775
0,0644
0,0529
0,0431
0,0347
0,0277
0,0219
0,0171
0,0132
0,0101
0,0077
0,0058
0,0043
0,0032
0,0023
0,0017
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,3961
0,3894
0,3790
0,3653
0,3485
0,3292
0,3079
0,2850
0,2613
0,2371
0,2131
0,1895
0,1669
0,1456
0,1257
0,1074
0,0909
0,0761
0,0632
0,0519
0,0422
0,0339
0,0270
0,0213
0,0167
0,0129
0,0099
0,0075
0,0056
0,0042
0,0031
0,0022
0,0016
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,3956
0,3885
0,3778
0,3637
0,3467
0,3271
0,3056
0,2827
0,2589
0,2347
0,2107
0,1872
0,1647
0,1435
0,1238
0,1057
0,0893
0,0748
0,0620
0,0508
0,0413
0,0332
0,0264
0,0208
0,0163
0,0126
0,0096
0,0073
0,0055
0,0040
0,0030
0,0022
0,0016
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,3951
0,3876
0,3765
0,3621
0,3448
0,3251
0,3034
0,2803
0,2565
0,2323
0,2083
0,1849
0,1626
0,1415
0,1219
0,1040
0,0878
0,0734
0,0608
0,0498
0,0404
0,0325
0,0258
0,0203
0,0158
0,0122
0,0093
0,0071
0,0053
0,0039
0,0029
0,0021
0,0015
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,3945
0,3867
0,3752
0,3605
0,3429
0,3230
0,3011
0,2780
0,2541
0,2299
0,2059
0,1826
0,1604
0,1394
0,1200
0,1023
0,0863
0,0721
0,0596
0,0488
0,0396
0,0317
0,0252
0,0198
0,0154
0,0119
0,0091
0,0069
0,0051
0,0038
0,0028
0,0020
0,0015
0,0010
0,0007
0,0005
0,0004
0,0002
0,0002
0,3939
0,3857
0,3739
0,3589
0,3410
0,3209
0,2989
0,2756
0,2516
0,2275
0,2036
0,1804
0,1582
0,1374
0,1182
0,1006
0,0848
0,0707
0,0584
0,0478
0,0387
0,0310
0,0246
0,0194
0,0151
0,0116
0,0088
0,0067
0,0050
0,0037
0,0027
0,0020
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002

2
x
2
.
7
8
9
0,3932
0,3847
0,3725
0,3572
0,3391
0,3187
0,2966
0,2732
0,2492
0,2251
0,2012
0,1781
0,1561
0,1354
0,1163
0,0989
0,0833
0,0694
0,0573
0,0468
0,0379
0,0303
0,0241
0,0189
0,0147
0,0113
0,0086
0,0065
0,0048
0,0036
0,0026
0,0019
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,3925
0,3836
0,3712
0,3555
0,3372
0,3166
0,2943
0,2709
0,2468
0,2227
0,1989
0,1758
0,1539
0,1334
0,1145
0,0973
0,0818
0,0681
0,0562
0,0459
0,0371
0,0297
0,0235
0,0184
0,0143
0,0110
0,0084
0,0063
0,0047
0,0035
0,0025
0,0018
0,0013
0,0009
0,0007
0,0005
0,0003
0,0002
0,0001
0,3918
0,3825
0,3697
0,3538
0,3352
0,3144
0,2920
0,2685
0,2444
0,2203
0,1965
0,1736
0,1518
0,1315
0,1127
0,0957
0,0804
0,0669
0,0551
0,0449
0,0363
0,0290
0,0229
0,0180
0,0139
0,0107
0,0081
0,0061
0,0046
0,0034
0,0025
0,0018
0,0013
0,0009
0,0006
0,0004
0,0003
0,0002
0,0001
174
Таблица 3
Значения функции Ф(х)=
х
-0,0
-0,1
-0,2
-0,3
-0,4
-0,5
-0,6
-0,7
-0,8
-0,9
-1,0
-1,1
-1,2
-1,3
-1,4
-1,5
-1,6
-1,7
-1,8
-1,9
-2,0
-2,1
-2,2
-2,3
-2,4
-2,5
-2,6
-2,7
-2,8
-2,9
-3,0
-3,1
-3,2
-3,3
-3,4
-3,5
-3,6
-3,7
-3,8
-3,9
х
1
t 2 / 2
е
dt
2 
Ф(х)+Ф(-х) = 1, для х -3,98  Ф(х) = 0
0
2
4
6
0,5000
0,4602
0,4207
0,3821
0,3446
0,3085
0,2743
0,2420
0,2119
0,1841
0,1587
0,1357
0,1151
0,0968
0,0808
0,0668
0,0548
0,0446
0,0359
0,0288
0,0228
0,0179
0,0139
0,0107
0,0082
0,0062
0,0047
0,0035
0,0026
0,0019
0,0013
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,0001
0,0001
0,0000
0,4920
0,4522
0,4129
0,3745
0,3372
0,3015
0,2676
0,2358
0,2061
0,1788
0,1539
0,1314
0,1112
0,0934
0,0778
0,0643
0,0526
0,0427
0,0344
0,0274
0,0217
0,0170
0,0132
0,0102
0,0078
0,0059
0,0044
0,0033
0,0024
0,0018
0,4840
0,4443
0,4052
0,3669
0,3300
0,2946
0,2611
0,2297
0,2005
0,1736
0,1492
0,1271
0,1075
0,0901
0,0749
0,0618
0,0505
0,0409
0,0329
0,0262
0,0207
0,0162
0,0125
0,0096
0,0073
0,0055
0,0041
0,0031
0,0023
0,0016
0,4761
0,4364
0,3974
0,3594
0,3228
0,2877
0,2546
0,2236
0,1949
0,1685
0,1446
0,1230
0,1038
0,0869
0,0721
0,0594
0,0485
0,0392
0,0314
0,0250
0,0197
0,0154
0,0119
0,0091
0,0069
0,0052
0,0039
0,0029
0,0021
0,0015
8
0,4681
0,4286
0,3897
0,3520
0,3156
0,2810
0,2483
0,2177
0,1894
0,1635
0,1401
0,1190
0,1003
0,0838
0,0694
0,0571
0,0465
0,0375
0,0301
0,0239
0,0188
0,0146
0,0113
0,0087
0,0066
0,0049
0,0037
0,0027
0,0020
175
Таблица 4
Значения функции Vк=
k e 
к!
(распределение Пуассона)


0
1
2
3
4
5
0,1
0,9048
0,0905
0,0045
0,0002
0,2
0,8187
0,1638
0,0164
0,0011
0,0001
0,3
0,7408
0,2222
0,0333
0,0033
0,0002
0,4
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,5
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,6
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,7
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,0001
0,8
0,4493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,9
0,4066
0,3659
0,1647
0,0494
0,0111
0,0020
0,0003
1,0
0,3679
0,3679
0,1839
0,0613
0,0153
0,0031
0,0005
0,0001
2,0
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
3,0
0,0498
0,1494
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
4,0
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
5,0
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0001
6,0
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0688
0,0413
0,0225
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
7,0
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0452
0,0264
0,0142
0,0071
0,0033
0,0015
0,0006
8,0
0,0003
0,0027
0,0107
0,0286
0,0572
0,0916
0,1221
0,1396
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
9,0
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058


0
1
2
3
4
5
6
7
8
9
10
11
12


0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
176
Таблица 5
Значения K(z)=

 (1)k e 2k z
2
2
(распределение Колмогорова)
k  
z
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,43
0,44
0,45
0,46
0,47
0,48
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
(для z    z для z    z )
K(z)
z
K(z)
z
0,000001
0,000004
0,000009
0,000021
0,000046
0,000091
0,000171
0,000303
0,000511
0,000826
0,001285
0,001929
0,002808
0,003972
0,005476
0,007377
0,009730
0,012590
0,016005
0,020022
0,024682
0,030017
0,036055
0,042814
0,050306
0,058534
0,067497
0,077183
0,087577
0,098656
0,110395
0,122760
0,135718
0,149229
0,163225
0,177753
0,192677
0,207987
0,223637
0,239582
0,255780
0,272189
0,288765
0,305471
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,88
0,89
0,90
0,91
0,92
0,93
0,94
0,95
0,96
0,97
0,98
0,99
1,00
1,01
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
0,372833
0,389640
0,406372
0,423002
0,439505
0,455857
0,472041
0,488030
0,503808
0,519366
0,534682
0,549744
0,564546
0,579070
0,593316
0,607270
0,620928
0,634286
0,647338
0,660082
0,672516
0,684636
0,696444
0,707940
0,719126
0,730000
0,740566
0,750826
0,760780
0,770434
0,779794
0,788860
0,797636
0,806128
0,814342
0,822282
0,829950
0,837356
0,844502
0,851394
0,858038
0,864442
0,870612
0,876548
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
1,49
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
1,60
1,61
1,62
1,63
1,64
1,65
K(z)
0,898104
0,902972
0,907648
0,912132
0,916432
0,920556
0,924505
0,928288
0,931908
0,935370
0,938682
0,941848
0,944872
0,947756
0,950512
0,953142
0,955650
0,958040
0,960318
0,962486
0,964552
0,966516
0,968382
0,970158
0,971846
0,973448
0,974970
0,976412
0,977782
0,979080
0,980310
0,981476
0,982578
0,983622
0,984610
0,985544
0,986426
0,987260
0,988048
0,988791
0,989492
0,990154
0,990777
0,991364
177
Продолжение таблицы 5
0,72
0,73
0,74
1,69
1,70
1,71
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
1,80
1,81
1,82
1,83
1,84
1,85
1,86
1,87
1,88
1,89
1,90
1,91
1,92
1,93
1,94
1,95
1,96
1,97
1,98
1,99
0,322265
0,339113
0,355981
0,993389
0,993828
0,994230
0,994612
0,994972
0,995309
0,995625
0,995922
0,996200
0,996460
0,996704
0,996932
0,997146
0,997346
0,997533
0,997707
0,997870
0,998023
0,998145
0,998297
0,998421
0,998536
0,998644
0,998744
0,998837
0,998924
0,999004
0,999079
0,999149
0,999213
0,999273
1,19
1,20
1,21
2,00
2,01
2,02
2,03
2,04
2,05
2,06
2,07
2,08
2,09
2,10
2,11
2,12
2,13
2,14
2,15
2,16
2,17
2,18
2,19
2,20
2,21
2,22
2,23
2,24
2,25
2,26
2,27
2,28
2,29
2,30
0,882258
0,887750
0,893030
0,999329
0,999380
0,999428
0,999474
0,999516
0,999552
0,999588
0,999620
0,999650
0,999680
0,999705
0,999723
0,999750
0,999770
0,999790
0,999806
0,999822
0,999838
0,999852
0,999864
0,999874
0,999886
0,999896
0,999904
0,999912
0,999920
0,999926
0,999934
0,999940
0,999944
0,999949
1,66
1,67
1,68
2,31
2,32
2,33
2,34
2,35
2,36
2,37
2,38
2,39
2,40
2,41
2,42
2,43
2,44
2,45
2,46
2,47
2,48
2,49
2,50
2,55
2,60
2,65
2,70
2,75
2,80
2,85
2,90
2,95
3,00
0,991917
0,992438
0,992928
0,999954
0,999958
0,999962
0,999965
0,999968
0,999970
0,000073
0,000076
0,000078
0,000080
0,999982
0,999984
0,999986
0,999987
0,999988
0,999989
0,999990
0,999991
0,999992
0,9999925
0,9999956
0,9999974
0,9999984
0,9999990
0,9999994
0,9999997
0,99999982
0,99999990
0,99999994
0,99999997
Таблица 6
Значения 2 решения уравнения
1n
n1
2
1
n

1



1
2 2 Г 
 exp x 2 dx  p,
  x 2
 2  0
2
для левого конца интервала при 2р = 1-, значение   12 ,
для правого конца интервала при р=1-(1-)/2, значение  2  12 .
p
0,99
0,98
0,95
0,90
0,80
0,70
0,50
0,30
0,20
0,10
0,05
0,02
0,01
0,001
0,000
0,020
0,115
0,297
0,554
0,872
1,239
1,646
2,09
2,56
3,05
3,57
4,11
4,66
5,23
5,81
6,41
7,02
0,001
0,040
0,185
0,429
0,752
1,134
1,564
2,03
2,53
3,06
3,61
4,18
4,76
5,37
5,98
6,61
7,26
7,91
0,004
0,103
0,352
0,711
1,145
1,635
2,17
2,73
3,32
3,94
4,58
5,23
5,89
6,57
7,26
7,96
8,67
9,39
0,016
0,211
0,584
1,064
1,610
2,20
2,83
3,49
4,17
4,86
5,58
6,30
7,04
7,79
8,55
9,31
10,08
10,86
0,064
0,446
1,005
1,649
2,34
3,07
3,82
4,59
5,38
6,18
6,99
7,81
8,63
9,47
10,31
11,15
12,00
12,86
0,148
0,713
1,424
2,20
3,00
3,83
4,67
5,53
6,39
7,27
8,15
9,03
9,93
10,82
11,72
12,62
13,53
14,44
0,455
1,386
2,37
3,36
4,35
5,35
6,35
7,34
8,34
9,34
10,34
11,34
12,34
13,34
14,34
15,34
16,34
17,34
1,074
2,41
3,66
4,88
6,06
7,23
8,38
9,52
10,66
11,78
12,90
14,01
15,12
16,22
17,32
18,42
19,51
20,6
1,642
3,22
4,64
5,99
7,29
8,56
9,80
11,03
12,24
13,44
14,63
15,81
16,98
18,15
19,31
20,5
21,6
22,8
2,71
4,60
6,25
7,78
9,24
10,64
12,02
13,36
14,68
15,99
17,28
18,55
19,81
21,1
22,3
23,5
24,8
26,0
3,84
5,99
7,82
9,49
11,07
12,59
14,07
15,51
16,92
18,31
19,68
21,0
22,4
23,7
25,0
26,3
27,6
28,9
5,41
7,82
9,84
11,67
13,39
15,03
16,62
18,17
19,68
21,2
22,6
24,1
25,5
26,9
28,3
29,6
31,0
32,3
6,64
9,21
11,34
13,28
15,09
16,81
18,48
20,1
21,7
23,2
24,7
26,2
27,7
29,1
30,6
32,0
33,4
34,8
10,83
13,82
16,27
18,46
20,5
22,5
24,3
26,1
27,9
29,6
31,3
32,9
34,6
36,1
37,7
39,3
40,8
42,3
r
178
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
179
Продолжение таблицы 6
19
20
21
22
23
24
25
26
27
28
29
30
7,63
8,26
8,90
9,54
10,20
10,86
11,52
12,20
12,88
13,56
14,26
14,95
.8,57
9,24
9,92
10,60
11,29
11,99
12,70
13,41
14,12
14,85
15,57
16,31
10,11
10,85
11,59
12,34
13,09
13,85
14,61
15,38
16,15
16,93
17,71
18,49
11,65
12,44
13,24
14,04
14,85
15,66
16,47
17,29
18,11
18,94
19,77
20,6
13,72
14,58
15,44
16,31
17,19
18,06
18,94
19,82
20,7
21,6
22,5
23,4
15,35
16,27
17,18
18,10
19,02
19,94
20,9
21,8
22,7
23,6
24,6
25,5
18,34
19,34
20,3
21,3
22,3
23,3
24,3
25,3
26,3
27,3
28,3
29,3
21,7
22,8
23,9
24,9
26,0
27,1
28,2
29,2
30,3
31,4
32,5
33,5
23,9
25,0
26,2
27,3
28,4
29,6
30,7
31,8
32,9
34,0
35,1
36,2
27,2
28,4
29,6
30,8
32,0
33,2
34,4
35,6
36,7
37,9
39,1
40,3
30,1
31,4
32,7
33,9
35,2
36,4
37,7
38,9
40,1
41,3
42,6
43,8
33,7
35,0
36,3
37,7
39,0
40,3
41,7
42,9
44,1
45,4
46,7
48,0
36,2
37,6
38,9
40,3
41,6
43,0
44,3
45,6
47,0
48,3
49,6
50,9
43,8
45,3
46,8
48,3
49,7
51,2
52,6
54,1
55,5
56,9
58,3
59,7
179
Таблица 7
t
Значения t  удовлетворяющие равенству 2  S n t dt   , в зависимости от  и n-1

0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
0,98
0,99

0,999
n-1
n-1
0,158
142
137
134
132
0,325
289
277
271
267
0,510
445
424
414
408
0,727
617
584
569
559
1,000
0,816
765
741
727
1,376
1,061
0,978
941
920
1,963
1,336
1,250
1,190
1,156
3,08
1,886
1,638
1,533
1,476
6,31
2,92
2,35
2,13
2,02
12,71
4,30
3,18
2,77
2,57
31,8
6,96
4,54
3,75
3,36
63,7
9,92
5,84
4,60
4,03
63,7
31,6
12,94
8,61
6,86
1
2
3
4
5
6
7
8
9
10
131
130
130
129
129
265
263
262
261
260
404
402
399
398
397
553
549
546
543
542
718
711
706
703
700
906
896
889
883
879
1,134
1,119
1,108
1,100
1,093
1,440
1,415
1,397
1,383
1,372
1,943
1,895
1,860
1,833
1,812
2,45
2,36
2,31
2,26
2,23
3,14
3,00
2,90
2,82
2,76
4,71
3,50
3,36
3,25
3,17
5,96
5,40
5,04
4,78
4,59
6
7
8
9
10
11
12
13
14
15
129
128
128
128
128
260
259
259
258
258
396
395
394
393
393
540
539
538
537
536
697
695
694
692
691
876
873
870
868
866
1,088
1,083
1,079
1,076
1,074
1,363
1,356
1,350
1,345
1,341
1,796
1,782
1,771
1,761
1,753
2,20
2,18
2,16
2,14
2,13
2,72
2,68
2,65
2,62
2,60
3,11
3,06
3,01
2,98
2,95
4,49
4,32
4,22
4,14
4,07
11
12
13
14
15
16
17
18
19
20
128
128
127
127
127
258
257
257
257
257
392
392
392
391
391
535
534
534
533
533
690
689
688
688
687
865
863
862
861
860
1,071
1,069
1,067
1,066
1,064
1,337
1,333
1,330
1,328
1,325
1,746
1,740
1,734
1,729
1,725
2,12
2,11
2,10
2,09
2,09
2,58
2,57
2,55
2,54
2,53
2,92
2,90
2,88
2,86
2,84
4,02
3,96
3,92
3,88
3,85
16
17
18
19
20
180
1
2
3
4
5
181
Продолжение таблицы 7


0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
0,98
0,99
0,999
21
22
23
24
25
127
127
127
127
127
257
256
256
256
256
391
390
390
390
390
532
532
532
531
531
686
686
685
685
684
859
858
858
857
856
1,063
1,061
1,060
1,059
1,058
1,323
1,321
1,319
1,318
1,316
1,721
1,717
1,714
1,711
1,708
2,08
2,07
2,07
2,06
2,06
2,52
2,51
2,50
2,49
2,48
2,83
2,82
2,81
2,80
2,79
3,82
3,79
3,77
3,74
3,72
21
22
23
24
25
26
27
28
29
30
127
127
127
127
127
256
256
256
256
256
390
389
389
389
389
531
531
530
530
530
684
684
683
683
683
856
855
855
854
854
1,058
1,057
1,056
1,055
1,055
1,315
1,314
1,313
1,311
1,310
1,706
1,703
1,701
1,699
1,697
2,06
2,05
2,05
2,04
2,04
2,48
2,47
2,47
2,46
2,46
2,78
2,77
2,76
2,76
2,75
3,71
3,69
3,67
3,66
3,65
26
27
28
29
30
40
60
120

126
126
126
0,126
255
254
254
0,253
388
387
386
0,385
529
527
526
0,524
681
679
677
0,674
851
848
845
0,842
1,050
1,046
1,041
1,036
1,303
1,296
1,289
1,282
1,684
1,671
1,658
1,645
2,02
2,00
1,980
1,960
2,42
2,39
2,36
2,33
2,70
2,66
2,62
2,58
3,55
3,46
3,37
3,29
40
60
120

n-1
n-1
181
182
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Ахназарова С.Л., Кафаров В.В. Методы оптимизации эксперимента в
химической технологии. - М.: Высшая школа, 1985. – 327 с.
2. Боровков А.А. Теория вероятностей, - М.: Наука, 1986. – 432с.
3. Вентцель Е.С. Теория вероятностей. - М.: Высшая школа, 2002. - 576 с.
4. Гмурман В.Е. Теория вероятностей и математическая статистика. – М.:
Высшая школа, 2002. – 479 с.
5. Гнеденко Б.В. Курс теории вероятностей. - М.: Наука, 1988. – 446с.
6. Карлин С. Основы теории случайных процессов. - М, «Мир», 1971.
7. Кафаров В.В., Дорохова И.Н., Арутюнов С.Ю. Системный анализ
процессов химической технологии. – М.: Наука, 1985. – 440 с.
8. Клейнрок Л. Теория массового обслуживания. - М.: Машиностроение,
1979. – 432 с.
183
Download