СЛУЧАЙНЫЕ СОБЫТИЯ

advertisement
Посвящается 75 – летию СГПИ
Введение
Настоящее учебное пособие призвано помочь студентам в изучении
основ теории вероятностей и математической статистики для решения
практических задач.
Первая часть посвящена теории вероятностей.
Теория вероятностей является разделом математики, в котором
изучают математические модели случайных экспериментов, т.е.
экспериментов, исходы которых нельзя определить однозначно условиями
проведения опыта. При этом предполагается, что сам эксперимент может
быть повторен любое число раз при неизменном комплексе условий, а
исходы эксперимента обладают статистической устойчивостью.
Приведем простейшие примеры таких экспериментов.
1. Однократное подбрасывание монеты. Возможными исходами в этом
опыте будут: падение монеты «гербом» вверх (или просто выпадение
«герба») или выпадение «цифры». В результате проведения опыта
возникает лишь исход, однако установить до проведения опыта, какой
именно, невозможно.
2. Бросание игральной кости. В данном случае возможны шесть исходов:
выпадение 1, 2, 3, 4, 5 и 6 очков на верхней грани бросаемой кости.
3. Работа телефонной станции. Предположим, что нас интересует число
вызовов, которое поступит за определенный промежуток времени на
телефонную станцию. Как и в предыдущих примерах, интересующую
нас величину до проведения эксперимента определить невозможно,
хотя очевидно, что результатом будет целое неотрицательное число.
4. Измерение времени безотказной работы электрической лампочки.
Время безотказной работы лампочки, которое в принципе может быть
любым неотрицательным числом, для конкретного образца предсказать
невозможно.
Примеров такого рода можно привести сколь угодно много. Принято
говорить, что исходы опытов (экспериментов), подобных перечисленным
выше, являются случайными.
В чем же состоит общность опытов со случайными исходами?
Оказывается, несмотря на то что результат каждого из перечисленных выше
экспериментов предсказать невозможно, на практике для них уже давно была
замечена закономерность определенного вида, а именно: при проведении
большого количесвта испытаний наблюденные частоты появления каждого
случайного события (наблюденной частотой случайного события называют
отношение числа его появлений к общему числу испытаний)
стабилизируются, т.е. все меньше отличаются от некоторого числа,
называемого вероятностью события. Так, при многократном бросании
игральной кости «шестерка» выпадает в среднем в каждом шестом случае.
3
Такое свойство устойчивости частоты позволяет, не имея возможности
предсказать исход отдельного опыта, достаточно точно прогнозировать
свойства явлений, связанных с рассматриваемым опытом. Поэтому методы
теории вероятностей в современной жизни проникли во все сферы
деятельности человека, причем не только в естественно-научные,
экономические, но и гуманитарные, такие, как история, лингвистика и т.д.
Историчски зарождение и развитие теории вероятностей связано с
азартными играми, в которых требовалось обосновать то или иное решение.
Классическим примером является задача, рассматриваемая ниже.
Задача. Двое играют в безобидную игру (шансы выиграть у обоих
одинаковы). Договариваются, что всю ставку забирает игрок, выигравший
первым 6 партий. Как правильно разделить ставку, если игра остановилась
при счете 5:3?
Решение. Для выигрыша первому игроку достаточно выиграть одну
партию, второму игроку необходимо подряд выиграть три партии. Всего три
партии предполагает 2∙2∙2=8 исходов (каждая партия имеет два исхода:
выиграл, проиграл). В пользу второго игрока только один исход из 8
возможных, а впользу первого – 7 исходов. Поэтому справедливо разделить
ставку пропорционально шансам выиграть, то есть 7:1.
Решение подобных задач Б.Паскалем, П.Ферма, Х.Гюйгенсом
послужило появлению теории вероятностей. Дальнейшее ее развитие связано
с именами Я.Бернулли, С.Пуассона, А.Муавра, П.Лапласа, К.Гаусса,
П.Чебышева, А.Маркова, А.Ляпунова, А.Хинчина, А.Колмогорова и др.
Целью современной теории вероятностей является выявление общих
закономерностей и зависимостей, а также описание физических явлений с
помощью абстрактных моделей.
Вторая часть пособия посвящена математической статистике.
Математическая статистика – это раздел математики, в котором
изучаются математические методы систематизации, обработки и
использования статистических данных для научных и практических выводов.
Математическая статистика использует математический аппарат и
выводы теории вероятностей. Связующим звеном между теорией
вероятностей и математической статистикой является закон больших чисел и
так называемые предельные теоремы. В частности, закон больших чисел
аргументирует применение средней арифметической в качестве оценки
математического ожидания и относительной частоты появления события как
оценки вероятности, последнее обосновывает понятие статистической
устойчивости.
Всю жизнь человек вынужден принимать решения: в личной сфере (в
какой вуз поступить, с кем общаться, как учиться); в общественной
(посещать вечера, театры, митинги, собрания, выборы); в производственной
(определение факторов, существенно влияющих на урожайность, качество
материалов и т.д.); научной (выдвижение и проверка научных гипотез).
Принятие решений обычно преследует одну из целей: прогнозирование
будущего состояния процесса (объекта); управление (т.е. как следует
4
изменить одни параметры объекта (процесса), чтобы другие параметры
приняли желаемое значение); объяснение внутренней структуры объекта
(процесса).
Одним из основных подходов к обоснованию и последующему
принятию решений является статистический.
Статистические методы обработки данных можно классифицировать
по нижеследующим признакам.
По способу получения экспериментальных данных:
 активный эксперимент;
 пассивный эксперимент (выборочное или сплошное наблюдение).
По цели обработки данных:
 описательные (получение и сравнение числовых характеристик
экспериментальных данных) – анализ вариационных рядов,
выборочный метод, проверка статистических гипотез и другие;
 аналитические (количественная оценка и анализ зависимостей,
описывающих изучаемые объекты (процессы)) – дисперсионный
анализ, регрессионный анализ, анализ рядов динамики и другие.
В математической статистике предполагается, что результаты опытных
данных и наблюдений являются реализацией различных случайных
процессов, имеющих те или иные законы распределения (причем
неизвестные заранее), а иногда и детерминированные составляющие
(регрессионный анализ). Отсюда вытекают основные задачи математической
статистики:
1) организация наблюдений;
2) нахождение по результатм выборочных наблюдений оценок числовых
характеристик всей совокупности и исследование точности их
приближения (выборочный метод);
3) решение вопроса согласования результатов оценивания с опытными
данными (проверка статистических гипотез);
4) оценка существенности влияния факторных признаков на
результативный (дисперсионный анализ);
5) выявление аналитической зависимости между наблюдениями
факторных
и
результативных
признаков
(корреляционнорегрессионный анализ).
А. Вальд говорил, что «математическая статистика – это теория
принятия решений в условиях неопределенности».
По существу математическая статистика дает единственный,
математически обоснованный аппарат для решения задач управления и
прогнозирования при отсутствии явных закономерностей (наличии
случайностей) в изучаемых процессах.
5
Основные обозначения
– пространство элементарных исходов, достоверное событие
w
– элементарный исход
А, В, С, … – случайные события
Ø
– невозможное событие
w A
– элементарный исход w принадлежит событию А
A  B, B  A – событие А включено в событие В
A  B, A  B, AB – пересечение событий А и В
A  B, A  B – объединение событий А и В
– событие, противоположное событию событий А
A
A  B, A \ B
– разность событий А и В
P(A)
– вероятность события А
N
– число элементарных исходов в пространстве элементарных
исходов
Anm
– число размещений (без повторений) из n элементов по m
C nm
– число сочетаний (без повторений) из n элементов по m
Pn
– число перестановок из n элементов
m
An
– число размещений (с повторениями) из n элементов по m
m
Cn
– число сочетаний (с повторениями) из n элементов по m
Pn (n1 , n2 ,..., nk ) – число перестановок из n элементов с повторениями
P( A | B)
– условная вероятность события A при условии события B
 (x )
– плотность стандартного нормального (гауссова) распределения
 0 ( x)
– функция Лапласа
F (x )
– функция распределения (вероятностей) случайной величины X
M (X )
– математическое ожидание случайной величины X
D( X )
– дисперсия случайной величины X
– выборочная дисперсия
DB
– мода
M 0*
– медиана
M e*
n!
– произведение всех натуральных чисел от 1 до n включительно

6
Буквы латинского алфавита
Начертание
AaAa
BbBb
CcCc
DdDd
EeEe
FfFf
GgGg
HhHh
IiIi
JjJj
KkKk
LlLl
MmMm
Произношение
а
бэ
цэ
дэ
е
эф
же
аш
и
йот (жи)
ка
эль
эм
Начертание
NnNn
OoOo
PpPp
QqQq
RrRr
SsSs
TtTt
UuUu
VvVv
WwWw
XxXx
YyYy
ZzZz
Произношение
эн
о
пэ
ку
эр
эс
тэ
у
вэ
дубль-вэ
икс
игрек
зэт
Буквы греческого алфавита
Начертание







 
Произношение
альфа
бета
гамма
дельта
эпсилон
дзета
эта
тэта
Начертание
Произношение
йота
каппа
ламбда
ми
ни
кси
омикрон
пи








7
Начертание








Произношение
ро
сигма
тау
ипсилон
фи
хи
пси
омега
Лекция №1.
СЛУЧАЙНЫЕ СОБЫТИЯ
Предмет теории вероятностей
Теория вероятностей – математическая наука, изучающая
закономерности, присущие массовым случайным явлениям. При этом
изучаемые явления рассматриваются в абстрактной форме, независимо от их
конкретной природы. То есть теория вероятностей рассматривает не сами
реальные явления, а их упрощенные схемы – математические модели.
Предметом теории вероятностей являются математические модели
случайных явлений. При этом под случайным явлением понимают явление,
предсказать
исход
которого
невозможно
(при
неоднократном
воспроизведении одного и того же опыта оно протекает каждый раз
несколько по-иному). Примеры случайных явлений: выпадение герба при
подбрасывании монеты, выигрыш по купленному лотерейному билету,
результат измерения какой-либо величины, длительность работы телевизора
и т.п.
Цель теории вероятностей – осуществление прогноза в области
случайных явлений, влияние на ход этих явлений, контроль их, ограничение
сферы действия случайности. В настоящее время нет практически ни одной
области науки, в которой в той или иной степени не применялись бы
вероятностные методы.
Случайные события, их классификация
Сначала определим понятие «случайное событие» исходя из его
интуитивного, наглядного понимания. Пусть проводится некоторый опыт
(эксперимент, наблюдение, испытание), исход которого предсказать заранее
нельзя. Такие эксперименты в теории вероятностей называют случайными.
При этом рассматриваются только такие эксперименты, которые можно
повторять, хотя бы теоретически, при неизменном комплексе условий
произвольное число раз.
Случайным событием (или просто: событием) называется любой
исход опыта, который может произойти или не произойти.
События обозначаются, как правило, заглавными буквами латинского
алфавита: А, В, С, ….
Пример 1. Опыт: бросание игральной кости; событие А – выпадение 5
очков, событие В – выпадение четного числа очков, событие С – выпадение 7
очков, событие D – выпадение целого числа очков, событие Е – выпадение не
менее 3-х очков, ….
Непосредственные исходы опыта называются элементарными
событиями и обозначаются через w. Элементарные события (их называют
также «элементами», «точками», «случаями») рассматриваются как
неразложимые и взаимоисключающие исходы w1 , w2 , w3 ,... этого опыта.
Множество всех элементарных событий называется пространством
элементарных событий или пространством исходов, обозначается через  .
8
Рассмотрим пример 1. Здесь 6 элементарных событий w1 , w2 , w3 , w4 , w5 , w6 .
Событие wi означает, что в результате бросания кости выпало i очков,
i =1,2,3,4,5,6.
Пространство
элементарных
событий
таково:
  {w1 , w2 , w3 , w4 , w5 , w6 } или   {1,2,3,4,5,6} .
Событие называется достоверным, если оно обязательно наступит в
результате данного опыта, обозначается через  .
Событие называется невозможным, если оно заведомо не произойдет в
результате проведения опыта, обозначается через Ø.
В примере 1. события А и В – случайные, событие С – невозможное,
событие D – достоверное.
Два события называются несовместными, если появление одного из
них исключает появление другого события в одном и том же опыте, т.е. не
смогут произойти вместе в одном опыте. В противном случае события
называются совместными.
Так, в примере 1. события А и В – несовместные, А и Е – совместные.
События A1 , A2 ,..., An называются попарно-несовместными, если любые
два из них несовместны.
Несколько событий образуют полную группу, если они попарно
несовместны и в результате каждого опыта происходит одно и только одно
из них.
В примере 1. события w1  w6 образуют полную группу, w1  w5 - нет.
Несколько событий в данном опыте называются равновозможными,
если ни одно из них не является объективно более возможным, чем другие,
т.е. все события имеют равные «шансы».
В пример 1. элементарные события w1 , w2 , w3 , w4 , w5 , w6 равновозможны.
Выпадение герба (А) или решки (В) при бросании монеты – равновозможные
события, если, конечно, монета имеет симметричную форму, не погнута, ….
Действия над событиями
Введем основные операции над событиями; они полностью
соответствуют основным операциям над множествами.
Суммой событий А и В называется событие С=А+В, состоящее в
наступлении хотя бы одного из них (т.е. или А, или В, или А и В вместе).
Произведением событий А и В называется событие С=А∙В, состоящее в
совместном наступлении этих событий (т.е. и А и В одновременно).
Разностью событий А и В называется событие С=А-В, происходящее
тогда и только тогда, когда происходит событие А, но не происходит
событие В.
Противоположным событию À называется событие À , которое
происходит тогда и только тогда, когда не происходит событие À (т.е. À
означает, что событие À не наступило).
Событие À влечет событие Â (или À является частным случаем Â ),
если из того, что происходит событие À , следует, что происходит событие
 ; записывают A  B .
9
Если A  B и B  A , то события À и Â называются равными;
записывают À = Â .
Так, в примере 1. B  {2,4,6}, E  {3,4,5,6}, A  {5}, D  {1,2,3,4,5,6} . Тогда:
B  E  {2,3,4,5,6}, B  E  {4,6}, B  E  {2}, A  {1,2,3,4,6}, B  D, D    {1,2,3,4,5,6} .
События и действия над ними можно наглядно иллюстрировать с
помощью диаграмм Эйлера-Венна: достоверное событие  изображается
прямоугольником; элементарные случайные события – точками
прямоугольника; случайное событие – областью внутри него.
Действия над событиями можно изобразить так, как показано на
рис. 1-5.
Операции над событиями обладают следующими свойствами:
 A  B  B  A, A  B  B  A (переместительное);
 ( A  B)  C  A  C  B  C , A  B  C  ( A  C )  ( B  C ) (распределительное);
  A  B  C  A  B  C ,  A  B  C  A  B  C  (сочетательное);
 A  A  A, A  A  A ;
 A    , A    A ;
 A  A  , A  A  Ø;
   ,   Ø, A  A ;
 A  B  A B ;

_______
_______
A  B  A  B и A  B  A  B - законы де Моргана.
А
В
А
В


А+В
Рис. 1
А
А∙В
Рис. 2
В
А
À


А-В
À
Рис. 4
Рис. 3
10
В
А

АВ
Рис. 5
В их справедливости можно убедиться с помощью диаграмм ЭйлераВенна.
Пример 2. Доказать формулу À  Â  À  À Â .
Используя некоторые из выше приведенных правил, получаем:
À  Â   À  Â     À    Â    À    Â  À  À   À    À  À   Â  À    À  Â  À  Â 
   Â   À  À  Â    À  À  Â  À  À  Â.
Таким образом, сумму любых двух событий можно представить в виде
суммы двух несовместных событий.
Упражнения
1. Доказать формулы: 1) Â  À  Â  À  Â ; 2)  À  Ñ   Â  Ñ   À  Â  Ñ ;
_______
2.
3.
3) A  B  A  B .
Пусть A, B и C – три произвольных события. Выразить через них
следующие события: а) произошли все три события; б) произошло
только С; в) произошло хотя бы одно из событий; г) ни одного
события не произошло; д) произошли А и В, но С не произошло; е)
произошло одно из этих событий; ж) произошло не более двух
событий.
Релейная схема (рис. 6) состоит из 6 элементов. Пусть события Ài
 ____ 
 i  1,6  состоят в том, что соответствующие элементы работают


безотказно в течение времени Т. Выразить через Ài событие,
состоящее в том, что схема за время Т работает безотказно.
3
1
2
4
6
5
Рис. 6
11
Лекция № 2.
Случайные события. Алгебра событий.
(Теоретико-множественная трактовка)
Пусть производится некоторый опыт со случайным исходом.
Множество   {w} всех возможных взаимоисключающих исходов
данного опыта называется пространством элементарных событий (коротко:
ПЭС), а сами исходы w - элементарными событиями (или «элементами»,
«точками»).
Случайным событием А (или просто событием А) называется любое
подмножество множества  , если  конечно или счетно (т.е. элементы этого
множества можно пронумеровать с помощью множества натуральных чисел):
A .
Элементарные события, входящие в подмножество А пространства  ,
называются благоприятствующими событию А.

Множество
называется
достоверным
событием.
Ему
благоприятствует любое элементарное событие; в результате опыта оно
обязательно произойдет.
Пустое множество Ø называется невозможным событием; в результате
опыта оно произойти не может.
Пример 3. Опыт: один раз бросают игральную кость. В этом случае
ПЭС таково:   {1,2,3,4,5,6} или   {w1 , w2 , w3 , w4 , w5 , w6 } , где wi - элементарное
____
событие, состоящее в выпадении грани с i очками ( i  1,6 ). В данном случае
 конечно. Примером события А является, например, выпадение нечетного
числа очков; очевидно, что À  {w1 , w3 , w5 } ; событию А благоприятствуют
элементарные события w1 , w3 , w5 . Однако если нас интересует только факт
выпадения четного числа очков, то ПЭС можно построить иначе:   {w1 , w2 } ,
где w1 - выпадение четного числа очков, w2 - нечетного.
Пример 4. Опыт: стрельба по цели до первого попадания. Тогда
 Ï ÍÏ
ÍÍÏ
ÍÍÍÏ
 ,
,
,
w3
w4
 w1 w2

,... , где П означает попадание в цель, Н –

непопадание. Исходов у этого опыта бесконечно (теоретически);  счетно.
Пример 5. Опыт: наблюдение за временем безотказной работы
некоторого агрегата. В этом случае в качестве результата может появиться
любое число t  0 ; время
t меняется непрерывно; ПЭС таково:
  {t , 0  t  } . Исходов у этого опыта бесконечно, 
несчетно
(континуально).
Над событиями можно проводить все операции, выполнимые для
множеств.
Сумма (или объединение) двух событий À   и Â   (обозначается
А+В или А  В) – это множество, которое содержит элементы,
принадлежащие хотя бы одному из событий А и В.
Произведение двух событий À   и Â   (обозначается АВ или А  В)
– это множество, которое содержит элементы, общие для событий А и В.
12
Разность событий À   и Â   (обозначается А-В или А\В) – это
множество, которое содержит элементы события А, не принадлежащие
событию В.
Противоположное событию À   событие À   \ À . ( À называют
также дополнением множества А).
Событие А влечет событие В (обозначается À  Â ), если каждый
элемент события А содержится в В.
По определению: Ø  À для любого А.
События А и В называются несовместными, если их произведение есть
невозможное событие, т.е. À  Â  Ø.
Несколько событий À1 , À2 ,..., Àn образуют полную группу несовместных
событий, если их сумма представляет все ПЭС, а сами события несовместны,
т.е.
n
À
i 1
i
  и Ai  A j  Ø (i  j ) .
Полную
группу образуют, например, события А и
À
( A  A  , A  A  Ø).
В случае несчетного пространства  в качестве событий
рассматриваются не все подмножества  , а лишь некоторые классы этих
подмножеств, называемые алгебрами и  - алгебрами множеств.
Класс S подмножеств пространства  называется алгеброй множеств
(событий), если:
1. Ø  S ,   S ;
2. из A S вытекает, что A  S ;
3. из A S , B  S вытекает, что A  B  S , A  B  S .
Заметим, что в условии 3 достаточно требовать либо A  B  S , либо
_______
________
A  B  S , так как A  B  A  B , A  B  A  B .
Алгебру событий образует, например, система подмножеств S={Ø,  }.
Действительно, в результате применения любой из вышеприведенных
операций к любым двум элементам класса S снова получается элемент
данного класса: Ø+  =  , Ø ∙  = Ø,   ,   Ø.
При расширении операций сложения и умножения на случай счетного
множества алгебра множеств S называется  - алгеброй, если из
следует
An  S , n  1,2,3,...,

 An  S , либо
n 1

A
n 1

A
n
n

 S ,  An  S
(достаточно требовать либо
n 1
 S ).
n 1
Множество всех подмножеств множества  , если оно конечно или
счетно, образует алгебру.
13
Классическое определение вероятности
Существует простой способ определения вероятности события,
основанный на равновозможности любого из конечного числа исходов
опыта. Пусть проводится опыт с n исходами, которые можно представить в
виде полной группы несовместных равновозможных событий. Такие исходы
называются случаями, шансами, элементарными событиями, опыт –
классическим. Про такой опыт говорят, что он сводится к схеме случаев или
схеме урн (ибо вероятностную задачу для такого опыта можно заменить
эквивалентной ей задачей с урнами, содержащими шары разных цветов).
Случай w, который приводит к наступлению события A, называется
благоприятным (или – благоприятствующим) ему, т.е. случай w влечет
событие A: w  A .
Вероятностью события А называется отношение числа m случаев,
благоприятствующих этому событию, к общему числу n случаев, т.е.
P( A) 
m
.
n
(1)
Наряду с обозначение P( A) для вероятности события А используется
обозначение p, т.е. p  P( A) .
Из классического определения вероятности (1) вытекает следующие
свойства:
1. Вероятность любого события заключена между нулем и единицей, т.е.
0  P( A)  1 .
2. Вероятность невозможного события равна нулю, т.е.
P(Ø)=0.
3. Вероятность достоверного события равна единице, т.е.
P ()  1 .
4. Вероятность суммы несовместных событий равна сумме вероятностей
этих событий, т.е. если A  B  Ø, то
P( A  B)  P( A)  P( B) .
Пример 6. В урне (емкости) находятся 12 белых и 8 черных шаров.
Какова вероятность того, что наудачу вынутый шар будет белым?
Пусть А - событие, состоящее в том, что вынут белый шар. Ясно, что
n  12  8  20 - число всех равновозможных случаев (исходов опыта). Число
случаев, благоприятствующих событию А, равно 12, т.е. m  12 .
Следовательно, по формуле (1) имеем P( A) 
12
, т.е. P( A)  0,6 .
20
Упражнения
1. Найти вероятность того, что в наудачу написанном двузначном числе
цифры разные.
2. Набирая номер телефона, абонемент забыл 2 последние цифры и
набрал их наугад. Найти вероятность того, что набраны нужные
цифры.
14
Лекция № 3. Элементы комбинаторики
Согласно классическому определению подсчет вероятности события А
сводится к подсчету числа благоприятствующих ему исходов. Делают это
обычно комбинаторными методами.
Комбинаторика – раздел математики, в котором изучаются задачи
выбора элементов из заданного множества и расположения их в группы по
заданным правилам, в частности задачи о подсчете числа комбинаций
(выборок), получаемых из элементов заданного конечного множества. В
каждой из них требуется подсчитать число возможных вариантов
осуществления некоторого действия, ответить на вопрос «сколькими
способами?».
Многие комбинаторные задачи могут быть решены с помощью
следующих двух важных правил, называемых соответственно правилами
умножения и сложения.
Правило умножения: если из некоторого конечного множества
первый объект (элемент a) можно выбрать n1 способами, а второй объект
(элемент b) – n2 способами, то оба объекта (a и b) в указанном порядке можно
выбрать n1  n2 способами.
Этот принцип распространяется на случай трех и более объектов.
Пример 7. Сколько трехзначных чисел можно составить из цифр 1, 2,
3, 4, 5, если: а) цифры не повторяются? б) цифры могут повторяться?
Имеется 5 различных способов выбора цифры для первого места (слева
в трехзначном числе). После того как первое место занято, например, цифрой
2, осталось четыре цифры для заполнения второго места. Для заполнения
третьего места остается выбор из трех цифр. Следовательно, согласно
правилу умножения имеется 5∙4∙3=60 способов расстановки цифр, т.е.
искомое число трехзначных чисел есть 60. (Вот некоторые из этих чисел:
243, 541, 514, 132, …) Понятно, что если цифры могут повторяться, то
трехзначных чисел 5∙5∙5=125. (Вот некоторые из них: 255, 333, 414, 111, …)
Правило сложения: если некоторый объект a можно выбрать n1
способами, а объект b можно выбрать n2 способами, причем первые и вторые
способы не пересекаются, то любой из объектов (a или b) можно выбрать
n1  n2 способами.
Это правило распространяется на любое конечное число объектов.
Пример 8. В студенческой группе 14 девушек и 6 юношей. Сколькими
способами можно выбрать, для выполнения различных заданий, двух
студентов одного пола?
По правилу умножения двух девушек можно выбрать 14∙13=182
способами, а двух юношей - 6∙5=30 способами. Следует выбрать двух
15
студентов одного пола: двух студенток или двух юношей. Согласно правилу
сложения таких способов выбора будет 182+30=212.
Решение вероятностных (и не только их) задач часто облегчается, если
использовать комбинаторные формулы. Каждая из них определяет число
всевозможных исходов в некотором опыте (эксперименте), состоящем в
выборе наудачу m элементов из n различных элементов рассматриваемого
множества.
Существуют две схемы выбора m элементов (0<m  n) из исходного
множества: без возвращения (без повторений) и с возвращением (с
повторением). В первом случае выбранные элементы не возвращаются
обратно; можно отобрать сразу все m элементов или последовательно
отбирать их по одному. Во второй схеме выбор осуществляется поэлементно
с обязательным возвращением отобранного элемента на каждом шаге.
Схема выбора без возвращений
Пусть дано множество, состоящее из n различных элементов.
Размещением из n элементов по m элементов (0<m  n) называется
любое упорядоченное подмножество данного множества, содержащее m
элементов.
Из определения вытекает, что размещения – это выборки
(комбинации), состоящие из m элементов, которые отличаются друг от друга
либо составом элементов, либо порядком их расположения.
Число размещений из n элементов по m элементов обозначается
символом Anm («А из эн по эм») и вычисляется по формуле
Anm  n(n  1)( n  2)  ...  (n  m  1)
(2)
или
n!
, где n! 1  2  3  ...  n, 1! 1, 0! 1.
(3)
(n  m)!
Для составления размещения Anm надо выбрать m элементов из
Anm 
множества с n элементами и упорядочить их, т.е. заполнить m мест
элементами множества. Первый элемент можно выбрать n способами, т.е. на
первое место можно поместить любой из n элементов. После этого второй
элемент можно выбрать из оставшихся n - 1 элементов n – 1 способами. Для
выбора третьего элемента имеется n – 2 способа, четвертого - n – 3 способа,
и, наконец, для последнего m-го элемента – (n – (m – 1)) способов. Таким
образом,
по
правилу
умножения,
существует
n(n  1)( n  2)  ...  (n  (m  1)) способов выбора m элементов из данных n
элементов, т.е. Anm  n(n  1)( n  2)  ...  (n  m  1) .
Пример 9. Составить различные размещения по 2 из элементов
множества D  {a, b, c} ; подсчитать их число.
Из трех элементов можно образовать следующие размещения по два
элемента: (a, b), (b, a), (a, c), (c, a), (b, c), (c, b) . Согласно формуле (2) их число:
A32  3  2  6 .
16
Перестановкой из n элементов называется размещение из n элементов
по n элементов.
Из определения вытекает, что перестановки – это выборки
(комбинации), состоящие из n элементов и отличающиеся друг от друга
только порядком следования элементов. Число перестановок из n элементов
обозначается символом Pn («пэ из эн») и вычисляется по формуле
(4)
Pn  n! .
Формула (4) следует из определения перестановки:
Pn  Ann 
n!
n!
  n!.
(n  n)! 0!
Пример 10. Составить различные перестановки из элементов
множества E  {2,7,8} ; подсчитать их число.
Из элементов данного множества можно составить следующие
перестановки: (2,7,8); (2,8,7); (7,2,8); (7,8,2); (8,2,7); (8,7,2). По формуле (4)
имеем: P3  3! 1  2  3  6 .
Пример 11. Сколькими способами можно расставить на полке 5
различных книг?
Искомое число способов равно числу перестановок из 5 элементов
(книг), т.е. P5  5! 1  2  3  4  5  120 .
Сочетанием из n элементов по m элементов (0<m  n) называется любое
подмножество, которое содержит m элементов данного множества.
Из определения вытекает, что сочетания – это выборки (комбинации),
каждая из которых состоит из m элементов, взятых из данных n элементов, и
которые отличаются друг от друга хотя бы одним элементом, т.е. отличаются
только составом элементов.
Число сочетаний из n элементов по m элементов обозначается
символом C nm («цэ из эн по эм») и вычисляется по формуле
C nm 
n(n  1)( n  2)...( n  m  1)
1  2  3...m
(5)
или
C nm 
n!
.
.m!(n  m)!
(6)
Число Anm размещений из n элементов по m элементов можно найти
следующим образом: выбрать m элементов из множества, содержащего n
элементов (это можно сделать C nm способами); затем в каждом из полученных
сочетаний (подмножеств) сделать все перестановки для упорядочения
подмножеств (это можно сделать Pm способами). Следовательно, согласно
Anm  C nm  Pm .
правилу
умножения,
можно
записать:
Отсюда
C nm 
Anm n(n  1)( n  2)...( n  m  1)
n!

или C nm 
Pm
1  2  3...m
m!(n  m)!
Можно показать, что имеют место формулы:
C nm  C nn  m , (m  n),
17
(7)
C n0  C n1  C n2  ...  C nm  2 n ,
C C
m
n
m
n 1
C
m 1
n 1
, (1  m  n).
(8)
(9)
n
2
Формулу (7) удобно использовать при вычислении сочетаний, когда m  .
15  14
 105 . Формула (8) выражает число всех подмножеств
1 2
множества из n элементов (оно равно 2n). Числа C n0 , C n1 , C n2 ,..., C nn являются
Так, C1513  C152 
коэффициентами
разложении
бинома
Ньютона:
(a  b)  C a b  C a b  ...  C a b .
Пример 12. Составить различные сочетания по 2 из элементов
множества D  {a, b, c} ; подсчитать их число.
Из трех элементов можно образовать следующие сочетания по два
n
0
n
n
0
в
1
n
n 1
n
n
0
n
элемента: (a, b); (a, c); (b, c) . Их число: C 32 
3 2
 3 (формула (5)).
1 2
Пример 13. Сколькими способами можно выбрать 3 цветка из вазы, в
которой стоят 10 красных и 4 розовых гвоздики? А если выбрать 1 красную
гвоздику и 2 розовых?
Так как порядок выбора цветов не имеет значения, то выбрать 3 цветка
из вазы, в которой стоят 14 гвоздик, можно C143 способами. По формуле (5)
находим:
C143 
14  13  12
 7  13  4  364 .
1 2  3
Далее: красную гвоздику можно
выбрать C101  10 способами. Выбрать две розовые гвоздики из имеющихся
четырех можно C 42 
двух
43
 6 способами. Поэтому букет из одной красной и
1 2
гвоздик можно составить, по правилу умножения,
C  C  10  6  60 способами.
Схема выбора с возвращением
Если при выборке m элементов из n элементы возвращаются обратно и
упорядочиваются, то говорят, что это размещения с повторениями.
Размещения с повторениями могут отличаться друг от друга
элементами, их порядком и количеством повторений элементов. Число всех
размещений из n элементов по m с повторениями обозначается символом Anm
и вычисляется по формуле
Anm  n m .
(10)
Пример 14. Из 3 элементов a, b, c составить все размещения по два
элемента с повторениями.
По формуле (10) число размещений по два с повторениями равно
2
A3  3 2  9 . Это: (a, a), (a, b), (a, c), (b, b), (b, a), (b, c), (c, c), (c, a), (c, b) .
Пример 15. Сколько пятизначных чисел можно составить, используя
цифры: а) 2, 5, 7, 8; б) 0, 1, 9?
а) Все пятизначные числа, составленные из цифр 2, 5, 7, 8, отличаются
друг от друга либо порядком их следования (например, 25558 и 52855), либо
самими цифрами (например, 52788 и 78888). Следовательно, они являются
1
10
розовых
2
4
18
размещениями из 4 элементов по 5 с повторениями, т.е. A45 . Таким образом,
искомое число пятизначных чисел равно A45  45  1024 . Этот же результат
можно получить, используя правило умножения: первую цифру слева в
пятизначном числе можно выбрать четырьмя способами, вторую – тоже
четырьмя способами, третью – четырьмя, четвертую – четырьмя, пятую –
четырьмя. Всего получается 4  4  4  4  4  1024 пятизначных чисел.
б) Если пятизначные числа состоят из цифр 0, 1, 9, то первую цифру
слева можно выбрать двумя способами (0 не может занимать первую
позицию), каждую из оставшихся четырех цифр можно выбрать тремя
способами. Согласно правилу умножения, таких чисел будет 2  3  3  3  3  162 .
(Иначе: A35  A34  243  81  162 .)
Если при выборке m элементов из n элементы возвращаются обратно
без последующего упорядочивания, то говорят, что это сочетания с
повторениями.
Число всех сочетаний из n элементов по m с повторениями
обозначается символом C nm и вычисляется по формуле
C nm  C nm m 1 .
(11)
Пример 16. Из трех элементов a, b, c составить все сочетания по два
элемента с повторениями.
По формуле (11) число сочетаний по два с повторениями равно
43
 6 . Составляем
1 2
(a, a), (a, b), (a, c), (b, b), (b, c), (c, c) .
C32  C32 21  C 42 
эти
сочетания
с
повторениями:
Пример 17. Сколькими способами можно составить букет из 5 цветов,
если в наличие есть цветы трех сортов?
Рассматриваемое множество состоит из трех различных элементов, а
выборки имеют объем, равный 5. Поскольку порядок расположения цветов в
букете не играет роли, то искомое число букетов равно числу сочетаний с
повторениями из трех элементов по 5 в каждом. По формуле (11) имеем
C 35  C 75  C 77 5  C 72 
76
 21 .
1 2
Пусть в множестве с n элементами есть k различных элементов, при
этом 1-й элемент повторяется n1 раз, 2-й элемент – n2 раз …, k-й элемент – nk
раз, причем n1  n2  ...  nk  n .
Перестановки из n элементов данного множества называют
перестановками с повторениями из n элементов.
Число перестановок с повторениями из n элементов обозначается
символом Pn (n1 , n2 ,..., nk ) и вычисляется по формуле
Pn (n1 , n2 ,..., n k ) 
n!
.
n1!n2 !...n k !
(12)
Пример 18. Сколько различных пятизначных чисел можно составить
из цифр 3, 3, 5, 5, 8?
19
Применим формулу (12). Здесь n  5, n1  2, n2  2, n3  1. Число различных
пятизначных чисел, содержащих цифры 3, 5 и 8, равно P5 (2,2,1) 
5!
 30 .
2!2!1!
Лекция № 4. Геометрическое определение вероятности
Геометрическое определение вероятности применяется в случае, когда
исходы опыта равновозможны, а ПЭС (или Ω) есть бесконечное несчетное
множество. Рассмотрим на плоскости некоторую область Ω, имеющую
площадь S  , и внутри области Ω область D с площадью S D (см. рис. 7).
D
Ω
Рис. 7
В области Ω случайно выбирается точка X. Этот выбор можно
интерпретировать как бросание точки X в область Ω. При этом попадание
точки в область Ω - достоверное событие, в D – случайное. Предполагается,
что все точки области Ω равноправны (все элементарные события
равновозможны), т.е. что брошенная точка может попасть в любую точку
области Ω и вероятность попасть в область D пропорциональна площади
этой области и не зависит от ее расположения и формы. Пусть событие
A  { X  D} , т.е. брошенная точка попадает в область D.
Геометрической вероятностью события A называется отношение
площади области D к площади области Ω, т.е.
P( A) 
SD
.
S
(13)
Геометрическое определение вероятности события применимо в
случае, когда области Ω и D обе линейные или объемные. В первом случае
P( A) 
lD
,
l
(14)
P( A) 
VD
,
V
(15)
во втором –
где l – длина, а V – объем соответствующей области.
Все три формулы ((13), (14), (15)) можно записать в виде
P ( A) 
mesD
,
mes
(16)
где через mes обозначена мера (S, l, V) области.
Геометрическая вероятность обладает всеми свойствами, присущими
классическому (и другим) определению:
1. Геометрическая вероятность любого события заключена между нулем
и единицей, т.е.
20
0  P( A)  1 .
2. Геометрическая вероятность невозможного события равна нулю, т.е.
P(Ø)=0.
3. Геометрическая вероятность достоверного события равна единице, т.е.
P ()  1 .
4. Геометрическая вероятность суммы несовместных событий равна
сумме вероятностей этих событий, т.е. если A  B  Ø, то
P( A  B)  P( A)  P( B) .
Проверим, например, свойство 4: пусть A  {X  D1}, B  {X  D2 } , где
D1  D2  Ø, т.е. D1 и D2 непересекающиеся области. Тогда
P( A  B) 
S D1  D2
S

S D1
S

S D2
S
 P( A)  P( B) .
Пример 19. (Задача о встрече.) Два человека договорились о встрече
между 9 и 10 часами утра. Пришедший первым ждет второго в течение 15
мин, после чего уходит (если не встретились). Найти вероятность того,
что встреча состоится, если каждый наудачу выбирает момент своего
прихода.
Пусть x – время прихода первого, а y – второго. Возможные значения x
и y : 0  x  60, 0  y  60 (в качестве единиц масштаба возьмем минуты),
которые на плоскости Oxy определяют квадрат со стороной, равной 60.
Точки этого квадрата изображают время встречающихся (см. рис. 8).
y
60
15
0
15
60
x
Рис. 8
Тогда   {( x, y ) : 0  x  60, 0  y  60} ; все исходы Ω равновозможны, так
как лица приходят наудачу. Событие A – лица встретятся – произойдет,
если разность между моментами их прихода будет не более 15 мин (по
модулю), т.е.
Неравенство
т.е.
A  {( x, y) : y  x  15} .
y  x  15 ,
x  15  y  x  15 определяет область, заштрихованную на рис.8, т.е. точки
полосы есть исходы, благоприятствующие встрече. Искомая вероятность
1
60 2  2   45  45
7
2

 0,44 .
определяется по формуле (13): P( A) 
2
16
60
21
Условные вероятности
Пусть A и B – два события, рассматриваемые в данном опыте.
Наступление одного события (скажем, A) может влиять на возможность
наступления другого (B). Для характеристики зависимости одних
событий от других вводится понятие условной вероятности.
Условной вероятностью события B при условии, что произошло
событие A, называется отношение вероятности произведения этих
событий к вероятности события A, причем P ( A)  0 , обозначается
символом P ( B | A) .
Таким образом, по определению
P( B | A) 
P( A  B)
,
P( A)
P ( A)  0 .
(17)
Вероятность P(B) , в отличие от условной, называется безусловной
вероятностью.
Аналогично определяется условная вероятность события A при условии
B, т.е. P ( A | B ) :
P( A | B) 
P( A  B)
,
P( B)
P( B)  0 .
(18)
Отметим, что уловная вероятность, скажем P ( B | A) , удовлетворяет
P ( B | A)  0 ,
аксиомам
Колмогорова:
очевидно;
P( | A) 
P(  A) P( A)

 1; P( B  C ) | A  P( B | A)  P(C | A) ,
P( A)
P( A)
если
B  C  Ø.
Поэтому для условной вероятности справедливы все следствия (свойства)
из аксиом. Формула (17) принимается по определению при
аксиоматическом определении вероятности; в случае классического
(геометрического, статистического) определения она может быть
доказана.
Пример 20. В урне 2 белых и 7 черных шаров. Из нее последовательно
вынимают два шара. Какова вероятность того, что 2-й шар окажется
белым при условии, что 1-й шар был черным?
Решим задачу двумя способами.
1. Пусть A – 1-й шар черный, B – 2-й шар белый. Так как событие A
произошло, то в урне осталось 8 шаров, из которых 2 белых. Поэтому
P( B | A) 
2 1
 .
8 4
7
9
2. Найдем P ( B | A) по формуле (17). Очевидно, что P( A)  . Находим
P( AB) : n  9  8  72 - общее число исходов (появление двух шаров).
22
Событию AB благоприятствуют
m  C 21  C 71  14
14
7
7 7 1
P ( AB) 

. Следовательно, P( B | A)  :  .
72 36
36 9 4
исходов. Поэтому
Лекция № 5. Вероятность произведения событий.
Независимость событий
Из определения условной вероятности следует, что
P( A  B)  P( A)  P( B | A)  P( B)  P( A | B) , (19)
т.е. вероятность произведения двух событий равна произведению
вероятности одного из них на условную вероятность другого при условии,
что первое событие произошло.
Равенство (19) называют правилом или теоремой (для схемы случаев
оно доказывается) умножения вероятностей. Это правило обобщается на
случай n событий:
P( A1  A2  ...  An )  P( A1 )  P( A2 | A1 )  P( A3 | A1  A2 )  ...  P( An | A1  A2  ...  An1 ) . (20)
Так для 3-х событий A1 , A2 , A3 получаем
P( A1  A2  A3 )  P(( A1  A2 )  A3 )  P( A1  A2 )  P( A3 | A1  A2 ) 
 P( A1 )  P( A2 | A1 )  P( A3 | A1  A2 ).
Пример 21. В коробке находится 4 белых, 3 синих и 2 черных шара.
Наудачу последовательно вынимают 3 шара. Какова вероятность того, что
1-й шар будет белым, 2-й – синим, 3-й – черным?
Введем следующие события: A1 - первым вытащили белый шар, A2 вторым – синий, A3 - третьим – черный. Тогда интересующее нас событие
A представится в виде A  A1  A2  A3 . По правилу умножения вероятностей
4
3
; P ( A2 | A1 )  , так как шаров
9
8
осталось 8, а число благоприятных случаев для события A2 равно 3;
2
P ( A3 | A1  A2 )  , так как уже два шара (белый и синий) вытащены.
7
4 3 2 1
Следовательно, P( A)      0,05 .
9 8 7 21
P( A)  P( A1 )  P( A2 | A1 )  P( A3 | A1  A2 ). Но P ( A1 ) 
Правило умножения вероятностей имеет особо простой вид, если
события, образующие произведение, независимы.
Событие A называется независимым от события B, если его условная
вероятность равна безусловной, т.е. если выполняется равенство
P( A | B)  P( A) .
(21)
Лемма (о взаимной независимости событий). Если событие A не
зависит от события B, то и событие B не зависит от события A.
Из равенства
(19), с учетом равенства (21), следует
P( B | A) 
P( A | B)  P( B) P( A)  P( B)

 P( B) , т.е.
P( A)
P( A)
23
P( B | A)  P( B) ,
(22)
а это означает, что событие B не зависит от события A.
Можно дать следующее (новое) определение независимости событий.
Два события называются независимыми, если появление одного из них
не меняет вероятность появления другого.
Для независимых событий правило умножения вероятностей (19)
принимает вид:
P( A  B)  P( A)  P( B) ,
(23)
т.е. вероятность произведения двух независимых событий равна
произведению вероятностей этих событий.
Равенство (23) часто используют в качестве определения
независимости событий: события A и B называются независимыми, если
P( A  B)  P( A)  P( B) .
Можно показать, что если события A и B независимы, то независимы
события A и B, A и B , A и B .
На практике о независимости тех или иных событий часто судят исходя
из интуитивных соображений и анализа условий опыта, считая
независимыми события, «между которыми нет причинно-следственных
связей».
Понятие независимости может быть распространено на случай n
событий.
События A1 , A2 ,..., An называются независимыми (или независимыми в
совокупности), если каждое из них не зависит от произведения любого
числа остальных событий и от каждого в отдельности. В противном
случае события A1 , A2 ,..., An называются зависимыми.
Для независимых событий их условные вероятности равны
безусловным, и формула (20) упрощается
P( A1  A2  ...  An )  P( A1 )  P( A2 )  ...  P( An ) .
(24)
Из попарной независимости событий A1 , A2 ,..., An (любые два из них
независимы) не следует их независимость в совокупности (обратное
верно).
Убедимся в этом, рассмотрев следующий пример.
Пример 22. Производится выбор (наудачу) флага из 4-х, имеющихся в
наличии: красного, голубого, белого и трехцветного (красно-белоголубого). Исследовать на независимость события: К – выбранный флаг
имеет красный цвет; Г – имеет голубой цвет; Б – имеет белый цвет.
Возможных исходов выбора 4; событию К благоприятствуют 2 исхода
(красный цвет имеется у двух флагов). Поэтому P ( K ) 
2 1
 . Аналогично
4 2
1
2
находим, что P( Ã )  P( Á )  . Событию К∙Г – выбран флаг, имеющий 2
цвета (красный и голубой), - благоприятствует один исход. Поэтому,
Ð( Ê  Ã ) 
1
1 1 1
. И так как Ð( Ê  Ã )     Ð( Ê )  Ð( Ã ) , то события К и Г
4
4 2 2
24
независимы. Аналогично убеждаемся в независимости событий К и Б, Б и
Г. Стало быть, события К, Б, Г попарно независимы. А так как
Ð( Ê  Ã  Á ) 
1
1
 Ð( Ê )  Ð( Ã )  Ð( Á )  , то события К, Г и Б не являются
4
8
независимыми в совокупности.
Вероятность суммы событий
Вероятность суммы двух несовместных событий определяется
аксиомой: P( A  B)  P( A)  P( B) , A  B  Ø. Выведем формулу вероятности
суммы двух совместных событий.
Теорема. Вероятность суммы двух совместных событий равна сумме
их вероятностей без вероятности их произведения,
P( A  B)  P( A)  P( B)  P( A  B) .
(25)
Представим события A+B и B в виде суммы двух несовместных
событий: A  B  A  B  A, B  AB  BA . В справедливости этих формул
можно наглядно убедиться на рис. 9.
Рис. 9
Тогда, имеем P( A  B)  P( A)  P( B  A ) и P( B)  P( A  B)  P( B  A ) . Отсюда
следует P( A  B)  P( A)  P( B)  P( A  B) .
Формула (25) справедлива для любых событий A и B.
Можно получить формулу вероятности суммы трех и большего числа
совместных событий; для трех событий она имеет вид
P( A  B  C )  P( A)  P( B)  P(C )  P( A  B)  P( A  C )  P( B  C )  P( A  B  C ) (26)
Справедливость равенства поясняет рис. 10.
Рис. 10
25
Проще, однако, найти вероятность суммы нескольких совместных
событий P(S )  P( A1  A2  ...  An ) , используя равенство P(S )  P(S )  1 , где
S  A1  A2  ...  An - противоположно событию S. Тогда P( S )  1  P( S ) .
Пример 23. Бросаются две игральные кости. Какова вероятность
появления хотя бы одной шестерки?
Введем события: A – появление шестерки на первой кости, B – на
второй кости. Тогда A+B – появление хотя бы одной шестерки при
бросании костей. События A и B совместные. По формуле (25) находим
1 1 1 1 11
5 5 25
   
. (Иначе: P( S )  P( A  B )    . Следовательно,
6 6 6 6 36
6 6 36
25 11
P( S )  1 

.)
36 36
P( A  B) 
Лекция № 6. Формула полной вероятности
Одним из следствий совместного применения теорем сложения и
умножения вероятностей являются формулы полной вероятности и
Байеса. Напомним, что события A1 , A2 ,..., An образуют полную группу, если
Ai  A j  Ø, i  j и
n
À
i 1
i
  . Систему таких событий называют также
разбиением.
Теорема. Пусть события H 1 , H 2 ,..., H n образуют полную группу. Тогда
для любого, наблюдаемого в опыте, события A имеет место формула
полной вероятности или средней вероятности.
n
P( A)   P( H i )  P( A | H i )
(27)
i 1
Так как H1  H 2  ...  H n   , то в силу свойств операций над событиями,
A  A    A  ( H1  H 2  ...  H n )  A  H1  A  H 2  ...  A  H n .
Из
того,
что
H i  H j  Ø, следует, что ( A  H i )  ( A  H j )  Ø, i  j , т.е. события A  H i и
A  H j также несовместны. Тогда по теореме сложения вероятностей
n
P( A)  P( A  H 1 )  P( A  H 2 )  ...  P( A  H n ) , т.е. P ( A)   P ( A  H i ) . По теореме
i 1
умножения вероятностей P( A  H i )  P( H i )  P( A | H i ) , откуда и следует
формула (27).
Отметим, что в формуле (27) события H 1 , H 2 ,..., H n обычно называют
гипотезами; они исчерпывают все возможные предположения (гипотезы)
относительно исходов как бы первого этапа опыта, событие A – один из
возможных исходов второго этапа.
Пример 24. В сборочный цех завода поступает 40% деталей из I цеха и
60% - из II цеха. В I цехе производится 90 % стандартных деталей, а во II –
95%. Найти вероятность того, что наудачу взятая сборщиком деталь
окажется стандартной.
26
Взятие деталей можно разбить на два этапа. Первый – это выбор цеха.
Имеется две гипотезы: H1 – деталь изготовлена I цехом, H2 - II цехом.
Второй этап – взятие детали. Событие A – взятая наудачу деталь
стандартна. Очевидно, события H1 и H2 образуют полную группу,
P( H1 )  0,4, P( H2 )  0,6 . Числа 0,90 и 0,95 являются условными
вероятностями события A при условии гипотез H1 и H2 соответственно,
т.е. P( A | H1 )  0,90 и P( A | H 2 )  0,95 . По формуле (27) находим
2
P( A)   P( H i )  P( A | H i )  0,4  0,90  0,6  0,95  0,93 .
i 1
Формула Байеса (теорема гипотез)
Следствием формулы (27) является формула Байеса или теорема
гипотез. Она позволяет переоценить вероятности гипотез H i , принятых до
опыта и называемых априорными («a priori», доопытные, лат.) по
результатам уже проведенного опыта, т.е. найти условные вероятности
которые называют апостериорными («a posteriori»,
P( H i | A) ,
послеопытные).
Теорема. Пусть события H 1 , H 2 ,..., H n образуют полную группу. Тогда
____
условная вероятность события H k (k  1, n ) при условии, что событие A
произошло, задается формулой
P( H k )  P( A | H k )
,
P( A)
P( A)  P( H 1 )  P( A | H 1 )  ...  P( H n )  P( A | H n )
P( H k | A) 
(28)
где
формула
полной
вероятности. Формула (28) называется формулой Байеса.
Применив формулы условной вероятности и умножения вероятностей,
имеем
P ( H k | A) 
P ( H k  A) P ( H k )  P ( A | H k )

,
P ( A)
P ( A)
где P( A) - формула полной вероятности.
Пример 25. В примере 24 найти вероятность того, что эта стандартная
деталь изготовлена II цехом.
Определим вероятность гипотезы
H2 при условии, что событие A
(взятая деталь стандартна) уже произошло, т.е. P( H 2 | A) :
P( H 2 | A) 
P( H 2 )  P( A | H 2 ) 0,6  0,95 19


 0,613 .
P( A)
0,93
31
Независимые испытания. Схема Бернулли
С понятием «независимых событий» связано понятие «независимых
испытаний (опытов)».
Несколько опытов называются независимыми, если их исходы
представляют собой независимые события (независимые в совокупности).
Другими словами, если проводится несколько испытаний, т.е. опыт
выполняется при данном комплексе условий многократно (такое явление
27
называется «последовательностью испытаний»), причем вероятность
наступления некоторого события A в каждом испытании не зависит от
исходов других испытаний, то такие испытания называются
независимыми.
Примерами независимых испытаний могут служить: несколько (n раз)
подбрасываний монеты; стрельба (n раз) по мишени без поправок на ранее
допущенную ошибку при новом выстреле; несколько (n раз) выниманий
из урны одинаковых на ощупь занумерованных шаров, если шары каждый
раз (после просмотра) возвращаются назад в урну, и т.д.
При практическом применении теории вероятностей часто
используется стандартная схема, называемая схемой Бернулли или схемой
независимых испытаний.
Последовательность n независимых испытаний, в каждом из которых
может произойти некоторое событие A (его называют успехом) с
вероятностью P( A)  p или противоположное ему событие A (его
называют неудачей) с вероятностью P( A )  q  1  p , называется схемой
Бернулли.
Например, при стрельбе по мишени: событие A – попадание (успех),
событие A - промах (неудача); при обследовании n изделий на предмет
годности: событие A – деталь годная (успех), событие A - деталь
бракованная (неудача) и т.д.
В каждом таком опыте ПЭС состоит только из двух элементарных
событий, т.е.   {w0 , w1} , где w0 - неудача, w1 - успех, при этом
A  {w1 }, A  {w0 } . Вероятности этих событий обозначают через p и q
соответственно ( p  q  1) . Множество элементарных исходов для n опытов
состоит из 2n элементов. Например, при n=3, т.е. опыт повторяется 3 раза,
 ( A , A , A ( A, A, A ) ( A, A , A) ( A , A, A ( A, A , A ) ( A , A, A ) ( A , A , A) ( A, A, A) 

;
;
;
;
;
;
;
.
w1
w2
w3
w4
w5
w6
w7 
 w0
Вероятность каждого элементарного события определяется однозначно.
По теореме умножения вероятность события, скажем w6  ( A , A , A) , равна
q  q  p  pq 2 , события w7  p  p  p  p 3 q 0  p 3 и т.д.
Часто успеху сопоставляют число 1, неудаче – число 0. Элементарным
событием для n опытов будет последовательность из n нулей и единиц.
Тройка чисел (0, 0, 0) означает, что во всех трех опытах событие A не
наступило; тройка чисел (0, 1, 0) означает, что событие A наступило во 2м опыте, а в 1-м и 3-м – не наступило.
Формула Бернулли
Простейшая задача, относящаяся к схеме Бернулли, состоят в
определении вероятности того, что в n независимых испытаниях событие
A наступит m раз (0  m  n) . Обозначается искомая вероятность так: Pn (m)
или Pn ,m .
28
Например, при бросании игральной кости 3 раза P3 (2) означает
вероятность того, что в 3-х опытах событие A – выпадение цифры 4 –
произойдет 2 раза. Очевидно,


2
1 5 5
P3 (2)  p 2 q  p 2 q  p 2 q  ( A, A, A ); ( A, A , A); ( A , A, A)  3 p 2 q  3     
 0,069.
 6  6 72
Теорема. Если производится n независимых испытаний, в каждом из
которых вероятность появления события A равна p, а вероятность его
непоявления равна q  1  p , то вероятность того, что событие A
произойдет m раз определяется формулой Бернулли
Pn (m)  C nm  p m  q n  m , m  0,1,2,..., n.
(29)
Вероятность одного сложного события, состоящего в том, что событие
A в n независимых опытах появится m раз в первых m опытах и не
появится (n – m) раз в остальных опытах (это событие
A 
A
A
 ...

A 
A 
A
 ...
A ) по теореме умножения вероятностей равна


m ðàç
( n  m ) ðàç
. Вероятность появления события A снова m раз, но в другом
порядке (например, A  
A 
A
 ...
A  A  A  ...  A или AA AA ...  AA и т.д.) будет

m
p q
nm
m ðàç
той же самой, т.е. p q .
Число таких сложных событий – в n опытах m раз встречается событие
A в различном порядке – равно числу сочетаний из n по m, т.е. Ñ nm . Так как
все эти сложные события несовместны, то по теореме сложения
вероятностей искомая вероятность равна сумме вероятностей всех
возможных сложных событий, т.е.
m
nm
Pn (m)  p m q nm  ...  p m q nm  C nm  p m  q nm , m  0,1,2,..., n.

Cnm ñëàãàåìûõ
Можно заметить, что вероятности Pn (m), m  0,1,..., n являются
коэффициентами при x m в разложении (q  px) n по формуле бинома
Ньютона:
(q  px) n  q n  C n1 q n 1 px  C n2 q n  2 p 2 x 2  ...  C nm q n  m p m x m  ...  p n x n .
Поэтому совокупность вероятностей Pn (m) называют биномиальным
законом распределения вероятностей, а функцию  ( x)  (q  px) n производящей функцией для последовательности независимых опытов.
Если в каждом из независимых испытаний вероятности наступления
события A разные, то вероятность того, что событие A наступит m раз в n
опытах, равна коэффициенту при m-й степени многочлена
 n ( z )  (q1  p1 z )(q2  p2 z )  ...  (qn  pn z ) , где  n (z ) - производящая функция.
Если в серии из n независимых опытов, в каждом из которых может
A1 , A2 ,..., Ak с
произойти одно и только одно из k событий
соответствующими вероятностями p1 , p 2 ,..., p k , то вероятность того, что в
29
этих опытах событие A1 появится m1 раз, событие A2 - m2 раз,…, событие
Ak - m k раз, равна
Pn (m1 , m2 ,..., mk ) 
n!
p1m1 p 2m2 ... p kmk ,
m1!m2 !...mk !
(30)
где m1  m2  ...  mk  n . Вероятности (30) называются полиномиальным
распределением.
Вероятность того, что в n испытаниях событие наступит:
а) менее k раз: Pn (0)  Pn (1)  ...  Pn (k  1) ;
б) более k раз: Pn (k  1)  Pn (k  2)  ...  Pn (n) ;
в) не менее k раз: Pn (k )  Pn (k  1)  ...  Pn (n) ;
г) не более k раз: Pn (0)  Pn (1)  ...  Pn (k ) .
Пример 26. Производится 3 независимых выстрела по цели.
Вероятности попадания при разных выстрелах одинаковы и равны p  0,9 .
Какова вероятность: а) промаха; б) одного попадания; в) двух попаданий;
г) трех попаданий? Решить задачу в случае, если вероятности попадания
при разных выстрелах различны: p1  0,7, p2  0,8, p3  0,9 .
В данном случае n  3, p  0,9, q  0,1 . Пользуясь формулой Бернулли
(29), находим:
а) P3 (0)  C30  0,9 0  0,13  0,001 - вероятность трех промахов;
б) P3 (1)  C31  0,91  0,12  3  0,9  0,01  0,027 - вероятность одного попадания;
в) P3 (2)  C32  0,9 2  0,11  3  0,81  0,1  0,243 - вероятность двух попаданий;
г) P3 (3)  C33  0,9 3  0,10  0,9 3  0,729 - вероятность трех попаданий.
Эти результаты можно изобразить графически, отложив на оси Ox
значения m, на оси Oy – значения Pn (m) (рис. 11).
Рис. 11
Ломанная, соединяющая точки (0; 0,001), (1; 0,027), (2, 0,243),
(3; 0,729), называется многоугольником распределения вероятностей.
30
Если вероятности при разных выстрелах различны, то производящая
функция имеет вид
 3 ( z )  (0,3  0,7 z )(0,2  0,8 z )(0,1  0,9 z )  0,504 z 3  0,398 z 2  0,092 z  0,006 . Откуда
находим вероятность трех, двух, одного попаданий, промаха
соответственно: P3 (3)  0,504, P3 (2)  0,398, P3 (1)  0,092, P3 (0)  0,006.
(Контроль: 0,504+0,398+0,092+0,006=1.)
Предельные теоремы в схеме Бернулли
Использованные формулы Бернулли (29) при больших значениях n и m
вызывает большие трудности, так как это связано с громоздкими
вычислениями. Так, при n  200, m  116, p  0,72 формула Бернулли
116
 (0,72)116  (0,28) 84 . Подсчитать результат
принимает вид P200 (116)  C 200
практически невозможно. Вычисление Pn (m) вызывает затруднения также
при малых значениях p (q ) . Возникает необходимость в отыскании
приближенных формул для вычисления Pn (m) , обеспечивающих
необходимую точность. Такие формулы дают нам предельные теоремы;
они содержат так называемые асимптотические формулы, которые при
больших значениях испытаний дают сколь угодно малую относительную
погрешность. Рассмотри три предельные теоремы, содержащие
асимптотические формулы для вычисления биномиальной вероятности
Pn (m) при n   .
Лекция № 7. Локальная и интегральная
теоремы Муавра – Лапласа
В тех случаях, когда число испытаний n велико, а вероятность p не
близка к нулю ( p  0, p  1) , для вычисления биномиальных вероятностей
используют теоремы Муавра-Лапласа. Приведем только их формулировки
в силу сложности доказательства.
Теорема (Локальная теорема Муавра-Лапласа). Если вероятность p
наступления события A в каждом испытании постоянна и отлична от нуля
и единицы, а число независимых испытаний достаточно велико, то
вероятность Pn (m) может быть вычислена по приближенной формуле
Pn (m) 
1
npq

1
2
e

x2
2
где x 
,
m  np
npq
.
(31)
Выражение
 ( x) 
1

x2
2
e
(32)
2
называется функцией Гаусса, а ее график – кривой вероятностей
рис. 12).
Равенство (32) можно переписать в виде
31
(см.
1
m  np
  ( x) ,
где x 
.
(33)
npq
npq
Для функции  (x ) составлены таблицы значений (они находятся, как
правило, в так называемых «Приложениях» книг по теории вероятностей).
Пользуясь таблицей, следует учитывать, что:
а) функция  (x ) четная, т.е.  ( x)   ( x) ;
б) при x  4 можно считать, что  ( x)  0 .
Пример 27. Вероятность попадания в мишень при одном выстреле для
данного стрелка равна 0,7. Найти вероятность того, что при 200 выстрелах
мишень будет поражена 160 раз.
Здесь n=200, p=0,7, q=0,3, m=160. Применим формулу (33). Имеем:
Pn (m) 
npq  200  0,7  0,3  42  6,48 , следовательно, x 
160  200  0,7

20
 3,09 .
6,48
42
1
Учитывая, что  (3,09)  0,0034 , получаем P200 (160) 
 0,0034  0,0005 .
6,48
В тех случаях, когда требуется вычислить вероятность того, что в n
независимых испытаниях событие A появится не менее k1 раз, но не более
k 2 раз, т.е. Pn (k1  m  k 2 ) или Pn (k1 ; k 2 ) используют интегральную теорему
Муавра-Лапласа (является частным случаем более общей теоремы –
центральной предельной теоремы).
Теорема. (Интегральная теорема Муавра-Лапласа). Если
вероятность p наступления события A в каждом испытании постоянна и
отлична от нуля и единицы, то вероятность Pn (k1  m  k 2 ) может быть
найдена по приближенной формуле
x
x2
1 2 2
k  np
k  np
Pn (k1  m  k 2 ) 
e dx ,
, x2  2
где x1  1
. (34)

2 x1
npq
npq
Равенство (34) тем точнее, чем больше n.
Используя функцию Гаусса (32), равенство (34) можно записать в виде
x2
Pn (k1 , k 2 )    ( x)dx .
x1
Однако для упрощения вычислений, при использовании формулы (34),
вводят специальную функцию
t
x

1
 0 ( x) 
e 2 dt ,
(35)

2 0
называемую нормированной функцией Лапласа.
Функция (35) нечетна
t
z
x
x




1
2
2
  ( x)  1
 ; при x  5 можно
e
dt

[
t


z
]


e
dz



(
x
)
0
0
0
 0

2

2



считать, что  0 ( x)  0,5 ; график функции  0 ( x) приведен на рис. 13.
2
2
2
32
Выразим правую часть равенства (34) через функцию Лапласа (35):
1
2
x2

e

x2
2
dx 
x1
1
2

x2
e

t2
2
dt 
x1
1
2
0

e

t2
2
x1
1
dt 
2
x2
e

t2
2
dt   0 ( x2 )   0 ( x1 ).
0
Равенство (34) принимает вид
Pn (k1  m  k 2 )   0 ( x2 )   0 ( x1 ) ,
где x1 
k1  np
npq
, x2 
k 2  np
npq
.
(36)
Эту формулу обычно используют на практике.
Наряду с нормированной функцией Лапласа (35) используют функцию
t2
x

1
( x) 
e 2 dt ,
(37)

2 
называемую также функцией Лапласа. Для нее справедливо равенство
 ( x)   ( x)  1 ; она связана с функцией  0 ( x) формулой
(38)
( x)  0,5   0 ( x) .
Имеются таблицы приближенных значений функций  0 ( x) и
(x) (интеграл не берется в элементарных функциях), которые приводятся
в большинстве учебников по теории вероятностей.
Приближенную
формулу
для
вычисления
вероятности
Pn (k1  m  k 2 ) (34) можно записать в виде
Pn (k1  m  k2 )  ( x2 )  ( x1 )   0 ( x2 )   0 ( x1 ) ,
где x1 
k1  np
npq
, x2 
k 2  np
npq
.
(39)
Пример 28. Проверкой установлено, что цех в среднем выпускает 96%
продукции высшего сорта. На базе приемщик проверяет 200 изделий этого
цеха. Если среди них окажется более 10 изделий не высшего сорта, то вся
партия изделий бракуется, т.е. возвращается в цех. Какова вероятность
того, что партия будет принята?
Здесь n=200, p=0,04 (вероятность негодного изделия), q=0,96.
Вероятность принятия всей партии, т.е. P200 (0  m  10) , можно найти по
формуле
(39);
здесь
Находим,
что
k1  0, k 2  10 .
x1 
0  200  0,04
200  0,04  0,96
 2,89, x2 
10  200  0,04
200  0,04  0,96
 0,72 ,
P200 (0  m  10)   0 (0,72)   0 (2,89)  0,26424  0,49807  0,7623 .
Заметим, что
 0 (0,72)   0 (2,89)  0,7642  1  (2,89)  0,7642  1  0,998074  0,7623.
33
Замечание. С помощью функции Лапласа можно найти вероятность
nA
от вероятности p в n независимых
n
отклонения относительной частоты
испытаниях. Имеет место формула

n

P  A  p     2 0   
 n


n 
,
pq 
где ε >0 – некоторое число.
Из
nA
n
 p   следует:    A  p   , np  n  n A  np  n . По формуле
n
n
(34) получаем:

Pn {np  n  n A  np  n } 


2
2
n
pq

0
e

t2
2
2

dt  2 0   


 nA

 p     2 0   
 n


т.е. P 
1
n
pq


e

t2
2
dt 
n
pq
n 
,
pq 
n 
.
pq 
Пример 29. Вероятность попадания в цель при одном выстреле равна
0,6. Найти вероятность того, что при n=1200 независимых выстрелах
отклонение «частости» от вероятности по модулю не превышает   0,05 .

n

1200 
  2 0 (3,54)  0,9996 .
P1200  A  0,6  0,05  2 0  0,05 

0
,
6

0
,
4
 n



Рассмотрим следствие интегральной теоремы Муавра-Лапласа.
Следствие. Если вероятность p наступления события A в каждом
испытании постоянна и отлична от 0 и 1, то при достаточно большом
числе n независимых испытаний вероятность того, что:
а) число m наступлений события A отличается от произведения np не
более чем на величину   0 (по абсолютной величине), т.е.
  
;
Pn  m  np     
 npq 


б) частость
(*)
m
события A заключена в пределах от α до β (включительно),
n
т.е.
m

 1
Pn         ( z 2 )   ( z1 ) ,
n

 2
где
z1 
p
pq / n
, z2 
34
p
pq / n
(**)
;
m
события A отличается от его вероятности p не более чем на
n
величину   0 (по абсолютной величине), т.е.
 n 
m

.
(***)
Pn   p     
 pq 
 n



в) частость
Лекция № 8. Случайные величины
Понятие случайной величины. Закон распределения дискретной
случайной величины
Одним из важнейших понятий теории вероятностей является понятие
случайной величины.
Под случайной величиной понимается переменная, которая в результате
испытания в зависимости от случая принимает одно из возможного
множества своих значений (какое именно – заранее не известно).
Примеры случайных величин:
1) число родившихся детей в течение суток в г. Семей;
2) количество бракованных изделий в данной партии;
3) число произведенных выстрелов до первого попадания;
4) дальность полета артиллерийского снаряда;
5) расход электроэнергии на предприятии за месяц.
Случайная величина называется дискретной (прерывной), если
множество ее значений конечное, или бесконечное, но счетное.
Под непрерывной случайной величиной будем понимать величину,
бесконечное несчетное множество значений которой есть некоторый
интервал (конечный или бесконечный) числовой оси.
Так, в приведенных выше примерах 1) – 3) имеем дискретные
случайные величины (в примерах 1) и 2) – с конечным множеством значений;
в примере 3) – с бесконечным, но счетным множеством значений); а в
примерах 4) и 5) – непрерывные случайные величины.
Прежде чем перейти к более строгому определению случайной
величины, основанному на теоретико-множественной трактовке основных
понятий, следует отметить, что возможности использования в теории
вероятностей понятия события ограничены. Это связано с тем, что
элементарные исходы (события) в общем случае имеют нечисловую природу
(например, интерес игрока вызывает не наступление какого-либо случайного
исхода в игре, а связанный с ним размер выигрыша или проигрыша). Для
того чтобы качественные результаты испытаний отобразить количественно,
достаточно каждому элементарному исходу (событию) ω поставить в
соответствие некоторое число, т.е. на множестве элементарных исходов Ω
задать функцию.
35
Случайной величиной X называется функция, заданная на множестве
элементарных исходов (или в пространстве элементарных событий), т.е.
X  f ( ) ,
где ω – элементарный исход (или элементарное событие, принадлежащее
пространству Ω, т.е. ω  Ω).
Для дискретной случайной величины множество Ξ возможных
значений случайной величины, т.е. функции f ( ) , конечно или счетно, для
непрерывной – бесконечно и несчетно.
Убедимся, например, в том, что случайная величина X – число дней во
взятом наудачу месяце года (невисокосного) есть функция элементарных
исходов (событий) ω, т.е. X  f ( ) . В результате испытания – розыгрыша
(выбора наудачу) месяца года – все множество элементарных исходов
(пространство элементарных событий) Ω может быть представлено в виде
  {1 ,  2 , 3 ,..., 12 } ,
где 1 , 2 , 3 ,..., 12 - соответственно 1-й, 2-й, 3-й, … , 12-й месяц года.
Так как X (1 )  31, X (2 )  28, X (3 )  31, X (4 )  30, ... , X (12 )  31, то
число дней во взятом наудачу месяце года (случайная величина X) есть
функция элементарных исходов (событий) ω.
Случайные величины будем обозначать прописными буквами
латинского алфавита X,Y,Z,…, а их значения – соответствующими строчными
буквами x,y,z,….
Наиболее полным, исчерпывающим описанием случайной величины
является ее закон распределения.
Законом распределения случайной величины называется всякое
соотношение, устанавливающее связь между возможными значениями
случайной величины и соответствующими им вероятностями.
Про случайную величину говорят, что она «распределена» по данному
закону распределения или «подчинена» этому закону распределения.
Для дискретной случайной величины закон распределения может быть
задан в виде таблицы, аналитически (в виде формулы) и графически.
Простейшей формой задания закона распределения дискретной
случайной величины X является таблица (матрица), в которой перечислены в
порядке возрастания все возможные значения случайной величины и
соответствующие их вероятности, т.е.
X:
x1 x 2 … xi … x n
p1 p 2 … p i … pn
x
x
... x 
x 
n
 (сокращенно X   i , i  1,2,..., n ).
или X   1 2
 p1 p2 ... pn 
 pi 
Такая таблица (матрица) называется рядом распределения дискретной
случайной величины.
События X  x1 , X  x2 , ... , X  xn , состоящее в том, что в результате
испытания случайная величина X примет соответственно значения x1 , x2 ,..., xn ,
36
являются несовместными и единственно возможными (ибо в таблице
перечислены все возможные значения случайной величины), т.е. образуют
полную группу. Следовательно, сумма их вероятностей равна 1. Таким
образом, для любой дискретной случайной величины
n
n
 P( X  x )   p
i 1
i
i 1
i
1
(40)
Ряд распределения может быть изображен графически, если по оси
абсцисс откладывать значения случайной величины, а по оси ординат –
соответствующие им вероятности. Соединение полученных точек образуют
ломаную, называемую многоугольником, или полигоном, распределения
вероятностей (рис. 14).
Рис. 14
Пример 30. В лотерее разыгрываются: автомобиль стоимостью 5000
ден. ед., 4 телевизора стоимостью 250 ден. ед., 5 видеомагнитофонов
стоимостью 200 ден. ед. Всего продается 1000 билетов по 7 ден. ед.
Составить закон распределения чистого выигрыша, полученного участником
лотереи, купившим один билет.
Решение. Возможные значения случайной величины X – чистого
выигрыша на один билет – равны 0 – 7 = - 7 ден. ед. (если билет не выиграл),
200 – 7=193, 250 – 7=243, 5000 – 7=4993 ден. ед. (если на билет выпал
выигрыш соответственно видеомагнитофона, телевизора или автомобиля).
Учитывая, что из 1000 билетов число невыигравших составляет 990, а
указанных выигрышей соответственно 5, 4 и 1, и используя классическое
определение вероятности, получим:
990
5
 0,990; P( X  193) 
 0,005;
1000
1000
4
1
P( X  243) 
 0,004; P( X  4993) 
 0,001 ,
1000
1000
P( X  7) 
т.е. ряд распределения
X:
xi
pi
-7
0,990
193
0,005
243
0,004
4993
0,001
Пример 31. Вероятности того, что студент сдаст семестровый экзамен
в сессию по дисциплинам A и Б, равны соответственно 0,7 и 0,9. Составить
закон распределения числа семестровых экзаменов, которые сдаст студент.
37
Решение. Возможные значения случайной величины X – числа сданных
экзаменов – 0, 1, 2.
Пусть Ai - событие, состоящее в том, что студент сдаст i-й экзамен
(i=1,2). Тогда вероятности того, что студент сдаст в сессию 0, 1, 2 экзамена,
будут соответственно равны (считаем события A1 и A2 независимыми):
P( X  0)  PA1 A2   PA1 PA2   (1  0,7)(1  0,9)  0,3  0,1  0,03 ;
P( X  1)  PA1 A2  A1 A2   P( A1 ) P( A2 )  P( A1 ) P( A2 )  0,7  0,1  0,3  0,9  0,34 ,
P( X  2)  P( A1 A2 )  P( A1 ) P( A2 )  0,7  0,9  0,63 .
Итак, ряд распределения случайной величины
X:
0
1
2
xi
pi
0,03
0,34
0,63
На рис. 15 полученный ряд распределения представлен графически в виде многоугольника
(полигона) распределения вероятностей.
Математические операции над случайными величинами
Вначале введем понятие независимости случайных величин.
Две случайные величины называются независимыми, если закон
распределения одной из них не меняется от того, какие возможные значения
приняла другая величина. Так, если дискретная случайная величина X может
принимать значения xi (i=1, 2, …, n), а случайная величина Y – значения y j
(j=1, 2, …, m), то независимость дискретных случайных величин X и Y
означает независимость событий X  xi и Y  y j при любых i=1, 2, …, n и j=1,
2, …, m. В противном случае случайные величины называются зависимыми.
Например, если имеются билеты двух различных денежных лотерей, то
случайные величины X и Y, выражающие соответственно выигрыш по
каждому билету (в денежных единицах), будут независимыми, так как при
любом выигрыше по билету одной лотереи (например, при X  xi ) закон
распределения выигрыша по другому билету (Y) не изменится. Если же
случайные величины X и Y выражают выигрыш по билетам одной денежной
лотереи, то в этом случае X и Y являются зависимыми, ибо любой выигрыш
по одному билету ( X  xi ) приводит к изменению вероятностей выигрыша по
другому билету (Y), т.е. к изменению закона распределения Y.
Определим математические операции над дискретными случайными
величинами.
Пусть даны две случайные величины:
38
X:
xi
pi
x1
x2
p1
p2
yj
p j
y1
y2
Y:
p1
…
…
…
p 2 …
xn
pn
ym
p m
Произведением kX случайной величины X на постоянную величину k
называется случайная величина, которая принимает значения kxi с теми же
вероятностями pi (i=1, 2, … , n).
m-й степенью случайной величины X, т.е. X m , называется случайная
величина, которая принимает значения xim с теми же вероятностями pi (i=1, 2,
… , n).
Пример 32. Дана случайная величина
X:
-2
1
2
xi
pi
0,5
0,3
0,2
Найти закон распределения случайных величин: а) Y  3X ; б) Z  X 2 .
Решение. а) Значения случайной величины Y будут: 3(-2)= - 6; 3∙1=3;
3∙2=6 с теми же вероятностями 0,5; 0,3; 0,2, т.е.
Y:
-6
3
6
yi
pi
0,5
0,3
0,2
б) Значения случайной величины Z будут: (2) 2  4, 12  1, 2 2  4 с
теми же вероятностями 0,5; 0,3; 0,2. Так как значение Z=4 может быть
получено возведением в квадрат значений (-2) с вероятностью 0,5 и (+2) с
вероятностью 0,2, то по теореме сложения P( Z  4)  0,5  0,2  0,7 . Итак, закон
распределения случайной величины
Z:
1
4
zi
pi
0,3
0,7
Суммой (разностью или произведением) случайных величин X и Y
называется случайная величина, которая принимает все возможные значения
вида xi  y j ( xi  y j или xi  y j ), где i=1, 2, … , n; j=1, 2, … , m, с вероятностями
pij того, что случайная величина X примет значение xi , а Y – значение y j :
pij  P X  xi Y  y j  .
Если случайные величины X и Y независимы, т.е. независимы любые
события X  xi , Y  y j , то по теореме умножения вероятностей для
независимых событий
pij  P X  xi   PY  y j   pi  p j .
(41)
Замечание. Приведенные выше определения операций над
дискретными случайными величинами нуждаются в уточнении: если среди
39
xim , xi  yi , xi yi  встретятся одинаковые, то
получаемых значений
соответствующие их вероятности ( p i или pij ) надо сложить, приписав
повторяющемуся значению суммарную вероятность.
Пример 33. Даны законы распределения двух независимых случайных
величин:
X:
0
2
4
xi
pi
0,5
0,2
0,3
Y:
-2
0,1
yj
p j
0
0,6
2
0,2
Найти закон распределения случайных величин: а) Z  X  Y ; б) U  XY .
Решение. а) Для удобства нахождения всех значений разности Z  X  Y
и их вероятностей составим вспомогательную таблицу, в каждой клетке
которой поместим в левом углу значения разности Z  X  Y , а в правом углу
– вероятности этих значений, полученные в результате перемножения
вероятностей соответствующих значений случайных величин X и Y.
yj
-2
0
2
0,1
0,6
0,3
pj
xi
| pi
2
0
0
0,5
0,05
4
2
-2
0,30
2
0,2
0
0,02
6
0,15
0,12
4
0,06
2
4
0,3
0,03
0,18
0,09
Например, если X =4 (последняя строка таблицы), а Y=−2 (третий
столбец таблицы), то случайная величина Z  X  Y принимает значение
Z  4  (2)  6 с вероятностью P( Z  6)  P( X  4)  P(Y  2)  0,3  0,1  0,03 (эти
числа Z=6 и P=0,03 находятся в клетке на пересечении последней строки и
третьего столбца).
Так как среди 9 значений Z имеются повторяющиеся, то
соответствующие вероятности их складываем по теореме сложения
вероятностей. Например, значение Z  X  Y  2 может быть получено, когда
X =0, Y=−2 (с вероятностью 0,05); X =2, Y=0 (с вероятностью 0,12); X =4, Y=2
(с вероятностью 0,09), поэтому
P( Z  2)  0,05  0,12  0,09  0,26 и т.д.
В результате получим распределение
zk
-2
0
2
40
4
6
Z:
pk
0,15
Убеждаемся в том, что условие
0,36
5
p
i 1
i
0,26
0,20
0,03
 1 выполнено.
б) Распределение U  XY находится аналогично п. а).
U:
-8
-4
0
4
uk
pk
0,03
0,02
0,80
0,06
8
0,09
Лекция № 9. Математическое ожидание дискретной
случайной величины
Закон (ряд) распределения дискретной случайной величины дает
исчерпывающую информацию о ней, так как позволяет вычислить
вероятности любых событий, связанных со случайной величиной. Однако
такой закон (ряд) распределения бывает трудно обозримым, не всегда
удобным (и даже необходимым) для анализа. Рассмотрим, например, задачу.
Задача. Известны законы распределения случайных величин X и Y –
числа очков, выбираемых 1-м и 2-м стрелками.
X:
Y:
xi
pi
0
1
2
3
4
5
6
7
8
9
10
0,15 0,11 0,04 0,05 0,04 0,10 0,10 0,04 0,05 0,12 0,20
yj
0
1
2
3
4
5
6
7
8
9
10
0,01 0,03 0,05 0,09 0,11 0,24 0,21 0,10 0,10 0,04 0,02
pj
Необходимо выяснить, какой из двух стрелков стреляет лучше.
Рассматривая ряды распределения случайных величин X и Y, ответить
на этот вопрос далеко не просто из-за обилия числовых значений. К тому же
у первого стрелка достаточно большие вероятности (например, больше 0,1)
имеют крайние значения числа выбиваемых очков (X =0; 1 и X =9; 10), а у
второго стрелка – промежуточные значения (Y=4; 5; 6) (см. многоугольники
распределения вероятностей X и Y на рис. 16).
Очевидно, что из двух стрелков лучше стреляет тот, кто в среднем
выбивает большее количество очков.
41
Рис. 16
Таким средним значением случайной величины является ее
математическое ожидание.
Математическим ожиданием, или средним значением, M ( X )
дискретной случайной величины X называется сумма произведений всех ее
значений на соответствующие им вероятности:
n
M ( X )   xi pi .
(42)
i 1
Пример 34. Вычислить M ( X ) и M (Y ) в задаче о стрелках.
Решение. По формуле (42)
M ( X )  0  0,15  1  0,11  2  0,04  ...  9  0,12  10  0,20  5,36 ,
M (Y )  0  0,01  1  0,03  2  0,05  ...  9  0,04  10  0,02  5,36 ,
т.е. среднее число выбиваемых очков у двух стрелков одинаковые.
Пример 35. Вычислить M ( X ) для случайной величины X - чистого
выигрыша по данным примера 30.
Решение. По формуле (42)
M ( X )  (7)  0,990  193  0,005  243  0,004  4993  0,001  0 ,
т.е. средний выигрыш равен нулю. Полученный результат означает, что вся
выручка от продажи билетов лотереи идет на выигрыши.
Из приведенного определения следует, что математическое ожидание
заключено между наименьшим и наибольшим значениями случайной
величины.
(Действительно, xmin  M ( X )  xmax , что вытекает из очевидного
n
x
i 1
n
n
n
i 1
i 1
i 1
 xmin pi   x i pi   xmax pi ,
неравенства
n
min p i x min  p i  x min и аналогично
i 1
n
x
i 1
max
ибо, учитывая равенство (40),
pi  x max .)
Математическое ожидание рассматривают как характеристику
положения случайной величины, ее центр распределения.
Последний термин связан с механической интерпретацией
математического ожидания. Если предположить, что каждая материальная
точка с абсциссой xi имеет массу, равную pi (i  1,2,..., n) , а вся единичная

n

масса   pi  1 распределена между этими точками, то математическое
 i 1

ожидание представляет собой абсциссу центра масс системы материальных
точек. Так, для систем материальных точек, соответствующим
распределениям X и Y в примере 34, центры масс совпадают:
M ( X )  M (Y )  5,36 (см. рис. 16).
Если дискретная случайная величина X принимает бесконечное, но
x1 , x2 ,..., xn ,..., то
счетное
множество
значений
математическим
ожиданием, или средним значением, такой дискретной случайной величины
называется сумма ряда (если он абсолютно сходится):
42

M ( X )   xi pi .
(43)
i 1
Так как ряд (43) может и расходится, то соответствующая случайная
величина может и не иметь математического ожидания. Например, случайная
величина X с рядом распределения
X:
2
22
23
…
2i
…
xi
pi
1/2 1/22 1/23 … 1/2i …


i 1
i 1
 2 i / 2 i  1 равна ∞.
не имеет математического ожидания, ибо сумма ряда
На практике, как правило, множество возможных значений случайной
величины распространяется лишь на ограниченный участок оси абсцисс, и,
значит, математическое ожидание существует.
Рассмотрим свойства математического ожидания.
1. Математическое ожидание постоянной величины равно самой
постоянной:
M (C )  C .
(44)
Постоянную величину C можно рассматривать как величину,
принимающую значение C с вероятностью 1. Поэтому M (C )  C  1  1 .
2. Постоянный множитель можно выносить за знак математического
ожидания, т.е.
M (kX )  kM ( X ) .
(45)
Так как случайная величина kX принимает значения kxi (i  1,2,..., n) , то
n
n
i 1
i 1
M (kX )   (kxi ) pi  k  xi pi  kM ( X ) .
3. Математическое ожидание алгебраической суммы конечного числа
случайных величин равно такой же сумме их математических
ожиданий, т.е.
M ( X  Y )  M ( X )  M (Y ) .
(46)
В соответствии с определением суммы и разности случайных величин
X Y
X  Y  представляют случайную величину, которая принимает
xi  y j 
(i  1,2,..., n; j  1,2,..., m) с вероятностями
значения xi  y j
pij  P X  xi Y  y j  .
Поэтому
M  X  Y    xi  y j pij   xi pij   y j pij .
n
m
n
i 1 j 1
m
n
i 1 j 1
m
i 1 j 1
Так как в первой двойной сумме xi не зависит от индекса j, по
которому ведется суммирование во второй сумме, и аналогично во второй
двойной сумме y j не зависит от индекса i, то
n
m
m
n
n
m
i 1
j 1
j 1
i 1
i 1
j 1
M  X  Y    xi  pij   y j  pij   xi pi   y j p j  M ( X )  M (Y ) .
43
4. Математическое
ожидание
произведения
конечного
числа
независимых
случайных
величин
равно
произведению
их
математических ожиданий:
M ( XY )  M ( X ) M (Y ) .
В соответствии с определением произведения случайных величин, XY
представляет собой случайную величину, которая принимает значения
xi y j (i  1,2,..., n; j  1,2,..., m) с вероятностями pij  P X  xi Y  y j  , причем в
силу независимости X и Y pij  pi p j . Поэтому
n
m
n
m
n
m
i 1
j 1
M ( XY )   xi y j pij   xi y j pi p j   xi pi   y j pj  M ( X )  M (Y ) .
i 1 j 1
i 1 j 1
5. Если все значения случайной величины увеличить (уменьшить) на
постоянную C , то на эту же постоянную C увеличится (уменьшится)
математическое ожидание этой случайной величины:
M ( X  C)  M ( X )  C .
(47)
Учитывая свойства 3 и 1 математического ожидания, получим
M ( X  C )  M ( X )  M (C )  M ( X )  C .
6. Математическое ожидание отклонения случайной величины от ее
математического ожидания равно нулю:
(48)
M  X  M ( X )  0 .
Пусть постоянная C есть математическое ожидание a  M ( X ) , т.е. C  a .
Тогда, используя свойство 5, получим
M ( X  a)  M ( X )  a  a  a  0 .
Пример 36. Найти математическое ожидание случайной величины
Z  8 X  5Y  7 , если известно, что M ( X )  3, M (Y )  2 .
Решение. Используя свойства 1, 2, 3 математического ожидания,
найдем
M ( Z )  8M ( X )  5M (Y )  7  8  3  5  2  7  21 .
Дисперсия дискретной случайной величины
Только математическое ожидание не может в достаточной степени
характеризовать случайную величину.
В задаче о стрелках мы убедились в том, что M ( X )  M (Y )  5,36 , т.е.
среднее количество выбираемых очков у двух стрелков одинаковое. Но
если у 1-го стрелка, как отмечено выше, значительные вероятности имеют
крайние значения, сильно отличающиеся от среднего M ( X ) , то у 2-го,
наоборот, - значения, близкие к среднему M (Y ) (см. рис. 16). Очевидно,
лучше стреляет тот стрелок, у которого при равенстве средних значений
числа выбитых очков меньше отклонения (разброс, вариация, рассеяние)
этого числа относительно среднего значения.
В качестве такой характеристики рассматривается дисперсия
случайной величины. Слово дисперсия означает «рассеяние».
Дисперсией D ( X ) случайной величины X называется математическое
ожидание квадрата ее отклонения от математического ожидания:
44
D( X )  M  X  M ( X ) ,
2
или
(49)
D( X )  M  X  a  , где a  M ( X ) .
2
В качестве характеристики рассеяния нельзя брать математическое
ожидание отклонения случайной величины от ее математического
ожидания M  X  a , ибо согласно свойству 6 математического ожидания
эта величина равна нулю для любой случайной величины.
Из определения (49) следует, что дисперсия D ( X ) есть величина
неотрицательная.
Выбор дисперсии, определяемой по формуле (49), в качестве
характеристики рассеяния значений случайной величины
X
оправдывается также тем, что, как можно показать, математическое
ожидание квадрата отклонения случайной величины X от постоянной
величины C минимально именно тогда, когда эта постоянная C равна
математическому ожиданию M ( X )  a , т.е.
2
2
min M  X  C   M  X  a   D( X ) .
(49’)
C
Если случайная величина X - дискретная с конечным числом значений, то
n
D ( X )    xi  a  p i .
2
(50)
i 1
Если случайная величина X - дискретная с бесконечным, но счетным
множеством значений, то

D ( X )    xi  a  p i .
2
(51)
i 1
(если ряд в правой части равенства сходится).
Дисперсия D ( X ) имеет размерность квадрата случайной величины, что
не всегда удобно. Поэтому в качестве показателя рассеяния используют
также величину D(X ) .
Средним
квадратическим
отклонением
(стандартным
отклонением, или стандартом)  x случайной величины X называется
арифметическое значение корня квадратного из ее дисперсии:
(52)
 x  D(X ) .
Пример 37. В задаче о стрелках вычислить дисперсию и среднее
квадратическое отклонение числа выбитых очков для каждого стрелка.
Решение. В примере 34 были вычислены M ( X )  5,36 и M (Y )  5,36 . По
формулам (51) и (52)
D( X )  (0  5,36) 2  0,15  (1  5,36) 2  0,11  ...  (10  5,36) 2  0,20  13,61 ,
 x  D( X )  3,69 ;
2
D(Y )  (0  5,36)  0,01  (1  5,36) 2  0,03  ...  (10  5,36) 2  0,02  4,17 ,
 y  D(Y )  2,04 .
Итак, при равенстве средних значений числа выбираемых очков
M  X   M Y  его дисперсия, т.е. характеристика рассеяния относительно
45
среднего значения, меньше у второго стрелка D X   DY  и, очевидно,
ему для получения более высоких результатов стрельбы по сравнению с
первым стрелком нужно сместить «центр» распределения числа
выбираемых очков, т.е. увеличить M (Y ) , научившись правильно целиться
в мишень.
Отметим свойства дисперсии случайной величины.
1. Дисперсия постоянной величины равна нулю:
D(C )  0 .
(53)
2
2
D(C )  M C  M (C )  M C  C   M (0)  0 .
2. Постоянный множитель можно выносить за знак дисперсии, возведя
его при этом в квадрат:
(54)
D(kx)  k 2 D( X ) .
Учитывая свойство 2 математического ожидания, получим
2
2
2
D(kx)  M kX  M kX   M kX  kM  X   k 2 M X  M  X   k 2 D( X ) .
3. Дисперсия
случайной
величины
равна
разности
между
математическим ожиданием квадрата случайной величины и
квадратом ее математического ожидания:
2
D X   M X 2   M  X  ,
(55)
или
D X   M X 2   a 2 , где a  M ( X ) .
Пусть M ( X )  a . Тогда D( X )  M  X  a 2  M X 2  2aX  a 2  .
Учитывая, что a – величина постоянная, неслучайная, найдем
D( X )  M ( X ) 2  2aM ( X )  a 2  M ( X 2 )  2a  a  a 2  M ( X 2 )  a 2 .
Это свойство часто используют при вычислении дисперсии.
Вычисление по формуле (55) дает, например, упрощение расчетов по
сравнению с основной формулой (50), если значения xi случайной
величины – целые, а математическое ожидание, а значит, и разности
xi  a  - нецелые числа.
Пример 38. По данным примера 34 (задачи о стрелках) вычислить
дисперсии случайных величин X, Y, используя свойство 3.
Решение. Вначале найдем
 
n
M X 2   xi2 pi  0 2  0,15  12  0,11  ...  9 2  0,12  10 2  0,20  42,34 .
i 1
Теперь по формуле (55)
 
D X   M X 2  a 2  42,34  5,36 2  13,61 .
Аналогично D(Y )  4,17 .
4. Дисперсия алгебраической суммы конечного числа независимых
случайных величин равна сумме их дисперсий:
D( X  Y )  D( X )  D(Y ) .
(56)
46
По свойству 3:


D X  Y   M  X  Y   M  X  Y   M X 2  2 XY  Y 2  M ( X )  M (Y ) .
2
2
2
Обозначая M ( X )  a x , M (Y )  a y и учитывая, что для независимых
случайных величин M ( XY )  M ( X ) M (Y ) , получим
D( X  Y )  Ì ( X 2 )  2a x a y  M (Y 2 )  a x2  2a x a y  a y2 

 

 M ( X 2 )  a x2  M (Y 2 )  a y2  D( X )  D(Y ).
Обращаем внимание на то, что дисперсия как суммы, так и разности
независимых случайных величин X и Y равна сумме их дисперсий, т.е.
D( X  Y )  D( X  Y )  D( X )  D(Y ) .
Пример 39. Найти дисперсию случайной величины Z  8X  5Y  7 , если
известно, что случайные величины X и Y независимы и
D( X )  1,5, D(Y )  1 .
Решение. Используя свойства 1, 2, 4 дисперсии, найдем
D(Z )  8 2 D( X )  5 2 D(Y )  0  64  1,5  25  1  121 .
Если использовать механическую интерпретацию распределения
случайной величины, то ее дисперсия представляет собой момент
инерции распределения масс относительно центра масс (математического
ожидания).
Замечание. Обратим внимание на интерпретацию математического
ожидания и дисперсии в финансовом анализе. Пусть, например, известно
распределение доходности X некоторого актива (например, акции), т.е.
известны значения доходности xi и соответствующие их вероятности p i за
рассматриваемый промежуток времени. Тогда, очевидно, математическое
ожидание M ( X ) выражает среднюю (прогнозную) доходность актива, а
дисперсия D ( X ) или среднее квадратическое отклонение  x - меру
отклонения, колеблемости доходности от ожидаемого среднего значения,
т.е. риск данного актива.
Математическое ожидание, дисперсия, среднее квадратическое
отклонение и другие числа, призванные в сжатой форме выразить
наиболее существенные черты распределения, называются числовыми
характеристиками случайной величины.
Обращаем внимание на то, что сама величина X - случайная, а ее
числовые характеристики являются величинами неслучайными,
постоянными. Поэтому их часто называют параметрами распределения
случайной величины.
В теории вероятностей числовые характеристики играют большую
роль. Часто удается решать вероятностные задачи, оперируя лишь
числовыми характеристиками случайных величин. Применение
вероятностных методов для решения практических задач в значительной
мере определяется умением пользоваться числовыми характеристиками
случайной величины, оставляя в стороне законы распределения.
Функция распределения случайной величины
47
До сих пор в качестве исчерпывающего описания дискретной
случайной величины мы рассматривали закон ее распределения,
представляющий собой ряд распределения или формулу, позволяющие
находить вероятности любых значений случайной величины X. Однако
такое описание случайной величины X не является единственным и,
главное, не универсально. Так, оно неприменимо для непрерывной
случайной величины, так как, во-первых, нельзя перечислить все
бесконечное несчетное множество ее значений; во-вторых, как мы увидим
дальше, вероятности каждого отдельно взятого значения непрерывной
случайной величины равны нулю.
Для описания закона распределения случайной величины X возможен и
другой подход: рассматривать не вероятности событий X=x для разных x
(как это имеет место в ряде распределения), а вероятности события X<x,
где x – текущая переменная. Вероятность P(X<x), очевидно, зависит от x,
т.е. является некоторой функцией от x.
Функцией распределения случайной величины X называется
функция F (x) , выражающая для каждого x вероятность того, что
случайная величина X примет значение, меньшее x:
(57)
F ( x)  P X  x.
Функцию F (x) иногда называют интегральной функцией распределения
или интегральным законом распределения.
Геометрически функция распределения интерпретируется как
вероятность того, что случайная точка X попадает левее заданной точки x
(рис. 17).
Рис. 17
Пример 40. Дан ряд распределения случайной величины
X:
xi
pi
1
0,4
4
0,1
5
0,3
7
0,2
Найти и изобразить графически ее функцию распределения.
Решение. Будем задавать различные значения x и находить для них
F ( x)  P X  x.
1. Если x  1, то, очевидно, F (x) =0 (в том числе и при x  1
F (1)  Px  1  0 ).
2. Пусть 1  x  4 (например, x  2 ); F ( x)  P X  1  0,4 . Очевидно, что и
F (4)  P X  4  0,4 .
48
3. Пусть 4  x  5 (например, x  4,25 );
F ( x)  P X  x  P( X  1)  P( X  4)  0,4  0,1  0,5 . Очевидно, что и
F (5)  0,5 .
4. Пусть 5  x  7 . F ( x)  P( X  1)  P( X  4)  P( X  5)  0,5  0,3  0,8 .
Очевидно, что и F (7)  0,8 .
5. Пусть x  7 . F ( x)  P( X  1)  P( X  4)  P( X  5)  P( X  7)  0,8  0,2  1.
Изобразим функцию F (x) графически (рис. 18).
 0 ïðè x  1,
 0,4 ïðè 1  x  4,

Итак, F ( x)  0,5 ïðè 4  x  5,
0,8 ïðè 5  x  7,

 1,0 ïðè x  7.
Рис. 18
Заметим, что при подходе слева к точкам разрыва функция сохраняет
свое значение (про такую функцию говорят, что она непрерывна слева, т.е.
lim F ( x)  F (a) ). Эти точки на графике выделены.
x a 0
Данный пример позволяет прийти к утверждению, что функция
распределения любой случайной величины есть разрывная ступенчатая
функция, скачки которой происходят в точках, соответствующих
возможным значениям случайной величины и равны вероятностям этих
значений. Сумма всех скачков функции F (x) равна 1.
Рассмотрим общие свойства функции распределения.
1. Функция распределения случайной величины есть неотрицательная
функция, заключенная между нулем и единицей:
0  F ( x)  1 .
□ Утверждение следует из того, что функция распределения – это
вероятность. ■
2.
Функция распределения случайной величины есть неубывающая
функция на всей числовой оси.
□ Пусть x1 и x 2 - точки числовой оси, причем x2  x1 . Покажем, что
Рассмотрим
два
несовместных
события
F ( x2 )  F ( x1 ) .
A   X  x1 , B  x1  X  x2  . Тогда A  B   X  x2  .
49
Рис. 19
Это соотношение между событиями легко усматривается из их
геометрической интерпретации (рис. 19). По теореме сложения
P A  B  P( A)  P( B)
или
P X  x2   P X  x1   Px1  X  x2  ,
откуда
(58)
F ( x2 )  F ( x1 )  Px1  X  x2  .
Так как вероятность Px1  X  x2   0 , то F ( x2 )  F ( x1 ) , т.е. F (x) -
неубывающая функция. ■
3. На минус бесконечности функция распределения равна нулю, на
плюс бесконечности равна единице, т.е.
F ()  lim F ( x)  0 ,
F ()  lim F ( x)  1 .
x  
x  
□ F ()  P( X  )  0 как вероятность невозможного события
X   .
F ()  P( X  )  1 как вероятность достоверного события X   . ■
4. Вероятность попадания случайной величины в интервал [ x1 , x2 )
(включая x1 ) равна приращению ее функции распределения на этом
интервале, т.е.
(59)
P( x1  X  x2 )  F ( x2 )  F ( x1 ) .
□ Формула (59) следует непосредственно из формулы (58). ■
Итак, функция распределения любой случайной величины (дискретной
или непрерывной) обладает указанными выше свойствами. Верно и
обратное: каждая непрерывная слева функция, удовлетворяющая
приведенным свойствам, есть функция распределения некоторой
случайной величины.
Пример 41. Функция распределения случайной величины X имеет вид:
 0 ïðè

F ( x)   x / 2 ïðè
 1 ïðè

x  0,
0  x  2,
x  2.
Найти вероятность того, что случайная величина примет значение: а) в
интервале [1;3); б) не менее чем 1/3.
Решение. а) По формуле (59)
P(1  X  3)  F (3)  F (1)  1 
1 1
 .
2 2
б) Так как X  x и X  x - противоположные события, P( X  x)  1  P( X  x)
или с учетом определения (57)
P( X  x)  1  F ( x) .
(59’)
50
В данном случае по формуле (59’)
1
1 1 5

1
P X    1  F    1    .
3
2 3 6

3
Лекция № 10. Закон больших чисел и предельные теоремы
Под законом больших чисел в широком смысле понимается общий
принцип, согласно которому, по формулировке академика А.Н.Колмогорова,
совокупное действие большого числа случайных факторов приводит (при
некоторых весьма общих условиях) к результату, почти не зависящему от
случая. Другими словами, при большом числе случайных величин их средний
результат перестает быть случайным и может быть предсказан с
большой степенью определенности.
Под законом больших чисел в узком смысле понимается ряд
математических теорем, в каждой из которых для тех или иных условий
устанавливается факт приближения средних характеристик большого числа
испытаний к некоторым определенным постоянным. Прежде чем перейти к
этим теоремам, рассмотрим неравенства Маркова и Чебышева.
Неравенство Маркова (лемма Чебышева)
Теорема. Если случайная величина X принимает только
неотрицательные значения и имеет математическое ожидание, то для любого
положительного числа A верно неравенство
P ( x  A) 
M (X )
.
A
(60)
□ Доказательство проведем для дискретной случайной величины X.
Расположим ее значения в порядке возрастания, из которых часть значений
x1 , x 2 ,..., xk будут не более числа A, а другая часть - xk 1 ,..., xn будут больше A,
т.е.
x1  A, x2  A,..., xk  A; xk 1  A,..., xn  A (рис. 20).
Рис. 20
Запишем выражение для математического ожидания M ( X ) :
x1 p1  x2 p2  ...  xk pk  xk 1 pk 1  ...  xn pn  M ( X ) ,
где p1 , p2 ,..., pn - вероятности того, что случайная величина X примет значения
соответственно x1 , x2 ,..., xn .
Отбрасывая первые k неотрицательных слагаемых (напомним, что все
xi  0 ), получим
xk 1 pk 1  ...  xn p n  M ( X ) .
(61)
51
Заменяя в неравенстве (61) значения xk 1 ,..., xn меньшим числом A,
получим более сильное неравенство
A( pk 1  ...  pn )  M ( X ) или p k 1  ...  p n 
M (X )
.
A
Сумма вероятностей в левой части полученного неравенства
представляет собой сумму вероятностей событий X  xk 1 ,..., X  xn , т.е.
вероятность события X  A . Поэтому P( X  A) 
M (X )
.■
A
Так как события X  A и X  A противоположные, то, заменяя P X  A
выражением 1  P X  A , придем к другой форме неравенства Маркова:
P( x  A)  1 
M (X )
.
A
(62)
Неравенство Маркова применимо к любым неотрицательным
случайным величинам.
Пример 42. Среднее количество вызовов, поступающих на коммутатор
завода в течение часа, равно 300. Оценить вероятность того, что в течение
следующего часа число вызовов на коммутатор: а) превысит 400; б) будет не
более 500.
Решение. а) По условию M ( X )  300 . По формуле (60) P( X  400) 
300
,
400
т.е. вероятность того, что число вызовов превысит 400, будет не более 0,75.
б) По формуле (62) P( x  500)  1 
300
 0,4 , т.е. вероятность того, что число
500
вызовов не более 500, будет не менее 0,4.
Пример 43. Сумма всех вкладов в отделение банка составляет 2 млн.
руб., а вероятность того, что случайно взятый вклад не превысит 10 тыс. руб.,
равна 0,6. Что можно сказать о числе вкладчиков?
Решение. Пусть X - размер случайно взятого вклада, а n – число всех
вкладов. Тогда из условия задачи следует, что средний размер вклада
M (X ) 
2000
n
P ( x  10)  1 
(тыс.
руб.).
Согласно
неравенству
Маркова
(62):
M (X )
2000
или P( x  10)  1 
.
10
10n
Учитывая, что P( x  10)  0,6 , получим 1 
200
 0,6 , откуда n  500 , т.е.
n
число вкладчиков не более 500.
Неравенство Чебышева
Теорема. Для любой случайной величины, имеющей математическое
ожидание и дисперсию, справедливо неравенство Чебышева:
P X  a    
D( X )
2
,
(63)
где a  M ( X ),   0 .
□ Применим неравенство Маркова в форме (60) к случайной величине
X   ( X  a) 2 , взяв в качестве положительного числа A   2 . Получим
52


P X  a   2 
2
M X  a
2
.
2
(64)
Так как неравенство  X  a 2   2 равносильно неравенству X  a   , а
2
M  X  a  есть дисперсия случайной величины X, то из неравенства (64)
получаем доказываемое неравенство (63). ■
Учитывая, что события X  a   и X  a   противоположны,
неравенство Чебышева можно записать и в другой форме:
P X  a     1 
D( X )
2
.
(65)
Неравенство Чебышева применимо для любых случайных величин. В
форме (63) оно устанавливает верхнюю границу, а в форме (65) – нижнюю
границу вероятности рассматриваемого события.
Запишем неравенство Чебышева в форме (65) для некоторых
случайных величин:
а) для случайной величины X  m , имеющей биномиальный закон
распределения с математическим ожиданием a  M ( X )  np и дисперсией
D( X )  npq :
P m  np     1 
npq
2
;
(66)
m
события в n независимых испытаниях, в каждом из
n
m
которых оно может произойти с одной и той же вероятностью a  M    p ,
n
m
pq
и имеющей дисперсию D   :
n n
б) для частости
m

pq
P  p     1  2 .
n
 n

(67)
Пример 44. Средний расход воды на животноводческой ферме
составляет 1000 л в день, а среднее квадратичное отклонение этой случайной
величины не превышает 200 л. Оценить вероятность того, что расход воды на
ферме в любой выбранный день не превзойдет 2000 л, используя: а)
неравенство Маркова; б) неравенство Чебышева.
Решение. а) Пусть X – расход воды на животноводческой ферме (л).
По условию M ( X )  1000 . Используя неравенство Маркова (62), получим
P X  2000   1 
1000
 0,5 , т.е. не менее чем 0,5.
2000
б) Дисперсия D( X )   2  200 2 . Так как границы интервала 0  X  2000
симметричны относительно математического ожидания M ( X )  1000 , то для
оценки вероятности искомого события можно применить неравенство
Чебышева (65):
P X  2000  P(0  X  2000)  P X  1000  1000  1 
53
200 2
 0,96 ,
1000 2
т.е. не менее чем 0,96. В данной задаче оценку вероятности события,
найденную с помощью неравенства Маркова ( P  0,5 ), удалось уточнить с
помощью неравенства Чебышева ( P  0,96 ).
Пример 45. Вероятность выхода с автомата стандартной детали равна
0,96. Оценить с помощью неравенства Чебышева вероятность того, что число
бракованных среди 2000 деталей находится в границах от 60 до 100
(включительно). Уточнить вероятность того же события с помощью
интегральной теоремы Муавра-Лапласа. Объяснить различие полученных
результатов.
Решение. По условию вероятность того, что деталь бракованная, равна
p  1  0,96  0,04 . Число бракованных деталей X  m имеет биномиальный
закон распределения, а его границы 60 и 100 симметричны относительно
математического ожидания a  M ( X )  np  2000  0,04  80 .
Следовательно, оценку вероятности искомого события
P(60  m  100)  P(20  m  80  20)  P m  80  20
можно найти по формуле (65):
P m  80  20  1 
2000  0,04  0,96
76,8
 1
 0,808 ,
2
400
20
т.е. не менее чем 0,808.
Применяя следствие (*) интегральной теоремы Муавра-Лапласа,
получим
 20 
   (2,28)  0,979 ,
P m  80  20   

76
,
8


т.е. вероятность искомого события приближенно равна 0,979.
Полученный результат P  0,979 не противоречит оценке, найденной с
помощью неравенства Чебышева - P  0,808 . Различие результатов
объясняется тем, что неравенство Чебышева дает лишь нижнюю границу
оценки вероятности искомого события для любой случайной величины, а
интегральная теорема Муавра-Лапласа дает достаточно точное значение
самой вероятности P (тем точнее, чем больше n), так как она применима
лишь для случайной величины, имеющей определенный, а именно –
биномиальный закон распределения.
Пример 46. Оценить вероятность того, что отклонение любой
случайной величины от ее математического ожидания будет не более трех
средних квадратических отклонений (по абсолютной величине) – (правило
трех сигм).
Решение. По формуле (65), учитывая, что D( X )   2 , получим:
P X  a  3   1 
2
8
  0,889 ,
2
9
(3 )
т.е. не менее чем 0,889. Напомним, что для нормального закона правило трех
сигм выполняется с вероятностью P, равной 0,9973, т.е. P  0,9973 . Можно
показать, что для равномерного закона распределения P  1 , для
показательного - P  0,9827 и т.д. Таким образом, правило трех сигм (с
54
достаточно большой вероятностью его выполнения) применимо для
большинства случайных величин, встречающихся на практике.
Пример 47. По статистическим данным в среднем 87%
новорожденных доживают до 50 лет. С помощью неравенства Чебышева
оценить вероятность того, что из 1000 новорожденных доля доживших до 50
лет будет отличаться от вероятности этого события не более чем на 0,04 (по
абсолютной величине).
Решение. Полагая n  1000, p  0,87, q  0,13 , по формуле (66)
m

0,87  0,13
P  p  0,04   1 
 0,929 ,
1000  0,04 2
 n

т.е. не менее, чем 0,929.
Замечание. Если математическое ожидание M ( X )  A или дисперсия
случайной величины D( X )   2 , то правые части неравенств Маркова и
Чебышева в форме соответственно (62) и (65) будут отрицательными, а в
форме (60) и (63) будут больше единицы. Это означает, что применение
указанных неравенств в этих случаях приведет к тривиальному результату:
вероятность события больше отрицательного числа либо меньше числа,
превосходящего единицу. Но такой вывод очевиден и без использования
данных неравенств. Естественно, это обстоятельство снижает значение
неравенств Маркова и Чебышева при решении практических задач, однако не
умаляет их теоретического значения.
Теорема Чебышева
Теорема Чебышева. Если дисперсии n независимых случайных
величин X 1 , X 2 ,..., X n ограничены одной и той же постоянной, то при
неограниченном увеличении числа n средняя арифметическая случайных
величин сходится по вероятности к средней арифметической их
математических ожиданий a1 , a2 ,..., an , т.е.
 X  X 2  ...  X n a1  a 2  ...  a n

lim P 1

    1 (68)
n
n
n


или
n
X
i 1
n
n
i


P
n 
a
i 1
n
i
.
(69)
□ Вначале докажем формулу (68), затем выясним смысл формулировки
«сходимость по вероятности». По условию
M ( X 1 )  a1 , M ( X 2 )  a2 ,..., M ( X n )  an ,
D( X 1 )  C, D( X 2 )  C,..., D( X n )  C ,
где C – постоянное число.
Получим неравенство Чебышева в форме (65) для средней
арифметической случайных величин, т.е. для
X 1  X 2  ...  X n
.
n
Найдем математическое ожидание M ( X ) и оценку дисперсии D ( X ) :
X 
55
 X  X 2  ...  X n 
M (X )  M  1

n


a  a 2  ...  a n
1
 M ( X 1 )  M ( X 2 )  ...  M ( X n )  1
;
n
n
 X  X 2  ...  X n 
D ( X )  D 1

n



 nC C
1
1 



D
(
X
)

D
(
X
)

...

D
(
X
)

C

C

...

C
1
2
n

   n2  n .
n2
n 2  
n ðàç

(Здесь использованы свойства математического ожидания и дисперсии
и, в частности, то, что случайные величины X 1 , X 2 ,..., X n независимы, а
следовательно, дисперсия их суммы равна сумме дисперсий.)
Запишем неравенство (65) для случайной величины
X 1  X 2  ...  X n
:
n
 X  X 2  ...  X n a1  a 2  ...  a n

D( X )
.
P 1

    1 
2
n
n



C
Так как по доказанному D( X )  , то
n
D( X )
C/n
C
1
 1 2  1 2 ,
2


n
X 
(70)
и от неравенства (70) перейдем к более сильному неравенству:
 X  X 2  ...  X n a1  a 2  ...  a n

C
(71)
P 1

    1  2 .
n
n
n


C
В пределе при n   величина
стремится к нулю, и получим
n 2
доказываемую формулу (68). ■
Выясним теперь смысл формулировки «сходимость по вероятности» и
записи ее содержания в виде (69). Понятие предела переменной величины
X lim X  a èëè X  a ïðè n   означает, что начиная с некоторого
n 


момента ее изменения для любого (даже сколь угодно малого) числа   0
будет верно неравенство X  a   . В круглых скобках выражения (68)
содержится аналогичное выражение
 n

 n 
  X i  / n    ai  / n   ,
 i 1 
 i 1 
n
n




где   X i  / n - случайная величина, а   ai  / n - постоянное число.
 i 1 
 i 1 
Однако из неравенства (68) вовсе не следует, что оно будет

n

выполняться всегда, начиная с некоторого момента изменения   X i  / n . Так
 i 1

n


как   X i  / n - случайная величина, то возможно, что в отдельных случаях
 i 1

56
неравенство выполняться не будет. Однако с увеличением числа n

n




 i 1
n
вероятность неравенства   X i  / n    ai  / n   стремится к 1, т.е. это
 i 1

неравенство будет выполняться в подавляющем числе случаев. Другими
словами, при достаточно больших n выполнение рассматриваемого
неравенства является событием практически достоверным, а неравенства
противоположного смысла – практически невозможным.

n



 i 1
n

Таким образом, стремление   X i  / n к   ai  / n следует понимать не
 i 1

как категорическое утверждение, а как утверждение, вероятность которого
гарантируется с вероятностью, сколь угодно близкой к 1 при n   . Это
обстоятельство и отражено в формулировке теоремы «сходится по
P
вероятности» и в записи (69) обозначением 
.
n
Подчеркнем смысл теоремы Чебышева. При большом числе n
случайных величин X 1 , X 2 ,..., X n практически достоверно, что их средняя
 n

X   Xi  / n
 i 1 
- величина случайная, как угодно мало отличается от

n

неслучайной величины   ai  / n , т.е. практически перестает быть случайной.
 i 1

Следствие. Если независимые случайные величины X 1 , X 2 ,..., X n имеют
одинаковые математические ожидания, равные a, а их дисперсии ограничены
одной и той же постоянной, то неравенство (71) и формулы (68), (69) примут
вид:
 X  X 2  ...  X n

C
P 1
 a     1  2 ,
n
n


 X  X 2  ...  X n

lim P 1
 a     1 ,
n
n


(72)
(73)
или
n
X
i 1
n
i
P


a.
n 
(74)
□ Формулы (72) – (73) следует из формул (71), (68) и (69), так как
 X  X 2  ...  X n  1
M (X )  M  1
  M ( X 1 )  M ( X 2 )  ...  M ( X n ) 
n

 n
 na
1

  a
a

...

a

   n  a. ■
n  
n ðàç

Теорема Чебышева и ее следствие имеют большое практическое
значение. Например, страховой компании необходимо установить размер
страхового взноса, который должен уплачивать страхователь; при этом
страховая компания обязуется выплатить при наступлении страхового случая
определенную страховую сумму. Рассматривая частоту/убытки страхователя
57
при наступлении страхового случая как величину случайную и обладая
известной статистикой таких случаев, можно определить среднее
число/средние убытки при наступлении страховых случаев, которое на
основании теоремы Чебышева с большой степенью уверенности можно
считать величиной почти не случайной. Тогда на основании этих данных и
предполагаемой страховой суммы определяется размер страхового взноса.
Без учета действия закона больших чисел (теоремы Чебышева) возможны
существенные убытки страховой компании (при занижении размера
страхового взноса) либо потеря привлекательности страховых услуг (при
завышении размера взноса).
Заметим, что разработкой математических методов и моделей,
применяемых в страховании, занимается так называемая актуарная
(страховая) математика.
Другой пример. Если надо измерить некоторую величину, истинное
значение которой равно a, проводят n независимых измерений этой
величины. Пусть результат каждого измерения – случайная величина
X i (i  1,2,..., n) . Если при измерениях отсутствуют систематические
погрешности (искажающие результат измерения в одну и ту же сторону), то
естественно предположить, что M ( X i )  a при любом i. Тогда на основании
следствия из теоремы Чебышева средняя арифметическая результатов n


n
измерений   X i  / n сходится по вероятности к истинному значению a. Этим
 i 1

обосновывается выбор средней арифметической в качестве меры истинного
значения a.
Если все измерения проводятся с одинаковой точностью,
характеризуемой дисперсией D( X i )   2 , то дисперсия их средней
 n
  Xi
1  n
 1
D i 1
 2 D  X i   2
 n
n  i 1  n




1
 
2
,
D( X i )  2 n 

n 
n
i 1


отклонение равно  / n .
n


2
(74’)
а ее среднее квадратическое
Полученное
отношение, известное под названием «правила корня из n», говорит о том,
что средний ожидаемый разброс средней n измерений в n раз меньше
разброса каждого измерения. Таким образом, увеличивая число измерений,
можно как угодно уменьшить влияние случайных погрешностей (но не
систематических), т.е. увеличивать точность определения истинного
значения a.
Замечание. Если измерительный прибор имеет точность δ (например, δ
– половина ширины деления равномерной шкалы прибора, по которой
производится отсчет), то указанным выше способом нельзя рассчитывать
получить точность измерения величины a большую, чем δ. Каждое
измерение дает результат с неопределенностью δ и, очевидно, их средняя
арифметическая будет обладать той же неопределенностью δ. Таким
образом, стремиться посредством закона больших чисел получить значение a
58
с большей степенью точности, чем позволяет прибор при отдельном
измерении, является заблуждением.
Точно так же, как увеличение числа независимых измерений
неизвестной величины в соответствии с формулой (74’) приводит к
уменьшению получаемой ошибки, увеличение числа проводимых (не
связанных друг с другом) финансовых операций на рынке при той же
доходности приводит к снижению риска. Это связано с тем, что убытки от
одних операций более или менее покрываются прибылью от других
операций. Отсюда следует один из принципов работы на финансовом рынке,
известный как принцип диверсификации (разнообразия) и вполне
согласующийся с народной мудростью: «не клади все яйца в одну корзину».
Пример 48. Для определения средней продолжительности горения
электроламп в партии из 200 одинаковых ящиков было взято на выборку по
одной лампе из каждого ящика. Оценить вероятность того, что средняя
продолжительность горения отобранных 200 электроламп отличается от
средней продолжительности горения ламп во всей партии не более чем на 5 ч
(по абсолютной величине), если известно, что среднее квадратическое
отклонение продолжительности горения ламп в каждом ящике меньше 7 ч.
Решение. Пусть X i - продолжительность горения электроламп, взятой
из i –го ящика (ч). По условию дисперсия D( X i )  7 2  49 . Очевидно, что
средняя
продолжительность
горения
отобранных
ламп
равна
 X 1  X 2  ...  X 200  / 200 , а средняя продолжительность горения ламп во всей
партии
M ( X 1 )  M ( X 2 )  ...  M ( X 200 ) / 200  a1  a2  ...  a200  / 200 .
Тогда вероятность искомого события по формуле (71):
 X  X 2  ...  X 200 a1  a 2  ...  a 200

49
P 1

 5   1 
 0,9902 ,
200
200
200  5 2


т.е. не менее чем 0,9902.
Пример 49. Сколько надо провести измерений данной величины,
чтобы с вероятностью не менее 0,95 гарантировать отклонение средней
арифметической этих измерений от истинного значения величины не более
чем на 1 (по абсолютной величине), если среднее квадратическое отклонение
каждого из измерений не превосходит 5?
Решение. Пусть X i - результат i –го измерения i  1,2,..., n , a – истинное
значение величины, т.е. M ( X i )  a при любом i.
Необходимо найти n, при котором
 X  X 2  ...  X n

P 1
 a  1  0,95 .
n


В соответствии с неравенством (71) данное неравенство будет
выполняться, если
1
25
C
52
 0,05

1

 0,95 , откуда
2
2
n
n
n 1
59
и n
25
 500 , т.е. потребуется не менее 500 измерений.
0,05
Теорема Бернулли
Теорема Бернулли. Частость события в n повторных независимых
испытаниях, в каждом из которых оно может произойти с одной и той же
вероятностью p, при неограниченном увеличении числа n сходится по
вероятности к вероятности p этого события в отдельном испытании:
m

lim P  p     1
n 
 n

m P

 p
n n 
или
(75)
(76)
□ Заключение теоремы (75) непосредственно вытекает из неравенства
Чебышева для частости события (67) при n   . ■
Смысл теоремы Бернулли состоит в том, что при большом числе n
повторных независимых испытаний практически достоверно, что частость
(или статистическая вероятность) события m / n - величина случайная, как
угодно мало отличается от неслучайной величины p – вероятности события,
т.е. практически перестает быть случайной.
Замечание. Теорема Бернулли является следствием теоремы
Чебышева, ибо частость события можно представить как среднюю
арифметическую n независимых альтернативных случайных величин,
имеющих один и тот же закон распределения
n
X   X k , где
k 1
(77)
Xk:
(k=1, 2, …, p)
xi
pi
0
q
1
p.
Доказательство теоремы (более громоздкое) возможно и без ссылки на
теорему (неравенство) Чебышева. Исторически эта теорема была доказана
намного раньше общей теоремы Чебышева.
Теорема Бернулли дает теоретическое обоснование замены
неизвестной вероятности события его частостью, или статистической
вероятностью, полученной в n повторных независимых испытаниях,
проводимых при одном и том же комплексе условий. Так, например, если
вероятность рождения мальчика нам не известна, то в качестве ее значения
мы можем принять частость (статистическую вероятность) этого события,
которая, как известно по многолетним статистическим данным, составляет
приближенно 0,515.
Теорема Бернулли является звеном, позволяющим связать формальное
аксиоматическое определение вероятности с эмпирическим (опытным)
законом постоянства относительной частоты. Теорема дает возможность
обосновать широкое применение на практике вероятностных методов
исследования.
60
Непосредственным обобщением теоремы Бернулли является теорема
Пуассона, когда вероятности события в каждом испытании различны.
Теорема Пуассона. Частость события в n повторных независимых
испытаниях, в каждом из которых оно может произойти соответственно с
вероятностями p1 , p2 ,..., pn , при неограниченном увеличении числа n сходится
по вероятности к средней арифметической вероятностей события в
отдельных испытаниях, т.е.
 m p  p 2  ...  p n

lim P  1
    1
n 
n
 n

(78)
или
n
m P


n n 
p
i 1
i
n
(79)
□ Теорема Пуассона непосредственно вытекает из теоремы Чебышева,
если в качестве случайных величин
рассматривать
X 1 , X 2 ,..., X n
альтернативные случайные величины, имеющие законы распределения вида
(77) с параметрами p1 , p2 ,..., pn . Так как математические ожидания случайных
величин X 1 , X 2 ,..., X n равны соответственно p1 , p2 ,..., pn , а их дисперсии
p1q1 , p 2 q2 ,..., pn qn ограничены одним числом, то формула (78) непосредственно
вытекает из формулы (68). ■
Важная роль закона больших чисел в теоретическом обосновании
методов математической статистики и ее приложений обусловила
проведение ряда исследований, направленных на изучение общих условий
применимости этого закона к последовательности случайных величин. Так, в
теореме Маркова доказана справедливость предельного равенства (74) для
зависимых случайных величин X i (i  1,2,..., n) при условии
1  n

D  X i   0 .
n  n 2
 i 1 
lim
Например,
температура
воздуха
в
некоторой
местности
X i (i  1,2,...,365) каждый день года – величины случайные, подверженные
существенным колебаниям в течение года, причем зависимые, ибо на погоду
каждого дня, очевидно, заметно влияет погода предыдущих дней. Однако
 365

 i 1

среднегодовая температура   X i  / 365 почти не меняется для данной
местности в течение многих лет, являясь практически неслучайной,
предопределенной.
Нахождение общих условий, выполнение которых обязательно влечет
за собой статистическую устойчивость средних, представляет непреходящую
научную ценность исследований в области закона больших чисел.
Помимо различных форм закона больших чисел в теории вероятностей
имеются еще разные формы так называемого «усиленного закона больших
чисел», где показывается не «сходимость по вероятности», а «сходимость с
вероятностью 1» различных средних случайных величин к неслучайным
61
средним. Однако этот усиленный закон представляет больше интерес в
теоретических исследованиях и не столь важен для его приложений в
экономике.
Лекция № 11. Центральная предельная теорема
Рассмотренный выше закон больших чисел устанавливает факт
приближения средней большого числа случайных величин к определенным
постоянным. Но этим не ограничиваются закономерности, возникающие в
результате суммарного действия случайных величин. Оказывается, что при
некоторых весьма общих условиях совокупное действие большого числа
случайных величин приводит к определенному, а именно – к нормальному
закону распределения.
Центральная предельная теорема представляет собой группу теорем,
посвященных установлению условий, при которых возникает нормальный
закон распределения. Среди этих теорем важнейшее место принадлежит
теореме Ляпунова.
Теорема Ляпунова. Если X 1 , X 2 ,..., X n - независимые случайные
величины, у каждой из которых существует математическое ожидание
M ( X i )  a , дисперсия D( X i )   2 , абсолютный центральный момент третьего

порядка M X i  ai
3
 m
i
и
n
m
i
(80)
 0,
3/ 2
 n 2
  i 
 i 1

то закон распределения суммы Yn  X 1  X 2  ...  X n при n   неограниченно
lim
i 1
n 
приближается к нормальному с математическим ожиданием
n
a
i 1
дисперсией
i
и
n

i 1
2
i
.
Теорему принимаем без доказательства.
n
Неограниченное приближение закона распределения суммы Yn   X i к
i 1
нормальному закону при n   в соответствии со свойствами нормального
закона означает, что
n


Y  a


n
i


i 1
lim P
 z 
n
n 


 i2
 

i 1


1
2
z
e

t 2 / 2
dt 
1
  0 ( z) ,
2
(81)
где  0 ( z ) - функция Лапласа (35).
n
Смысл условия (80) состоит в том, чтобы в сумме Yn   X i не было
i 1
слагаемых, влияние которых на рассеяние Yn подавляюще велико по
62
сравнению с влиянием всех остальных, а также не должно быть большого
числа случайных слагаемых, влияние которых очень мало по сравнению с
суммарным влиянием остальных. Таким образом, удельный вес каждого
отдельного слагаемого должен стремиться к нулю при увеличении числа
слагаемых.
Так, например, потребление электроэнергии для бытовых нужд за
месяц в каждой квартире многоквартирного дома можно представить в виде
n различных случайных величин. Если потребление электроэнергии в каждой
квартире по своему значению резко не выделяется среди остальных, то на
основании теоремы Ляпунова можно считать, что потребление
электроэнергии всего дома, т.е. сумма n независимых случайных величин
будет случайной величиной, имеющей приближенно нормальный закон
распределения. Если, например, в одном из помещений дома разместится
вычислительный центр, у которого уровень потребления электроэнергии
несравнимо выше, чем в каждой квартире для бытовых нужд, то вывод о
приближенно нормальном распределении потребления электроэнергии всего
дома будет неправомерен, так как нарушено условие (80), ибо потребление
электроэнергии вычислительного центра будет играть превалирующую роль
в образовании всей суммы потребления.
Другой пример. При устойчивости и отлаженном режиме работы
станков, однородности обрабатываемого материала и т.д. варьирование
качества продукции принимает форму нормального закона распределения в
силу того, что производственная погрешность представляет собой результат
суммарного действия большого числа случайных величин: погрешности
станка, инструмента, рабочего и т.д.
Следствие. Если X 1 , X 2 ,..., X n - независимые случайные величины, у
которых существует равные математические ожидания M ( X i )  a , дисперсии
D( X i )   2
и абсолютные центральные моменты третьего порядка

M X i  ai
3
 m
i
i  1,2,..., n, то закон распределения суммы
Yn  X 1  X 2  ...  X n
при n   неограниченно приближается к нормальному закону.
□ Доказательство сводится к проверке условия (80):
n
n
m
lim
n 
i 1
 n 2
  i 
 i 1

3/ 2
 lim
n 
m
i 1
 n 2
  
 i 1

3/ 2
 lim
n 
mn
n 
2 3/ 2
 lim
n 
m

3
n
 0;
следовательно, имеет место и равенство (81). ■
В частности, если все случайные величины X i одинаково распределены,
то закон распределения их суммы неограниченно приближается к
нормальному закону при n   .
Проиллюстрируем это утверждение на примере суммирования
независимых случайных величин, имеющих равномерное распределение на
интервале (0, 1). Кривая распределения одной такой случайной величины
показана на рис. 21, а. На рис. 21, б показана плотность вероятности суммы
63
двух таких случайных величин, а на рис. 21, в - плотность вероятности
суммы трех таких случайных величин (ее график состоит из трех отрезков
парабол на интервалах (0, 1), (1, 2) и (2, 3) и по виду уже напоминает
нормальную кривую).
Если сложить шесть таких случайных величин, то получится случайная
величина с плотностью вероятности, практически не отличающейся от
нормальной.
а)
б)
в)
Рис. 21
Теперь у нас имеется возможность доказать локальную и интегральную
теоремы Муавра – Лапласа.
Рассмотрим случайную величину Z 
m  np
npq
, где X  m - число появлений
события в n независимых испытаниях, в каждом из которых оно может
появиться с одной и той же вероятностью p, т.е. X  m - случайная величина,
имеющая биномиальный закон распределения, для которого математическое
ожидание M ( X )  np и дисперсия D( X )  npq .
Случайная величина Z, так же как случайная величина X, вообще
говоря, дискретна, но при большом числе n испытаний ее значения
расположены на оси абсцисс так тесно, что ее можно рассматривать как
непрерывную с плотностью вероятности  (z ) .
64
Найдем числовые характеристики случайной величины Z, используя
свойства математического ожидания и дисперсии:
a  M (Z )  M ( X )  np  / npq  (np  np) / npq  0 ,

D(Z )  D( X )  0 / npq

2
 npq / npq  1 .
В силу того, что случайная величина X представляет собой сумму
независимых альтернативных случайных величин, случайная величина Z
представляет также сумму независимых, одинаково распределенных
случайных величин и, следовательно, на основании центральной предельной
теоремы при большом числе n имеет распределение, близкое к нормальному
закону с параметрами a  0,  2  1. Используя свойство нормального закона
(Вероятность попадания случайной величины X, распределенной по
нормальному закону, в интервал [x1, x2], равна Px1  X  x 2   (t 2 )  (t1 ) ,
1
2
где t1 
x1  a

, t2 
x2  a

.), получим
Pz1  Z  z 2  
Полагая z1 
a  np
npq
, z2 
b  np
npq
1
( z 2 )  ( z1 ).
2
(82)
, с учетом того, что Z 
m  np
npq
, получаем,
что двойное неравенство в скобках равносильно неравенству a  m  b . В
результате из формулы (82) получим интегральную формулу МуавраЛапласа:
P ( a  m  b) 
1
( z 2 )  ( z1 ).
2
(83)
Вероятность Pm ,n того, что событие A произойдет m раз в n независимых
испытаниях, можно приближенно записать в виде:
Pm,n  Pn (m  X  m  m) .
Чем меньше m , тем точнее приближенное равенство. Минимальное
(целое) m  1. Поэтому, учитывая формулы (83) и (82), можно записать:
1
( z 2 )  ( z1 )  Pz1  Z  z 2  ,
2
m  np
(m  1)  np
где z1 
.
, z2 
npq
npq
Pm,n 
(84)
При малых z имеем
P( z  z )   ( z )z ,
(85)
где  (z ) - плотность стандартной нормально распределенной случайной
величины с параметрами a  0,  2  1, т.е.
 ( z) 
Полагая z1  z, z  z 2  z1 
1
e z
2
/2
2
(m  1)  np
npq
.

(86)
m  np
npq

1
npq
, из формулы (85) с
учетом равенства (84) получим локальную формулу Муавра-Лапласа:
65
1
Pm,n 
npq
 ( z) .
(87)
Замечание. Необходимо соблюдать известную осторожность,
применяя
центральную
предельную
теорему
в
статистических
исследованиях. Так, если сумма
n
X
i 1
i
при n   всегда имеет нормальный
закон распределения, то скорость сходимости к нему существенно зависит от
типа распределения ее слагаемых. Так, например, как отмечено выше, при
суммировании равномерно распределенных случайных величин уже при 6-10
слагаемых можно добиться достаточной близости к нормальному закону, в то
время как для достижения той же близости при суммировании  2 распределенных случайных слагаемых понадобится более 100 слагаемых.
Простейший поток событий
Рассмотрим события, которые наступают в случайные моменты
времени.
Потоком событий называют последовательность событий, которые
наступают в случайные моменты времени. Примерами потоков служат:
поступление вызовов на АТС, на пункт неотложной медицинской помощи,
прибытие самолетов в аэропорт, клиентов на предприятие бытового
обслуживания, последовательность отказов элементов и многие другие.
Среди свойств, которыми могут обладать потоки, выделим свойства
стационарности, отсутствия последействия и ординарности.
Свойство стационарности характеризуется тем, что вероятность
появления k событий на любом промежутке времени зависит только от числа
k и от длительности t промежутка и не зависит от начала его отсчета; при
этом различные промежутки времени предполагаются непересекающимися.
Например, вероятности появления k событий на промежутках времени (1; 7),
(10; 16), (T, T+6) одинаковой длительности t=6 ед. времени равны между
собой.
Итак, если поток обладает свойством стационарности, то
вероятность появления k событий за промежуток времени длительности t
есть функция, зависящая только от k и t.
Свойство отсутствия последействия характеризуется тем, что
вероятность появления k событий на любом промежутке времени не зависит
от того, появлялись или не появлялись события в моменты времени,
предшествующие началу рассматриваемого промежутка. Другими словами,
условная вероятность появления k событий на любом промежутке времени,
вычисленная при любых предположениях о том, что происходило до начала
рассматриваемого промежутка (сколько событий появилось, в какой
последовательности), равна безусловной вероятности. Таким образом,
предыстория потока не сказывается на вероятности появления событий в
ближайшем будущем.
66
Итак, если поток обладает свойством отсутствия последействия, то
имеет место взаимная независимость появлений того или иного числа
событий в непересекающиеся промежутки времени.
Свойство ординарности характеризуется тем, что появления двух и
более событий за малый промежуток времени практически невозможно.
Другими словами, вероятность появления более одного события
пренебрежимо мала по сравнению с вероятностью появления только одного
события.
Итак, если поток обладает свойством ординарности, то за бесконечно
малый промежуток времени может появиться не более одного события.
Простейшим (пуассоновским) называют поток событий, который
обладает свойствами стационарности, отсутствия последействия и
ординарности.
Замечание. Часто на практике трудно установить, обладает ли поток
перечисленными выше свойствами. Поэтому были найдены и другие
условия, при соблюдении которых поток можно считать простейшим или
близким к простейшему. В частности, установлено, что если поток
представляет собой сумму очень большого числа независимых стационарных
потоков, влияние каждого из которых на всю сумму (суммарный поток)
ничтожно мало, то суммарный поток (при условии его ординарности) близок
к простейшему.
Интенсивностью потока λ называют среднее число событий, которые
появляются в единицу времени.
Можно доказать, что если постоянная интенсивность потока известна,
то вероятность появления k событий простейшего потока за время
длительностью t определяется формулой Пуассона
Pt (k )  (t ) k  e  t / k!.
Эта формула отражает все свойства простейшего потока.
Действительно, из формулы видно, что вероятность появления k
событий за время t, при заданной интенсивности является функцией k и t, что
характеризует свойство стационарности.
Формула не использует информации о появлении событий до начала
рассматриваемого промежутка, что характеризует свойство отсутствия
последействия.
Убедимся, что формула отражает свойство ординарности. Положив
k  0 и k  1 , найдем соответственно вероятности непоявления событий и
появления одного события:
Pt (0)  e  t , Pt (1)  te  t .
Следовательно, вероятность появления более одного события
Pt (k  1)  1   Pt (0)  Pt (1)   1  e  t  te  t  .
Пользуясь разложением
e
 t
 t 
 1  t 
2!
67
2
 ...,
после элементарных преобразований получим
 t 
P (k  1) 
t
2
2
 ... .
Сравнивая Pt (1) и Pt (k  1) , заключаем, что при малых значениях t
вероятность появления более одного события пренебрежимо мала по
сравнению с вероятностью наступления одного события, что характеризует
свойство ординарности.
Итак, формулу Пуассона можно считать математической моделью
простейшего потока событий.
Пример 50. Среднее число вызовов, поступающих на АТС в одну
минуту, равно двум. Найти вероятности того, что за 5 мин поступит: а) 2
вызова;
б) менее двух вызовов; в) не менее двух вызовов. Поток вызовов
предполагается простейшим.
Решение. По условию,   2, t  5, k  2 . Воспользуемся формулой
Пуассона
Pt (k )  (t ) k  e  t / k!
а) Искомая вероятность того, что за 5 мин поступит 2 вызова,
P5 (2)  10 2  e 10 / 2! 100  0,000045 / 2  0,00225.
Это событие практически невозможно.
б) События «не наступило ни одного вызова» и «поступил один вызов»
несовместны, поэтому по теореме сложения искомая вероятность того, что за
5 мин поступит менее двух вызовов, равна
P5 (k  2)  P5 (0)  P5 (1)  e 10  (10  e 10 ) / 1! 0,000495.
Это событие практически невозможно.
в) События «поступило менее двух вызовов» и «поступило не менее двух
вызовов» противоположны, поэтому искомая вероятность того, что за 5 мин
поступит не менее двух вызовов,
P5 (k  2)  1  P5 (k  2)  1  0,000495  0,999505.
Это событие практически достоверно.
68
Лекция № 12. Геометрическое распределение
Пусть производятся независимые испытания, в каждом из которых
вероятность появления события A равна p (0<p<1) и, следовательно,
вероятность его непоявления q=1 - p. Испытания заканчиваются, как только
появится событие A. Таким образом, если событие A появилось в k-м
испытании, то в предшествующих k – 1 испытаниях оно не появилось.
Обозначим через X дискретную случайную величину – число
испытаний, которое нужно провести до первого появления события A.
Очевидно, возможными значениями X являются натуральные числа:
x1  1, x2  2,...
Пусть в первых k – 1 испытаниях событие A не наступило, а в k-м
испытании появилось. Вероятность этого «сложного события», по теореме
умножения вероятностей независимых событий,
(*)
P( X  k )  q k 1 p .
Полагая k  1, 2,... в формуле (*), получим геометрическую прогрессию с
первым членом p и знаменателем q (0< q <1):
(**)
p, qp, q 2 p,..., q k 1 p,...
По этой причине распределение (*) называют геометрическим.
Легко убедиться, что ряд (**) сходится и сумма его равна единице.
Действительно, сумма ряда (**)
p
p
 1.
1 q p
Пример 51. Из орудия производится стрельба по цели до первого
попадания. Вероятность попадания в цель p=0,6. Найти вероятность того, что
попадание произойдет при третьем выстреле.
Решение. По условию, p=0,6, q=0,4, k=3. Искомая вероятность по
формуле (*)
P  q k 1 p  0, 42  0,6  0,096 .
Гипергеометрическое распределение
Прежде чем дать определение гипергеометрического распределения,
рассмотрим задачу. Пусть в партии из N изделий имеется M стандартных
(M<N). Из партии случайно отбирают n изделий (каждое изделие может быть
извлечено с одинаковой вероятностью), причем отобранное изделие перед
отбором следующего не возвращается в партию (поэтому формула Бернулли
здесь неприменима). Обозначим через X случайную величину – число m
стандартных изделий среди n отобранных. Очевидно, возможные значения X
таковы: 0, 1, 2, …, min (M,n).
Найдем вероятность того, что X=m, т.е. что среди n отобранных
изделий ровно m стандартных. Используем для этого классическое
определение вероятности.
Общее число возможных элементарных исходов испытания равно
числу способов, которыми можно извлечь n изделий из N изделий, т.е. числу
сочетаний C Nn .
69
Найдем число исходов, благоприятствующих событию X=m (среди
взятых n изделий ровно m стандартных); m стандартных изделий можно
извлечь из M стандартных изделий CMm способами; при этом остальные n – m
изделий должны быть нестандартными; взять же n – m нестандартных
изделий из N – m нестандартных изделий можно C Nn mM способами.
Следовательно, число благоприятных исходов равно CMm C Nn mM .
Искомая
вероятность
равна
отношению
числа
исходов,
благоприятствующих событию X=m, к числу всех элементарных исходов
P ( X  m) 
CMm CNn mM
.
CNn
(*)
Формула (*) определяет распределение вероятностей, которое
называют гипергеометрическим.
Учитывая, что m – случайная величина, заключаем, что
гипергеометрическое распределение определяется тремя параметрами: N, M,
n. Иногда в качестве параметров этого распределения рассматривают N, n и
p
M
,
N
где p – вероятность того, что первое извлеченное изделие
стандартное.
Заметим, что если n значительно меньше N (практически если n<0,1N),
то гипергеометрическое распределение дает
вероятности, близкие к
вероятностям, найденным по биномиальному закону.
Пример 52. Среди 50 изделий 20 окрашенных. Найти вероятность того,
что среди наудачу извлеченных 5 изделий окажется ровно 3 окрашенных.
Решение. По условию, N=50, M=20, n=5, m=3. Искомая вероятность
P( X  3) 
3
C20
C302
 0, 234 .
C505
Начальные и центральные теоретические моменты
Рассмотрим дискретную случайную величину X, заданную законом
распределения:
X
1
2
5
100
p 0,6 0,2 0,19 0,01
Найдем математическое ожидание X:
M ( X )  1 0, 6  2  0, 2  5  0,19  100  0, 01  2,95 .
Напишем закон распределения X 2 :
X2
1
4
25
10000
p 0,6 0,2 0,19 0,01
Найдем математическое ожидание X 2 :
M ( X 2 )  1 0,6  4  0, 2  25  0,19  10000  0,01  106,15 .
Видим, что M ( X 2 ) значительно больше M ( X ) . Это объясняется тем,
что после возведения в квадрат возможное значение величины X 2 ,
соответствующее значению x=100 величины X, стало равным 10000, т.е.
значительно увеличилось; вероятность же этого значения мала (0,01).
70
Таким образом, переход от M ( X ) к M ( X 2 ) позволил лучше учесть
влияние на математическое ожидание того возможного значения, которое
велико и имеет малую вероятность. Разумеется, если бы величина X имела
несколько больших и маловероятных значений, то переход к величине X 2 , а
тем более к величинам X 3 , X 4 и т.д., позволил бы еще больше «усилить роль»
этих больших, но маловероятных возможных значений. Вот почему
оказывается целесообразным рассматривать математическое ожидание целой
положительной степени случайной величины (не только дискретной, но и
непрерывной).
Начальным моментом порядка k случайной величины X называют
математическое ожидание величины X k :
k  M  X k .
В частности,
1  M  X  ,  2  M  X 2  .
Пользуясь этими моментами, формулу для вычисления дисперсии
2
D X   M X 2   M  X  можно записать так:
D( X )   2  12 .
(*)
Кроме моментов случайной величины X целесообразно рассматривать
моменты отклонения X − M ( X ) .
Центральным моментом порядка k случайной величины X называют
k
математическое ожидание величины  X  M ( X )  :
k
k  M  X  M ( X )   .

В частности,

1  M  X  M ( X )    0 ,
2
2  M  X  M ( X )    D( X ) .


(**)
(***)
Легко выводятся соотношения, связывающие начальные и центральные
моменты. Например, сравнивая (*) и (***), получим
 2   2  12 .
Нетрудно, исходя из определения центрального момента и пользуясь
свойствами математического ожидания, получить формулы:
3   3  3 2 1  2 13 ,
4   4  4 3 1  6 2 12  3 14 .
Моменты более высоких порядков применяются редко.
Замечание.
Моменты,
рассмотренные
здесь,
называют
теоретическими. В отличие от теоретических моментов, моменты, которые
вычисляются по данным наблюдений, называют эмпирическими.
71
Лекция № 13. Предмет математической статистики
Математическая статистика – раздел математики, в котором
изучаются методы сбора, систематизации и обработки результатов
наблюдений массовых случайных явлений для выявления существующих
закономерностей.
Математическая статистика тесно связана с теорией вероятностей. Обе
эти математические дисциплины изучают массовые случайные явления.
Связующим звеном между ними являются предельные теоремы теории
вероятностей. При этом теория вероятностей выводит из математической
модели свойства реального процесса, а математическая статистика
устанавливает свойства математической модели, исходя из данных
наблюдений (говорят «из статистических данных»).
Предметом математической статистики является изучение случайных
величин (или случайных событий, процессов) по результатам наблюдений.
Полученные в результате наблюдения (опыта, эксперимента) данные сначала
надо каким-либо образом обработать: упорядочить, представить в удобном
для обозрения и анализа виде. Это первая задача. Затем, это уже вторая
задача, оценить, хотя бы приблизительно, интересующие нас
характеристики наблюдаемой случайной величины. Например, дать оценку
неизвестной вероятности события, оценку неизвестной функции
распределения, оценку математического ожидания, оценку дисперсии
случайной величины, оценку параметров распределения, вид которого
неизвестен, и т.д.
Следующей, назовем ее условно третьей, задачей является проверка
статистических гипотез, т.е. решение вопроса согласования результатов
оценивания с опытными данными. Например, выдвигается гипотеза, что:
а) наблюдаемая случайная величина подчиняется нормальному закону; б)
математическое ожидание наблюдаемой случайной величины равно нулю; в)
случайное событие обладает данной вероятностью и т.д.
Одной из важнейших задач математической статистики является
разработка методов, позволяющих по результатам обследования выборки
(т.е. части исследуемой совокупности объектов) делать обоснованные
выводы о распределении признака (случайной величины X) изучаемых
объектов по всей совокупности.
Для обработки статистических данных созданы специальные
программные пакеты (STADIA, СтатЭксперт, Эвриста, SYSTAT,
STATGRAPHICS и др.), которые выполняют трудоемкую работу по расчету
различных статистик, построению таблиц и графиков. Простейшие
статистические функции имеются в программируемых калькуляторах и
популярных офисных программах (EXCEL).
Результаты
исследования
статистических
данных
методами
математической статистики используются для принятия решения (в задачах
планирования, управления, прогнозирования и организации производства,
при контроле качества продукции, при выборе оптимального времени
72
настройки или замены действующей аппаратуры и т.д.), т.е. для научных и
практических выводов.
Говорят, что «математическая статистика – это теория принятия
решений в условиях неопределенности».
Математическая статистика возникла в XVIII веке в работах
Я.Бернулли, П.Лапласа, К.Пирсона. В ее современном развитии
определяющую роль сыграли труды Г.Крамера, Р.Фишера, Ю.Неймана и др.
Большой вклад в математическую статистику внесли русские ученые
П.Л.Чебышев, А.М.Ляпунов, А.Н. Колмогоров, Б.В.Гнеденко и другие.
Генеральная и выборочная совокупности
Пусть требуется изучить данную совокупность объектов относительно
некоторого признака. Например, рассматривая работу диспетчера (продавца,
парикмахера,…), можно исследовать: его загруженность, тип клиентов,
скорость обслуживания, моменты поступления заявок и т.д. Каждый такой
признак (и их комбинации) образует случайную величину, наблюдения над
которой мы и производим.
Совокупность всех подлежащих изучению объектов или возможных
результатов всех мыслимых наблюдений, производимых в неизменных
условиях над одним объектом, называется генеральной совокупностью.
Более строго: генеральная совокупность – это случайная величина
X ( ) , заданная на пространстве элементарных событий  с выделенным в
нем классом S подмножеств событий, для которых указаны их вероятности.
Зачастую проводить сплошное обследование, когда изучаются все
объекты (например – перепись населения), трудно или дорого, экономически
нецелесообразно (например – не вскрывать же каждую консервную банку
для проверки качества продукции), а иногда невозможно. В этих случаях
наилучшим способом обследования является выборочное наблюдение:
выбирают из генеральной совокупности часть ее объектов («выборку») и
подвергают их изучению.
Выборочной совокупностью (выборкой) называется совокупность
объектов, отобранных случайным образом из генеральной совокупности.
Более строго: выборка – это последовательность X1 , X 2 ,..., X n
независимых одинаково распределенных случайных величин, распределение
каждой из которых совпадает с распределением генеральной случайной
величины.
Число объектов (наблюдений) в совокупности, генеральной или
выборочной, называется ее объемом; обозначается соответственно через N и
n.
Конкретные значения выборки, полученные в результате наблюдений
(испытаний), называют реализацией выборки и обозначают строчными
буквами x1 , x2 ,..., xn .
Метод статистического исследования, состоящий в том, что на основе
изучения выборочной совокупности делается заключение о всей генеральной
совокупности, называется выборочным.
73
Для получения хороших оценок характеристик генеральной
совокупности необходимо, чтобы выборка была репрезентативной (или
представительной), т.е. достаточно полно представлять изучаемые признаки
генеральной совокупности. Условием обеспечения репрезентативности
выборки является, согласно закону больших чисел, соблюдение случайности
отбора, т.е. все объекты генеральной совокупности должны иметь равные
вероятности попасть в выборку.
Различают выборки с возвращением (повторные) и без возвращения
(бесповторные). В первом случае отобранный объект возвращается в
генеральную совокупность перед извлечением следующего; во втором – не
возвращается. На практике чаще используется бесповторная выборка.
Заметим, если объем выборки значительно меньше объема генеральной
совокупности, различие между повторной и бесповторной выборками очень
мало, его можно не учитывать.
В зависимости от конкретных условий для обеспечения
репрезентативности применяют различные способы отбора: простой, при
котором из генеральной совокупности извлекают по одному объекту;
типический, при котором генеральную совокупность делят на «типические»
части и отбор осуществляется из каждой части (например, мнение о
референдуме спросить у случайно отобранных людей, разделенных по
признаку пола, возраста,…); механический, при котором отбор производится
через определенный интервал (например, мнение спросить у каждого
шестидесятого…); серийный, при котором объекты из генеральной
совокупности отбираются «сериями», которые должны исследоваться при
помощи сплошного обследования.
На практике пользуются сочетанием вышеупомянутых способов
отбора.
Пример 53. Десять абитуриентов проходят тестирование по
математике. Каждый из них может набрать от 0 до 5 баллов включительно.
Пусть X k - количество баллов, набранных k-м (k=1, 2,…, 10) абитуриентом.
Тогда значения 0, 1, 2, 3, 4, 5 – все возможные количества баллов,
набранных одним абитуриентом, - образуют генеральную совокупность.
Выборка X1 , X 2 , X 3 ,..., X10 - результат тестирования 10 абитуриентов.
Реализациями выборки могут быть следующие наборы чисел: {5, 3, 0,
1, 4, 2, 5, 4, 1, 5} или {4, 4, 5, 3, 3, 1, 5, 5, 2, 5} или {3, 4, 5, 0, 1, 2, 3, 4, 5, 4} и
т.д.
74
Статистическое распределение выборки.
Эмпирическая функция распределения
Пусть изучается некоторая случайная величина X. С этой целью над
случайной величиной X производится ряд независимых опытов
(наблюдений). В каждом из этих опытов величина X принимает то или иное
значение.
Пусть она приняла n1 раз значение x1 , n2 раз − значение x2 ,…, nk раз −
значение xk . При этом n1  n2  ...  nk  n - объем выборки. Значения x1 , x2 ,..., xk
называются вариантами случайной величины X.
Вся совокупность значений случайной величины X представляет собой
первичный статистический материал, который подлежит дальнейшей
обработке, прежде всего – упорядочению.
Операция расположения значений случайной величины (признака) по
неубыванию
называется
ранжированием
статистических
данных.
Полученная таким образом последовательность x(1) , x(2) ,..., x( n ) значений
X i ,..., x( n )  max X i )
случайной величины X (где x(1)  x(2)  ...  x( n ) и x(1)  min
1i  n
1i  n
называется вариационным рядом.
Числа ni , показывающие, сколько раз встречаются варианты xi в ряде
наблюдений, называются частотами, а отношение их к объему выборки –
 
*
частостями или относительными частотами pi , т.е.
pi* 
ni
,
n
k
где n   ni .
i 1
Перечень вариантов и соответствующих им частот или частостей
называется статистическим распределением выборки или статистическим
радом.
Записывается статистическое распределение в виде таблицы. Первая
*
строка содержит варианты, а вторая – их частоты ni (или частости pi ).
Пример 54. В результате тестирования (см. пример 53) группа
абитуриентов набрала баллы: 5, 3, 0, 1, 4, 2, 5, 4, 1, 5. Записать полученную
выборку в виде: а) вариационного ряда; б) статистического ряда.
Решение. а) Проранжировав статистические данные (т.е. исходный
ряд), получим вариационный ряд ( x(1) , x(2) ,..., x(10) ):
(0, 1, 1, 2, 3, 4, 4, 5, 5, 5).
б)
Подсчитав
частоту
и
частость
вариантов
x1  0, x2  1, x3  2, x4  3, x5  4, x6  5 , получим статистическое распределение
выборки (так называемый дискретный статистический ряд)
75
xi
ni
0 1 2 3 4 5
1 2 1 1 2 3
 6

  ni  10 
 i 1

или
xi
0
1
2
3
4
5
pi*
1
10
2
10
1
10
1
10
2
10
3
10
 6 * 
  pi  1 .
 i 1

Статистическое
распределение
выборки
неизвестного распределения. В соответствии с
pi* сходятся при
относительные частоты
вероятностям
pi , т.е.
n 
является
оценкой
теоремой Бернулли
к соответствующим
p
p  pi . Поэтому при больших значениях n
n 
*
i
статистическое распределение мало отличается от истинного распределения.
В случае, когда число значений признака (случайной величины X)
велико или признак является непрерывным (т.е. когда случайная величина X
может принять любое значение в некотором интервале), составляют
интервальный статистический ряд. В первую строку таблицы
статистического распределения вписывают частичные промежутки
 x0 , x1  ,  x1, x2  ,...,  xk 1, xk  , которые берут обычно одинаковыми по длине:
h  x1  x0  x2  x1  ... . Для определения величины интервала (h) можно
использовать формулу Стерджеса:
h
xmax  xmin
,
1  log 2 n
где xmax  xmin - разность между наибольшим и наименьшим значениями
признака, m  1  log 2 n - число интервалов  log2 n  3,322lg n  .
За начало первого интервала рекомендуется брать величину
xí à÷  xmin 
h
2 . Во второй строчке статистического ряда вписывают
количество наблюдений ni  i  1, k  , попавших в каждый интервал.
____


Пример 55. Измерили рост (с точностью до см) 30 наудачу отобранных
студентов. Результаты измерений таковы:
178, 160, 154, 183, 155, 153, 167, 186, 163, 155,
157, 175, 170, 166, 159, 173, 182, 167, 171, 169,
179, 165, 156, 179, 158, 171, 175, 173, 164, 172.
Построить интервальный статистический ряд.
76
Решение. Для удобства проранжируем полученные данные:
153, 154, 155, 155, 156, 157, 158, 159, 160, 163, 164, 165, 166, 167, 167, 169,
170, 171, 171, 172, 173, 173, 175, 175, 178, 179, 179, 182, 183, 186.
Отметим, что X – рост студента – непрерывная с.в. При более точном
измерении роста значения случайной величины X обычно не повторяются
(вероятность наличия на Земле двух человек, рост которых равен, скажем
3  1, 732050808... метров, равна нулю!).
Как видим, xmin  153, xmax  186 ; по формуле Стерджеса, при n=30,
находим длину частичного интервала
h
186  153
33
33


 5,59 .
1  log 2 30 1  3,322 lg 30 5,907
6
 150 . Исходные данные разбиваем
2
на 6  m  1  log2 30  5,907  6 интервалов: [150,156), [156,162), [162,168),
[168,174), [174,180), [180,186).
Подставив число студентов  ni  , попавших в каждый из полученных
промежутков, получим интервальный статистический ряд:
Рост
[150−156) [156−162) [162−168) [168−174) [174−180) [180−186)
Частота
4
5
6
7
5
3
Частость
0,13
0,17
0,20
0,23
0,17
0,10
Одним из способов обработки вариационного ряда является построение
эмпирической функции распределения.
Эмпирической (статистической) функцией распределения называется
*
функция Fn ( x ) , определяющая для каждого значения x частость события
 X  x :
Примем h=6. Тогда xí à÷  153 
Fn* ( x)  p*  X  x .
*
Для нахождения значений эмпирической функции удобно Fn ( x )
записать в виде
n
Fn* ( x)  x ,
n
где n – объем выборки, nx - число наблюдений, меньших x ( x  ).
*
Очевидно, что Fn ( x ) удовлетворяет тем же условиям, что и истинная
функция распределения F ( x) .
При увеличении числа n наблюдений (опытов) относительная частота
события  X  x приближается к вероятности этого события (теорема
*
Бернулли). Эмпирическая функция распределения Fn ( x ) является оценкой
вероятности события  X  x , т.е. оценкой теоретической функции
распределения F ( x) случайной величины X. Имеет место
77
Теорема. Пусть
- теоретическая функция распределения
F ( x)
*
n
случайной величины X, а F ( x ) - эмпирическая. Тогда для любого ε >0


lim P Fn* ( x)  F ( x)    1.
n 
Пример 56. Построить функцию
результаты примера 54.
*
Решение. Здесь n=10. Имеем F10 ( x) 
*
меньше 0 нет); F10 ( x) 
Fn* ( x ) , используя условие и
0
 0 при x  0 (наблюдений
10
1
при 0  x  1 (здесь nx  1 ) и т.д. Окончательно
10
получаем
 0, ï ðè x  0,
 0,1, ï ðè 0  x  1,

 0,3, ï ðè 1  x  2,

F10* ( x)  0, 4, ï ðè 2  x  3,
 0,5, ï ðè 3  x  4,

0, 7, ï ðè 4  x  5,

 1, ï ðè 5  x.
График эмпирической функции распределения приведен на рис. 22.
Рис. 22
Лекция № 14. Графическое изображение
статистических данных
78
Методические указания и решение типовых задач
Графические методы в статистике являются способом наглядного
изображения результатов статистической сводки и обработки массового
материала.
При
правильном
построении
графики
обладают
выразительностью, доступностью, способствуют анализу явлений, их
обобщению и изучению. В ряде случаев графики являются незаменимыми
средствами анализа, исследования и выявления закономерностей
статистических данных.
Главным в определении аналитического значения графиков является
определение той формы графических изображений, которая дает наиболее
наглядный аналитический результат.
Несмотря на многообразие видов графических изображений, каждый
график должен включать следующие элементы: графический образ; поле
графика; масштабные ориентиры и систему координат.
Графический образ – геометрические знаки, совокупность точек,
линии, фигуры, с помощью которых изображаются статистические
величины. Поле графика представляет собой пространство, в котором
размещаются геометрические знаки.
Масштабные ориентиры статистического графика определяются
масштабом и масштабной шкалой. Масштаб статистического графика – это
мера перевода числовой величины в графическую (рис. 23), а масштабная
шкала – линия, определенные точки которой могут быть прочитаны как
определенные числа.
Рис. 23. Масштабы
Шкала состоит из линии (носителя шкалы) и ряда помеченных на ней точек,
расположенных в определенном порядке. Носитель шкалы может быть
представлен прямой или кривой линией. Поэтому шкалы называются
прямолинейными и криволинейными (круговые и дуговые).
Шкалы могут быть равномерными и неравномерными (рис. 24). Одним
из видов неравномерной шкалы является логарифмическая. На этой шкале
отрезки пропорциональны не изображаемым величинам, а их логарифмам.
79
Для размещения геометрических знаков в поле графика необходима
система координат. Наиболее распространенной при построении
статистических графиков является система прямоугольных координат. При
этом наилучшее соотношение масштаба по осям абсцисс и ординат 1,62 : 1,
известное под названием «золотое сечение», а для других видов диаграмм
нейтральным размером диаграммы является квадрат, полученный из
отношения 5/8, где 5 – высота площади диаграммы, а 8 – площадь его
основания.
Рис. 24. Масштабные шкалы: а) равномерные; б) неравномерные
Масштабом равномерной шкалы называется длина отрезка
(графический интервал), принятого за единицу и измеренного в каких-либо
мерах. Чем меньше масштаб (рис. 1), тем гуще располагаются на шкале
точки, имеющие одно и то же значение. Построить шкалу – это значит на
задуманном носителе шкалы разместить точки и обозначить их
соответствующими числами согласно условиям задачи (рис. 25).
Рис. 25. Длина отрезка равномерной масштабной шкалы
Для наглядного изображения циклического изменения во времени
строятся линейные графики в полярной системе координат. Они носят
название радиальных диаграмм. В радиальных диаграммах радиусы
обозначают периоды времени, а окружность – величину изучаемого явления
(рис. 26).
На статистических картах пространственная ориентировка задается
контурной сеткой, определяющей те территории, к которым относятся
статистические характеристики.
В результате изучения данной темы студенты должны научиться
строить различные виды диаграмм, статистических карт и уяснять, что в
80
диаграммах цифровые данные чаще всего изображаются в виде линий и
геометрических фигур (плоскостных и объемных). В статистических
картах цифровые данные изображаются путем нанесения на контурные
географические карты условных знаков в виде точек, различной штриховки
или раскраски, диаграммных знаков.
Рис. 26. Числовые интервалы в полярной системе координат
Рассмотрим построение основных видов диаграмм на конкретных
числовых примерах.
На столбиковых диаграммах статистические данные изображаются в
виде вытянутых по вертикали прямоугольников.
При построении столбиковых диаграмм необходимо выполнять
следующие требования:
1) шкала, по которой устанавливается высота столбика, должна
начинаться с нуля;
2) шкала должна быть, как правило, непрерывной;
3) основания столбиков должны быть равны между собой;
столбики могут быть размещены на одинаковом расстоянии друг от друга,
вплотную один к другому или наплывом, при котором один столбик
частично накладывается на другой;
4) наряду с разметкой шкалы соответствующими цифровыми надписями
следует снабжать и сами столбцы.
Пример. Изобразим графические данные о числе негосударственных
общеобразовательных школ России за следующие учебные годы (на начало
года), ед.: 1997/98 – 570; 1998/99 – 568; 1999/2000 – 607; 2000/01 – 635.
Исследуем негосударственные общеобразовательные учреждения с
помощью столбиковой диаграммы сравнения.
81
На горизонтальной оси поместим основания шести столбиков на
расстоянии 0,5 см друг от друга. Ширина столбиков – 1 см. Масштаб на
вертикальной оси – 10 ед. на 1 см (рис. 27).
На столбиковой диаграмме изображаемые величины пропорциональны
длине столбцов. Из диаграммы видно, что число негосударственных школ в
2000/01 учебном году составило 635 ед., что больше, чем во все предыдущие
годы. Наименьшее число школ за исследуемый период времени было в
1998/99 учебном году. Из графика также видно, что число школ в 1997/98 и
1998/99 учебных годах почти не изменялось, однако далее количество
негосударственных школ увеличивается с каждым годом. Можно
предположить, что в следующем году их число также возрастет.
Рис. 27. Число общеобразовательных негосударственных школ России за 1997 – 2001 гг.
Полосовые диаграммы состоят из прямоугольников, расположенных
горизонтально (полосами, лентами). В этом случае масштабной шкалой
будет горизонтальная ось. Принцип из построения тот же, что и
столбиковых.
В отличие от столбиковых или полосовых диаграмм в квадратных и
круговых диаграммах величина изображаемого явления выражается
размером площади.
В отличие от столбиковых или полосовых диаграмм в квадратных и
круговых диаграммах величина изображаемого явления выражается
размером площади.
Чтобы построить квадратную диаграмму, необходимо из сравниваемых
статистических величин извлечь квадратные корни, а затем построить
квадраты со сторонами, пропорциональными полученным результатам.
Пример. Построим квадратную диаграмму для сравнения численности
учителей и учащихся в негосударственных школах за 2001 г. (на начало
года). Для построения диаграммы нужно извлечь квадратные корни из
82
следующих величин: численность учителей – 16 тыс. чел; численность
учащихся – 61 тыс. чел. Это составит соответственно 4; 7,81.
Чтобы построить по этим данным квадраты, необходимо выбрать
масштаб. Примем 1 см за 0,8 тыс. чел.
Сторонами квадратов на графике будут отрезки, пропорциональные
полученным числам (рис. 28). Таким образом квадратные диаграммы
выражают размер явления совей площадью. Из графика видно, что квадрат,
изображающий численность учащихся, почти в 4 раза больше квадрата,
изображающего численность учителей. Можно сделать вывод о том, что в
2001 г. на одного учителя в среднем приходилось по четыре учащихся.
Рис. 28. Численность учащихся и учителей в негосударственных школах России на
начало 2001 года (тыс. чел.)
Круговые диаграммы строятся аналогично. Разница состоит в том, что на
графике вычерчиваются круги, площади которых пропорциональны
квадратным корням из изображаемых величин (рис. 29).
Рис. 29. Численность учащихся, поступивших в государственные и негосударственные
вузы России 2001 г.
Круги изображают исследуемые величины своей площадью. Если
поместить один в другой, можно легко сравнить их площади. Из графика
83
видно, что площадь большого круга в 7 – 8 раз больше площади малого
круга. На этом основании можно сделать вывод, что в государственные вузы
России в 2001 г. поступило учащихся примерно в 7 – 8 раз больше, чем в
негосударственные вузы.
Диаграммы фигур-знаков представляют собой графические изображения в
виде рисунков, силуэтов, фигур, соответствующих содержанию
статистических данных. Они отличаются от других видов диаграмм тем, что
отдельные величины на них изображаются определенным количеством
одинаковых по размеру и типу фигур.
Пример. Изобразим динамику производства часов в одном из регионов
России за 1999 – 2002 гг. с помощью диаграммы фигур-знаков. Условно
примем один рисунок за 1000 штук часов. Тогда число часов: в 1999 г. в
размере 4717 шт. должно быть изображено в количестве 4,7 рисунка; в 2000г.
в размере 3672 шт. – 3,7 рисунка; в 2001 г. в размере 3987 шт. – 3,99 рисунка;
в 2002 г. в размере 2189 шт. – 2,2 рисунка (рис. 30).
Рис. 30. Производство часов в одном из регионов Росси в 1999 – 2002 гг.
Секторные диаграммы удобно строить следующим образом: вся величина
явления принимается за 100%, рассчитываются доли отдельных его частей в
процентах. Круг разбивается на секторы пропорционально частям
изображаемого целого. Таким образом, на 1% приходится 3,60. Для
получения центральных углов секторов, изображающих доли частей целого,
необходимо их процентное выражение умножить на 3,60.
Пример. Изобразим с помощью секторной диаграммы число студентов
негосударственных вузов России на начало 2000/01 учебного года по формам
обучения. На дневной форме обучается 39% студентов; на вечерней – 9%; на
заочной – 51%; на экстернате – 1% студентов. Построим круг произвольного
радиуса. По данным о числе студентов, для построения секторов определим
84
центральные углы: для дневной формы центральный угол составил 140,40
(41,0∙3,6); для вечерней – 32,40 (9∙3,6); для заочной – 183,60 (51∙3,6); для
экстерната – 3,60 (1∙3,6). При помощи транспортира разделим круг на
соответствующие сектора (рис. 31).
Если данные о структуре какого-либо явления выражаются в абсолютных
величинах, то для нахождения секторов необходимо 3600 разделить на
величину целого, а затем частное от деления последовательно умножить на
абсолютные значения частей.
Рис. 31. Структура форм обучения студентов государственных и негосударственных
вузов России на начало 2000/01 учебного года
Для одновременного сопоставления трех величин, связанных между собой
таким образом, что одна величина является произведением двух других,
применяют диаграммы, называемые «знак Варзара».
Знак Варзара представляет собой прямоугольник, у которого один
сомножитель принят за основание, другой – за высоту, а вся площадь равна
произведению.
Пример. Имеются данные по сбору яровой пшеницы в одном из регионов
России в 2003 г., в котором при посевной площади 14,5 млн. га урожайность
составила 1,16 т/га.
В нашем случае в основание прямоугольника положена урожайность
яровой пшеницы, высота – посевная площадь, а площадью прямоугольника
является валовой сбор яровой пшеницы. Правильность показаний диаграммы
можно проверить простыми математическими вычислениями: посевная
площадь = валовой сбор/урожайность =16800000/1,16=14482758 га (рис. 32).
Линейные диаграммы широко применяются для характеристики
изменений явлений во времени, выполнения плановых заданий, а также для
изучения рядов распределения, выявления связи между явлениями.
Линейные диаграммы строятся на координатной сетке. Геометрическими
знаками в линейных диаграммах служат точки и последовательно
соединяющие их отрезки прямой, которые складываются в ломаные кривые.
Пример. При помощи линейной диаграммы можно изобразить данные о
конкурсе на вступительных экзаменах в высшие учебные заведения в России
за 1996 – 2000 гг.; на одного зачисленного приходится державших экзамены:
Год
1996 1997 1998 1999 2000
Конкурс, чел.
1,8
1,7
1,8 1,9
1,9
85
В прямоугольной системе координат нанесем на ось ординат данные о
конкурсе абитуриентов (рис. 33). Масштаб – 1 см=0,05 чел. Из графика
видно, что положение кривой определяется не только данными о конкурсе,
но и интервалами времени между датами.
Нередко на одной линейной диаграмме приводятся несколько кривых,
которые дают сравнительную характеристику динамики различных
показателей или одного и того же показателя для разных территорий.
Методика построения таких кривых не отличается от построения графика на
рис. 33. Из данных рис. 33 видно, как меняется конкурс в вузы за 1996 –
2000 гг. В 1997 г. конкурс заметно снизился по сравнению с конкурсом в
1996 г. Однако с 1997 г. конкурс в высшие учебные заведения возрастал и в
1999 г. превысил конкурс 1996 г. С 1999 по 2000 г. конкурс в вузы России
оставался неизменным.
Рис. 32. Зависимость валового сбора яровой пшеницы от урожайности и посевной
площади в одном из регионов России 2003 г.
86
Рис. 33. Конкурс на вступительных экзаменах в высшие учебные заведения России за
1996 – 2000гг. (на одного зачисленного, приходится державших экзамены, чел.)
Ряды распределения чаще всего изображаются в виде полигона или
гистограммы. Полигон строят в основном для изображения дискретных
рядов. При его построении на оси абсцисс откладываются значения
варьирующего признака, а на оси ординат – абсолютные или относительные
численности единиц совокупности (частоты или частости). Полигон на рис.
34 построен на основании (условных) данных о распределении семей по
числу детей.
Рис. 34. Полигон распределения семей по числу детей в одном из регионов в 2003 г.
Гистограмма распределения применяется чаще всего для изображения
интервальных рядов. Для ее построения по оси абсцисс откладываются
интервалы признака, а по оси ординат – численности единиц совокупности.
На отрезках, изображающих интервалы, строят прямоугольники, площади
которых пропорциональны численностям единиц (рис. 35).
87
Рис. 35. Гистограмма распределения фирм в одной из отраслей по стоимости
основных производственных фондов
В ряде случаев для изображения вариационных рядов используется
кумулятивная кривая (кумулята). Для ее построения значения варьирующего
признака откладываются на оси абсцисс, а на оси ординат помещаются
накопленные итоги частот или чатостей (рис. 36).
Если поместить на оси абсцисс накопленные частоты, а на оси ординат
нарастающие итоги значений группировочного признака, то в том случае мы
получим кривую, называемую кривой концентрации.
Для графического изображения взаимосвязи между явлениями на оси
абсцисс необходимо поместить значения признака-фактора, а на оси ординат
– значения признака-результата.
Разновидностью линейной диаграммы является радиальная диаграмма,
которая применяется для изображения рядов динамики при наличии в них
сезонных колебаний. Построение радиальной диаграммы разберем на
следующем примере.
Рис. 36. Кумулята распределения населения в одном из регионов России
Пример. Имеются данные (условные) о продаже моркови на рынках
сельхозпродуктов города в 2003 г.:
88
Месяцы
Морковь, ц
I II III IV V VI VII VIII IX X XI XII
36 42 44 54 43 70 41 43 39 37 37 34
Итого
за год
520
Определим среднемесячную продажу моркови. Она составляет 43,3 ц.
Вычертим круг радиусом, равным среднемесячному показателю
(R=43,3 ц). На горизонтальном диаметре построим шкалу, взяв длину
радиуса, равную 2,7 см. Следовательно, 1 см=43,3/2,7≈16 ц. Затем весь круг
разделим на 12 радиусов (соответственно числу месяцев в году). На радиусе
сделаем отметку согласно масштабу исходя из приведенных данных за
каждый месяц. Данные, которые превысили среднемесячный уровень,
отмечаются за пределами окружности на продолжении радиуса. Отметки
различных месяцев соединяются между собой (рис. 37).
Картограммы делятся на фоновые и точечные.
Рис. 37. Продажа моркови на рынках сельхозпродуктов в одном из городов в 2002 г.
Пример. Построим фоновую картограмму по данным табл. 1
Таблица 1
Численность студентов из СНГ в российских вузах
На начало 2000/01 учебного года
Страны СНГ
Азербайджан
Армения
Белоруссия
Грузия
Казахстан
Киргизия
Молдавия
Таджикистан
Туркмения
Численность студентов, тыс. чел.
1,2
1,1
3,4
0,8
16,7
1,2
1
0,3
0,5
89
Узбекистан
3,2
Украина
5
Разобьем всю совокупность на три группы: менее 2000 человек, куда
войдут Азербайджан, Армения, Грузия, Киргизия, Молдавия, Таджикистан и
Туркмения. От 2000 до 10000 чел. – Белоруссия, Узбекистан и Украина.
Более 10000 – Казахстан (рис. 38).
Проанализировав картограмму, можно сделать вывод о том, что
больше всего студентов прибывает в Россию на обучение из Казахстана,
более 10000 чел. От 2000 до 10000 чел. Прибывают в Россию из Узбекистана,
Украины и Белоруссии. Из остальных стран СНГ, таких как Азербайджан,
Армения, Грузия, Молдавия, Таджикистан и Туркмения, на обучение
прибывает менее 2000 человек.
При построении точечной картограммы графическим изображением
статистических данных являются точки, размещенные в пределах
территориальных единиц.
Принцип построения картодиаграммы заключается в том, что на
контурной карте составные части какой-либо диаграммы размещаются на
площади, отведенной определенному территориальному подразделению
страны (а на картах мирах или частей света – определенной стране).
Рис. 38. Картограмма численности студентов стран СНГ, обучающихся в
российских вузах на начало 2000/01 учебного года (тыс. чел.)
Пример. По данным (табл. 2) построим картодиаграмму.
Таблица 2
90
Численность иностранных студентов, обучающихся в государственных
высших учебных заведениях Россия в 2000 г.
Наименование
Численность студентов, тыс. чел.
Европа
8,8
Азия
27,9
США
1,8
Латинская Америка
0,9
Канада
0,2
Африка
9,7
Австралия
0,1
Численность студентов на картодиаграмме будет изображена кругом;
величина исследуемого явления выражена площадью фигуры. Для
построения картодиаграммы извлечем квадратные корни из данных величин
(рис. 39).
Из данной картодиаграммы можно сделать вывод: в Россию прибывают
учиться студенты в основном из стран Азии, Африки и Европы. Из стран
Австралии, Канады, США и Латинской Америки в Российской федерации
учится гораздо меньше студентов.
Рис. 39. Картодиаграмма численности иностранных студентов, обучавшихся в
государственных высших учебных заведениях России в 2000 г. (тыс. чел.)
1.
2.
Задачи и упражнения
При помощи столбиковой диаграммы изобразите данные о числе
заключенных браков населением России (тыс. чел.):
1990
1995
1998
2002
1320
1075
849
1001
По данным о числе профессиональных театров в России (на конец года)
по видам изобразите структуру совокупности с помощью столбиковых и
полосовых диаграмм:
1985
1990
91
1995
2000
2001
Число
профессиональных
театров – всего
338
382
470
347
527
В том числе оперы
и балета
26
31
50
65
66
драмы, комедии и
музыкальные
203
233
275
318
303
детские и юного
зрителя
109
118
138
151
145
прочие
0
0
7
13
13
3. При помощи квадратной и круговой диаграммы сопоставьте следующие
данные о вводе в действие жилых домов в городах и поселках
городского типа в России (млн. м2 общей площади):
1980
45
1985
44,1
1990
43,8
1995
32,1
2000
23,1
По данным о численности персонала, занятого исследованием и
разработками в России за 1992 – 2000 гг., постройте столбиковые,
полосовые и секторные диаграммы:
(млн чел.)
1992
1995
1998
2000
2001
Численность
персонала
–
всего
1532,6
1061
855,2
887,7
895
4.
В том числе:
исследователи
804
518,7
417
426
428,3
техники
180,7
101,4
74,8
75,2
75,3
вспомогательный
персонал
382,2
274,9
220,1
240,5
243,6
прочий персонал
165,7
166
143,3
146
147,5
5.
По материалам выборочного обследования бюджетов домашних
хозяйств в 2000 г. получены данные о структуре расходов на конечное
потребление населения России:
(%)
Городская
Сельская
92
Все потребительские расходы
В том числе:
продукты питания
непродовольственные товары
оплата услуг
алкогольные напитки
стоимость натуральных поступлений
продуктов питания
стоимость предоставленных в натуральном
выражении дотаций и льгот
местность
100
местность
100
45
32
13
2
6
39
25
8
2
25
2
1
Постройте диаграммы, изображающие структуру. Укажите, к какому
виду графиков они относятся.
6. Имеются данные о выпуске учащихся общеобразовательными
учреждениями:
тыс. чел.
Окончил основную школу
Окончил среднюю (полную)
школу
Годы
в том числе
в том числе
итого
итого
дневную вечернюю
дневную вечернюю
1985
1820
1790
30
1473
925
548
1990
1894
1863
31
1035
910
125
1995
1918
1853
65
1045
934
111
2000
2200
2133
6
1458
1322
136
Постройте диаграммы:
а) столбиковые;
б) секторные.
По данным о грузообороте по видам транспорта общего пользования в
России за 1990 – 2001 гг. постройте диаграммы:
а) квадратные; б) круговые; в) секторные.
(млрд/ткм)
Показатели
1990
1995
2000
2001
Все виды транспорта
5890,6 3532,6 3479,5 3591,6
В том числе:
железнодорожный
2523
1214
1373
1434
автомобильный
68
31
23
23
трубопроводный
2575
1899
1916
1962
морской
508
297
100
94
внутренний водный
214
90
65
76
воздушный
2,6
1,6
2,5
2,6
7.
93
8.
С помощью фигур-знаков изобразите графически данные о производстве
телевизоров цветного изображения в России (тыс. шт.):
1990
1995
1998
2001
2657
370
293
981
Изобразите в виде квадратной и круговой диаграммы данные о числе
крестьянских (фермерских) хозяйств 1 января (в тыс.):
1993
1996
1999
2001
2002
182,8
280,1
270,2
261,7
265,5
10. Постройте знак Варзара по следующим данным.
Вклады населения в Сберегательном банке Российской Федерации в
2003 г. (на начало года):
Число вкладов, млн
232,9
Сумма вкладов, млн руб.
265996,1
Средний размер вклада, руб.
1142,1
9.
11. Имеются данные о посевной площади, валовом сборе и урожайности
отдельных зерновых культур (в хозяйствах всех категорий) в РФ:
Показатели
Валовой сбор зерновых культур
(в весе после доработки), млн т
В том числе:
пшеница яровая
ячмень яровой
овес
Урожайность зерновых культур
(в весе после доработки), ц с
1га
В том числе:
пшеница яровая
ячмень яровой
овес
Посевная
площадь
под
зерновыми культурами, тыс. га
В том числе:
пшеница яровая
ячмень яровой
овес
1995
1997
2000
2001
63,4
88,6
65,5
85,2
16,3
14,5
8,6
23,7
19,5
9,4
17,3
12,3
6
15,2
9,5
4,9
13,1
17,8
15,6
19,4
11,7
12
12,2
15,3
17,1
16,1
12,7
15,5
14,7
15,7
19
17,1
54705
53634
45636
47241
15715
14242
7928
17112
12027
6438
15278
8644
4518
15240
9479
4869
Изобразите приведенные в таблице данные при помощи диаграмм:
а) квадратных;
б) круговых;
в) столбиковых;
г) знака Варзара.
94
Самостоятельно определите, по каким показателям какие диаграммы
строить.
12. Постройте линейные графики по данным о численности незанятого
населения в народном хозяйстве и заявленной потребности в работниках
по региону за 2002 – 2003 гг. на начало месяца. Кривые нанести на одну
диаграмму (цифры условные):
(тыс. чел.)
Месяц
Январь
Февраль
Март
Апрель
Май
Июнь
Июль
Август
Сентябрь
Октябрь
Ноябрь
Декабрь
2002
численность
заявленная
незанятых
потребность
475
706
520
530
585
470
660
431
720
405
761
399
801
387
875
370
913
355
952
330
1005
305
990
301
2003
численность
заявленная
незанятых
потребность
995
310
1040
315
1075
335
1080
382
1070
440
1030
500
996
515
985
512
974
504
982
475
1025
420
1070
370
Какие выводы можно сделать, рассматривая построенную диаграмму?
13. Дана
динамика
производства
отдельных
видов
продукции
промышленности строительных материалов в одном из регионов России
за 9 месяцев 2003 г. (цифры условные):
(в % к соответствующему периоду предыдущего года)
Показатели
Ян- Фев- Март Ап- Май Июнь Июль Ав- Сенварь раль
рель
густ тябрь
Цемент
94
93
101
95
106
108
104
104
97
Строительный
кирпич
83
95
93
92 99,9
97
102
102
97
Шифер
101 110
89
130 168
121
110
117 132
95
Постройте линейные графики (все кривые нанесите на одну
диаграмму). Сделайте выводы по полученной диаграмме.
14. Имеются следующие данные, характеризующие динамику развития
внешней торговли Российской Федерации (по данным таможенной
статистики):
(млн долл. США)
Внешнеторговый
В том числе
Год
оборот
экспорт
импорт
1994
101,9
63,3
38,6
1995
124,9
78,2
46,7
1996
131,7
85,2
46,5
1997
138,2
85,1
53,1
1998
114,9
71,3
43,6
1999
103,2
72,9
30,3
2000
136,9
103
33,9
Постройте линейные графики (все кривые нанесите на одну
диаграмму). Сделайте выводы на основе полученной диаграммы.
15. Продажа основных продуктов на рынках одного из городов по месяцам
2003 г. характеризуется следующими данными:
Продукты
I
II
III IV V VI VII VIII IX X XI
Картофель,
тыс. т
2,4 3,7 3,8 5,5 5,2 9,7 15 12 14 11 6,6
Овощи,
тыс. т
2,2 2,9 3,3 4,1 8,4 7,9 20 16 16 6,5 3,6
Мясо, т
186 168 175 215 216 167 125 146 154 246 317
Плоды,
ягоды,
виноград,
тыс. т
30 40 43 54 67 29 35 34 45 35 29
XII
6,5
2,9
234
29
Постройте радиальные диаграммы по каждому виду продуктов питания.
Проанализируйте сезонный характер изменения продажи продуктов
16. Постройте радиальную диаграмму по данным о производстве шоколада
и шоколадных изделий по одному из кондитерских объединений по
месяцам 2003 г. (т):
I
970
II
880
III
974
IV
V
1010 850
VI
930
VII
460
VIII
730
IX
947
X
XI
965 880
XII
920
17. По данным, характеризующим число родившихся в городе по месяцам за
три года, постройте спиральную диаграмму:
(тыс. чел.)
Месяц
2001
2002
2003
96
Январь
Февраль
Март
Апрель
Май
Июнь
Июль
Август
Сентябрь
Октябрь
Ноябрь
Декабрь
655
389
765
855
380
242
646
660
351
375
962
745
706
978
852
396
665
856
572
721
405
368
743
889
850
962
730
379
451
381
752
843
317
389
735
634
18. Постройте радиальную и спиральную диаграммы по данным об объемах
продажи кондитерских изделий в магазинах города по месяцам за четыре
года:
(тыс. кг)
Месяц
2000
2001
2002
2003
Январь
403
365
373
420
Февраль
387
412
305
450
Март
398
346
366
416
Апрель
487
405
457
479
Май
523
475
517
506
Июнь
508
504
543
601
Июль
449
407
438
501
Август
468
367
440
520
Сентябрь
450
448
427
459
Октябрь
444
443
388
525
Ноябрь
405
415
401
498
Декабрь
487
379
387
481
19. Имеются следующие данные о распределении общего объема денежных
доходов населения России за январь – сентябрь 1995 – 2000 гг.
(%)
1995
2000
Денежные доходы – всего
100,0
100,0
В том числе по 20%-ным группам населения:
первая (с наименьшими доходами)
5,4
5,5
вторая
9,9
10,5
третья
15,2
15,2
четвертая
22,5
22,4
пятая (с наивысшими доходами)
47,0
46,7
97
Постройте график Лоренца и установите, в каком направлении
изменилась концентрация общего объема денежных доходов населения за
этот период.
20. По областям Центрально-Черноземного района РФ на 09.10.2002 г.
имеются следующие данные:
Области
Территория,
Численность населения,
2
тыс. км
тыс. чел.
Белгородская
27,1
1512,4
Воронежская
52,4
2379,0
Курская
29,8
1235,6
Липецкая
24,1
1213,4
Тамбовская
34,3
1179,6
Итого
167,7
7520
Постройте
картограмму
«Плотность
населения
ЦентральноЧерноземного района РФ по областям на 09.10.2002 г.» а) точную; б)
фоновую. Что показывает построенная картограмма?
21. По 16 административным районам одной из областей имеются данные,
характеризующие посевные площади озимого ячменя и его урожайность
в 2003 г.:
(ц/га)
Номер
Посевная Урожайность
Номер
Посевная Урожайность
района
площадь,
озимого
района
площадь,
озимого
тыс. га
ячменя,
тыс. га
ячменя,
ц/га
ц/га
1
14,1
17,5
9
15,9
31,6
2
9,2
20,1
10
2,6
18,1
3
10,2
36,1
11
9,3
24,3
4
3,1
27,2
12
17,4
26,3
5
3,3
28,1
13
19,9
28,2
6
2,4
16,1
14
21,7
22,5
7
11,1
16,4
15
12,1
19,5
8
9,9
32,3
16
4,1
16,9
Постройте:
а) картограмму с помощью штриховки для характеристики изменения
урожайности в районах области;
б) точечную картограмму для характеристики размещения посевов
ячменя в районах.
Указание. Схематическую карту области и размещение на ней районов
сделайте по собственному усмотрению.
22. По 10 районам области имеются следующие данные о производстве
некоторых видов продукции за 2003 г.:
(тыс. ц)
Номер
Зерно,
Молоко
Мясо в живом весе скота
района
ц
крупного
свиней
98
1
2
3
4
5
6
7
8
9
10
95,1
122,3
393,9
220,6
53,3
31,1
290,8
119,8
267,1
314,5
14,8
14,5
58,0
40,1
15,0
14,5
37,7
38,9
46,8
44,8
рогатого
1,7
1,6
7,7
4,5
1,6
0,8
4,5
3,4
5,4
4,4
13,9
13,8
10,3
5,5
0,7
0,9
8,4
9,2
15,5
11,5
Постройте картограмму, изобразив:
а) производство зерна с помощью столбиковых диаграмм;
б) производство молока при помощи квадратных диаграмм;
в) производство мяса в живом весе с помощью круговых диаграмм.
Указание. Схематическую карту области постройте произвольно.
23. Имеются следующие данные о распределении строительных фирм в
сельской местности по объему капитальных вложений. Постройте
полигон и гистограмму распределения:
Группы
строительных фирм по До 200 201-300 301-400
Свыше
Итого
объему капитальных
400
вложений, млн руб.
Число фирм, % к итогу
15,1
17,4
30,5
37,0
100
24. Постройте полигон возрастной структуры лиц с учеными степенями по
состоянию на конец 2003 г.
(%)
Группы
Менее 30 – 39 40 – 49 50 – 59 60 – 69
70 и
Итого
лиц по
29
выше
возрасту,
лет
Число
кандидатов
0,2
10,6
28,6
31,3
23,8
5,5
100
наук
99
Лекция № 15. Числовые характеристики статистического
распределения
Для выборки можно определить ряд числовых характеристик,
аналогичным тем, что в теории вероятностей определялись для случайных
величин.
Пусть статистическое распределение выборки объема n имеет вид:
xi x1 x2 x3 … xk
(88)
ni n1 n2 n3 … nk
___
Выборочным средним xB называется среднее арифметическое всех
значений выборки:
___
xB 
1 k
 xi  ni .
n i 1
(89)
Выборочное среднее можно записать и так:
k
___
xB   xi  pi* ,
i 1
(90)
ni
n - частость. Для обозначения выборочного среднего используют
*
*
следующие символы: x , M ( X ), mx .
где pi 
*
Отметим, что в случае интервального статистического ряда в равенстве
(89) в качестве xi берут середины его интервалов, а ni - соответствующие им
частоты.
Выборочной дисперсией DB называется среднее арифметическое
___
квадратов отклонений значений выборки от выборочной средней xB , т.е.
DB 
1 k
 ( xi  xB )2  ni
n i 1
(91)
или, что то же самое,
k
DB   ( xi  xB )2  pi* .
i 1
(92)
Можно показать, что DB может быть подсчитана также по формуле:
DB 
1 k 2
xi  ni  ( xB ) 2 , т.е.

n i 1
___
2
DB  x  ( x )2 ,
(93)
___
здесь x  xB .
Выборочное
среднее
определяется формулой
квадратическое
100
отклонение
выборки
 B  DB .
(94)
Особенность выборочного среднего квадратического отклонения (  Â )
состоит в том, что оно измеряется в тех же единицах, что и изучаемый
признак.
При решении практических задач используется и величина
S2 
k
1
  ( xi  xB ) 2  ni ,
n  1 i 1
(95)
т.е.
S2 
n
DB ,
n 1
(96)
которая называется исправленной выборочной дисперсией.
Величина
(97)
S  S2
называется
исправленным
выборочным
средним
квадратическим
отклонением.
Для непрерывно распределенного признака формулы для выборочных
средних будут такими же, но за значения x1 , x2 ,..., xk надо брать не концы
промежутков  x0 , x1  ,  x1, x2  ,..., а их середины
x0  x1 x1  x2
,
,...
2
2
В
качестве описательных характеристик вариационного ряда
x(1) , x(2) ,..., x( n ) (или полученного из него статистического распределения
выборки (88)) используется медиана, мода, размах вариации (выборки) и т.д.
R  x( n )  x(1) ,
Размахом
вариации
называется
число
где
x(1)  min xk , x( n )  max xk или R  xmax  xmin , где xmax - наибольший, xmin 1 k  n
1 k  n
наименьший вариант ряда.
*
Модой M 0 вариационного ряда называется вариант, имеющий
наибольшую частоту.
*
Медианой M e вариационного ряда называется значение признака
(случайной величины X), приходящееся на середину ряда.
Если n  2k (т.е. ряд x(1) , x(2) ,..., x( k ) , x( k 1) ,..., x(2 k ) имеет четное число членов),
*
то M e 
x( k )  x( k 1)
2
*
; если n  2k 1 , то M e  x( k 1) .
Пример 57. По условию примера 54 найти характеристики выборки –
результаты тестирования 10 абитуриентов.
Решение. Используя формулы (89) – (97), находим:
1
 (0 1  1 2  ...  5  3)  3 ,
10
1
DB   (0  3) 2 1  (1  3) 2  2  ...  (5  3) 2  3  3, 2 ,
10
 Â  3, 2  1,79 ,
xB 
101
10
 3, 2  3,56 ,
9
S  3,56  1,87 ,
S2 
R  50  5,
M 0*  5,
M e* 
3 4
 3,5.
2
Другие формы средних величин
Средняя квадратическая величина
Если при замене индивидуальных величин признака на среднюю
величина необходимо сохранить неизменной сумму квадратов исходных
величин, то средняя будет являться квадратической средней величиной ( xêâ ).
Ее формула такова:
n
xêâ 
x
2
i
i 1
.
n
(98)
Например, имеется три участка земельной площади со сторонами
квадрата: x1  100 ì ; x2  200 ì ; x3  300 ì . Заменяя разные значения длины сторон
на среднюю, мы, очевидно, должны исходить за сохранения общей площади
всех участков. Арифметическая средняя величина (100+200+300):3=200 м не
удовлетворяет этому условию, так как общая площадь трех участков со
стороной 200 м была бы равна: 3∙(200 м)2=120 000 м2. В то же время площадь
исходных трех участков равна: (100 м)2+(200 м)2+(300 м)2=140 000 м2.
Правильный ответ дает квадратическая средняя:
xêâ 
(100)2  (200)2  (300) 2
 216 ì 2 .
3
Главной сферой применения квадратической средней является
измерение вариации признака в совокупности.
Аналогично если по условиям задачи необходимо сохранить
неизменной сумму кубов индивидуальных значений признака при их замене
на среднюю величину, мы приходим к средней кубической, имеющей вид:
n
xêóá 
3
x
3
i
i 1
n
.
102
(99)
Средняя геометрическая величина
Если при замене индивидуальных величин признака на среднюю
величину необходимо сохранить неизменным произведение индивидуальных
величин, то следует применить геометрическую среднюю величину. Ее
формула такова:
xãåî ì  n x1  x2  ...  xn .
(100)
Основное применение геометрическая средняя находит при
определении средних темпов роста. Пусть, например, в результате инфляции
за первый год цена товара возросла в 2 раза к предыдущему году, а за второй
год еще в 3 раза к уровню предыдущего года. Ясно, что за два года цена
выросла в 6 раз. Каков средний темп роста цены за год? Арифметическая
средняя здесь непригодна, ибо если за год цены возросли бы в
23
 2,5 раза,
2
то за два года цена возросла бы в 2,5∙2,5=6,25 раза, а не в 6 раз.
Геометрическая средняя дает правильный ответ: 6  2, 45 раза.
Геометрическая средняя величина дает наиболее правильный результат
осреднения, если задача состоит в нахождении такого значения признака,
который качественно был бы равноудален как от максимального, так и от
минимального значения признака. Например, если максимальный размер
выигрыша в лотерее составляет 1 000 000 руб., а минимальный – 100 руб., то
какую величину выигрыша можно считать средней? Средняя
арифметическая явно непригодна, она составляет 500 050 руб., а это, как и
1 000 000 руб., крупный, никак не средний выигрыш; он качественно
однороден с максимальным и резко отличен от минимального. Не дают
верного ответа ни квадратическая средняя (707 107 руб.), ни кубическая
(793 699 руб.), ни рассматриваемая далее гармоническая средняя (199,98
руб.), слишком близкая к минимальному значению. Только геометрическая
средняя дает верный с точки зрения экономики и логики ответ:
100 1000000  10000 ðóá. Десять тысяч – не миллион, но и не сотня! Это
действительно нечто среднее между ними.
Средняя гармоническая величина
Если по условиям задачи необходимо, чтобы при осреднении
неизменной оставалась сумма величин, обратных индивидуальным
значениям признака, то средняя величина является гармонической средней.
Формула средней гармонической величины такова:
xãàðì 
n
n
1

i 1 xi
.
(101)
Например, автомобиль с грузом от предприятия до склада ехал со
скоростью 40 км/ч, а обратно порожняком со скоростью 60 км/ч. Какова
средняя скорость автомобиля за обе поездки? Пусть расстояние перевозки
составляло s км. Никакой роли при расчете средней скорости величина s не
играет. При замене индивидуальных значений скорости x1  60 и x2  40 на
103
среднюю величину необходимо, чтобы неизменной величиной осталось
время, затраченное на обе поездки, иначе средняя скорость может оказаться
любой – от скорости черепахи до скорости света.
s
s
s s s s
 . Итак,
   . Сократив все члены
x1 x2
x x x1 x2
1 1 1 1
   , т.е. выполняется условие
получим:
x x x1 x2
Время поездок есть
равенства
на
s,
гармонической средней. Подставляя x1 и x2 , получаем:
2 1
1
2
2 120

 ,x

 48 êì / ÷.
1
1
x 60 40
5

60 40
Арифметическая средняя 50 км/ч неверна, так как приводит к другому
времени движения, чем на самом деле. Если расстояние равно 96 км, то
реальное время движения составит:
96 96

 1, 6 ÷  2, 4 ÷  4 ÷.
60 40
То же время дает гармоническая средняя:
(96  2)
 4 ÷.
48
Понятие степенной средней.
Соотношение между формами средних величин
Все рассмотренные выше виды средних величин принадлежат к
общему типу степенных средних. Различаются они лишь показателем.
Степенная средняя степени k есть корень k-й степени из частного от деления
суммы индивидуальных значений признака в k-й степени на число
индивидуальных значений:
n
x
k
x
i 1
n
k
i
.
(102)
При k=1 получаем арифметическую среднюю, при k=2 –
квадратическую, при k=3 – кубическую, при k=0 – геометрическую, при
k= −1 – гармоническую среднюю. Чем выше показатель степени k, тем
больше значение средней величины (если индивидуальные значения
признака варьируют). Если все исходные значения признака равны, то и все
средние равны этой константе. Итак, имеем следующее соотношение,
которое называется правилом мажорантности средних:
xãàðì  xãåî ì  xàðèô ì  xêâàäð  xêóá
(103)
или
x1  x0  x1  x2  x3 .
Пользуясь этим правилом, статистика может в зависимости от
настроения и желания ее «знатока» либо «утопить», либо «выручить»
студента, получившего на сессии оценки 2 и 5. Каков его средний балл?
104
Если судить по средней арифметической, то средний балл равен 3,5. Но
если декан желает «утопить» несчастного и вычислит среднюю
гармоническую
xãàðì 
2
20

 2,86,
1 1 7

2 5
то студент остается в среднем двоечником, не дотянувшим до тройки.
Однако студенческий комитет может возразить декану и представить
среднюю кубическую величину:
xêóá 
3
23  53 3
 66,5  4, 05.
2
Студент уже выглядит «хорошистом» и даже претендует на
стипендию! И только в том случае, если лентяй провалил оба экзамена,
статистика помочь не в состоянии: увы, все средние из двух двоек равны все
той же двойке!
Лекция № 16. Статистическая проверка гипотез
Общие понятия
В отношении свойств генеральной совокупности могут выдвигаться
некоторые гипотезы о величине средней, дисперсии, характере
распределения, форме и тесноте связи между переменными. Проверка
гипотезы осуществляется на основе выявления согласованности
эмпирических данных с гипотетическими (теоретическими). Если
расхождение между сравниваемыми величинами не выходит за пределы
случайных ошибок, гипотезу принимают. При этом не делается никаких
заключений о правильности самой гипотезы, речь идет лишь о
согласованности сравниваемых данных. Основой проверки статистических
гипотез являются данные случайных выборок. При этом безразлично,
оцениваются ли гипотезы в отношении реальной или гипотетической
генеральной совокупности. Последнее открывает путь применения этого
метода за пределами собственно выборки: при анализе результатов
эксперимента, данных сплошного наблюдения, но малой численности. В
этом случае рекомендуется проверить, не вызвана ли установленная
закономерность стечением случайных обстоятельств, насколько она
характерна для того комплекса условий, в которых находится изучаемая
совокупность.
Особенно часто процедура проверки статистических гипотез
проводится для оценки существенности расхождений сводных характеристик
отдельных совокупностей (групп): средних, относительных величин. Такого
рода задачи, как правило, возникают в социальной статистике. Трудоемкость
статистико-социологических исследований приводит к тому, что почти все
они строятся на несплошном учете. Поэтому проблема доказательности
выводов в социальной статистике стоит особенно остро. Применяя
процедуру проверки статистических гипотез, следует помнить, что она может
105
гарантировать результаты с определенной вероятностью лишь по
«беспристрастным» выборками, на основе объективных данных.
Статистической гипотезой называется предположение о свойстве
генеральной совокупности, которое можно проверить, опираясь на данные
выборки. Обозначается гипотеза буквой H (лат. hypothesis). Так, может быть
выдвинута гипотеза о том, что средняя в генеральной совокупности равна
некоторой величине H : μ=a, или о том, что генеральная средняя больше
некоторой величины: H : μ>b.
Различают простые и сложные гипотезы. Гипотеза называется
простой, если она однозначно характеризует параметр распределения
случайной величины. Например, H : μ=a. Сложная гипотеза состоит из
конечного или бесконечного числа простых гипотез, при этом указывается
некоторая область вероятных значений параметра. Например, H : μ>b. Эта
гипотеза состоит из множества простых гипотез: H : μ=c, где c – любое
число, большее b.
Гипотезы о параметрах генеральной совокупности называются
параметрическими, о распределениях – непараметрическими.
Гипотеза о том, что две совокупности, сравниваемые по одному или
несколькими признакам, не отличаются, называется нулевой гипотезой (или
нуль-гипотезой). Она обозначается H0 . При этом предполагается, что
действительное различие сравниваемых величин равно нулю, а выявленное
по данным отличие от нуля носит случайный характер. Например, H0: 1  2
и т.д.
Нулевая гипотеза отвергается тогда, когда по выборке получается
результат, который при истинности выдвинутой нулевой гипотезы
маловероятен. Границей невозможного или маловероятного обычно считают
α=0,05, т.е. 5%, или 0,01, 0,001. Если ориентироваться на правило «трех
сигм», то вероятность ошибки α должна быть равна 0,0027. Однако для этого
уровня вероятности ошибки значения критериев редко табулируются: как
правило, значения критериев в статистико-математических таблицах
рассчитаны для вероятностей ошибки 0,05; 0,01; 0,001.
Статистическим критерием называют определенное правило,
устанавливающее условия, при которых проверяемую нулевую гипотезу
следует либо отклонить, либо не отклонить. Критерий проверки
статистической гипотезы определяет, противоречит ли выдвинутая гипотеза
фактическим данным или нет.
Проверка статистических гипотез складывается из следующих этапов:
 формулируется в виде статистической гипотезы задача исследования;
 выбирается статистическая характеристика гипотезы;
 выбираются испытуемая и альтернативная гипотеза на основе анализа
возможных ошибочных решений и их последствий;
 определяются область допустимых значений, критическая область, а
также критическое значение статистического критерия (t , F ,  2 ) по
соответствующей таблице;
106
 вычисляется фактическое значение статистического критерия;
 проверяется испытуемая гипотеза на основе сравнения фактического и
критического значений критерия, и в зависимости от результатов
проверки гипотеза либо отклоняется, либо не отклоняется.
При проверке гипотез по одному из критериев возможны два
ошибочных решения:
1) неправильное отклонение нулевой гипотезы: ошибка 1-го рода;
2) неправильное принятие нулевой гипотезы; ошибка 2-го рода.
В то время как фактически нулевая гипотеза верна (1) и ненулевая
гипотеза не верна (2), принимают два ошибочных решения: 1) нулевая
гипотеза отклоняется и принимается альтернативная гипотеза; 2) нулевая
гипотеза не отклоняется. Возможные решения представлены в табл. 3.
Таблица 3
Возможные решения при проверке гипотез
Фактически
Решение по критерию
H0 верна
H0 не верна
H0 отклоняется
Ошибка 1-го рода
Правильное решение
H0 не отклоняется
Правильное решение
Ошибка 2-го рода
Если, например, установлено, что новое минеральное удобрение
лучше, хотя на самом деле его действие не отличается от старого, то это
ошибка 1-го рода. Если мы решили, что оба вида удобрений одинаковы, то
допущена ошибка 2-го рода.
Вероятности, соответствующие неверны решениями, называются
риском 1 и риском 2. Риск 1 равен вероятности ошибки α (уровню
значимости), риск 2 равен вероятности ошибки β. Поскольку α всегда
больше нуля, то всегда есть риск ошибки β. При заданных α и объеме
выборки n значение β будет тем больше, чем меньше принятое α. Если n
велико, то α и β могут быть сколь угодно малыми, т.е. решения будут более
обоснованными. При малом объеме выборки и малом α возможность
установить фактически существующие различия мала.
Обычно задают значение α и пытаются сделать β возможно малым.
Вероятность 1−β называется мощностью критерия: чем она больше, тем
меньше вероятность ошибки 2-го рода.
Альтернативная гипотеза H1 может быть сформулирована по-разному в
зависимости от того, какие отклонения от гипотетической величины нас
особенно беспокоят: положительные, отрицательные либо и те, и другие.
Соответственно альтернативные гипотезы могут быть записаны как
H1 : μ>a; H1 : μ<a; H1 : μ≠a.
От того как формулируется альтернативная гипотеза, зависят границы
критической области и области допустимых значений.
Критической областью называется область, попадание значения
статистического критерия в которую приводит к отклонению H0 .
Вероятность попадания значения критерия в эту область равна принятому
уровню значимости.
107
Область допустимых значений дополняет критическую область. Если
значение критерия попадает в область допустимых значений, это
свидетельствует о том, что выдвинутая гипотеза H0 не противоречит
фактическим данным (H0 не отклоняется).
Точки, разделяющие критическую область и область допустимых
значений, называются критическими точками или границами критической
области. В зависимости от формулировки альтернативной гипотезы
критическая область может быть двусторонняя (рис. 40, а) или
односторонняя (рис. 40, б) – левосторонняя либо правосторонняя.
Если вычисляемое значение критерия попадает в критическую область,
нулевая гипотеза отклоняется, поскольку она противоречит фактическим
данным.
Рис. 40. 5%-ная проверка:
а – двусторонняя; б – односторонняя
108
Проверка гипотезы о законе распределения
Одна из важнейших задач анализа вариационных рядов заключается в
выявлении закономерности распределения и определении ее характера.
Основной путь в выявлении закономерности распределения – построение
вариационных рядов для достаточно больших совокупностей. Важное
значение для выявления закономерности распределения имеет правильное
построение самого вариационного ряда: выбор числа групп и размера
интервала варьирующего признака.
Когда мы говорим о характере, типе закономерности распределения,
имеем в виду отражение в нем общих условий вариации. При этом речь
всегда идет о распределениях качественно однородных явлений. Общие
условия, определяющие тип закономерности распределения, познаются
анализом сущности явления, тех его свойств, которые определяют вариацию
изучаемого признака. Следовательно, должна быть выдвинута какая-то
научная
гипотеза,
обосновывающая
тип
теоретической
кривой
распределения.
Под теоретической кривой распределения понимается графическое
изображение ряда в виде непрерывной линии изменения частот в
вариационном ряду, функционально связанного с изменением вариантов
(значений признака). Теоретическое распределение может быть выражено
аналитически – формулой, которая связывает частоты вариационного ряда и
соответствующие значения признака. Такие алгебраические формулы носят
название законов распределения.
Большое познавательное значение имеет сопоставление фактических
кривых распределения с теоретическими.
Как уже отмечалось, часто пользуются типом распределения, которое
называется нормальным. Формула функции плотности нормального
распределения такова:
( x   )2
1
2
f ( x) 
e 2 .
 2
Следовательно, кривая нормального распределения может быть
построена по двум параметрам – средней арифметической μ и среднему
квадратическому отклонению σ.
Гипотезы о распределениях заключаются в предположении о том, что
распределение в генеральной совокупности подчиняется какому-то
определенному закону. Проверка гипотезы состоит в том, чтобы на основе
сравнения фактических (эмпирических) частот с предполагаемыми
(теоретическими) частотами сделать вывод о соответствии фактического
распределения гипотетическому распределению. Может проводиться и
сравнение частостей.
Под гипотетическим распределением необязательно понимается
нормальное распределение. Может быть выдвинута гипотеза о
биномиальном распределении, распределении Пуассона и т.д. Причина
частого обращения к нормальному распределению в том, что в этом типе
109
распределения
выражается
закономерность,
возникающая
при
взаимодействии множества случайных причин, когда ни одна из них не имеет
преобладающего влияния. Закон нормального распределения лежит в основе
многих теорем математической статистики, применяемых для оценки
репрезентативности выборок, при измерении связей и т.д. В социальноэкономической статистике нормальное распределение встречается редко, но
сравнение с ним важно для выяснения степени и характера отклонения от
него фактического распределения.
Близость средней арифметической величины, медианы и моды
указывает на вероятное соответствие изучаемого распределения
нормальному закону. Но более полная и точная проверка соответствия
распределения гипотезе о нормальном законе проводится с использованием
специальных критериев, из которых рассмотрим наиболее употребимый
критерий  2 (хи-квадрат) К. Пирсона.
Для проверки гипотезы о соответствии эмпирического распределения
закону нормального распределения необходимо частоты (частости)
фактического распределения сравнить с частотами (частостями) нормального
распределения. Значит, нужно по фактическим данным вычислить
теоретические частоты кривой нормального распределения fˆ по формуле
(для дискретных рядов)
ni 1 t 2 /2 ni
fˆ 
e
 f (t ) ,
s 2
s
(104)
где n – объем выборки;
i – величина интервала вариационного ряда.
Значение ординат кривой нормального распределения f (t ) можно
получить по табл. П.1 приложения:
1 t 2 /2
f (t ) 
e
.
2
Проверяемая гипотеза формулируется как H0 : f j  fˆj , альтернативная –
как H1 : f j  fˆj .
Проверка гипотезы требует, чтобы был построен теоретический ряд
распределения с частотами fˆ j , соответствующими нормальному закону, при
тех же значениях параметров распределения:
 fˆ   f
j
j
 n; s; x .
Методика построения теоретического ряда нормального распределения
такова.
1. По фактическому интервальному ряду (см. табл. 4) вычисляются
значения t для каждой группы хозяйств по формуле (для интервальных
рядов)
tj 
xj  x
s
− для начала и конца интервала.
110
2. Вычисляется вероятность попадания единицы наблюдения в данный
интервал при выполнении гипотезы о нормальном законе:
Pj 
F (t j )  F (t j 1 )
2
,
где t j  t j 1 .
3. Определяется теоретическая частота в данной группе, равная
произведению объема совокупности на вероятность попадания в
данный интервал:
k
fˆj   f j Pj  n  Pj .
j 1
4. Находится значение критерия  2 по формуле
k
2  
f

 fˆj
j
2
fˆj
j 1
(105)
где k – число категорий ряда распределения;
f j - частота эмпирического распределения;
fˆ j - частота теоретического распределения;
j - номер категории.
При расчете  2 частоты можно заменить частостями:
k
  n
2
j 1
p
j
 j 
2
j
,
(106)
где p j - частости эмпирического распределения;
 j - вероятности теоретического распределения.
При этом согласно Ф. Йейтсу группы с теоретическими частотами
менее пяти принято объединять, что снижает влияние случайных ошибок.
Таблица 4
Распределение хозяйств области по урожайности зерновых культур
xj f j
Урожайность,
Число
Середина интервала,
Накопленная
ц/га, x j
хозяйств, f j
ц/га, xj
частота, f j
1
10 – 15
15 – 20
20 – 25
25 – 30
30 – 35
35 – 40
40 – 45
45 – 50
50 – 55
Итого
2
6
9
20
41
26
21
14
5
1
143
3
12,5
17,5
22,5
27,5
32,5
37,5
42,5
47,5
52,5
111
4
75,0
157,5
450,0
1127,5
845,0
787,5
595,0
237,5
52,5
4327,5
5
6
15
35
76
102
123
137
142
143
Если
все
эмпирические
частоты
равны
соответствующим
2
теоретическим частотам, то  равно нулю. Очевидно, что чем больше
отличаются эмпирические и теоретические частоты, тем  2 больше; если
расхождение несущественно, то  2 должно быть малым. Имеются
специальные таблицы критических значений  2 при 5%-ном и 1%-ном
уровнях значимости (см. приложение). Критические значения зависят от
числа степеней свободы (d.f.) и уровня значимости α.
Число степеней свободы рассчитывается так: если эмпирический ряд
распределений имеет k категорий, то k эмпирических частот f1 , f 2 ,..., f k
должны быть связаны следующим соотношением:
k
f
j
 n . Если параметры
1
теоретического распределения известны, то только k – 1 частот могут
принимать произвольные значения, т.е. свободно варьировать, а последняя
частота может быть найдена из указанного соотношения. Поэтому говорят,
что система из k частот благодаря наличию одной связи теряет одну степень
свободы и имеет только k – 1 степеней свободы. Кроме того, если при
нахождении теоретических частот p параметров теоретического
распределения неизвестны, то они должны быть найдены по данным
эмпирического ряда. Это накладывает на эмпирические частоты еще p
связей, благодаря чему система теряет p степеней свободы. Таким образом,
число свободно варьируемых частот (а значит, и число степеней свободы)
становится равным:
d . f .  (k  1)  p  k  ( p  1).
(107)
2
Полученное значение критерия  сравнивается с табличным при
числе степеней свободы, равном числу групп (с условием Ф. Йейтса), за
минусом трех – по числу фиксированных параметров в формуле нормального
закона распределения и с учетом равенства сумм теоретических и
фактических частот (табл. П.2 приложения).
В первой графе этой таблицы дано число степеней свободы, а в
заголовках граф – уровни значимости. Если фактическое значение  2
превышает табличное при том же числе степеней свободы, то вероятность
соответствия распределения нормальному закону меньше указанной.
Результаты расчета  2 по данным табл. 4 приведены в табл. 5 при
x  30,3; s  8, 44.
Сумма теоретических частот нормального распределения оказалось
меньше суммы фактических частот, так как нормальный закон не ограничен
рамками фактических минимума и максимума.
Число групп после объединения малочисленных составило семь.
Критическое значение  2 по табл. П.2 приложения при 7 – 3=4 степеням
свободы и значимости 0,05 составляет 9,49. Значит, вероятность расхождения
распределения с нормальным меньше 0,05 и вероятность соответствия его
нормальному закону больше 0,95. Табличное значение  2 на уровне
значимости 0,1 равно 7,78, что также больше фактического.
112
Ясно, что гипотеза о соответствии распределения хозяйств по
урожайности нормальному закону не может быть отклонена.
Какое практическое значение может иметь проверка гипотезы? Вопервых, соответствие нормальному закону позволяет прогнозировать, какое
число хозяйств (или доля совокупности) попадает в тот или иной интервал
значений признака. Во-вторых, нормальное распределение возникает при
действии на вариацию изучаемого показателя множества независимых
факторов. Из этого следует, что нельзя существенно снизить вариацию
урожайности, воздействуя лишь на один-два управляемых фактора, скажем
удобрения или энергозатраты.
Таблица 5
Проверка соответствия распределения хозяйств по урожайности
зерновых культур нормальному закону
2
t j 1
f
tj
Pj
Группа
fˆ j
j
f j  fˆj / fˆj2
хозяйств
1
2
3
4
5
6
7
8
9
Σ

6
9
20
41
26
21
14
5
1
143
- 2,41
- 1,81
- 1,22
- 0,63
- 0,04
0,56
1,15
1,74
2,33
×
- 1,81
- 1,22
- 0,63
- 0,04
0,56
1,15
1,74
2,33
2,93
×
0,0235
0,0798
0,1531
0,2197
0,2282
0,1627
0,0842
0,0310
0,0082
0,9904
3

11
22
32
33
23
12
4

1
141

0,071
0,182
2,531
1,485
0,174
0,333
0,200
4,976
С помощью критерия  2 можно проверять не только гипотезу о
согласии эмпирического распределения с нормальным законом, но и с
любым другим известным законом распределения – равномерным
распределением, распределением Пуассона и т.д.
Например, суд рассматривает жалобу посетителей казино на то, что
игральная кость, которой там пользуются, по их мнению, фальшива,
некоторые числа очков, якобы, выпадают чаще, чем другие, и этим
пользуются крупье, обирающие игроков.
Суд назначает экспертизу игральной кости: эксперт делает 600 бросков
и записывает число выпавших единиц, двоек, троек и т.д. Полученное
эмпирическое распределение сравнивается с теоретическим, т.е.
равномерным: в правильной кости вероятность выпадения каждого числа
очков должна быть равна 1/6, при 600 бросках это даст по 100 выпадений
каждого числа очков. С помощью критерия  2 проверяется нулевая гипотеза
о том, что различия эмпирического и теоретического распределений
случайны, т.е. не являются систематическим результатом фальсификации
формы кости или положения центра тяжести в ней; H0 : f ô àêò  f ò åî ð .
Результаты испытания и расчет  2 приводится в табл. 6.
113
Табличное значение  2 при уровне значимости 0,05 (это вероятность
ошибочного отклонения нулевой гипотезы при условии, что она верна) и при
6 – 2=4 степенях свободы (фиксированы два параметра: сумма числа бросков
600 и вероятность каждого числа очков – 1/6) составляет 9,49. Вычисленное
значение  2 =5,2, что значительно ниже табличного. Следовательно, нулевая
гипотеза не отклоняется: распределение бросков по числу выпавших очков
нельзя считать неравномерным. Обвинение игроками служащих казино не
подтверждено достаточно надежно, но и не доказано то, что кость
правильная. Можно назначить более дорогую экспертизу – сделать 100 000
бросков кости, но можно и согласиться, что вероятность ошибочного
признания правильности кости мала – всего 5%, и отклонить обвинение.
Таблица 6
Результаты испытания игральной кости
Число очков
Количество
выпадений,
f ô àêò  f ò åî ð
f ò åî ð
f
ô àêò
 f ò åî ð 
2
f ò åî ð
f ô àêò
1
2
3
4
5
6
101
100
1
0,01
86
100
- 14
1,96
107
100
7
0,49
94
100
-6
0,36
97
100
-3
0,09
115
100
15
2,25
Итого
600
600
0
5,16
Распределение Пуассона описывает вероятность редких событий:
гибель от укуса животного или удара копытом; в экономике это вероятность
ошибок в финансовых документах или сверхкрупной взятки и т.п.
Если в схеме Бернулли p – малая величина, то вероятность pn,m можно
найти по приближенной формуле
Pn,m  C p q
m
n
m
nm

m
m!
e   Pm ( ) ,
(108)
где   np - среднее число появлений события A в n испытаниях;
m - число появлений события A в n независимых испытаниях.
Придавая m целые неотрицательные значения m  0,1, 2,..., n можно
записать ряд распределения вероятностей, вычисленных по формуле (108),
которая называется законом распределения Пуассона (табл. 7).
Таблица 7
Распределение вероятностей в соответствии с законом Пуассона
m
pn,m
0
e

1
e

…
…
2
2 
 e
m!
m
 e
m 
m!
…
…
n
n 
 e
n!
Формулой (108) можно пользоваться, когда p  0,1 и npq  9 .
Распределение Пуассона приведено в табл. П.3 приложения. Очевидно, что
оно является предельным случаем распределения вероятностей в схеме
114
Бернулли при p  0,1 , np   . Математическое ожидание и дисперсия
случайной величины, распределенной по закону Пуассона, совпадают и
равны параметру λ, которой определяет этот закон:
M ( x)  D( x)   .
Проверка гипотезы о том, что выборка извлечена из генеральной
совокупности, имеющей распределение Пуассона, проводится следующим
образом.
1. По заданному дискретному вариационному ряду рассчитывают
выборочную среднюю x . Ее значение используется в качестве оценки
параметра λ распределения Пуассона.
2. Вычисляются вероятности (частости) pi :
i
e ,
i!
i  0,1,..., k  1;
pi 

i
i k
i!
pk  p( x  k )  
e  .
Умножая найденные значения вероятностей на объем выборки,
рассчитываются теоретические частоты распределения:
npi  fˆi .
4. Рассчитывается значение критерия согласия Пирсона хи-квадрат.
Находится критическое значение критерия хи-квадрат при заданном
уровне значимости и числе степеней свободы:
3.
1
d . f .  k  1  r , ãäå r   в зависимости от того, оценивался ли параметр λ по
0
выборке.
5. Сравниваются рассчитанное (фактическое) и критическое (табличное)
значения критерия хи-квадрат и делаются выводы:
 если ô àêò  ò àáë , то нет оснований отклонять гипотезу о
распределении случайной величины по закону Пуассона;
2
2
 если ô àêò  ò àáë , то гипотеза отклоняется.
Пример. Для проведения внутреннего контроля качества оформления
платежных требований в случайном порядке были выбраны 100 документов.
В табл. 8 содержатся результаты проверки документов. Среднее количество
ошибок составило x  0,39 .
2
2
Значение ô àêò =16,88. Число степеней свободы составляет:
d . f .  5  1  4. Табличные значения критерия хи-квадрат оказались меньше
фактического значения:
2
d2. f .4; 0,05  9, 499; d2. f .4; 0,01  13, 28.
Так как
отклоняется.
ô2àêò  ò2àáë ,
гипотеза
115
о
распределении
Пуассона
Пример. Проверкой установлено, что среди партии гаек на складе
0,45% имеют брак. Какова вероятность того, что при случайном отборе 200
гаек обнаружится 8 бракованных? Известно, что вероятность появления
брака равна p  0, 0045,   np  9 , так как n  2000 .
Отсюда: p2000,8
e9 98
 p8 (9) 
 0,1318.
8!
Тот же результат мы получим по таблице значений функции Пуассона
(табл. П.3 приложения).
Таблица 8.
Результаты выборочного контроля платежных требований
Количество
Число
fˆi
( fi  fˆi )2
0,39 xi y 0,39
pi 
проверенных
ошибок, xi
fˆi
x
!
i
документов, fi
0
1
2
3
4
Итого
75
16
5
3
1
100
0,6761
0,2622
0,0505
0,0105
0,0007
1,000
67,6
26,2
5,1
1,0
0,1
100
0,8101
3,9710
0,0020
4,000
8,100
16,8831
Лекция № 17. Корреляционно-регрессионный анализ
Понятие о статистической и корреляционной связи
Современная наука исходит из взаимосвязей всех явлений природы и
общества. Объем продукции предприятия связан с численностью работников,
мощностью двигателей, стоимостью производственных фондов и еще
многими признаками.
Невозможно управлять явлениями, предсказывать их развитие без
изучения характера, силы и других особенностей связей. Поэтому методы
исследования, измерения связей составляют чрезвычайно важную часть
методологии научного исследования, в том числе и статистического.
Если с изменением значения одной из переменных вторая изменяется
строго определенным образом, т.е. значению одной переменной обязательно
соответствует одно или несколько точно заданных значений другой
переменной, связь между ними является функциональной.
Нередко говорят о строгом соответствии лишь одного значения второй
из переменных каждому значению первой из них, но это неверно. Например,
связь между y и x является строго функциональной, если y  x ; но значению
x  4 соответствует не одно, а два значения: y1  2, y2  2 . Уравнения более
высоких степеней могут иметь несколько корней, связь, разумеется остается
функциональной.
Функциональная связь двух величин возможна лишь при условии, что
вторая из них зависит только от первой. В реальной природе (и тем более в
обществе) таких связей нет; они являются лишь абстракциями, полезными и
116
необходимыми при анализе явлений, но упрощающими реальность.
Функциональная зависимость данной величины y от многих факторов
x1 , x2 ,..., xk возможна только в том случае, если величина y всегда зависит
только от перечисленного набора факторов x1 , x2 ,..., xk и ни от чего более. Все
явления и процессы реального мира связаны между собой, и нет такого
конечного числа переменных k, которое абсолютно полно определяло бы
собой
зависимую
величину
y.
Следовательно,
множественная
функциональная зависимость переменных есть тоже абстракция,
упрощающая реальность.
Однако механика, электротехника, акустика, политическая экономия и
другие науки успешно используют представление связей как
функциональных не только в аналитических целях, но нередко и в целях
прогнозирования. Это возможно потому, что в простых системах
интересующая нас переменная величина зависит в основном (скажем, на 99%
или даже 99,99%) от немногих других переменных или только от одной
переменной, т.е. связь является хотя и не абсолютно функциональной, но
практически очень близкой к таковой. Например, длина года (период
обращения Земли вокруг Солнца) почти функционально зависит только от
массы Солнца и расстояния Земли от него. На самом деле она зависит в
очень слабой степени и от масс, и расстояния других планет от Земли, но
вносимые ими (и тем более далекими звездами) искажения функциональной
связи для всех практических целей, кроме космонавтики, пренебрежимо
малы.
Корреляционной связью называют важнейший частный случай
статистической связи, состоящий в том, что разным значениям одной
переменной соответствуют различные средние значения другой. С
изменением значения признака x закономерным образом изменяется среднее
значение признака y, в то время как в каждом отдельном случае значение
признака y (с различными вероятностями) может принимать множество
различных значений.
Если же с изменением значения признака x среднее значение признака
y не изменяется закономерным образом, но закономерно изменяется другая
статистическая характеристика (показатели вариации, асимметрии, эксцесса
и т.п.), то связь не является корреляционной, но статистической.
Статистическая связь между двумя признаками (переменными
величинами) предполагает, что каждый из них имеет случайную вариацию
индивидуальных значений относительно средней величины. Если же такую
вариацию имеет только один из признаков, а значения другого являются
жестко детерминированными, то говорят лишь о регрессии. Например, при
анализе динамических рядов можно измерять регрессию уровней ряда
урожайности (имеющих случайную колеблемость) на номера лет. Но нельзя
говорить о корреляции между ними и применять показатели корреляции с
соответствующей интерпретацией.
117
Само слово корреляция ввел в статистику английский биолог и
статистик Френсис Гальтон в конце XIX в. Тогда оно писалось как
«correlation» (соответствие), но не просто «связь» (relation), а «как бы связь»,
т.е. связь, но не привычной в то время функциональной форме. В науке
вообще, а именно в палеонтологии, термин «корреляция» применил еще
раньше, в конце XVIII в., знаменитый французский палеонтолог Жорж
Кювье.
Корреляционная связь между признаками может возникнуть разными
путями. Первый (важнейший) путь – причинная зависимость
результативного признака (его вариации) от вариации факторного признака.
Например, признак x – балл оценки плодородия почв, признак y –
урожайность сельскохозяйственной культуры. Здесь совершенно ясно
логически, какой признак выступает как независимая переменная (фактор) x,
какой – как зависимая переменная (результат) y.
Второй путь – сопряженность, возникающая при наличии общей
причины. Известен классический пример, приведенный крупнейшим
статистиком России начала XX в. А.А.Чупровым: если в качестве признака x
взять число пожарных команд в городе, а за признак y – сумму убытков за
год в городе от пожаров, то между признаками x и y в совокупности городов
России существовала прямая корреляция; в среднем чем больше пожарников
в городе, тем больше и убытков от пожаров! Уж не занимались ли пожарники
поджигательством из боязни потерять работу? Но дело в другом. Данную
корреляцию нельзя интерпретировать как связь причины и следствия; оба
признака-следствия общей причины – размера города. Вполне логично, что в
крупных городах больше пожарных частей, но больше и пожаров, и убытков
от них за год, чем в малых городах.
Третий путь возникновения корреляции – взаимосвязь признаков,
каждый из которых и причина, и следствие. Такова, например, корреляция
между уровнями производительности труда рабочих и уровнем оплаты 1ч
труда (тарифной ставкой). С одной стороны, уровень зарплаты – следствие
производительности труда: чем она выше, тем выше и оплата. Но, с другой
стороны, установленные тарифные ставки и расценки играют
стимулирующую роль: при правильной системе оплаты они выступают в
качестве фактора, от которого зависит производительность труда. В такой
системе признаков допустимы обе постановки задачи; каждый признак
может выступать в роли независимой переменной x и в качестве зависимой
переменной y.
Условия применения и ограничения
корреляционно-регрессионного метода
Поскольку корреляционная связь является статистической, первым
условием возможности ее изучения является наличие данных по достаточно
большой совокупности. По отдельным явлениям можно получить
совершенно превратное представление о связи признаков, ибо в каждом
отдельном явлении значения признаков, кроме закономерной составляющей,
имеют случайное отклонение (вариацию). Например, сравнивая два
118
хозяйства, одно из которых имеет лучшее качество почв, по уровню
урожайности, можно обнаружить, что урожайность выше в хозяйстве с
худшими почвами. Ведь урожайность зависит от сотен факторов и при том
же самом качестве почв может быть и выше, и ниже. Но если сравнивать
большое число хозяйств с лучшими почвами и большое число – с худшими,
то средняя урожайность в первой группе окажется выше и станет возможным
измерить в первой группе окажется выше и станет возможным измерить
достаточно точно параметры корреляционной связи.
Какое именно число явлений достаточно для анализа корреляционной и
вообще статистической связи, зависит от цели анализа, требуемой точности и
надежности параметров связи, от числа факторов, корреляция с которыми
изучается. Обычно свитают, что число наблюдений должно быть не менее
чем в 5 – 6, а лучше – в 10 раз больше числа факторов. Еще лучше, если
число наблюдений в несколько десятков или в сотни раз больше числа
факторов, тогда закон больших чисел обеспечивает эффективное
взаимопогашение случайных отклонений от закономерного характера связи
признаков.
Вторым условием закономерного проявления корреляционной связи
служит условие, обеспечивающее надежное выражение закономерности в
средней величине. Кроме уже указанного большого числа единиц
совокупности для
этого необходима
достаточная
однородность
совокупности. Нарушение этого условия может извратить параметры
корреляции. Например, в массе зерновых хозяйств уровень продукции с 1 га
растет по мере концентрации площадей, т.е. он выше в крупных хозяйствах.
В массе овощных и овоще-молочных хозяйств (пригородный тип)
наблюдается та же прямая связь уровня продукции с размером хозяйства. Но
если соединить в общую неоднородную совокупность те и другие хозяйства,
то связь уровня продукции с размером площади пашни (или посевной
площади) получится обратной. Причина в том, что овощные и овощемолочные хозяйства, имея меньшую площадь, чем зерновые, производят
больше продукции с 1 га ввиду большей интенсивности производства в
данных отраслях.
В качестве третьего условия корреляционного анализа выдвигается
необходимость
подчинения
распределении
совокупности
по
результативному
и
факторным
признакам
нормальному
закону
распределения вероятностей. Это условие связано с применением метода
наименьших квадратов при расчете параметров корреляции: только при
нормальном распределении метод наименьших квадратов дает оценки
параметров, отвечающих принципам максимального правдоподобия. На
практике эта предпосылка чаще всего выполняется приближенно, но и тогда
метод наименьших квадратов дает неплохие результаты.
Однако при значительном отклонении распределений признаков от
нормального закона нельзя оценивать надежность выборочного
коэффициента корреляции, используя параметры нормального распределения
вероятностей или распределения Стьюдента.
119
Еще одним спорным вопросом является допустимость применения
корреляционного анализа к функционально связанным признакам. Можно
ли, например, построить уравнение корреляционной зависимости размеров
выручки от продажи картофеля, от объема продажи и цены? Ведь
произведение объема продажи и цены равно выручке в каждом отдельном
случае. Как правило, к таким жестко детерминированным связям применяют
только индексный метод анализа. Однако на этот вопрос можно взглянуть и с
другой точки зрения. При индексном анализе выручки предполагается, что
количество проданного картофеля и его цена независимы друг от друга,
потому-то и допустима абстракция от изменения одного фактора при
изменении влияния другого, как это принято в индексном методе. В
реальности количество и цена не являются вполне независимыми друг от
друга.
Возможные связи в системе трех переменных представлены на рис. 41.
Корреляционно-регрессионный анализ учитывает межфакторные связи,
следовательно, дает более полное измерение роли каждого фактора: прямое,
непосредственное его влияние на результативный признак; косвенное
влияние фактора через его влияние на другие факторы; влияние всех
факторов на результативный признак. Если связь между факторов
несущественна, можно ограничиться индексным анализом. В противном
случае его полезно дополнить корреляционно-регрессионным измерением
влияния факторов, даже если они функционально связаны с результативным
признаком.
Рис. 41. Связи в системе трех переменных:
а – обе переменные x и z влияют на y; б – переменная z не влияет на y; ее влияние
полностью входит в x; в – переменная z поглощает влияние x и передает его, влияя на y; г
– переменная z – субследствие из y; д – переменная z не влияет на y; е – переменная x не
влияет на y; ж – переменные z и y не связаны между собой, но имеют общую причину – x
(классический случай «ложной корреляции»); з – переменная z передает свое влияние на y
как непосредственно, так и через x; u – переменная x влияет на y как непосредственно,
так и через z; к – переменная x влияет как на z, так и на y и конкурирует с y во влиянии
на z
120
Линейная корреляция
Если обе линии регрессии Y на X и X на Y – прямые, то корреляцию
называют линейной.
Выборочное уравнение прямой линии регрессии Y на X имеет вид
yx  y  rB
y
x  x ,
x
(109)
где y x - условная средняя; x и y - выборочные средние признаков X и Y;  x
и  y - выборочные средние квадратические отклонения; rB - выборочный
коэффициент корреляции, причем
rB 
n
xy
xy  nx y
n x y
.
Выборочное уравнение прямой линии регрессии X на Y имеет вид
xy  x  rB
x
y  y.
y
(110)
Если данные наблюдений над признаками X и Y заданы в виде
корреляционной таблицы с равноотстоящими вариантами, то целесообразно
перейти к условным вариантам:
ui 
y  C2
xi  C1
, vj  j
,
h1
h2
где C1 - «ложный нуль» вариант X (новое начало отсчета); в качестве
ложного нуля выгодно принять варианту, которая расположена примерно в
середине вариационного ряда (условимся принимать в качестве ложного
нуля варианту, имеющую наибольшую частоту); h1 - шаг, т.е. разность между
двумя соседними вариантами X; C2 - ложный нуль вариант Y; h2 - шаг
вариант Y.
В этом случае выборочный коэффициент корреляции
rB 
n
uv
uv  nu v
n u v
,
причем слагаемое  nuvuv удобно вычислять, используя расчетную табл. 9.
Величины u , v ,  u ,  v могут быть найдены либо методом произведений
(при большом числе данных), либо непосредственно по формулам:
u
n u ,
u
n
v
n v ,
v
n
___
___
 u  u 2  (u )2 ,  v  v 2  (v )2 .
Зная эти величины, можно определить входящие в уравнения регрессии (109)
и (110) величины по формулам:
x  uh1  C1 ,
y  vh2  C2 ,  x   u h1 ,  y   v h2 .
121
Для оценки силы линейной корреляционной связи служит выборочный
коэффициент корреляции rB .
Для обоснованного суждения о наличии связи между количественными
признаками следует проверить, значим ли выборочный коэффициент
корреляции.
Пример. Найти выборочное уравнение прямой линии регрессии Y на X
по данным, приведенным в корреляционной табл. 9.
Y
20
4
−
−
−
−
4
16
26
36
46
56
nx
Таблица 9
ny
X
30
−
10
32
4
−
46
25
6
8
−
−
−
14
35
−
−
3
12
1
16
40
−
−
9
6
5
20
10
18
44
22
6
n=100
Решение. Составим корреляционную табл. 10 в условных вариантах,
выбрав в качестве ложных нулей C1 =30 и C2 =36 (каждая из этих вариант
расположена в середине соответствующего вариационного ряда).
Таблица 10
v
u
−2
4
−
−
−
−
4
−2
−1
0
1
2
nu
−1
6
8
−
−
−
14
0
−
10
32
4
−
46
1
−
−
3
12
1
16
Найдем u и v :
u
v
 n u  4  (2)  14  (1)  46  0  16 1  20  2  0,34;
u
n
 nv v
n
100
10  (2)  18  (1)  44  0  22 1  6  2

 0, 04.
100
___
___
Найдем вспомогательные величины u 2 и v 2 :
n u
4  4  14 1  16 1  20  4
 1, 26;
n
100
___
nv v 2 10  4  18 1  22 1  6  4

2
v 

 1, 04.
n
100
___
u2 
u
2

Найдем  u и  v
___
2
 u  u  (u )2  1, 26  0,342  1,07;
122
2
−
−
9
6
5
20
nv
10
18
44
22
6
n=100
___
 v  v 2  (v )2  1,04  0,042  1,02 .
Найдем  nuvuv , для чего составим расчетную табл. 11.
Суммируя числа последнего столбца табл. 11, находим
 v U   n
uv
uv  82.
v
Для контроля вычислений находим сумму чисел последней строки:
 u V   n
uv
uv  82.
u
Совпадение сумм свидетельствует о правильности вычислений.
v
u
-2
-1
-8
-8
2
6
−
10
−
−
3
32
8
21
0
−
9
0
24
24
11
22
0
0
−
12
4
4
18
3
0
12
12
6
12
6
1
2
-8
-10
0
1
28
0
8
-8
0
- 14
- 12
-8
-1
1
-6
4
-2
0
Таблица 11
U   nuv  u
v U
−
−
−
1
2
V   nuv  v
-8
u V
16
- 20
20
-6
0
10
5
10
14
14
 v U  82
16
32
 u V  82
v
контроль
u
Пояснения к составлению табл. 11.
1. Произведение частоты nuv на варианту u, т.е. nuvu , записывают в правом
верхнем углу клетки, содержащей значение частоты. Например, в
правых верхних углах клеток первой строки записаны произведения:
4∙( - 2)= - 8; 6∙( - 1)= - 6.
2. Складывают все числа, помещенные в правых верхних углах клеток
одной строки, и их сумму помещают в клетку этой же строки
«столбца U». Например, для первой строки u= - 8+( - 6)= - 14.
3. Наконец, умножают варианту v на U и полученное произведение
записывают в соответствующую клетку «столбца vU». Например, в
первой строке таблицы v=-2, U=-14, следовательно, vU=( - 2)∙( - 14)=28.
123
4. Сложив все числа «столбца vU», получают сумму
искомой
 v U , которая равна
v
сумме  nuvuv .
Например,
для
табл.
 v U  82 ,
11
v
следовательно, искомая сумма  nuvuv =82.
Для контроля аналогичные вычисления производят по столбцам:
произведения nuv v записывают в левый нижний угол клетки, содержащей
значение частоты; все числа, помещенные в левых нижних углах клеток
одного столбца, складывают и их сумму помещают в «строку V»; наконец,
умножают каждую варианту u на V и результат записывают в клетках
последней строки.
Сложив все числа последней строки, получают сумму  u V , которая
также равна искомой сумме
n
u
uv
uv . Например, для табл. 11
следовательно,  nuvuv =82.
Найдем искомый выборочный коэффициент корреляции:
rB 
n
uv
uv  nu v
n u v

 u V  82 ,
u
82  100  0,34  (0, 04)
 0, 76.
100 1, 07 1, 02
Найдем шаги h1 и h2 (разности между любыми двумя соседними
вариантами):
h1 =25−20=5; h2 =26−16=10.
Найдем x и y , учитывая, что C1 =30 и C2 =36:
x  uh1  C1  0,34  5  30  31,70;
y  vh2  C2  (0,04) 10  36  35,60.
Найдем  x и  y :
 x   u h1  5 1, 07  5,35 ;  y   v h2  10 1, 02  10, 2 .
Подставив найденные величины в соотношение (109), получим
искомое уравнение прямой линии регрессии Y на X:
yx  35, 60  0, 76
10, 2
 x  31, 70  ,
5,35
или окончательно yx  1, 45x  10,36 .
124
ПРИЛОЖЕНИЯ
Статистико-математические таблицы
Таблица П.1
Значение интеграла вероятностей
t
0
1
2
3
0,0 0000 0080 0160 0239
0,1 0797 0876 0955 1034
0,2 1585 1663 1741 1819
0,3 2358 2434 2510 2586
0,4 3108 3182 3255 3328
0,5 3829 3899 3969 4039
0,6 4515 4581 4647 4713
0,7 5161 5223 5285 5346
0,8 5763 5821 5878 5935
0,9 6319 6372 6424 6476
1,0 6817 6875 6923 6970
1,1 7287 7330 7373 7415
1,2 7699 7737 7775 7813
1,3 8064 8098 8132 8165
1,4 8385 8415 8444 8473
1,5 8664 8690 8715 8740
1,6 8904 8926 8948 8969
1,7 9108 9127 9146 9164
1,8 9281 9297 9312 9327
1,9 9425 9438 9451 9464
2,0 9545 9556 9566 9576
2,1 9643 9652 9660 9669
2,2 9722 9729 9736 9743
2,3 9785 9791 9797 9802
2,4 9836 9840 9845 9849
2,5 9876 9879 9883 9886
2,6 9907 9909 9912 9915
2,7 9931 9933 9935 9937
2,8 9949 9950 9952 9953
2,9 9963 9964 9965 9966
3,0 99730 99739 99747 99755
3,1 99807 99813 99819 99825
F (t ) 
Сотые доли
4
5
0319
0399
1114
1192
1897
1974
2661
2737
3401
3473
4108
4177
4778
4843
5467
5497
5991
6047
6528
6579
7017
7063
7457
7499
7850
7887
8198
8230
8501
8529
8764
8788
8990
9011
9182
9199
9342
9357
9476
9488
9586
9596
9676
9684
9749
9755
9807
9812
9853
9857
9889
9892
9917
9920
9939
9940
9955
9956
9967
9968
99763 99771
99831 99837
125
6
0478
1271
2051
2812
3545
4245
4909
5527
6102
6626
7109
7540
7923
8262
8557
8812
9031
9216
9371
9500
9608
9692
9762
9817
9861
9895
9924
9942
9958
9969
99779
99842
1
2
t
e
t2

2
dt
t
7
8
0558 0638
1350 1428
2128 2205
2886 2961
3616 3688
4313 4381
4971 5035
5587 5646
6157 6211
6679 6729
7154 7199
7580 7620
7959 7995
8293 8324
8584 8611
8836 8859
9051 9070
9233 9249
9385 9399
9512 9523
9615 9625
9700 9707
9768 9774
9822 9827
9866 9869
9898 9901
9926 9927
9944 9946
9959 9960
9970 9971
99786 99793
99847 99853
9
0718
1507
2282
3035
3752
4448
5098
5705
6265
6778
7243
7660
8030
8355
8638
8882
9089
9265
9412
9534
9634
9715
9780
9832
9872
9904
9929
9947
9961
9972
99800
99858
3,2
3,3
3,4
3,5
99863 99867 99872 99876 99880 99884 99888 99892 99896
99900
99903
3,6
99911
3,9
999904
4,4
9999892
5,0
99999943
99933
3,7
99937
4,0
999937
4,6
9999957
5,0
99999996
99953
3,8
99957
4,2
999973
4,8
9999984
6,0
999999998
Таблица П.2
Значение  2 -критерия Пирсона при уровне значимости 0,10; 0,05; 0,01
d.f.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
0,10
2,71
4,61
6,25
7,78
9,24
10,64
12,02
13,36
14,68
50,99
17,28
18,55
19,81
21,06
22,31
23,54
24,77
25,99
27,20
28,41
0,05
3,84
5,99
7,81
9,49
11,07
12,59
14,07
15,51
16,92
18,31
19,68
21,03
22,36
23,68
25,00
26,30
27,59
28,87
30,14
31,14
0,01
6,63
9,21
11,34
13,28
15,09
16,81
18,48
20,09
21,67
23,21
24,72
26,22
27,69
29,14
30,58
32,00
33,41
34,81
36,19
37,57
d.f.
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
126
0,10
29,62
30,81
32,01
33,20
34,38
35,56
36,74
37,92
39,09
40,26
51,80
63,17
74,40
85,53
96,58
107,56
118,50
0,05
32,67
33,92
35,17
36,42
37,65
38,89
40,11
41,34
42,56
43,77
55,76
67,50
79,08
90,53
101,88
113,14
124,34
0,01
38,93
40,29
41,64
42,98
44,31
45,64
46,96
48,28
49,59
50,89
63,69
76,15
88,38
100,42
112,33
124,12
135,81
Таблица П.3
Значения функции Пуассона:
m
0,1
0,2
0,3
0,4
0,5

m
m!
e
0,6
0,7
0,8
0,9
λ
0
1
2
3
4
5
6
m
0,9048 0,8187 0,7408 0,6703 0,6055 0,5488 0,4966 0,4493
0,0905 0,1638 0,2222 0,2681 0,3033 0,3293 0,3476 0,3596
0,0045 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0,1438
0,0002 0,001 0,0033 0,0072 0,0126 0,0198 0,0284 0,0383
−
−
0,0002 0,0007 0,0016 0,0030 0,0050 0,0077
−
−
−
0,0001 0,0002 0,0004 0,0007 0,0012
−
−
−
−
−
−
0,0001 0,0002
1,0
2,0
3,0
4,0
5,0
6,0
7,0
8,0
0,4066
0,3696
0,1647
0,0494
0,0111
0,0020
0,0003
9,0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
0,3679
0,3679
0,1839
0,0313
0,0153
0,0081
0,0006
0,0001
0,0001
0,0011
0,0055
0,0150
0,0337
0,0607
0,0911
0,1318
0,1318
0,0318
0,1180
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0029
0,0014
0,0006
0,0003
0,0001
λ
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
0,0498
0,1494
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0656
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
127
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0688
0,0413
0,0225
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0452
0,0264
0,0142
0,0071
0,0033
0,0014
0,0006
0,0002
0,0001
0,0003
0,0027
0,0107
0,0286
0,0572
0,0916
0,1221
0,1396
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
0,0009
0,0004
0,0002
0,0001
Список рекомендуемой литературы
1.
2.
3.
4.
5.
6.
7.
8.
А.В.Сиденко, Г.Ю.Попов, В.М.Матвеева. Статистика: Учебник. – М.:
Издательство «Дело и Сервис», 2000. – 464 с.
А.В.Печинкин, О.И.Тескин, г.М.Цветкова и др. Теория вероятностей:
Учеб.для вузов. – 3-е изд., испр. – М.: Изд-во МГТУ им. Н.Э.
Баумана, 2004. – 456 с. (Сер. Математика в техническом
университете; Вып. XVI).
В.Е.Гмурман. Теория вероятностей и математическая статистика.
Учеб. пособие для втузов. Изд. 5-е, перераб. и доп. М., «Высшая
школа», 1977. – 479 с.
В.Е.Гмурман. Руководство к решению задач по теории вероятностей
и математической статистике. Учеб. пособие для студентов втузов.
Изд. 3-е, перераб. и доп. М., «Высшая школа», 1979. – 400 с.
Г.В.Горелова, И.А.Кацко. Теория вероятностей и математическая
статистика в примерах и задачах с применением Excel. – Изд. 4-е. –
Ростов н/Д: Феникс, 2006. – 475 с.
И.И.Елесеева, М.М.Юзбашев. Общая теория статистики: Учебник. –
5-е изд., перераб. и доп. – М.: Финансы и статистика, 2005. – 656 с.
Д.Т.Письменный. Конспект лекций по теории вероятностей,
математической статистике и случайным процессам. – М.: Айриспресс, 2006. – 288 с.
Н.Ш.Кремер. Теория вероятностей и математическая статистика:
учебник для студентов вузов, обучающихся по экономическим
специальностям. – 3-е изд., перераб. и доп. – М.: ЮНИТИ-ДАТА,
2007. – 551 с.
128
Содержание
Введение…………………………………………………………………………..3
Основные обозначения…………………………………………………………..6
Лекция №1. Случайные события
Предмет теории вероятностей…………………………………………………...8
Действия над событиями…………………………………………………………9
Лекция №2. Случайные события.
Алгебра событий…………………………………………………………………12
Классическое определение вероятности……………………………………….13
Лекция № 3. Элементы комбинаторики……………………………………....15
Лекция № 4. Геометрическое определение вероятности…………………….20
Условные вероятности…………………………………………………………..22
Лекция № 5. Вероятность произведения событий.
Независимость событий…………………………………………………………23
Вероятность суммы событий……………………………………………………25
Лекция № 6. Формула полной вероятности………………………………..…26
Формула Байеса (теорема гипотез)……………………………………………..27
Независимые испытания. Схема Бернулли…………………………………….27
Предельные теоремы в схеме Бернулли………………………………………..31
Лекция № 7. Локальная и интегральная
теоремы Муавра – Лапласа……………..……………………………………….31
Лекция № 8. Случайные величины
Понятие случайной величины.
Закон распределения дискретной случайной величины………………………35
Математические операции над случайными величинами…………………….37
Лекция № 9. Математическое ожидание дискретной
случайной величины……………………………………………………………41
Дисперсия дискретной случайной величины…………………………………44
Функция распределения случайной величины………………………………..47
Лекция № 10. Закон больших чисел и предельные теоремы…………..……51
Неравенство Маркова (лемма Чебышева)……………………………………..51
Неравенство Чебышева…………………………………………………………52
Теорема Чебышева……………………………………………………………....55
Теорема Бернулли……………………………………………………………….60
Лекция № 11. Центральная предельная теорема………………………..……61
Простейший поток событий…………………………………………………….66
Лекция № 12. Геометрическое распределение…………………………...…...69
129
Гипергеометрическое распределение…………………………………………..69
Начальные и центральные теоретические моменты…………………………..70
Лекция № 13. Предмет математической статистики……………………...….72
Статистическое распределение выборки.
Эмпирическая функция распределения………………………………………..75
Лекция № 14. Графическое изображение
статистических данных………………………………………………………….79
Лекция № 15. Числовые характеристики статистического
Распределения…………………………………………………………………100
Другие формы средних величин………………………………………………102
Лекция № 16. Статистическая проверка гипотез
Общие понятия…………………………………………………………………106
Проверка гипотезы о законе распределения………………………………....109
Лекция № 17. Корреляционно-регрессионный анализ……………………..117
Условия применения и ограничения
корреляционно-регрессионного метода………………………………………119
Линейная корреляция…………………………………………………………..122
Приложения…………………………………………………………………….126
Список рекомендуемой литературы…………………………………………..129
130
Download