Федеральное агентство по образованию Югорский государственный университет Факультет Природопользования Кафедра Экологии Разработчик: д.т.н., профессор Алексеев Валерий Иванович Курс лекций: Прикладная математическая статистика Ханты-Мансийск, 2007 г. 1 Основные понятия теории вероятностей 1. Классификация событий. Определение вероятности, ее свойства. Теория вероятностей – математическая наука, изучающая закономерности случайных явлений. Под случайными явлениями понимаются явления с неопределенным исходом, происходящее при неоднократном воспроизведении определенного комплекса условий. Под вероятностью в широком смысле понимают количественную меру неопределенности или число, которое выражает степень уверенности в наступлении того или иного случайного события. События обозначаются прописными (заглавными) буквами латинского алфавита: А, В, С. Случайным называется событие, которое может произойти или не произойти в результате некоторого испытания. Испытание (опыт, эксперимент) – это процесс, включающий определенные условия и приводящий к одному из нескольких возможных исходов. Исходом опыта может быть результат наблюдения или измерения. Единичный, отдельный исход испытания называется элементарным (простым) событием. Случайное событие может состоять из нескольких элементарных событий, подразделяющихся на достоверные, невозможные, совместные, несовместные, единственно возможные, равновозможные, противоположные. Событие, которое обязательно произойдет в результате испытания, называется достоверным. Например, если в урне содержатся только белые шары, то извлечение из нее белого шара есть событие достоверное. Достоверные события условимся обозначить символом . Событие, которое не может произойти в результате данного опыта (испытания), называется невозможным. Извлечение черного шара из урны с белыми шарами есть событие невозможное. Невозможное событие обозначим символом . Достоверные и невозможные события, вообще говоря, не являются случайными. Несколько событий называются совместными, если в результате эксперимента наступление одного из них не исключает появление других. Например, при бросании 3 монет выпадение цифры на одной не исключает появление цифр на других монетах. Несколько событий называются несовместными в данном опыте, если появление одного из них исключает появление других. Например, выигрыш, ничейный исход и проигрыш при игре в шахматы (одой партии) - 3 несовместных события. События называются единственно возможными, если в результате испытания хотя бы оно из них обязательно произойдет (или 1, или 2, или … или все события из рассматриваемой совокупности событий произойдут; одно точно произойдет). Например, при рекламе товара по радио и в газете обязательно произойдет одно и только одно из следующих событий: «Потребитель услышал о товаре по радио», «Потребитель прочитал о товаре в газете», «Потребитель получил информацию о товаре по радио и из газеты», «Потребитель не слышал о товаре по радио и не читал газеты». Эти 4 события единственно возможные. Несколько событий называются равновозможными, если в результате испытания ни одно из них не имеет объективно большую возможность появления, чем другие. При бросании игральной кости появление каждой из граней – события равновозможные. 2 Два единственно возможных и невозможных события называются противоположными. Купля и продажа определенного вида товара есть события противоположные. Совместность всех единственно возможных и несовместных событий называется полной группой событий. Два противоположных события А и не А, дополняют друг друга до полной группы событий. Противоположное событие обозначается как A . События, А, В, С, если они сложные, представляют собой множества и над ними могут быть произведены такие же действия, что и над множествами. Пересечение А и В (обозначается как A B ) есть набор, содержащий все элементы, которые являются членами и А и В. Объединение А и В (обозначается как A B ) есть набор, содержащий все элементы, которые являются членами или А, или В, или А и В вместе. Полную группу можно определить так: n если и Ai A j для любой пары (i j ), тогда A1 , A2 ,..., An полная группа i 1 событий. Вероятность появления события А называют отношение числа исходов благоприятствующих наступлению этого события, к общему числу всех единственно возможных и несовместных элементарных исходов. Если А – некоторое событие, M число благоприятствующих исходов появления события А, N число всех элементарных исходов испытания, то M P( A) - вероятность наступления события А, 0 M N. - классическая N вероятность. Относительной частотой события называется отношение числа испытаний m , при которых событие появилось, к общему числу проведенных испытаний n. m W ( A) , где m целое неотрицательное число, 0 m n. n Статистической вероятностью события А называется частота (частость) этого события, вычисленная по результатам большого числа испытаний. P * ( A) W ( A) m при.. n n. при.n При очень большом числе испытаний статистическая вероятность приближенно равна классической вероятности, т.е. P * ( A) P( A). Классическая вероятность P( A) это априорная (доопытная) вероятность, а статистическая P * ( A) это апостериорная (послеопытная) вероятность. Свойства вероятности, вытекающие из классического определения. 1. Вероятность достоверного события равна 1, т.е. P() 1, т.к. если A и M N , то N P ( ) 1. N 2. Если событие невозможное, то его вероятность равна 0, т.е. P() 0 , т.к. M 0 и P() 0 / N 0. 3. Вероятность случайного события есть положительное число, заключенное между 0 и 1. Так как 0 M N , то 0 M / N 1 , т.е. 0 P( A) 1. 4. Сумма вероятностей противоположных событий равна 1, т.е. P( A) P( A) 1. 3 Так как P( A ) ( N M ) / N 1 M / N 1 P( A), и P( A) P( A) 1. 2. Правила сложения и умножения вероятностей. Зависимые и независимые события Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления P( A B) P( A) P( B) P( AB), или P( A B) P( A) P( B) P( A B). Для несовместных событий P( A B) P( A) P( B) или P( A B) P( A) P( B) . Правило сложения вероятностей справедливо и для конечного числа n попарно несовместных событий P( A1 A2 ... An ) P( A1 ) P( A2 ) ... P( An ). В случае нескольких совместных событий необходимо по аналогии с рассуждениями о пересечении двух совместных событий исключить повторный учет областей пересечения событий. Для случая трех совместных событий можно записать P( A B C ) P( A) P( B) P(C ) P( AB) P( AC ) P( BC ) P( ABC ). Сумма вероятностей событий A1 , A2 ,..., An , образующих полную группу, равна 1. P( A1 ) P( A2 ) ... P( An ) 1, или n P ( A ) 1. i 1 i События А и В называются независимыми, если вероятность каждого из них не зависит от того, произошло или нет другое событие. Вероятности независимых событий называются безусловными. События А и В называются зависимыми, если вероятность каждого из них зависит от того произошло или нет другое событие. Вероятность события В, вычисленная в предположении, что другое событие А уже осуществилось, называется условной вероятностью. Вероятность произведения двух независимых событий А и В равна произведению их вероятностей P( AB) P( A) P( B). События A1 , A2 ,..., An ..(n 2) называются независимыми в совокупности, если вероятность каждого из них не зависит от того, произошли или нет любые события из числа остальных. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий P( A1 A2 ... An ) P( A1 ) P( A2 ) ... P( An ). Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного на условную вероятность другого P( AB) P( A) P( B / A) или P( A B) P( A) P( B / A) . P( AB) P( B) P( A / B) или P( A B) P( B) P( A / B). . Вероятность события В при условии появления события А P( A B) P( A B) P( B / A) , P( A) 0. или P( A / B) , P( B) 0. P( A) P( B) 4 Вероятность совместного наступления конечного числа n зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем условная вероятность каждого последующего события вычисляется в предположении, что все предыдущие уже наступили P( A1 A2 ... An ) P( A1 ) P( A2 / A1 ) P( A3 / A1 A2 ) ... P( An / A1 A2 A3 ... An ). Если события A1 , A2 ,..., An зависимые в совокупности, то вероятность наступления хотя бы одного из них равна P( A) 1 P( A1 ) P( A2 / A1 ) ... P( An / A1 A2 ... An 2 An 1 ). Вероятность появления хотя бы одного события из n независимых в совокупности равна разности между 1 и произведением вероятностей событий, противоположных данным, P( A) 1 P( A1 ) P( A2 ) ... P( An 1 ) P( An ) . В частном случае, если вероятности независимых событий равны, т.е. P( A1 ) P( A2 ) ... P( An 1 ) P( An ) (1 p) (1 p) .... (1 p) (1 p) 2 , то P( A) 1 (1 p) n . Если обозначить q 1 p, то P( A) 1 (1 p) n 1 q n . 3. Формулы полной вероятности и Байеса Часто мы начинаем анализ вероятностей, имея предварительные, априорные значения вероятностей интересующих нас событий. Затем из источников информации, таких как выборка, отчет, опыт и т.д., мы получаем дополнительную информацию об интересующем нас событии. Имея эту новую информацию, мы можем уточнить, пересчитать значения априорных вероятностей. Новые значения вероятностей для тех же интересующих нас событий будут уже апостериорными (послеопытными) вероятностями. Пусть событие А может осуществится лишь вместе с одним из событий H1 , H 2 ,..., H n , образующих полную группу. Пусть известны вероятности P( H 1 ), P( H 2 ),..., P( H n ). Так как события H i образуют полную группу, то n P ( H ) 1. i 1 i Известны также и условные вероятности события А: P( A / H1 ), P( A / H 2 ),..., P( A / H n ) . Заранее не известно, с каким из событий H i произойдет событие А. Такие события H i называют гипотезами. Необходимо определить вероятность события А и переоценить вероятности событий H i с учетом полной информации о событии А. Вероятность события А определяется как n P ( A) P ( H i ) P( A / H i ). i 1 Эта вероятность называется полной вероятностью. Если событие А может наступить только вместе с одним из событий H1 , H 2 ,..., H n , образующих полную группу несовместных событий и называемых гипотезами, то вероятность события А равна сумме произведений вероятностей каждого из событий H 1 , H 2 ,..., H n на соответствующую условную вероятность события А. Условные вероятности гипотез вычисляются по формуле 5 P ( H i / A) P( H i ) P( A / H i ) P( H i ) P( A / H i ) , или P( H i / A) n . - формула P ( A) P( H i ) P( A / H i ) i 1 Байеса, в знаменателе – формула полной вероятности. 4. Дискретные случайные величины Величина, которая в результате испытания может принять то или иное значение, заранее неизвестное, какое именно, считается случайной. Дискретной случайной величиной (с.в.) называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений. Причем принятие ею каждого из значений есть случайное событие с определенной вероятностью. Соотношение (правило), устанавливающее связь между отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины. Например, таблица xi x1 x2 …….. xn pi p1 p2 …….. pn Здесь значения x1 , x2 ,....xn записываются, как правило, в порядке возрастания. Вероятности обладают свойством n p i 1 i 1. Такая таблица называется законом (рядом) распределения дискретной случайной величины. Дискретная случайная величина может быть задана функцией распределения. Функцией распределения случайной величины Х называется функция F (x) , выражающая вероятность того, что Х примет значение, меньшее чем х: F ( x) P( X x) pi . xi x Здесь для каждого значения x суммируются вероятности тех значений x i , которые лежат левее точки x. Функция F (x) есть неубывающая функция, F () 0, F () 1. Для дискретной с.в. функция распределения F (x) есть разрывная ступенчатая функция, непрерывная слева. Вероятность попадания с.в. Х в промежуток от до (включая ) выражается формулой P( X ) F ( ) F ( ). Одной из важных числовых характеристик с.в. Х является математическое ожидание M ( X ) x1 p1 x2 p2 ..... xn p n . M (X ) представляет собой среднее ожидаемое значение случайной величины. Оно обладает следующими свойствами: 1) M (C ) C , где C const ; 2) M (CX ) C M ( X ); 3) M ( X Y ) M ( X ) M (Y ), для любых Х и У; 4) M ( X Y ) M ( X ) M (Y ), если Х и У независимы. 6 Для оценки степени рассеяния значений с.в. около ее среднего значения M ( X ) a вводятся понятия дисперсии D ( X ) и среднего квадратического (стандартного) отклонения (x ). Дисперсией называется математическое ожидание квадрата разности ( X a), n D ( X ) M ( X a ) 2 ( xi a ) 2 p i , i 1 где a M ( X ); ( x) D( X ). Дисперсия – величина положительная. Для вычисления дисперсии пользуются формулой D( X ) M ( X 2 ) M 2 ( X ) . Свойства дисперсии и среднего квадратического отклонения (с.к.о.): 1) D(C ) 0, где C const ; 2) D(C X ) C 2 D( X ), (CX ) | C | ( X ); 3) D( X Y ) D( X ) D(Y ), ( X Y ) ( ( X )) 2 ( (Y )) 2 , если Х и У –независимы. Размерность величин M ( X ) и ( X ) совпадает с размерностью самой с.в. Х, а размерность D ( X ) равна квадрату размерности с.в Х. Математические операции над с.в. Пусть с.в Х значения принимает значения xi с вероятностями P( X xi ) pi (i 1,2,3,..., n) , а с.в. У – значения y j с вероятностями P (Y y j ) p j ( j 1,2,3,..., m) . Произведение K X с.в. Х на постоянную величину K - это новая с.в., которая с теми же вероятностями, что и с.в. Х. принимает значения, равные произведениям на K значений с.в. Х. Следовательно, закон ее распределения имеет вид kxi kx1 kx2 …….. kxn pi p1 p2 …….. pn Квадрат с.в. ( X 2 ) - это новая с.в., которая с теми же вероятностями, что и с.в. Х принимает значения, равные квадратам ее значений. x 2 i pi x 2 1 p1 x 2 …….. x 2 p2 …….. 2 n pn Сумма с.в. Х и У – это новая с.в., принимающая все значения вида xi y j , (i 1,2,3,..., n; j 1,2,3,..., m) с вероятностями p ij , выражающими вероятность того, что с.в. Х примет значение x i , а У – значение y j , т.е. pij P( X xi ; Y y j ) P( X xi ) PX xi (Y y j ) . (А) Если с.в. Х и У независимы, то pij P( X xi ; Y y j ) P( X xi ) P (Y y j ) pi p j . (В) Аналогично определяются разность и произведение с.в. Х и У. Разность с.в. Х и У – это новая с.в., принимающая все значения вида xi y j , (i 1,2,3,..., n; j 1,2,3,..., m) с вероятностями p ij , в форме (А), если с.в. Х и У зависимы и в форме (В), если с.в. независимы. 7 Произведение с.в. Х и У – это новая с.в., принимающая все значения вида xi y j , (i 1,2,3,..., n; j 1,2,3,..., m) с вероятностями p ij , в форме (А), если с.в. Х и У зависимы и в форме (В), если с.в. независимы. Распределение Бернулли и Пуассона Рассмотрим последовательность n идентичных повторных испытаний, удовлетворяющих условиям: 1) каждое испытание имеет два исхода: успех и неуспех; это – взаимно несовместные и противоположные события; 2) вероятности успеха - p и неуспеха - q остаются постоянными от испытания к испытанию; 3) все n испытаний – независимы ( вероятность наступления события в любом из n повторных испытаний не зависит от результатов других испытаний). Вероятность того, что в n независимых повторных испытаниях, в каждом из которых вероятность появления события А равна p , событие А наступит ровно m раз (в любой последовательности), равна m Pn ,m C n p m q n m , где q 1 p. - формула Бернулли. Вероятности того, что событие наступит: а) менее m раз; б) более m раз; в) не менее m раз; г) не более m раз – находятся по формулам: а) Pn;0 Pn;1 ... Pn;m1 ; б) Pn;m 1 Pn;m 2 ... Pn;n ; в) Pn;m Pn;m 1 ... Pn;n ; г) Pn;0 Pn;1 ... Pn;m . Биномиальным называется закон распределения дискретной случайной величины Х – числа появлений события в n независимых испытаниях, в каждом из которых вероятность наступления события равна p ; вероятности возможных значений X 0,1,2,..., m,..., n вычисляются по формуле Бернулли. Число успехов X m Вероятность Pn , m 0 1 … n . 2 Pn , 0 C n p 0 q n Pn ,1 C n p 1 q n 1 Pn , 2 C n p 2 q n 2 0 1 2 Pn , n C n p n q 0 n или Число успехов X m Вероятность Pn , m 0 1 qn C 2 1 n p 1 q n 1 C 2 n … m p 2 q n2 … C m n … n p m q nm … pn Так как правая часть формулы Бернулли представляет собой общий член биномиального разложения (q p) n , то этот закон называют биномиальным. 8 Определение биномиального закона корректно, так как основное свойство ряда распределения n n pi 1 выполнено, ибо p i 0 i 0 i есть не что иное, как сумма всех членов разложения бинома Ньютона: 2 1 m q n + C n p 1 q n 1 + C n p 2 q n 2 +…+ C n p m q n m +…+ p n = (q p) n 1n 1 Для с.в. Х, распределенной по биномиальному закону, имеем Теорема. Математическое ожидание случайной величины X , распределенной по биномиальному закону, M ( X ) n p; а ее дисперсия D( X ) n p q. Случайную величину X - число m наступления события А в n независимых испытаниях – можно представить в виде суммы n независимых случайных величин X 1 X 2 ... X n , каждая из которых имеет один и тот же закон распределения, т.е. n X X k , где X k : k 1,2,..., n k 1 0 q xi pi 1 p Случайная величина X k выражает число наступлений события А в k м (единичном) испытании k 1,2,..., n , т.е. при наступлении события X k 1 с вероятностью p , при не наступлении - X k 0 с вероятностью q. Случайную величину X k называют альтернативной случайной величиной (или распределенной по закону Бернулли, или индикатором события А). Найдем числовые характеристики альтернативной с.в. X k по общим формулам n n i 1 i 1 M ( X ) xi p i и D( X ) xi a pi : 2 2 a k M ( X k ) xi p i 0 q 1 p p, i 1 2 D( X k ) xi a k pi (0 p) 2 q (1 p) 2 p 2 i 1 p q q 2 p pq( p q) pq так как p q 1. Таким образом. Математическое ожидание альтернативной случайной величины X k равно вероятности p появления события А в единичном испытании, а ее дисперсия – произведению вероятности p появления события А на вероятность q его не появления. Теперь математическое ожидание и дисперсия рассматриваемой случайной величины Х: M ( X ) M ( X 1 X 2 .... X n ) p ... p np, D( X ) M ( X 1 X 2 .... X n ) pq ... pq npq, (при нахождении дисперсии суммы с.в. учтена их независимость). 2 9 m события в n независимых n испытаниях, в каждом из которых оно может наступить с одной и той же вероятностью p , равна p , т.е. m M p, n m pq . а ее дисперсия D n n m X m X , т.е. , где X случайная величина, Частость события есть n n n n распределенная по биномиальному закону. Поэтому 1 m X 1 M M M ( X ) np p, n n n n 1 pq m X 1 D D 2 D( X ) 2 npq . n n n n n Следствие. Математическое ожидание частости Закон распределения Пуассона Если число испытаний велико, а вероятность появления события p в каждом испытании очень мала, то формула Бернулли преобразуется в формулу Пуассона m e Pn ,m m! где m число появлений события в n независимых испытаниях; n p (среднее число появлений события в n испытаниях). Формула Пуассона применяется в случаях, когда n - несколько десятков (лучше сотен) и np 10. Ряд распределения закона Пуассона можно представить в виде ряда Число успехов X m 0 1 2 … n . Вероятность Pn , m e e 2 e n e 2! n! Очевидно, что определение закона Пуассона корректно, так как основное свойство ряда распределения p i 1 p i 1 i e + e i 1 выполнено, ибо сумма ряда + 2 e 2! +….+ n e n! +…= 2 m e 1 ... ... e e 1. 2! m! Математическое ожидание и дисперсия с.в., распределенной по закону Пуассона: M ( X ) D( X ) . 10 Гипергеометрическое распределение Пусть имеется множество N элементов, из которых M элементов обладают некоторым признаком А. Извлекается случайным образом без возвращения n элементов. Требуется найти вероятность того, что из них m элементов обладают признаком А. Искомая вероятность (зависящая от N , M , n , m ) определяется по формуле C C C m P( N ;m ) n nm N M n . (*) N Полученный с помощью формулы (*) ряд распределения называется гипергеометрическим законом распределения. M 0 1 Вероятность P ( X m) C C C 0 n M N M n N … n . 2 0 n 1 M N M C C C n N 0 n2 M N M C C C n N C C C 0 M 0 N M n N Математическое ожидание и дисперсия с.в., распределенной по гипергеометрическому закону определяется по формулам: M M M n 1 M ( m) n , (1 )(1 ). D(m) n N N N N 1 5. Непрерывные случайные величины Функция распределения и плотность распределения непрерывной случайной величины Случайная величина Х называется непрерывной, если ее функция распределения F (x ) непрерывна и имеет производную. Свойства функции распределения. 1. Вероятность попадания с.в. в промежуток от до равна приращению функции распределения на концах этого промежутка P( X ) F ( ) F ( ). Отсюда, для непрерывных с.в. вероятность любого отдельного значения с.в. равна нулю, т.е. P( X x1 ) 0. 2. Функция распределения удовлетворяет условиям F () 0, F () 1. Плотностью распределения (дифференциальной функцией) непрерывной случайной величины называется функция f ( x) F ( x). Свойства плотности распределения случайной величины. 1. Плотность распределения любой с.в. неотрицательна f ( x) 0. 2. Несобственный интеграл от дифференциальной функции в пределах от до равен 1: f ( x)dx 1 нормирующее свойство плотности распределения вероятностей. График функции y f (x) располагается над осью абсцисс. Вероятность попадания с.в. в промежуток от до может быть вычислена по 11 P( X ) f ( x)dx. формуле Подынтегральное выражение f ( x) dx называется элементом вероятности. Оно выражает вероятность попадания случайной точки в промежуток между точками x и x x, где x бесконечно малая величина и количественно равна площади прямоугольника с основанием x и высотой f (x) , т.е. f ( x) x f ( x) dx. Функция распределения F (x) выражается через плотность распределения f (x) по формуле x F ( x) f ( x)dx , т.е. является первообразной функции f (x ). Математическое ожидание непрерывной с.в. Х вычисляется по формуле M (X ) x f ( x)dx, дисперсия - D( X ) ( x M ( X )) 2 f ( x)dx . Равномерный закон распределения Определение. Непрерывная с.в. Х имеет равномерный закон распределения на отрезке [ a, b ], если ее плотность вероятности (x ) постоянна на этом отрезке и равна нулю вне его, т.е. 1 ..при..a x b, ( x) b a 0....приx a, x b. Теорема. Функция распределения с.в. Х, распределенной по равномерному закону, 0...при..x a, есть F ( x) ( x a) /(b a)...при..a x b, 1....при...x b, ab (b a) 2 , а дисперсия D( X ) . ее математическое ожидание M ( X ) 2 12 Равномерный закон распределения используется при анализе ошибок округления при проведении числовых расчетов (например, ошибка округления числа до целого распределена равномерно на отрезке [-0,5; +0,5]), в ряде задач массового обслуживания, при статистическом моделировании наблюдений, подчиненных заданному распределению. Случайная величина Х, распределенная по равномерному закону на отрезке [0, 1] , называемая «случайным числом от 0 до 1», служит исходным материалом для получения с.в. с любым законом распределения. Нормальное распределение Плотность распределения случайной величины Х, распределенной нормально с параметрами a и 2 , имеет вид f ( x) 1 2 e ( xa )2 2 2 . Вероятностный смысл параметров: a M ( X ), 2 D( X ). N (a; 2 ) обозначение нормального распределения с.в. Х с параметрами a и 2 . 12 Плотность распределения вероятности Гаусса N(2,2) 0,16 0,14 0,12 0,1 0,08 Ряд1 0,06 0,04 0,02 0 0 Рис. 1. График функции f ( x) 2 4 1 2 e 6 ( xa )2 2 2 N (2,2) в интервале (0; 5). Случайная величина Х называется центрированной, если ее математическое ожидание равна нулю. Случайная величина X M ( X ) центрирована, т.к. M ( X M ( X )) MX MX 0. Случайная величина Х называется нормированной, если ее дисперсия равна X 2 X 1 единице. Случайная величина нормирована, т.к. D 2 DX 2 1. Центрированная и нормированная с.в. называется стандартной. Случайная X a величина Z стандартная, т.к. 1 2 X a 1 X a 1 M M ( X a ) (a a ) 0; D 2 D( X a) 2 1. Если задать параметры нормального распределения, взяв a 0 и 1, то получим так называемое нормированное (стандартное) нормальное распределение. Плотность нормированного нормального распределения описывается функцией ( x) 1 2 e x2 2 . 13 Нормальная стандартная плотность распределения вероятностей N(0,1) 0,5 0,4 0,3 Ряд1 0,2 0,1 0 -4 -2 0 Рис. 2. График функции ( x) 2 4 1 x2 2 e в интервале (-3;3). 2 Значения этой функции табулированы (Таблица 1 приложения ). Функция (x ) четная, поэтому в таблице приведены только положительные значения аргументов. Для расчета вероятности попадания нормально распределенной с.в. Х в промежуток от до используется формула a a P( X ) , 1 x z2 2 e dz - интеграл Лапласа. 2 0 Функция Лапласа определена для любых x , при этом ( x) ( x) т.е. функция Лапласа нечетна, ее значения приведены в табл. 2. приложения. Функция (x) обладает свойствами: 1) (0) 0; 2) lim ( x) 0,5; 3) ( x) ( x) . где ( x) x Правило «трех сигм» Теоретически нормальная плотность вероятности отлична от нуля в любой, даже очень отдаленной от a точке x , однако практически почти вся вероятность сосредоточена на отрезке a 3 (отсюда и наименование). В самом деле, X a Pa 3 X a 3 P 3 3 P 3 Z 3 2 (3) 0,9973. X a где Z . Таким образом, вероятность попадания числа вне этого отрезка равна всего 0,0027. Для симметричного относительно a промежутка (a ; a ) имеем P(| X a | ) 2 . (Ш) Формула (Ш) применима и к частоте, поскольку ее закон распределения при достаточно большом числе испытаний совпадает с нормальным. Применительно к с.в. m с учетом ее числовых характеристик 14 M (m) np и 2 (m) npq формула (Ш) примет вид . P(| m np | ) 2 npq Формула (Ш) может быть применена и к относительной частоте m / n с числовыми характеристиками m pq m M p и 2 ; n n n m P | p | 2 2 pq n n n . pq Одинаково распределенные взаимно независимые случайные величины Рассмотрим n взаимно независимых с.в. X 1 , X 2 ,...., X n , которые имеют одинаковые распределения, а следовательно, и одинаковые числовые характеристики (математическое ожидание a , дисперсию 2 и др.). Среднее арифметическое рассматриваемых с.в. обозначим как X : X X 1 X 2 ... X n / n. Между числовыми характеристиками среднего арифметического и соответствующими характеристиками каждой отдельной случай величины существуют следующие закономерности: 1. Математическое ожидание среднего арифметического одинаково распределенных взаимно независимых случайных величин равна математическому ожиданию a каждой из величин: M ( X ) a. Действительно, пользуясь свойством математического ожидания, имеем na X X 2 ... X n 1 M (X ) M 1 a. ( M ( X 1 ) M ( X 2 ) ... M ( X n )) n n n 2. Дисперсия среднего арифметического n одинаково распределенных взаимно независимых случайных величин в n раз меньше дисперсии D каждой из величин: D( X ) D / n. Действительно, пользуясь свойством дисперсии, имеем nD D X X 2 ... X n 1 D( X ) D 1 2 ( D( X 1 ) D( X 2 ) ... D( X n )) 2 . n n n n 3. Среднее квадратическое отклонение среднего арифметического n одинаково распределенных взаимно независимых случайных величин в n раз меньше среднего квадратического отклонения каждой из величин: ( X ) / n. Эта величина характеризует точность вычисления средней арифметической X . В самом деле, так как D( X ) D / n , то с.к.о X равно ( X ) D( X ) D / n D n n . 15 Вспоминая, что дисперсия и с.к.о. служат мерами рассеяния случайной величины, заключаем, что среднее арифметическое достаточно большого числа взаимно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая величина. То есть, среднее арифметическое нескольких измерений дает более надежный результат, чем отдельное измерение. Начальные и центральные теоретические моменты Пусть дискретная с.в. Х задана законом распределения Х р 1 0,6 2 0,2 5 0,19 100 0,01 25 0,19 10000 0,01 Найдем математическое ожидание Х: M ( X ) 1 0,6 2 0,2 5 0,19 100 0,01 2,95. Напишем закон распределения X2 р 1 0,6 4 0,2 Найдем математическое ожидание X 2 : M ( X 2 ) 1 0,6 4 0,2 25 0,19 10000 0,01 106,15. Заметим, что M ( X 2 ) значительно больше M ( X ). Это различие обусловлено содержанием в исходных данных, слагаемого с большим значением и малой вероятностью, - это число 100 с малой вероятностью 0,01. Таким образом, переход от M ( X ) к M ( X 2 ) позволил заметить влияние на математическое ожидание числа с большим значением и малой вероятностью. Если бы величина Х имела несколько больших и маловероятных значений, то переход к величине X 2 и тем более к величинам X 3 , X 4 и т. д. позволил бы еще больше «усилить роль» этих больших, но маловероятных возможных значений. Поэтому оказывается целесообразным вычислять математические ожидания целых положительных степеней с.в. Начальным моментом порядка k с.в. Х называют математическое ожидание величины X k : k M ( X k ). В частности 1 M ( X ), 2 M ( X 2 ). Пользуясь этими моментами, формулу для вычисления дисперсии 2 D( X ) M ( X 2 ) M ( X ) можно записать так: D( X ) 2 1 . (*) Кроме моментов случайной величины Х целесообразно рассматривать моменты отклонения X M ( X ). Центральным моментом порядка k с.в. Х называют математическое ожидание величины ( X M ( X )) k : k M ( X M ( X )) k . 2 В частности, 1 M ( X M ( X )) 0, (**) 2 M ( X M ( X )) 2 D( X ). (***) Формулы для вычисления моментов для дискретных (принимающих значения xi с вероятностью p i ) и непрерывных (с плотностью вероятности (x ) ) приведены в табл. 1. 16 Таблица 1 Момент Начальный Случайная величина Дискретная n Непрерывная k x k ( x)dx k xi p i k i 1 Центральный k n k xi a p i k ( x a) k ( x)dx i 1 Легко выводятся соотношения, связывающие начальные и центральные моменты. Например, сравнивая (*) и (***), получим 2 2 2 1 . Исходя из определения центрального момента и пользуясь свойствами математического ожидания, получить формулы: 1 0, 2 2 2 1 . 3 3 3 2 1 2 1 3 , 4 4 4 3 1 6 2 1 2 3 1 4 . Еще раз отметим, что все центральные моменты выражаются через начальные, что значительно упрощает вычисление центральных моментов. Моменты более высоких порядков применяются редко. Итак, математическое ожидание M ( X ) или первый начальный момент 1 характеризует среднее значение или положение распределения с.в. Х на числовой оси; дисперсия D ( X ), или второй центральный момент 2 , - степень рассеяния распределения Х относительно M ( X ). Для более подробного описания распределения служат моменты высших порядков. 3 Третий центральный момент 3 ( x M ( X )) f ( x)dx служит для характеристики асимметрии (скошенности) распределения. Он имеет размерность куба с.в. Чтобы получить безразмерную величину, ее делят на 3 , где среднее квадратическое отклонение величины Х. Полученная величина A называется коэффициентом асимметрии случайной величины: A 3 . 3 Если распределение симметрично относительно математического ожидания, то коэффициент асимметрии A 0. Если A 0 , то асимметрия положительная (правосторонняя) (характеризует преобладание значений с.в., больших чем M ( X ) ). Если A 0 , то асимметрия отрицательная (левосторонняя) (характеризует преобладание значений с.в., меньших чем M ( X ) ). 4 Четвертый центральный момент 4 ( x M ( X )) f ( x)dx служит для характеристики крутости (островершинности или плосковершинности) распределения. Эксцессом (или коэффициентом эксцесса) с.в. называется число E 4 3. 4 17 4 потому, что для наиболее часто 4 встречающегося нормального распределения отношение 4 / 4 3. Кривые, более (Число 3 вычитается из отношения островершинные, чем нормальная, обладают положительным эксцессом, более плосковершинные – отрицательным эксцессом. Пример. Найти коэффициент асимметрии и эксцесс с.в., распределенной по 1 закону Лапласса с плотностью вероятности ( x) e | x| (рис. 3) 2 Плотность вероятности Лапласса значения функции Лапласса 0,6 0,5 0,4 0,3 Ряд1 0,2 0,1 0 -4 -2 0 2 4 переменная х Рис. 3. График функции ( x) 1 | x| e 2 Решение. Так как распределение с.в. Х симметрично относительно оси ординат, то все нечетные как начальные, так и центральные моменты равны 0, т.е. 1 0, 3 0, 3 0 и в силу A 3 коэффициент A 0. 3 Для нахождения эксцесса необходимо вычислить четные начальные моменты 2 и 4 : 1 1 2 x 2 ( x)dx x 2 e | x| dx 2 x 2 e x dx 2. 2 0 2 следовательно, D( X ) 2 2 ( 1 ) 2 2 0 2 2 и x D( X ) 2 . 1 2 1 4 x x e dx 24. 2 0 24 Теперь эксцесс по формуле E 44 3 3 3. 4 2 Эксцесс распределения положителен, что говорит об островершинности распределения (см. рис. 3 ). 4 x 4 ( x)dx x 4 e | x| dx 2 Медиана В качестве показателя центра группировки наряду с математическим ожиданием используется медиана. Для абсолютно непрерывных с.в. медиана – это граница, левее 18 и правее которой находятся значения с.в. с вероятностями, равными 0,5. Обозначение медианы MeX . Для нормального распределения MeX MX a. Медианой MeX непрерывной с.в. Х называется такое ее значение, для которого 1 P( X MeX ) P( X MeX ) . 2 Геометрически вертикальная прямая x MeX , проходящая через точку с абсциссой, равной MeX , делит площадь фигуры под кривой распределения на две равные части. Для дискретных с.в. медиана находится на отрезке xl , xl 1 , который определяется из условий: l p i 1 i 0,5; l 1 p i 1 i 0,5. Точное положение медианы устанавливается следующим образом: x xl 1 l MeX xl l 1 pi . pl 1 2 i 1 Мода Для абсолютно непрерывных распределений модой называется точка локального максимума функции плотности. Обозначение - MoX . Для нормального распределения MoX MX a. Распределения, имеющие оду моду, называются одномодальными. Встречаются и многомодальные распределения. Квантили ( показатель дифференциации и концентрации ) Такие значения признака, которые делят все единицы распределения на равные численности, получили название квантилей. Квартили, квинтили, децили – частные случаи квантилей. Для абсолютно непрерывных с.в. квартили – это такие границы, которые делят всю вероятность на четыре равные части. Квартилей три: Q1 левая, Q2 центральная, равная медиане, Q3 правая. ( Q1 1/ 4; Q2 1 / 2; . Q3 3 / 4) . При этом Q3 называется верхним квартилем, Q1 нижним квартилем. Разность правой и левой квартилей Q3 Q1 может быть использован как показатель вариации. Квинтили делят распределение на пять равных частей. Иногда используются децили, разделяющие всю вероятность на десять равных частей. В общем случае Квантилем уровня q (или q квантилем) называется такое значение x q с.в. Х, при котором функция ее распределения принимает значение, равное q, т.е. F ( x q ) P( X x q ) q. (А) С понятием квантиля тесно связано понятие процентной точки. Под 100 q % - ной точкой подразумевается квантиль x1 q , т.е. такое значение с.в. Х, при котором P ( X x1 q ) q. Пример. Найти моду, медиану и математическое ожидание с.в. Х с плотностью вероятности ( x) 3x 2 при x 0;1. Решение. Кривая распределения функции представлена на рис. 4. 19 значение у Кривая распределения функции 3,5 3 2,5 2 1,5 1 0,5 0 Ряд1 0 0,5 1 1,5 переменная х Рис. 4. График функции ( x) 3x 2 . Плотность вероятности (x ) максимальна при x MoX 1 и (1) 3. b 1 Медиану MeX b найдем из условия ( x)dx 2 b 0 b 1 или ( x)dx 0 dx 3 x 2 dx x 3 b0 b 3 , откуда b MeX 3 1 / 2 0,79. 0 2 0 1 0 Вычисляем математическое ожидание: M ( X ) x ( x)dx 0 dx x (3x 2 )dx 1 3 0 dx x 4 10 0,75. 4 x 0 x Функция распределения F ( x) ( x)dx 0 dx 3x 2 dx x 3 . Находим квантиль x0,3 из уравнения (А), т.е. x 0 3 0, 3 0,3 , откуда x0,3 3 0,3 0,67. Найдем 30%-ную точку с.в Х, или квантиль x 0 , 7 . Из уравнения x 3 0,7 0,7 получим x0,7 3 0,7 0,89. 6. Распределения математической статистики. Распределения вероятностей 6.1. Критические границы Понятие критических границ для абсолютно непрерывных с.в. широко используется в математической статистике при построении доверительных интервалов и критериев проверки гипотез. 20 Рис. 5. Правосторонняя (а), левосторонняя (б) и двусторонняя (в) критические области Левосторонней критической границей, или квантилью, отвечающей вероятности , называется такая граница, левее которой вероятность равна (см. рис.5. б). Квантиль обозначается K , по определению P( X K ) F ( K ), т.е. квантиль является решением уравнения F ( K ) . Правосторонней критической границей, отвечающей вероятности , называется такая граница, правее которой вероятность равна (см. рис.5. а). Правосторонняя граница обозначается B , по определению P( X B ) 1 F ( B ), т.е. правосторонняя граница является решением уравнения F ( B ) 1 . Между левосторонней и правосторонней границами существует соотношение: K B1 Двусторонними критическими границами, отвечающими вероятности , называются такие границы B , B , внутрь которых с.в. попадает с вероятностью 1 , а вне – с вероятностью , причем P ( X B ) P( X B ) 2 (рис. 5. в) Между односторонними и двусторонними границами существуют соотношения: B K / 2 B1 / 2 , B K1 / 2 B / 2 . Для стандартного нормального распределения двусторонние границы симметричны и имеют обозначения u , т.е. B u , B u , причем u является решением уравнения (u ) 1 . 2 6.2. Стандартное нормальное распределение Рассмотрим случайную величину X , распределенную по закону N (a, 2 ) . Стандартное нормальное распределение U ~ N (0,1) получим с помощью преобразования X a U . В статистике квантиль порядка p этого распределения называется также правосторонней критической точкой u кр , соответствующей вероятности 1 p (рис. 6,а). Доля площади, лежащая правее точки u кр составляет 100 % (в качестве 21 рассматриваются обычно малые вероятности 0.05, 0.01 и т.п.). Как найти критическую точку, пользуясь таблицей 2 функции Лапласа (приложение) Значение функции Лапласа (x) равно площади под кривой плотности стандартного распределения на промежутке (0;х) (рис. 6, б). Поэтому значение критической точки u кр , соответствующее заданному , находится из уравнения (u кр ) 1 (рис. 6, в). 2 Рис.6. Иллюстрация к работе с таблицами Лапласа: а) критическая точка u кр , соответсвующая вероятности α; б) значение функции Лапласа; в) связь между критической точкой и значением функции Лапласа. Пример. Пользуясь таблицей значений функции Лапласа найти критическую точку, соответствующее вероятности 0.05. Критическая точка u кр является границей, правее которой лежит 5% площади под кривой плотности стандартного нормального распределения. Значит площадь под этой кривой на интервале (0; u кр ) составляет 45% и в таблице значений функции Лапласа (приложение 2 ) ищем значение ( x) 0,45. Это значение достигается при x 1.65, т.е. критическая точка u кр 1.65 (с точностью до 0.01). 6.3. Распределение 2 (хи- квадрат) Распределением 2 с k степенями свободы называется распределение суммы X a квадратов n независимых стандартных нормальных величин Z i i : k 2 (k ) Z i , Z i ~ N (0,1) . Это унимодальное распределение с положительной 2 i 1 асимметрией (рис.7). Имеет следующие характеристики: мода Mo k 2, математическое ожидание m k , дисперсию D 2k. (рис. 7 ). При достаточном числе слагаемых k распределение 2 (k ) имеет приближенно нормальное распределение с параметрами N (k , 2k ). При решении задач математической статистики используются критические точки 2 ( , k ) , зависящие от заданной вероятности и числа степеней свободы k (Таблица 5 приложения). Критическая точка 2 кр 2 ( , k ) является границей области, правее которой лежит 100 % площади под кривой плотности распределения. Вероятность того, что значение с.в. K 2 (k ) при испытаниях попадает правее критической точки 2 кр , не превышает , обозначается как P( K 2 (k )) . Например, для с.в. K 2 ( ,20) зададим вероятность 0,05. По таблице 5 критических точек распределения «хи-квадрат» (приложения ) находим 2 кр 2 (0,05;20) 31,4. Значит 22 вероятность этой случайной величине K принять значение, больше 31.4, меньше 0.05. (рис. 7). Рис. 7. График плотности распределения 2 (k ) при различных значениях степеней свободы k . 6.4. Распределение Стьюдента Пусть Z и K - независимые с.в., причем Z имеет стандартное нормальное распределение N (0,1), а K имеет распределение 2 (k ) с k степенями свободы. Z Распределение величины T называется распределением Стьюдента с k 2 (k ) k степенями свободы. График плотности этого распределения симметричен относительно оси ординат и напоминает график плотности стандартного нормального распределения (рис. 8), но отличается более «массивными хвостами», (т.е. значения плотности распределения Стьюдента медленнее убывают при удалении от начала координат). Математическое ожидание распределения Стьюдента M (T ) 0, дисперсия 2 D (T ) 1 (k 2), и для значений k 30 распределение Стьюдента практически k 2 не отличается от стандартного нормального. Критические точки распределения Стьюдента (Таблица 6 приложения) могут быть одно и двусторонними (рис. 8 ). Например, для с.в. Х, распределенной по закону Стьюдента с k 9 степенями свободы при 0,05 находим по таблице 6 одностороннюю критическую точку t кр t ( , k ) t (0,05;9) 1,83. Это означает, что при испытаниях вероятность наблюдать значение этой с.в., большее t кр 2,26, меньше 0,05 : P( X t кр ) , т.е. площадь под кривой плотности распределения, лежащая правее критической точки, составляет 100 % от всей площади (рис. 8. а ). Двусторонняя критическая точка обозначается t кр t ( , k ) и для нее P(| X | t кр ) , т.е. величина равна вероятности наблюдать значение с.в. Х вне интервала t кр ; t кр (рис. 8. б ). 23 Рис. 8. Односторонняя (а) и двусторонняя (б) критическая точка t кр распределения Стьюдента 6.5. Распределение Фишера F распределением Фишера с k1 и k 2 степенями свободы называется распределение F отношения 2 (k ) / k F (k1 , k 2 ) 2 1 1 . (k 2 ) / k 2 Распределение не является симметричным, его математическое ожидание близко к k2 единице, M ( F ) , (k 2 2) (рис. 9.). k2 2 РИС. 9. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ ФИШЕРА ДЛЯ ТИПИЧНЫХ ЗНАЧЕНИЙ ПАРАМЕТРОВ K1 и k2 Критические точки распределения Фишера (Таблица 9 приложения ) имеют следующий смысл. Если с.в. Х, распределенная по закону Фишера с параметрами k1 и k 2 ( X ~ F ( , k1 , k 2 ) и задана вероятность , то при проведении наблюдений вероятность получить значение с.в. Х, лежащее правее точки Fкр F ( , k1 , k 2 ) меньше : P( X Fкр ) . Например, пусть X ~ F (8;10) и 0,01. Критическая точка Fкр F (0.01;8;10) 5,06, т.е. вероятность получить значение X , большее 5.06, меньше 0.01. В среднем в 99 случаях из 100 будем наблюдать значения, меньше 5,06. 7. Закон больших чисел и предельные теоремы Для практики очень важно знание условий, при которых совокупное действие очень многих случайных причин приводит к результату, почти не зависящему от случая, так как позволяет предвидеть ход явлений. Эти условия и указываются в теоремах, носящих общее название закона больших чисел. К ним относятся теоремы Чебышева и Бернулли. Теорема Чебышева является наиболее общим законом больших чисел, теорема Бернулли – простейшим. Доказательства этих теорем основаны на неравенстве Чебышева. 24 Неравенство Чебышева. Вероятность того, что отклонение с.в. Х от ее математического ожидания по абсолютной величине меньше положительного числа , не меньше, чем 1 D( X ) / 2 : P| X M ( X ) | 1 D( X ) / 2 . Доказательство. Так как события, состоящие в осуществлении неравенств | X M ( X ) | и | X M ( X ) | , противоположны, то сумма их вероятностей равна единице (известное равенство p q 1) , т.е. P| X M ( X ) | P| X M ( X ) | 1. Отсюда (А) P| X M ( X ) | 1 P| X M ( X ) | . Задача сводится к вычислению вероятности P| X M ( X ) | . Напишем выражение дисперсии с.в. Х: 2 2 2 D( X ) x1 M ( X ) p1 x 2 M ( X ) p 2 …+ xn M ( X ) pn , где все слагаемые неотрицательны. Отбросим те слагаемые, у которых | xi M ( X ) | . Для оставшиеся слагаемых | x j M ( X ) | . Следовательно, D( X ) xk 1 M ( X ) pk 1 xk 2 M ( X ) p K 2 …+ xn M ( X ) pn , Обе части неравенства | x j M ( X ) | ,( j k 1, k 2,....., n ) положительны, поэтому 2 2 2 возведя неравенство в квадрат, получим равносильное неравенство | x j M ( X ) | 2 2 . Заменяя | x j M ( X ) | числом получим более сильное неравенство 2 2 D( X ) ( p k 1 p k 2 ... p n ). 2 Сумма вероятностей pk 1 pk 2 ... pn есть вероятность того, что Х примет одно, безразлично какое, из значений xk 1 , xk 2 ,..., xn , а при любом из них отклонение удовлетворяет неравенству | x j M ( X ) | . Отсюда следует, что сумма pk 1 pk 2 ... pn выражает вероятность P | X M ( X ) | . Тогда D( X ) 2 P | X M ( X ) | , или P(| X M ( X ) | ) D( X ) / 2 , (В) Подставляя (В) в (А) получим окончательно P| X M ( X ) | 1 D( X ) / 2 . - неравенство Чебышева. На практике, применение неравенства Чебышева имеет ограниченное значение, так как утверждает лишь то, что вероятность отклонения с.в. от ее математического ожидания положительно (это и так очевидно, т.к. P 0) . Теоретическое значение неравенства весьма велико. Оно используется для доказательства теоремы Чебышева. Теорема Чебышева. Если X 1 , X 2 ,...., X n , ….- попарно независимые с.в., причем дисперсии их равномерно ограничены ( не превышают постоянного числа С), то, как бы мало ни было положительное число , вероятность неравенства X 1 X 2 .... X n M ( X 1 ) M ( X 2 ) .... M ( X n ) n n будет как угодно близка к единице, если число с.в. достаточно велико. Теорема Чебышева утверждает, что если рассматривается достаточно большое число независимых с.в., имеющих ограниченные дисперсии, то почти достоверно можно считать имеющим место событие, состоящее в том, что отклонение среднего арифметического с.в. от среднего арифметического их математических ожиданий будет по абсолютной величине сколь угодно малым. Доказательство. Введем в рассмотрение новую с.в. 25 X ( X 1 X 2 ... X n ) / n. Найдем математическое ожидание X . X X 2 ... X n M ( X 1 ) M ( X 2 ) ... M ( X n ) . M 1 n n Применяя к величине X неравенство Чебышева, имеем X X 2 ... X n D 1 X 1 X 2 ... X n n X 1 X 2 ... X n , P M 1 2 n n или X X 2 ... X n D 1 X 1 X 2 ... X n M ( X 1 ) M ( X 2 ) ... M ( X n ) n , P 1 2 n n так как X X 2 ... X n D( X 1 ) D( X 2 ) ... D( X n ) и по условию теоремы D 1 n n2 D( X i ) C, i 1,2,..., n , то D( X 1 ) D( X 2 ) ... D( X n ) n C C 2 . n n2 n X X 2 ... X n M ( X 1 ) M ( X 2 ) ... M ( X n ) C P 1 1 . 2 n n n При n будем иметь X X 2 ... X n M ( X 1 ) M ( X 2 ) ... M ( X n ) P 1 1. n n Учитывая, что вероятность не может превышать единицу, получим X X 2 ... X n M ( X 1 ) M ( X 2 ) ... M ( X n ) P 1 1. n n Если X 1 , X 2 ,...., X n , …-попарно независимые с.в., имеющие одно и тоже математическое ожидание a, и если дисперсии этих величин равномерно ограничены, то, как бы мало ни было число 0, вероятность неравенства X 1 X 2 .... X n a n будет как угодно близка к единице, если число случайных величин достаточно велико. Другими словами X X 2 .... X n P( 1 a ) 1. lim n n Теорема утверждает, что среднее арифметическое достаточно большого числа независимых с.в. (дисперсия которых равномерно ограничена) утрачивает характер случайной величины. Теорема Чебышева справедлива не только для дискретных , но и для непрерывных случайных величин. Итак, условия применения теоремы Чебышева: 1) Случайные величины X 1 , X 2 ,...., X n , - попарно независимы; 26 2) Имеют одно и тоже математическое ожидание; 3) Дисперсии их равномерно ограничены (не превышают постоянного числа С). Ошибочно думать, что при больших значениях n можно получить сколь угодно большую точность вычисления средней. Точность в любом случае ограничивается точностью измерительного прибора. На теореме Чебышева основан широко применяемый выборочный метод, суть которого состоит в том, что при сравнительно небольшой случайной выборке судят о всей совокупности (генеральной совокупности) исследуемых объектов. Теорема Бернулли. Если в каждом из n независимых испытаний вероятность p появления события A постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности p по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. Другими словами, если сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство lim P| m / n p | 1. n Теорема Бернулли утверждает, что при n относительная частота стремится по вероятности к p . При этом для отдельных значений n неравенство | m / n p | может и не выполняться. Сходимость по вероятности обозначается как m вер p. n n Сходимость относительной частоты m / n к вероятности p отличается от сходимости в смысле обычного анализа. Различие между указанными видами сходимости состоит в следующем: если m / n стремится при n к p как пределу в смысле обычного анализа, то начиная с некоторого n N и для всех последующих значений n неуклонно выполняется неравенство | m / n p | ; если же m / n стремится по вероятности к p при n , то для отдельных значений n неравенство может и не выполняться. Центральная предельная теорема Рассмотренный выше закон больших чисел устанавливает факт приближения средней большого числа случайных величин к определенным постоянным. Оказывается, что при некоторых условиях совокупное действие случайных величин приводит к определенному, а именно – к нормальному закону распределения. Центральная предельная теорема представляет собой группу теорем, посвященных установлению условий, при которых возникает нормальный закон распределения. Среди этих теорем важнейшее место принадлежит теореме Ляпунова. Теорема Ляпунова. Если X 1 , X 2 ,..., X n -независимые с.в., у каждой из которых существует математическое ожидание M ( X i ) ai , дисперсия D ( X i ) i , 2 абсолютный центральный момент третьего порядка M ( X i ai ) mi 3 и n m lim n i 1 i i i 1 n 3/ 2 0, (С) 2 27 то закон распределения суммы Yn X 1 X 2 .... X n при n неограниченно приближается к нормальному с математическим ожиданием n ai и дисперсией i 1 n i 1 2 i . Смысл условия (С) состоит в том, чтобы в сумме Yn X 1 X 2 .... X n не было слагаемых, влияние которых на рассеяние Yn подавляюще велико по сравнению с влиянием всех остальных, а также не должно быть большого числа слагаемых, влияние которых очень мало по сравнению с суммарным влиянием остальных. Таким образом, удельный вес каждого отдельного слагаемого должен стремиться к нулю при увеличении числа слагаемых. Следствие. Если X 1 , X 2 ,..., X n -независимые с.в., у которых существуют равные математические ожидания M ( X i ) a, дисперсии D( X i ) и абсолютные 2 центральные моменты третьего порядка M ( X i ai ) mi (i 1,..., n) , то 3 закон распределения суммы Yn X 1 X 2 .... X n при n неограниченно приближается к нормальному закону. Доказательство сводится к проверке условия (С): n m lim i i 1 lim mn lim n n n i i 1 Следовательно, имеет место равенство n Y a i n x 1 1 1 t 2 / 2 i 1 P z dt ( z ), lim e n 2 2 2 n 2 i i 1 где (z ) функция Лапласса. n n 3/ 2 2 2 3/ 2 m 3 n 0. 28