Модуль 1. Теория вероятностей. Содержание Учебный элемент 1. Случайные события. Методические рекомендации и разбор задач. 1.1. Случайные события. Виды событий и действия Непосредственный подсчет вероятностей случайных событий. над ними. 1.2. Статистическое определение вероятности. Понятие о сходимости по вероятности. 1.3. События зависимые и независимые. Теоремы умножения вероятностей и сложения вероятностей. 1.4. Формула полной вероятности. Теорема гипотез Бейеса. Учебный элемент 2. Случайные величины. Методические рекомендации и разбор задач. 1.1. Распределение дискретной случайной величины. Биномиальный закон. 1.2. Функция распределения вероятностей и её свойства. 1.3. Плотность распределения вероятностей и её свойства. 1.4. Математическое ожидание и его свойства. 1.5. Дисперсия и её свойства. 1.6. Начальные и центральные моменты. Асимметрия, эксцесс. 1.7. Равномерный закон распределения вероятностей и его числовые характеристики. 1.8. Нормальный закон распределения вероятностей и его числовые характеристики. 1.9. Связь биномиального закона с нормальным законом распределения вероятностей. Понятие о локальной и интегральной теоремах Лапласа. Учебный элемент 3. Случайные векторы. Методические рекомендации и разбор задач. 1.1. Функция распределения вероятностей случайного вектора и её свойства. 1.2. Плотность распределения случайного вектора и её свойства. 1.3. Случайные величины зависимые и независимые. Условные законы распределения вероятностей. 1.6. Случайный вектор и его числовые характеристики. Понятие о ковариационной матрице. 1.7. Многомерное нормальное распределение и его числовые характеристики. 1.8. Числовые характеристики линейных преобразований случайного вектора. 1.9. Числовые характеристики нелинейных преобразований случайного вектора. Метод линеаризации для приближенного оценивания числовых характеристик нелинейных преобразований случайного вектора. Вопросы и задания для самоконтроля. Тестовые задания для контроля знаний. Литература. Учебный элемент 1. Случайные события. Методические рекомендации и разбор задач. Аннотация. В этом учебном элементе рассматриваются основные понятия и теоремы теории вероятностей, а также элементы комбинаторики, необходимые при решении задач. 1.1. Случайные события. Виды событий и действия над ними. Непосредственный подсчет вероятностей случайных событий. Испытанием условий. называется осуществление определённой совокупности Результат испытания называется исходом или событием. События принято обозначать большими буквами латинского алфавита: А, В, С и т.д. События подразделяются на достоверные, невозможные и случайные. Событие, которое в данных условиях обязательно произойдет, называется достоверным. Событие, которое в данных условиях не может произойти, называется невозможным. Событие называется случайным, если в результате опыта оно может произойти, а может и не произойти. События называются равновозможными, если ни одно из них не является более возможным, чем другие в данном испытании. События называются совместными, если появление одного из них не исключает появления другого в данном испытании. События называются несовместными, если появление одного из них исключает появление другого в данном испытании. Несколько событий образуют полную группу, если в результате данного испытания появится хотя бы одно из них. Два несовместных события, образующих полную группу, называются противоположными. Противоположные события обозначаются А и А . Над событиями можно производить действия сложения и умножения. Суммой двух событий А и В называется событие С, состоящее в появлении события А или события В или обоих вместе: С = А + В. Произведением двух событий А и В называется событие С, состоящее в совместном появлении этих событий: С = А В. События, которые нельзя разложить на более простые, называются элементарными. Те элементарные события или исходы данного испытания, которые влекут за собой появление события А, называются благоприятствующими этому событию. Определение. Вероятностью события А называют отношение числа m благоприятствующих этому событию исходов данного испытания к общему числу n всех равновозможных несовместных элементарных исходов, образующих полную группу: P A m . n Это – классическое определение вероятности. Из этого определения вытекают следующие свойства: 1. Вероятность достоверного события равна единице: P A n 1 . m 2. Вероятность невозможного события равна нулю: P A 0 . 3. Вероятность события А есть 0 P A 1 число, заключенное между 0 и 1: Классическое определение вероятности обладает рядом недостатков: 1) Число элементарных исходов испытания должно быть конечно и они должны быть равновозможными; 2) Результат испытания должен быть разложим на элементарные события. На практике часто встречаются испытания, исходы которых являются или не равновозможными или их число бесконечно. Множество исходов испытания такого типа бесконечно, оно может быть иллюстрировано геометрически в виде совокупности точек отрезка прямой, плоской фигуры или пространственного тела. Такую схему испытаний принято называть геометрической. Пусть в результате испытания наудачу выбирается точка в области G. Требуется найти вероятность того, что точка окажется в области g, являющейся частью области G. Пусть исходы испытаний распределены равномерно, т.е. можно считать, что вероятность попадания наудачу выбранной точки из области G в какую-либо часть g этой области пропорциональна мере этой части и не зависит от ее расположения и формы. Тогда P ( А) mes g , mes G где mes g и mes G есть меры соответствующих областей, выраженные в единицах длины, площади или объема. Ниже изложены некоторые элементы комбинаторики, необходимые при решении задач теории вероятностей. Определение. Различные группы, составленные из каких-либо элементов (произвольной природы) конечного множества и отличающиеся одна от другой или порядком этих элементов, или самими элементами, называются комбинациями. Комбинации бывают трех видов: размещения, перестановки и сочетания (без повторений и с повторениями). Мы будем рассматривать только комбинации без повторений. 1) Размещениями без повторений из n элементов по m элементов называются комбинации, каждое из которых содержит m элементов, взятых из данных n элементов, и которые отличаются одно от другого или хотя бы одним элементом или порядком расположения элементов ( m n) . m Обозначение: An . Число всевозможных размещений из n элементов по m Anm n (n 1) (n (m 1)) n! . (n m)! Пример: Сколько можно образовать целых чисел, из которых каждое изображалось бы тремя цифрами? Решение: A103 10 9 8 720 чисел. 2) Перестановками без повторений из n элементов называются такие комбинации, которые содержат все n элементов и отличаются друг от друга только порядком следования элементов. Число всех перестановок из n элементов обозначим через Pn. Тогда Pn n ! . Пример: Сколько пятизначных чисел можно составить из цифр 1, 2, 3, 4, 5, если каждая цифра входит в число только один раз. Решение: P12 5! 1 2 3 4 5 120. 3) Сочетаниями без повторений из n элементов по m называются такие комбинации, которые содержат m элементов и отличаются друг от друга хотя бы одним элементом. Число всех сочетаний из n элементов по m m обозначается C n . Тогда C nm Пример: n! . m!(n m)! Сколько существует способов отбора трёх студентов из группы, состоящей из десяти студентов? Решение: C103 10! 120 . 10!(10 3)! При использовании формул комбинаторики полезно иметь ввиду, что 0!=1. Принцип умножения: Пусть необходимо выполнить одно за другим какие то k действий. Если первое действие можно выполнить n1 способами, после чего второе действие можно выполнить n2 способами и т.д. до kго действия, которое можно выполнить nk способами, то все k действий вместе могут быть выполнены n1 n2 ... nk способами. Принцип сложения: Если два действия взаимно исключают одно другое, причем одно из них можно выполнить n1 способами, а другое- n2 способами, то какое-либо одно из них можно выполнить (n1+n2) способами. Примеры решения задач. Пример 1. Игральная кость подбрасывается один раз. Найти вероятность выпадения чётного числа очков. Решение. Событие А состоит в том, что выпавшее число очков чётно. В этом случае n=6 – число граней куба; m=3 – число граней с чётными числами. Тогда Р(А)=3/6=1/2. Пример 2. Симметричная монета подбрасывается 2 раза. Найти вероятность того, что оба раза выпадет цифра. Решение. Событие А состоит в том, что выпало 2 цифры при двух подбрасываниях монеты. В этом случае n=4, так как всего возможны 4 следующих исхода: ГЦ, ГГ, ЦГ, ЦЦ. При этом благоприятствует событию А только один исход А={ЦЦ}. Значит, m=1. Тогда Р(А)= 1/4. Пример 3. Набирая номер телефона, абонент забыл три последние цифры. Какова вероятность того, что он с первого раза наберёт эти цифры правильно, если он помнит, что они различны? Решение. Обозначим А – событие, состоящее в том, что абонент, набрав произвольно три цифры, угадал их правильно. Очевидно, что m=1; 10! 7!8 9 10 3 n A10 720. Таким образом, Р(А)= 1/720. 7! 7! Пример 4. Среди 14 билетов 4 выигрышных. Найти вероятность того, что из 6 купленных билетов ровно 2 выигрышных. Решение. Решим задачу с помощью классического определения вероятности события A с использованием формул комбинаторики: m P A , n где n - общее число случаев, m - число случаев, благоприятствующих событию A . Из 14 билетов 6 штук можно выбрать C146 способами. Значит, n C146 . Два выигрышных билета могут быть выбраны из 4 билетов C 42 способами. Остальные (4 билета) должны быть невыигрышными, их можно выбрать из 10 невыигрышных С104 способами. Так как на один способ выбора двух выигрышных билетов приходится 4 С10 способов выбора невыигрышных билетов, то на C 42 способов выбора двух выигрышных билетов невыигрышных билетов. Итак, m C 42 4 C10 приходится 4 С 42 С10 2 4 m C 4 C10 . Тогда P A . n C146 способов выбора Получим: P A C 42 C104 C146 4! 10! 6! 8! 60 . 2! 2! 4! 6! 14! 143 Пример 5. В окружность радиуса 6 см вписан квадрат. В круг случайным образом бросается точка. Какова вероятность попадания этой точки в квадрат? Решение. Эту задачу можно решить с помощью понятия геометрической вероятности: P( А) mes g площадь квадрата . mes G площадь круга Площадь круга: Sкр 62 36 ; Площадь квадрата: S кв Тогда P A d 2 12 2 72 . 2 2 72 0.64. 36 Задачи для самостоятельного решения 1. Игральная кость бросается два раза. Какова вероятность того, что оба раза выпадет одинаковое количество очков. 2. В урне 4 белых и 3 черных шара. Из урны вынимаются два шара. Найти вероятность того, что шары будут разных цветов. 3. Какова вероятность, вытягивая из колоды в 36 карт 4 карты, вытянуть 2 дамы и два туза? 4. На шести карточках помещены буквы «д», «и», «р», «к», «т», «о». Карточки перемешаны и случайным образом подкладываются одна к другой. Какова вероятность того, что получится слово «диктор»? 5. В квадрат вписан равнобедренный треугольник так, что его основание совпадает со стороной квадрата. В квадрат случайным образом бросается точка. Найти вероятность того, что точка не попадет в треугольник. 6. На квадрат [0,5]x[0,5] случайным образом бросается точка. Найти вероятность попадания ее в треугольник с вершинами (1,1), (1,2), (2,2). Вопросы для самоконтроля Дайте определения следующих понятий: 1. испытание; случайное событие; совместные события; несовместные события; события, образующие полную группу; сумма событий; произведение событий. 2. классическая вероятность; геометрическая вероятность. 3. перестановки, размещения, сочетания. 1.2. Статистическое определение вероятности. Понятие о сходимости по вероятности. Пусть произведена серия из n испытаний, в каждом из которых некоторое событие А может появиться или не появиться. Допустим событие А появилось m раз. Относительной частотой события А называется отношение числа m появлений события к числу n всех произведенных испытаний: m Pˆ A . n При увеличении числа опытов частота события все более теряет случайный характер. Случайные обстоятельства, свойственные отдельному опыту, в большой массе опытов взаимно погашаются, и частота проявляет тенденцию стабилизироваться, колеблясь около некоторого числа. Длительные наблюдения показали, что это постоянное число есть вероятность появления события. Вероятность события есть, по сути дела, предел частоты при увеличении числа опытов, а потому частоту называют статистической вероятностью. Недостатком статистической вероятности является её неоднозначность: в различной серии опытов она может принимать различные значения. Заметим, что было бы ошибочно утверждать, что P( A) lim n Pˆ ( A) , так как это предполагает, что 0 N ( ) такое, что неравенство Pˆ ( A) P( A) выполняется при n N ( ) обязательно! При проведении экспериментов это неравенство выполняется необязательно, а с тем большей вероятностью, чем больше n. Поэтому вводится понятие сходимости по вероятности. Говорят, что переменная X n сходится по вероятности к величине а, если для 0 вероятность неравенства X n a с бесконечным увеличением n неограниченно приближается к 1: lim n P( X n a ) 1 для 0. Таким образом, вероятность является пределом относительной частоты в смысле сходимости по вероятности lim n P( Pˆn ( A) P( A) ) 1 для 0. Вероятность события можно вычислить как до проведения испытаний, так и после. Частота события вычисляется только после проведения испытаний. Примеры решения задач. Пример 1: Монета брошена 100 раз. При этом герб выпал 57 раз. Найти частоту выпадения герба. Решение. Тогда частота появления герба равна: 57 Pˆ A 0.57 . 100 Пример 2. При выполнении спортивного упражнения стрелок в первой серии из 30 выстрелов поразил 28 мишеней, а во второй серии из 30 выстрелов – 24 мишени. Какова частота поражения мишеней в каждой серии и при выполнении всего упражнения? ˆ A 28 0.93 P Решение. a) ; 30 24 4 Pˆ A ; 30 5 ˆ A 28 24 13 P c) . 30 30 15 Пример 3. Определить число промахов, если известно, что произведено 16 3 1 выстрелов, а частота попадания равна а) , б) . 8 4 b) ˆ Решение. P A m m Pˆ A n ; n=16, число промахов равно n => m1 n m ˆ A 1 1 P a) ; m 16 4 , m1 16 4 12 . 4 4 ˆ A 3 3 P б) ; m 16 6 , m1 16 6 10 . 8 8 Задачи для самостоятельного решения 1. По цели произведено 30 выстрелов и зарегистрировано 25 попаданий. Какова относительная частота попаданий? 2. При испытании партии приборов относительная частота годных приборов оказалась равной 0.92. Найти число годных приборов, если всего было проверено 200 приборов. 3. При стрельбе по огневой точке была получена частота попаданий – 35%. Сколько всего было произведено выстрелов, если получено 13 промахов? Вопросы для самоконтроля 1. Относительная частота. 2. Сходимость по вероятности. 1.3. События зависимые и независимые. Теоремы умножения и сложения вероятностей. Введем понятие независимых и зависимых событий. Событие А называется независимым от события В, если вероятность появления события А не зависит от того, произошло событие В или нет. Событие А называется зависимым от события В, если вероятность появления события А зависит от того, произошло событие В или нет. Вероятность события В, вычисленная при условии, что имело место другое событие А, называется условной вероятностью события В. Обозначение: A или PA (B) . P B Если события А и В независимы, то A P B и P A B P A . P B Теорема. Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло. A P B P A B . P A B P A P B Эта теорема может быть обобщена на любое конечное число событий. Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от события А. Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий: P AB P A P B Теорема. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий: P( A B) P( A) P(B) . Теорему можно обобщить на произвольное число несовместных событий. Следствие 1. Если событие А1, А2, …, Аn образуют полную группу несовместных событий, то сумма их вероятностей равна единице. Следствие 2. Сумма вероятностей противоположных событий равна единице: P( A) P( A) 1 . Теорема. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: P( A B) P( A) P( B) Р( АВ) . Вероятность суммы трех совместных событий вычисляется по формуле: P( A B С ) P( A) P( B) Р(С ) Р( АВ) Р( АС ) P( ВС ) Р( АВС ). Несколько событий называются независимыми в совокупности, если каждое из них и любая комбинация остальных событий, либо часть из них, есть события независимые. Для независимых в совокупности событий А1, А2,…, Аn также справедливо следствие из теоремы умножения вероятностей независимых событий, т.е. Р( А1 А2 ... Аn ) Р( А1 ) Р( А2 ) ...Р( Аn ) . Теорема. Вероятность появления хотя бы одного из событий А1, А2,…, Аn, независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий A1 , A2 ,..., An : P A 1 q1 q2 ... qn . В частности, если события А1, А2,…, Аn имеют одинаковую вероятность появления p, то события A1, A2 ,..., An имеют также одинаковую вероятность q = 1 p . Тогда получаем P A 1 q n . Примеры решения задач. Пример 1. Вероятность попадания в цель при одном выстреле равна 0,25. Найти вероятность промаха. Решение. Пусть событие А – попадание при одном выстреле. Событие A – промах при одном выстреле. Попадание и промах при одном выстреле – события противоположные. Значит, P( A) 1 P( A) , т.е. q 1 p , где p P(A) , q P(A) . Итак, q 1 p 1 0,25 0,75 . Пример 2. Два стрелка стреляют по мишени. Вероятность попадания для первого стрелка равна 0.8, для второго – 0.85. Найти вероятность хотя бы одного попадания при одном залпе. Решение. Пусть А – первый стрелок попадет в мишень, В – второй стрелок попадет в мишень. Тогда интересующее нас событие представляет собой сумму А+В. Так как события А и В совместны, то по теореме сложения для совместных событий имеем: P( A B) 0.8 0.85 0.8 0.85 0.97 . Пример 3: В ящике имеется 80 деталей, из них 70 стандартных. Наудачу по очереди извлекаются две детали. Найти вероятность того, что обе извлечённые детали стандартные, если: 1) первая деталь возвращена обратно в ящик перед извлечением второй; 2) первая деталь не возвращается в ящик. Решение: Рассмотрим события: А – появление стандартной детали при первом испытании; В – появление стандартной детали при втором испытании. Тогда АВ – обе детали стандартные. 1) В первом случае P( A B) P( A) P( B) события А и В независимы и 70 70 0.77. 80 80 2) Во втором случае события А и В зависимы. Если А произошло, то в ящике останется 79 деталей, причем стандартных будет 69 и тогда P( B / А) 69 70 69 0.87. Тогда P( A B) P( A) P( B / A) 0.76. 79 80 79 Пример 4. Стрелок ведет огонь по движущемуся объекту и делает два выстрела. Вероятность попадания при первом выстреле 0,4; при втором – 0,5. Найти вероятность двух попаданий при двух выстрелах. Решение. Обозначим: А – попадание при первом выстреле; В – попадание при втором выстреле. Тогда АВ – два попадания при двух выстрелах. События А и В не зависят друг от друга, поэтому P( A B) P( A) P( B) 0.4 0.5 0.2. Пример 5. Прибор содержит 3 элемента с вероятностями отказа 0.1, 0.4 и 0.2. Найти вероятности отказа а) одного элемента; б) двух или трех элементов; в) хотя бы одного элемента. Решение. Пусть A – отказ i -ого элемента, B – отказ одного элемента, C – i отказ двух или трех элементов, D – отказ хотя бы одного элемента. Тогда B A1 A2 A3 A1 A2 A3 A1 A2 A3 , где Ai – событие, означающее безотказную работу элемента i . Слагаемые этой суммы – несовместные события. Поэтому, согласно теореме сложения вероятностей для несовместных событий, PB P A1 A2 A3 A1 A2 A3 A1 A2 A3 P A1 A2 A3 P( A1 A2 A3 ) P A1 A2 A3 . Сомножители в последнем выражении – независимые события, значит, в соответствии с теоремой умножения для независимых событий P( B) P A1 P A2 P A3 P A1 P A2 P A3 P A1 P A2 P A3 . Поскольку P Ai 1 P Ai , получаем PB 0,1 0,6 0,8 0,9 0,4 0,8 0,9 0,6 0,2 0,444 . В случае б) имеем C A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 . Как и в случае а) справедливы следующие соотношения: PC P A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 P A P A PA P A PA P A PA P A P A P A P A P A P A1 A2 A3 P A1 A2 A3 P A1 A2 A3 P A1 A2 A3 1 2 3 1 2 3 1 2 3 1 2 0,1 0,4 0,8 0,1 0,6 0,2 0,9 0,4 0,2 0,1 0,4 0,2 0,124 . 3 В случае в) искомое событие D A1 A2 A3 , причем слагаемые – совместные события, и для вычисления вероятности нужно использовать теорему сложения для произвольных событий, но можно решить задачу проще, используя противоположное событие D и формулу PD 1 P D . Так как D означает отказ одного или двух или трех элементов, то D событие, дополняющее D до полной группы – означает безотказную работу всех трех элементов. Поскольку D A1 A2 A3 и события A1 , A2 , A3 независимы, получаем PD 1 P D 1 P A1 A2 A3 1 P A1 P A2 P A3 1 0,9 0,6 0,8 0,568 . Задачи для самостоятельного решения. 1. В читальном зале 6 учебников по теории вероятностей, из них 3 в переплете. Взято два учебника. Найти вероятность того, что оба учебника окажутся в переплете. 2. В урне 10 белых и 5 черных шаров. Из урны извлекают два шара. Найти вероятность того, что шары а) белые; б) одного цвета; в) разного цвета. 3. Студент знает ответы на 75% вопросов зачёта. Преподаватель задаёт студенту два вопроса. Определить вероятность того, что среди полученных студентом вопросов есть хотя бы один, на который он знает ответ. 4. Три стрелка стреляют в цель независимо друг от друга. Вероятность попадания в цель для первого стрелка равна 0,6; для второго – 0,7; третьего – 0,75. Найти вероятность того, что в цель попадёт а) только один стрелок; б) два стрелка; в) хотя бы один стрелок, если каждый стрелок делает по одному выстрелу по цели. Вопросы для самоконтроля 1. Зависимые события; независимые события; условная вероятность. 2. Теорема умножения вероятностей и её следствия. 3. Теорема сложения вероятностей и её следствия. 4. Вероятность появления хотя бы одного события. 1.4. Формула полной вероятности. Теорема гипотез Бейеса. Пусть событие А может произойти только вследствие появления одного из событий Н1, Н2, …, Нn, образующих полную группу несовместных событий, т.е. n Р( Н ) 1 . Эти события принято называть гипотезами. i 1 i Теорема. Вероятность события А, которое может произойти совместно с одной из гипотез Н1, Н2, …, Нn, равна сумме произведений вероятностей каждой из этих гипотез на соответствующие им условные вероятности события А: n P( A) P( H ) P( A H ) . i i 1 i Эта формула называется формулой полной вероятности. Пусть теперь произведен опыт, в результате которого событие А появилось, Какие вероятности будут иметь гипотезы в связи с появлением события А? Hi A для каждой Иными словами, будем искать условные вероятности P гипотезы. Теорема. Вероятность гипотезы при условии, что событие А произошло, равна произведению вероятности этой гипотезы на соответствующую ей условную вероятность события А, которое произошло при испытании, деленному на полную вероятность события А. H P i A P H i P A Hi n P H i P A Hi i 1 Эта формула носит название формулы Бейеса или теоремы гипотез. Примеры решения задач. Пример 1. В первой урне 20 шаров, среди них 3 белых, во второй урне 15 шаров и среди них 2 белых. Из первой урны взяли шар и переложили во вторую. Какова вероятность того, что шар, взятый после этого из второй урны, белый? Решение. Пусть событие А - извлечение белого шара из второй урны. Возможны две гипотезы: H 1 - из первой урны взяли белый шар, H 2 - из первой урны взяли шар другого цвета. По формуле полной вероятности вероятность события А с учетом двух гипотез равна: P A PH 1 PH 1 A PH 2 PH 2 A. Вероятности гипотез составляют PH 1 3 17 , PH 2 . 20 20 Найдем условные вероятности. Если из первой урны взяли белый шар и переложили во вторую, то во второй урне стало 16 шаров, среди которых 3 3 белых. Поэтому PH 1 A . Если же из первой урны взяли шар другого 16 цвета и переложили во вторую, то во второй урне стало 16 шаров, но число 2 белых шаров (их 2) не изменилось и, значит, PH 2 A . 16 Подставив полученные значения в формулу полной вероятности, найдем P A : P A 3 3 17 2 43 . 20 16 20 16 320 Пример 2. Каждый из двух стрелков независимо друг от друга произвел выстрел по некоторому объекту. Вероятность попадания в цель первым стрелком равна 0,7; вторым – 0,6. Объект поражен одним попаданием. Определить вероятность того, что объект поражен первым стрелком. Решение. Событие А – поражение объекта одним попаданием. До опыта возможны следующие гипотезы: Н1 – ни один стрелок не попадет; Н2 – оба стрелка попадут; Н3 – первый стрелок попадет, второй – нет; Н4 – второй стрелок попадет, первый – нет. Вероятности этих гипотез равны: P(H1)=0,3·0,4=0,12, P(H2)=0,7·0,6=0,42, P(H3)=0,7·0,4=0,28, P(H4)=0,3·0,6=0,18. Условные вероятности события А при этих гипотезах равны: P A 0 , P A 0 , P A H 1, P A 1 . 3 H2 H1 H4 После опыта гипотезы Н1 и Н2 становятся невозможными, а вероятности гипотез Н3 и Н4 будут соответственно равны: P Н 3 / А P H 3 P А / Н 3 0,28 1 0,61; PH 3 P А / Н 3 PH 4 P А / Н 4 0,28 0,18 Следовательно, вероятность того, что объект поражен первым стрелком, равна 0,61. Пример 3. На склад поступает продукция 3-х фабрик. Причем продукция первой фабрики составляет 20%, второй – 46% и третьей – 34%. Известно, что средний процент нестандартных изделий для первой фабрики равен 3%, для второй – 2%, для третьей – 1%. Найти вероятность того, что наудачу взятые изделия произведены на первой фабрике, если они оказались нестандартными. Решение. Событие А – изделие нестандартное. Гипотезы: Н1 – изделие изготовлено на первой фабрике; Н2 – изделие изготовлено на второй фабрике; Н3 – изделие изготовлено на третьей фабрике. Вероятности гипотез: P H1 0,2 , P H 2 0,46 , P H 3 0,34 . Условные вероятности: P A 0,03 , P A 0,02 , P A H 0,01 . 3 H1 H2 Тогда вероятность того, что наудачу взятые изделия произведены на первой фабрике, если они оказались нестандартными P H1 A P H P 1 H 0,322. P A H P H P A H P H1 P A A H1 P H 2 1 2 3 3 Задачи для самостоятельного решения 1. В сборочный цех поступили детали с трех станков. На первом станке изготовлено 51% деталей от их общего количества, на втором станке 24% и на третьем 25%. При этом на первом станке было изготовлено 90% деталей первого сорта, на втором 80% и на третьем 70%. Определить, какова вероятность того, что взятая наугад деталь окажется первого сорта? 2. Имеется три одинаковых по виду ящика. В первом ящике находится 26 белых шаров, во втором 15 белых и 11 черных, в третьем ящике 26 черных шаров. Из выбранного наугад ящика вынули белый шар. Найти вероятность того, что белый шар вынут из первого ящика. 3. В пирамиде установлено 5 винтовок, из которых 3 снабжены оптическим прицелом. Вероятность того, что стрелок поразит мишень при выстреле из винтовки с прицелом равна 0,95, для винтовки без прицела – 0,7. Найти вероятность того, что мишень будет поражена, если стрелок произведет один выстрел из наудачу взятой винтовки. Вопросы для самоконтроля 1. Формула полной вероятности. 2. Теорема гипотез. Учебный элемент 2. Случайные величины. Методические рекомендации и разбор задач. Аннотация. В этом учебном элементе вводятся понятия случайных величин – дискретной и непрерывной. Рассматриваются наиболее распространённые законы распределения случайных величин. Определяются функция и плотность распределения и их свойства. 1.1. Распределение дискретной случайной величины. Биномиальный закон. Одним из основных понятий теории вероятностей является понятие случайной величины. Определение. Случайной величиной называется величина, которая в результате опыта может принять одно и только одно из своих возможных значений, причем заранее неизвестно, какое именно. Случайные величины обозначаются большими буквами латинского алфавита, а их возможные значения – малыми буквами. Случайные величины бывают дискретные (прерывные) и непрерывные. Величина Х называется дискретной случайной величиной, если она принимает отдельные изолированные значения. Множество ее значений представляет собой конечную или бесконечную последовательность чисел х1, х2,… . Если каждое событие X xi имеет определенную вероятность появления pi, то пишут P(X=xi)=pi. Например: 1. Число попаданий при трех выстрелах. 2. Число студентов в группе, которые могут получить на экзамене оценку «отлично». В этих примерах случайные величины могут принимать отдельные значения. Рассмотрим следующие примеры: 1. Абсцисса точки попадания при выстреле. 2. Ошибка измерения какой-либо величины. Эти случайные величины принимают любые значения из некоторого числового промежутка. Такие случайные величины называются непрерывными. Случайные величины, возможные значения которых непрерывно заполняют некоторый числовой промежуток, называются непрерывными случайными величинами. Случайная величина будет описана полностью, если установлена связь между возможными ее значениями и вероятностью их появления. Всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения случайной величины. Закон распределения может быть задан таблично, аналитически или графически. Рассмотрим дискретную случайную величину Х с возможными значениями х1, х2, …, хn. В результате опыта величина Х обязательно примет одно из этих значений с определённой вероятностью, т.е. события X x1 , X x2 , …, X xn образуют полную группу несовместных событий: P X x1 p1 , P X x2 p2 ,…, P X xn pn . Так как события образуют полную группу несовместных событий, то n p i 1 i 1 Если множество возможных значений величины Х бесконечно, то ряд Pi p1 p2 p3 ... pi ... i 1 должен быть сходящимся и его сумма должна быть равна единице. Закон распределения дискретной случайной величины удобно представлять в виде таблицы следующим образом X p х1 р1 х2 р2 … … хn рn В качестве примеров рассмотрим некоторые часто встречающиеся законы распределения дискретной случайной величины. Пример 1. Биномиальный закон распределения. Пусть производится n независимых опытов, в каждом из которых событие А появляется с вероятностью p. Тогда вероятность того, что событие А появится ровно k раз (и, следовательно, не появится n k ), выражается формулой: Рn(k)= Сn p q k k nk , где q 1 p . Это – формула Бернулли. Теперь рассмотрим случайную величину Х – число появлений события А в n независимых опытах. Она может принимать значения 0, 1, 2, …, n, вероятности которых могут быть вычислены по формуле Бернулли: Pn ( X 0) Сn0 p 0 q n , Pn ( X 1) Сn1 p1 q n 1 , …, Pn ( X k ) Сnk p k q n k , …, Pn ( X n) Сnn p n q 0 . Соответствующий закон распределения называется биномиальным. X P 0 1 qn n p q n 1 … … k Сnk p k q n k … … n pn n С помощью бинома Ньютона можно показать, что С k 0 k n p k q nk 1 . Пример 2. Геометрический закон распределения. Пусть теперь независимые опыты повторяются до первого появления события А. Рассмотрим случайную величину Х – количество испытаний, проведённых до первого появления события А. Она может принимать значения 1, 2, 3, …, вероятности которых могут быть вычислены следующим образом: P ( X 1) p , P( X 2) q p , …, P( X k ) q k 1 p , …. … k … p q p P … … q2 p q k 1 p Соответствующий закон распределения называется геометрическим, так как элементы второй строки этой таблицы представляют собой члены геометрической прогрессии. Можно показать, что их сумма равна 1. X 1 2 3 Пример 3. Закон распределения Пуассона. Если в условиях примера 1 число n очень велико, а вероятность p появления события А в каждом испытании очень мала, то случайная величина X подчиняется закону Пуассона e k P( X k ) , где n p . k! Примеры решения задач. Пример 1. Стрелок ведет стрельбу по мишени до первого попадания, имея 4 патрона. Вероятность попадания при каждом выстреле 0,6. Составить закон распределения числа патронов, оставшихся неизрасходованными. Решение. Случайная величина Х – число неизрасходованных патронов – имеет 4 возможных значения 0, 1, 2, 3. Вероятности этих значений соответственно равны: P0 0,43 0,064; P1 0,42 0,6 0,096; P2 0,4 0,6 0,24; P3 0,6. Тогда закон распределения имеет следующий вид: Х Р 0 1 2 0,064 0,096 0,24 3 0,6 Пример 2. Вероятность попадания в цель при одном выстреле равна 0,7. Какова вероятность того, что в результате 6 независимых выстрелов будет: a) 4 попадания; b) не менее 4-х попаданий; c) не более 3-х попаданий? Решение. Решаем задачу по формуле Бернулли. P6 (4) C64 0,7 4 0,32 0,324; a) b) P6 (4) P6 (5) P6 (6) C64 0,74 0,32 C65 0,75 0,31 C66 0,76 0,30 0,744; c) P6 (0) P6 (1) P6 (2) P6 (3) 1 (C64 0,7 4 0,32 C65 0,75 0,31 C66 0,76 0,30 ) 1 0,744 0,256. Пример 3. Вероятность того, что любой абонент позвонит на коммутатор в течение часа, равна 0,01. Телефонная станция обслуживает 800 абонентов. Какова вероятность, что в течение часа позвонят 5 абонентов? Решение. Так как число испытаний n слишком велико, а вероятность p появления события в каждом испытании очень мала, то будем использовать формулу Пуассона: n 800, p 0,01, np 800 0,01 8, k e Pn (k ) k! , 85 e8 0,0916. 5! Пример 4. Дан закон распределения дискретной случайной величины Х P800 5 Х Р 5 0,1 7 0,2 9 0,3 11 ? 13 0,3 Какова вероятность того, что Х примет значение 11? 5 Решение. Так как Pi 1, то i 1 P X i 11 1 0,1 0,2 0,3 0,3 0,1 . Пример 5. Имеется 3 лампочки. Одна из них вкручивается в патрон. Если она перегорает, то заменяется другой, пока не израсходуются все лампочки. Вероятность возгорания каждой лампочки равна 0,6. Составить закон распределения случайной величины Х – числа израсходованных лампочек. Решение. Случайная величина Х принимает значения 1,2,3. Вычислим соответствующие вероятности: P ( X 1) 0,6, P ( X 2) 0,4 0,6 0,24, P ( X 3) 0,4 0,4 0,16. Тогда закон распределения имеет вид: X 1 2 3 P 0,6 0,24 0,16 Задачи для самостоятельного решения. Задача 1. Фирма снабжает своей продукцией пять магазинов. От каждого магазина может поступить заявка на очередной день с вероятностью 0.4 независимо от заявок других магазинов. а) Какова вероятность того, что поступит не более двух заявок? б) Какова вероятность, что количество поступивших заявок будет лежать в пределах от двух до четырех? Задача 2. На АТС поступило 1000 звонков от абонентов. Вероятность неправильного соединения равна 0.005. Какова вероятность того, что произошло 8 неправильных соединений? Найти наивероятнейшее число неправильных соединений и соответствующую этому вероятность. Задача 3. Получить закон распределения для случайной величины – числа попаданий в цель при двух выстрелах, если вероятность попадания в цель равна 0.8 при одном выстреле. Задача 4. Закон распределения дискретной случайной величины X имеет вид: xi -4 -1 1 3 4 pi 0,1 ? 0,1 0,1 0,4 Какова вероятность того, что Х примет значение -1? 6 0,1 Вопросы для самоконтроля. 1. Случайная величина: дискретная, непрерывная. 2. Закон распределения случайной величины. 3. Некоторые законы распределения дискретной случайной величины: биномиальный, геометрический, Пуассона. 1.2. Функция распределения вероятностей и её свойства. Закон распределения является исчерпывающей характеристикой дискретной случайной величины. Для непрерывной случайной величины такой характеристики построить нельзя, т.к. непрерывная случайная величина принимает несчётное множество значений. Для количественной характеристики распределения вероятностей непрерывной случайной величины удобно пользоваться не вероятностью события Х = х, а вероятностью события Х < х. Введём понятие функции распределения следующим образом: F x P X x . Функция распределения существует для всех случайных величин – и непрерывных, и дискретных. Свойства функции распределения 1. Область определения функции распределения есть вся числовая ось, множество значений – отрезок от 0 до 1: D(F) = (– ∞; + ∞); E(F) = [0, 1]. 2. F x – функция неубывающая, т.е. F x1 F x2 при x1 x2 . 3. Функция распределения непрерывна слева: lim F ( x) F ( x0 ) . x x0 0 4. Вероятность того, что случайная величина попадет на участок a; b , равна приращению функции распределения на этом участке: P a x b F b F a . 5. F 0 , F 1. График функции распределения F x есть график неубывающей функции, значения которой меняются от 0 до 1. Для непрерывной случайной величины – это непрерывная линия, график которой расположен в полосе от 0 до 1. Для дискретной случайной величины – это ступенчатая фигура, скачки которой происходят в точках, соответствующих возможным значениям случайной величины. Примеры решения задач. Пример 1: Построить график функции распределения дискретной случайной величины Х, заданной следующим законом распределения: Х Р 0 1 2 3 0,064 0,096 0,24 0,6 Решение. Составим функцию распределения F x : При x 0 F ( x) P( X x) 0, при 0 x 1 F ( x) P( X x) P( X 0) 0,064, при 1 x 2 F ( x) P( X x) P( X 0) P( X 1) 0,064 0,096 0,16, при 2 x 3 F ( x) P( X x) P( X 0) P( X 1) P( X 2) 0,064 0,096 0,24 0,4, при x 3 F ( x) P( X x) P( X 0) P( X 1) P( X 2) P( X 3) 0,064 0,096 0,24 0,6 1 0 0,064 F ( x) 0,16 0,4 1 при x 0, при 0 x 1, при 1 x 2, при 2 x 3, при x 3. Построим график F x . Задачи для самостоятельного решения. Задача 1: Имеется 3 лампочки. Одна из них вкручивается в патрон. Если она перегорает, то заменяется другой, пока не израсходуются все лампочки. Вероятность возгорания каждой лампочки равна 0,6. Составить функцию распределения случайной величины Х – числа израсходованных лампочек и построить её график. Задача 2. Случайная величина Х задана функцией распределения: при x -1 0, 3 3 1 F x x , при -1 x . 4 3 4 1 1, при x 3 Найти вероятность того, что в результате испытания величина Х примет 1 значение, заключенное в интервале 0, . 3 Вопросы для самоконтроля. 1. Функция распределения вероятностей. 2. Свойства функции распределения вероятностей. 1.3. Плотность распределения вероятностей и её свойства. Пусть дана непрерывная случайная величина Х с функцией распределения F x , которая непрерывна и дифференцируема. Вычислим вероятность попадания случайной величины Х в интервал ( x, x x) : P x X x x F x x F x . Определение. Плотностью распределения непрерывной случайной величины Х в точке х называется предел отношения вероятности попадания значений этой величины в интервал ( x, x x) к длине этого интервала, когда последняя стремится к нулю: F x x F x lim f x . x 0 x Как видно из определения, плотность распределения f(x) является производной от функции распределения F x , т. е. f x F x . График плотности распределения случайной величины называется кривой распределения. Плотность распределения есть также одна из форм закона распределения. Плотность распределения существует только для непрерывных случайных величин. Рассмотрим непрерывную случайную величину Х с плотностью распределения f x . Свойства плотности распределения 1. Плотность распределения есть неотрицательная функция f x 0 как производная неубывающей функции F x . 2. f x dx 1 Геометрически это означает, что площадь фигуры, ограниченной кривой распределения и осью абсцисс, равна единице. 3. Вероятность попадания случайной величины Х на некоторый участок (a; b) b P a x b f x dx . a Геометрически – это площадь криволинейной трапеции. f(x) a 0 b х 4. Функцию распределения F x можно выразить через плотность следующим образом f x x F(x) = f ( x)dx . Примеры решения задач. Пример 1. Случайная величина Х задана плотностью распределения: 0, при x 1 f x 1 . , при x 1 2 x Найти функцию распределения F x . Построить графики функции распределения и плотности распределения. Решение. Для нахождения функции распределения F x воспользуемся свойством 4: 1 0 dx, при x 1 0, при x 1 x F x f x dx x 1 dx , при x 1 1 x , при x 1 . x2 1 Построим графики функций f x и F x . Пример 2. Непрерывная случайная величина Х задана плотностью распределения 3 f ( x) sin 3x 2 в интервале 0; ; вне этого интервала 3 f x 0 . Найти вероятность того, что Х примет значение, принадлежащее интервалу , . 6 4 Решение. Вероятность попадания случайной величины Х на некоторый участок (a; b) может быть вычислена по формуле b P a x b f x dx . a 4 4 3 1 1 3 1 2 P , sin 3xdx cos 3x cos cos 0,35 2 2 4 2 2 2 6 4 2 6 6 Пример 3. Для заданной функции x, при x (0, 2) f x 0, при x (0, 2) найти значение параметра , при котором она является плотностью распределения вероятностей некоторой случайной величины X . Решение. Для того, чтобы найти значение параметра , воспользуемся свойством 2: 2 0 2 xdx = xdx = 0 x2 2 2 0 = 2 ; 2 =1 =1/2. Итак, при =1/2 данная функция является плотностью распределения некоторой случайной величины. Задачи для самостоятельного решения. Задача 1. Задана плотность распределения непрерывной случайной величины Х: 0 f ( x) cos x 0 при x 0, при 0 x при x 2 2 , Найти функцию распределения F x . Задача 2. Плотность распределения непрерывной случайной величины Х 2C задана на всей оси Ох равенством f x . 1 x2 Найти постоянный параметр С и вероятность попадания случайной величины Х в интервал (-1, 1). Вопросы для самоконтроля. 1. Плотность распределения вероятностей. 2. Связь между плотностью и функцией распределения вероятностей. 3. Свойства плотности распределения вероятностей. 1.4. Математическое ожидание и его свойства. Определение. Математическим ожиданием дискретной случайной величины называется сумма произведений всех ее возможных значений на соответствующие им вероятности: n X xi pi . i 1 Математическое ожидание обозначают также через mx , оно характеризует расположение случайной величины на числовой оси. Определение. Математическим ожиданием непрерывной случайной величины Х, значения которой принадлежат отрезку [a,b], называется определенный интеграл: b M ( X ) xf ( x) dx. a Если значения случайной величины принадлежат интервалу ; , то M (X ) xf ( x)dx , если несобственный интеграл в правой части сходится абсолютно. Случайная величина, математическое ожидание которой равно нулю, называется центрированной. Произвольную случайную величину можно центрировать следующим образом: X X X . Свойства математического ожидания 1. Если Х= С - const, то М (С)=С. 2. Постоянный множитель можно вынести за знак математического ожидания, т.е. M (CX ) CM ( X ). . 3. M X Y M X M Y . Это свойство можно обобщить на сумму нескольких случайных величин. 4. M X Y M X M Y , где X и Y - независимые случайные величины. Это свойство также можно обобщить на произведение нескольких взаимно независимых случайных величин. 5. При большом числе опытов среднее арифметическое наблюдаемых значений случайной величины Х сходится по вероятности к ее математическому ожиданию. 6. Математическое ожидание биномиально распределённой случайной величины равно произведению числа испытаний на вероятность появления события в каждом испытании: M X n p . Примеры решения задач. Пример 1. Вероятность попадания в цель при одном выстреле p=0,4. Определить математическое ожидание числа попаданий при трех выстрелах. Решение. Возможные значения случайной величины Х – числа попаданий в цель – 0, 1, 2, 3. Вычислим вероятности этих значений: p1=Р(Х=0)=0,63=0,216, p2=Р(Х=1)= С31 0,4 0,62 0,432 p3=Р(Х=2)= C32 0,42 0,6 0,288 p4=Р(Х=3)=0,43=0,064 Тогда закон распределения имеет вид: X 0 1 2 3 P 0,216 0,432 0,288 0,064 Вычислим МО М(Х)= 0 0,216 1 0,432 2 0,288 3 0,064 1,2 Пример 2. Производится 3 выстрела по мишени с вероятностями попадания в цель соответственно при каждом выстреле: p1=0,3; p2=0,4; p3=0,6. Найти математическое ожидание общего числа попаданий. Решение. Число попаданий при первом выстреле есть случайная величина Х1, принимающая два значения 0 и 1 с вероятностями 0,7 и 0,3. M X1 0 0,7 1 0,3 0,3 численно равно вероятности попадания. Аналогично определим: M(X2)=0·0,6+1·0,4=0,4; M(X3)=0·0,4+1·0,6=0,6. Общее число попаданий есть случайная величина Х: X X1 X 2 X 3 . M(X)=M(X1)+M(X2)+M(X3) (св-во 3); M(X)=0,3+0,4+0,6=1,3. Пример 3. Вероятность попадания при одном выстреле равна 0,8. Найти математическое ожидание числа попаданий при 40 выстрелах. Решение. M(X)=np, M X 40 0,8 32 . Задачи для самостоятельного решения. Задача 1. Случайная величина подчиняется следующему закону распределения: X -5 0 6 7 P 0,2 0,35 0,15 0,3 Найти её математическое ожидание. Задача 2. В первом ящике 20% деталей относится к первому сорту, во втором - 30% , в третьем - 40% . Берут по одной детали из каждого ящика. Составить закон распределения случайной величины X - число деталей первого сорта в выборке и найти её математическое ожидание. Задача 3. Имеются три независимые случайные величины X, Y и Z с известными математическими ожиданиями, которые равны -5, -2 и 3 соответственно. Найти математические ожидания двух других случайных величин U 3X 5Y Z и V 2 X 2YZ . Вопросы для самоконтроля. 1. Математическое ожидание дискретной случайной величины. 2. Математическое ожидание непрерывной случайной величины. 3. Свойства математического ожидания. 4. Математическое ожидание биномиально распределённой случайной величины. 5. Центрированная случайная величина. 1.5. Дисперсия и её свойства. Определение. Дисперсией (рассеиванием) случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания: D X M X M X 2 . Исходя из определения, можно записать формулу для вычисления дисперсии дискретной величины в виде, удобном для вычислений: n n i 1 i 1 D X xi M X 2 pi xi 2 pi M 2 ( X ) . Определение 2. Дисперсией непрерывной случайной величины Х, значения которой принадлежат отрезку [a,b], называют математическое ожидание квадрата ее отклонения: b D( X ) ( x M ( X )) 2 f ( x)dx . a Если значения случайной величины Х принадлежат всей числовой оси, тогда дисперсия равна: D X x M X 2 f x dx , если несобственный интеграл в правой части сходится абсолютно. Дисперсия имеет размерность квадрата случайной величины. Удобнее пользоваться величиной, размерность которой совпадает с размерностью случайной величины. Такой величиной будет среднее квадратическое отклонение (или «стандарт») случайной величины, которое определяется как корень квадратный из дисперсии: X D X . Свойства дисперсии и среднего квадратического отклонения 1. Дисперсия постоянной величины равна нулю: D C 0 . 2. Постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат. D CX C 2 D X ; CX C X 3. Дисперсия суммы или разности двух независимых случайных величин равна сумме дисперсий этих величин. D( X Y ) D( X ) D(Y ); ( X Y ) 2 ( X ) 2 (Y ). Это свойство можно обобщить на сумму нескольких взаимно независимых случайных величин. 4. D(C X ) D( X ), где С сonst. 5. Дисперсия любой случайной величины есть число неотрицательное: D X 0. 7. Дисперсия биномиально распределённой случайной величины равна D X npq . Случайная величина, среднее квадратическое отклонение которой равно единице, называется нормированной. Произвольную случайную величину можно нормировать следующим образом: XH X . (X ) Примеры решения задач. Пример 1. Случайная величина Х задана законом распределения xi 0 1 2 3 pi 0,216 0,432 0,288 0,064 Определить дисперсию и среднее квадратическое отклонение случайной величины Х. Решение. Согласно определению: D X 0, 216 1, 44 0, 432 0,04 0, 288 0,64 0,064 3, 24 0,72 . X 0,72 0,848 Пример 2. Производится 10 независимых выстрелов по цели. Вероятность попадания при каждом выстреле равна 0,4. Найти дисперсию и среднее квадратическое отклонение числа попадания. Решение: По условию задачи n 10 , p 0,4 , q 1 p 1 0,4 0,6 . Тогда D X n p q 10 0,4 0,6 2,4; X D X 2,4. Пример 3. Найти дисперсию и среднее квадратическое отклонение случайной величины Х, если: 0, при x 0 f x 2 x, при 0 x 1 . 0, при x 1 Решение. M (X ) 1 2 x f ( x)dx x 2 xdx 3 x 0 1 3 1 0 2 3 2 2 2 2 1 D X x f x dx 2 x xdx , 3 3 18 0 X D X 1 2 . 18 6 Дисперсию можно вычислить, пользуясь формулой: D( X ) M ( X 2 ) [ M ( X )]2 D X 1 2 2 1 . 2 3 18 Задачи для самостоятельного решения. Задача 1. Случайная величина подчиняется следующему закону распределения: X -5 0 6 7 P 0,2 0,35 0,15 0,3 Найти её дисперсию и среднее квадратическое отклонение. Задача 2. Для заданной функции f ( x) найти значение параметра , при котором она является плотностью распределения вероятностей некоторой случайной величины X . Вычислить математическое ожидание M ( X ) и дисперсию D ( X ) , среднее квадратическое отклонение. Найти вероятность того, что случайная величина X примет значение из указанного промежутка. sin 2 x, при x (0, / 2) а) f x 0, при x (0, / 2); e 3 x , при x 0 б) f x 0, при x 0; (0, / 12). (1, 2). Вопросы для самоконтроля. 1. Дисперсия дискретной случайной величины. 2. Дисперсия непрерывной случайной величины. 3. Среднее квадратическое отклонение. 4. Свойства дисперсии и среднего квадратического отклонения. 5. Дисперсия биномиально распределённой случайной величины. 6. Нормированная случайная величина. 1.6. Начальные и центральные моменты. Асимметрия, эксцесс. Обобщением рассмотренных нами числовых характеристик случайной величины являются начальные и центральные моменты k -го порядка. Начальным моментом k -го порядка случайной величины X называется математическое ожидание случайной величины X k : onp k ( X ) = M ( X k ). Для дискретной случайной величины имеем: n k ( X ) = xik pi , i =1 или k ( X ) = xik pi , i =1 если множество значений случайной величины бесконечно, и ряд в правой части сходится абсолютно. Для непрерывной случайной величины X k ( X ) = x k f ( x) dx, если несобственный интеграл в правой части сходится; f ( x) - плотность распределения вероятностей X . Математическое ожидание есть начальный момент первого порядка: 1 ( X ) = M ( X ). Центральным моментом k -го порядка случайной величины X называется математическое ожидание k -ой степени соответствующей центрированной o случайной величины X k : onp o k ( X ) = M ( X k ). Для дискретной случайной величины имеем: n k ( X ) = ( xi M ( X )) k pi , i =1 или k ( X ) = ( xi M ( X )) k pi , i =1 если множество значений случайной величины бесконечно, и ряд в правой части сходится абсолютно. Для непрерывной случайной величины X k ( X ) = ( x M ( X )) k f ( x) dx, если несобственный интеграл в правой части сходится; f ( x) - плотность распределения вероятностей X . Отметим, что 1 ( X ) = 0 для любой случайной величины X , а центральный момент второго порядка представляет собой дисперсию: 2 ( X ) = D( X ). Если плотность распределения случайной величины X симметрична относительно математического ожидания, то все её центральные моменты нечетных порядков обращаются в нуль. На этом свойстве основывается использование 3 ( X ) в качестве характеристики ассиметрии распределения. Для того, чтобы избавиться от кубической размерности, поделим его на 3(X ): onp As ( X ) = 3 ( X ) . 3(X ) Это - так называемый коэффициент ассиметрии или скошенности. Отношение центрального момента четвертого порядка 4 ( X ) к 4 ( X ) называется эксцессом и служит характеристикой "плосковершинности" графика плотности распределения случайной величины X : onp (X ) = 4 ( X ) 3. 4(X ) Моменты более высоких порядков используются редко. Вопросы для самоконтроля. 1. Начальный момент к-го порядка случайной величины. 2. Центральный момент к-го порядка случайной величины. 3. Коэффициент ассиметрии, эксцесс. 1.7. Равномерный закон распределения вероятностей и его числовые характеристики. Непрерывную случайную величину Х называют равномерно распределенной на отрезке [a, b], которому принадлежат все возможные значения Х, если ее 1 , а вне плотность распределения на этом отрезке постоянна и равна ba промежутка равна нулю: 0, при x a 1 f ( x) , при a x b b a 0, при x b . Закону равномерного распределения подчиняется, например, погрешность при измерениях с округлением. Функция распределения имеет вид: 0, при x a x a F x , при a x b b a 1, при x b . Числовые характеристики равномерного распределения случайной величины имеют следующий вид: M X ab ; 2 2 b a D X ; 12 ba X . 2 3 Примеры решения задач. Пример 1. Цена деления амперметра равна 0,1 А. Показания округляют до ближайшего деления. Найти вероятность того, что при отсчете будет сделана ошибка, превышающая 0,02 А. Решение. Ошибку округления отсчета можно рассматривать как случайную величину Х, которая равномерно распределена в интервале между двумя 1 соседними делениями. Тогда b a 0,1 0 0,1 и f x 0,1 10 на этом отрезке. Плотность распределения имеет вид: 0, при x 0 f x 10, при 0 x 0,1 0, при x 0,1 Очевидно, что ошибка отсчета превышает 0,02, если она заключена в интервале (0,02; 0,08). Искомая вероятность: 0,08 P(0,02 x 0,08) 10dx 10(0,08 0,02) 0,6. 0,02 Пример 2. Все значения равномерно распределенной случайной величины X лежат на отрезке [2;8] . Найти: а) плотность распределения вероятностей f ( x) ; б) функцию распределения вероятностей F ( x) ; в) математическое ожидание M ( X ) , дисперсию D ( X ), стандарт ( X ) ; г) P(3 < X < 5) . Решение. Если непрерывная случайная величина распределена равномерно в некотором промежутке [a, b] , то ее плотность распределения имеет следующий вид: 0, при x a 1 f ( x) , при a x b b a 0, при x b В нашем случае 0, при x 2 1 1 f ( x) , при 2 x 8 8 2 6 0, при x 8 Найдем F ( x) , исходя из известного соотношения x F ( x) = f (t )dt. При x 2 x F ( x) = f (t )dt = 0; при 2 < x 8 2 x x 2 2 F ( x) = f (t ) dt f (t )dt = 1/6dt = x2 ; 6 при x > 8 2 8 x 8 2 8 2 F ( x) = f (t )dt f (t )dt f (t )dt = 1/6dt = 1. Итак, функция распределения имеет вид 0, при x 2 x 2 F ( x) , при 2 x 8 6 0, при x 8 Математическое ожидание и дисперсию равномерно распределенной случайной величины можно вычислить по формулам M (X ) = ab (b a)2 , D( X ) = . 2 12 Имеем M (X ) = 28 (8 2) 2 = 5, D( X ) = = 3; 2 12 ( X ) = D( X ) = 3. Далее, найдем вероятность попадания случайной величины X в промежуток (3;5) : P(3 < X < 5) = F (5) F (3) = 5 2 3 2 1 = . 6 6 3 Задачи для самостоятельного решения. Задача 1. Случайная величина имеет равномерное распределение на интервале (5;7). Найти: а) плотность распределения вероятностей f ( x) ; б) функцию распределения вероятностей F ( x) ; в) математическое ожидание M ( X ) , дисперсию D ( X ), стандарт ( X ) ; г) вероятность попадания Х в промежуток (5.5; 6). Задача 2. Время ожидания автобуса измеряется в минутах и распределено равномерно на отрезке [0, 30]. Определить вероятность того, что ждать придётся не более 10 минут. Вопросы для самоконтроля. 1. Равномерно распределенная случайная величина: плотность и функция распределения. 2. Математическое ожидание, дисперсия и среднее квадратическое отклонение равномерно распределённой случайной величины. 1.8. Нормальный закон распределения вероятностей и его числовые характеристики. Это наиболее часто встречающийся закон распределения при решении практических задач. Главная его особенность в том, что он является предельным законом, к которому приближаются другие законы при весьма часто встречающихся типичных условиях. Распределение вероятностей называется нормальным, если оно описывается плотностью распределения вероятностей вида: f x 1 e 2 x a 2 2 2 , где а (или m) - математическое ожидание; - среднее квадратическое отклонение. Нормальный закон распределения часто называют законом Гаусса. Функция f x определена при любых значениях х. Кривая распределения симметрична относительно прямой x a , асимптотически приближается к оси абсцисс, так как lim f x 0 . При x a функция f x принимает x 1 . 2 ( m = 0, = 1 ) максимальное значение, а именно: f max x Центрированная и нормированная величина имеет стандартную плотность: нормальная случайная 2 1 e x /2 , x R. 2 f ( x) = Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок равна: P x Пользуясь заменой переменных x a 2 2 2 dx . 1 f x dx e 2 xa t , получим формулу для вычисления вероятности попадания случайной величины на заданный участок: P( X ) ( 1 где ( x) 2 x e t2 2 a a ) ( ), dt - интегральная функция Лапласа. 0 Свойства функции Лапласа 1. 0 0 ; () 0,5; 2. Функция Лапласа нечетная, т.е. ( x) ( x) . Замечание. При x>5 принимают ( x) 0,5 . Вероятность попадания случайной величины Х на участок длины 2l , симметричный относительно центра рассеивания а, т.е. математического ожидания, вычисляется по формуле: l P(| X a | l ) 2( ). С помощью функции Лапласа функция распределения F (x ) выражается следующим образом: F ( x) P( X x) ( xa ) 0,5. Правило трех сигм. Вычислим вероятность попадания случайной величины Х на симметричный участок a 3 , a 3 P(| X a | 3 ) 2( 3 ) 2(3) 2 0,49865 0,9973. Это означает, что в промежутке a 3 , a 3 находятся 99,73% всех значений случайной величины Х. Примеры решения задач. Пример 1. Случайная величина Х распределена по нормальному закону с математическим ожиданием a 40 и дисперсией D X 200 . Вычислить вероятность попадания случайной величины в интервале 30,80 . Решение. По условию задачи 30, 80, a 40, D( X ) 10 2 . Тогда искомая вероятность равна: 80 40 30 40 ) ( ) 10 2 10 2 (2,83) (0,71) 0,4976 0,2611 0,7587. P(30 X 80) ( Пример 2. Длина детали, изготовляемой автоматом, представляет собой случайную величину, распределенную по нормальному закону, причем M X 10 , D X 1 . Найти вероятность брака, если допустимые размеры 200 детали должны быть 10 0,05 . Решение. По условию задачи a 10 , 1 , l 0,05. 10 2 Вероятность брака выражается формулой: p 1 P(| X 10 | 0,05) 1 2(0,05 10 2 ) 1 2(0,71) 1 2 0,2611 0,4778. Пример 3. Бомбардировщик, пролетавший вдоль моста длиной 30 м и шириной 8 м, сбросил бомбы. Случайные величины Х и Y (расстояние от вертикальной и горизонтальных осей симметрии моста до места падения бомбы) независимы и распределены нормально со средними квадратическими отклонениями, соответственно равными 6м и 4м, и математическими ожиданиями, равными нулю. Найти: а) вероятность попадания в мост одной сброшенной бомбы; б) вероятность разрушения моста, если сброшены две бомбы, причем для разрушения моста достаточно одного попадания. Решение: Из условия задачи имеем: x 6 , y 4 , l x 15 , l y 4 ,ax=0, ay=0. Тогда: а ) p1 P(| X | 15) 2 ( 15 ) 2 (2,5) 2 0,4938 0,9876, 6 4 p2 P(| Y | 4) 2 ( ) 2 (1) 2 0,3413 0,6826 4 p p1 p2 0,9876 0,6826 0,6741. б ) P 1 (1 p)2 1 (1 0,6741)2 1 0,32592 1 0,1062 0,8938. . Задачи для самостоятельного решения. Задача 1. Математическое ожидание и среднее квадратическое отклонение нормально распределенной случайной величины соответственно равны 10 и 2. Найти вероятность того, что в результате испытания Х примет значение, заключенное в интервале 12; 14 . Задача 2. Автомат изготавливает шарики, Шарик считается годным, если отклонение Х диаметра шарика от проектного размера по абсолютной величине меньше 0,7мм. Считая, что случайная величина Х распределена нормально со средним квадратическим отклонением 0,4мм , найти сколько в среднем будет годных шариков среди ста изготовленных. Задача 3. Случайная величина Х распределена нормально с математическим ожиданием a 25 . Вероятность попадания Х в интервал (10, 15) равна 0,2. Чему равна вероятность попадания Х в интервал (35, 40)? Вопросы для самоконтроля. 1. Нормально распределенная случайная величина: плотность распределения, её параметры, график. 2. Стандартная плотность распределения. 3. Функция Лапласа, её свойства. 4. Вероятность попадания нормальной случайной величины на заданный интервал. 5. «Правило трёх сигм». 1.10. Связь биномиального закона с нормальным законом распределения вероятностей. Понятие о локальной и интегральной теоремах Лапласа. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях Пусть производится n независимых опытов, в каждом из которых событие А появляется с вероятностью p, a q 1 p . Напомним, что случайная величина Х – число появлений события А в n независимых опытах подчиняется биномиальному закону, а вероятности принятия ею своих возможных значений вычисляются по формуле Бернулли. Но при больших n использование формулы Бернулли становится затруднительным. При npq>10 удобно пользоваться следующими теоремами. Локальная теорема Лапласа. Если вероятность p появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k) того, что событие А появится ровно к раз при n независимых опытах, приближённо равна (тем точнее, чем больше n) Pn (k ) 1 ( x) , npq где x Здесь x 1 x22 k np e , x . 2 npq k np - значения, принимаемые центрированной и нормированной npq X np , а x - плотность npq распределения центрированной нормированной нормальной случайной величины. Функция x - чётная, т.е. x x . биномиальной случайной величиной X H Для вычисления вероятности появления события А не менее т1 и не более т2 раз используется следующая теорема: Интегральная теорема Лапласа. Вероятность появления события А в n независимых испытаниях от т1 до т2 раз вычисляется по интегральной теореме Лапласа: Pn (m1 , m2 ) ( x2 ) ( x1 ), x1 1 где ( x) 2 x e t2 2 m1 np m np , x2 2 , npq npq dt - функция Лапласа. 0 Теорема. Вероятность того, что при n независимых испытаниях, в каждом из которых событие А появляется с постоянной вероятностью p, модуль отклонения частоты появления события от вероятности не превышает положительного числа , приближённо равна удвоенному значению функции Лапласа при x n : pq m P p 2 n Примеры решения задач. n . pq Пример 1. Вероятность появления события А в каждом опыте равна 0,2. Найти вероятность появления события 80 раз при 400 опытах. Решение. n 400, k 80, p 0,2. 80 400 0,2 0 , 0 0,3989 400 0,2 0,8 1 P100 80 0,3989 0,04986. 400 0,2 0,8 x Пример 2. Вероятность появления события А в каждом опыте равна 0,2. Найти вероятность появления события от 80 до 100 раз при 400 опытах. Решение. m1 80, m2 100, p 0,2 x1 80 400 0,2 100 400 0,2 0, x2 2,5 400 0,2 0,8 400 0,2 0,8 P400 (80,100) (2,5) (0) 0,4938. Пример 3. Вероятность появления события в каждом из 625 независимых испытаний равна 0,8. Найти вероятность того, что относительная частота появления события отклонится от его вероятности по абсолютной величине не более чем на 0.04. Решение. По условию, n 625, p 0,8, q 0,2, 0,04. Требуется найти вероятность P m / 625 0,8 0,04 . Воспользуемся последней теоремой: m 625 . P 0,08 0,04 2 0,04 2(2,5) 0,8 0,2 625 По таблице значений функции Лапласа, которую можно найти в конце любого учебника по теории вероятностей, найдём (2,5) 0,4938. Итак, искомая вероятность приближённо равна 2(2,5) 2 0,4938 0,9876. Задачи для самостоятельного решения. Задача 1. Произведено 600 изделий. Вероятность брака для одного изделия равна 0.2. Найти вероятность того, что количество бракованных изделий превзойдет 400. Задача 2. Имеется партия в 1800 деталей. Вероятность того, что деталь окажется бракованной, равна 0.02. а) Найти вероятность того, что в этой партии 30 деталей неисправны. б) Найти вероятность того, что количество неисправных деталей будет менее 30. в) Найти вероятность того, что количество неисправных деталей будет от 30 до 50. Задача 3. Вероятность появления события в каждом из 900 независимых испытаний равна 0,6. Найти вероятность того, что относительная частота появления события отклонится от его вероятности по абсолютной величине не более чем на 0.02. Вопросы для самоконтроля. 1. Локальная теорема Лапласа. 2. Интегральная теорема Лапласа. 3. Вероятность отклонения относительной вероятности в независимых испытаниях. частоты от постоянной Учебный элемент 3. Случайные векторы. Методические рекомендации и разбор задач. Аннотация. В этом учебном элементе вводится понятие случайного вектора. Для двумерного случайного вектора рассматриваются функция и плотность совместного распределения вероятностей, а также условные законы распределения и их свойства. Определяются числовые характеристики случайного вектора: вектор математических ожиданий и ковариационная матрица. Рассмотрены линейные и нелинейные преобразования случайного вектора и их числовые характеристики. 1.1. Функция распределения вероятностей случайного вектора и её свойства. На практике часто приходится иметь дело не с отдельно взятыми случайными величинами, а с их системами. Как правило, они взаимозависимы, и их нужно изучать в совокупности. Например, ошибки определения местоположения спутника в пространстве в заданный момент времени представляет собой систему трех взаимосвязанных случайных величин. Совокупность n случайных величин случайным вектором и обозначают X : X1 , X 2 , , Xn называют n -мерным n ,1 X1 X X = 2 . n ,1 ... Xn Геометрически его можно интерпретировать, как точку со случайными координатами в n -мерном пространстве. Для простоты изложения, далее будем рассматривать двумерный вектор ( X ,Y ) . Закон распределения дискретного случайного вектора (X, Y) – это соответствие между всеми возможными значениями случайного вектора (X, Y) и их вероятностями: pij=P{X=xi, Y=yj}, где i=1, 2, …, n, j=1, 2, …, m; n, m – число возможных значений случайных величин X и Y соответственно. Так же, как и в непрерывном случае: p i j ij 1, m pi P{ X xi } pij , j 1 n p j P{Y y j } pij . i 1 Функцией совместного распределения вероятностей случайного вектора ( X , Y ) называется функция F ( x, y ) двух неслучайных переменных, определяющая вероятность того, что X < x и Y < y для каждой пары значений x, y : onp F ( x, y) = P( X < x, Y < y). Функция совместного распределения вероятностей обладает следующими свойствами. 1) Функция F ( x, y ) определена на всей числовой плоскости и ограничена: 0 F ( x, y ) 1 . 2) Функция F ( x, y ) является неубывающей по каждому аргументу: F ( x1 , y) F ( x2 , y), где x1 x2 , F ( x, y1 ) F ( x, y2 ), где y1 y2 . 3) Для функции F ( x, y ) верны следующие предельные соотношения: F (, y ) = 0; F ( x, ) = 0; F (, ) = 0; F ( , ) = 1. 4) При бесконечном возрастании одного из аргументов функция F ( x, y ) становится функцией распределения вероятностей случайной величины, соответствующей другому аргументу: F ( x, ) = F1 ( x); F (, y) = F2 ( y), где F1 ( x) и F2 ( y) - функции распределения случайных величин X и Y соответственно. Вопросы для самоконтроля. 1. Случайный вектор. 2. Закон распределения дискретного случайного вектора. 3. Функция совместного распределения вероятностей случайного вектора. 4. Свойства функции совместного распределения вероятностей случайного вектора. 1.2. Плотность распределения случайного вектора и её свойства. Плотностью совместного распределения вероятностей f ( x, y ) вектора ( X , Y ) в точке ( x, y ) называется предел отношения вероятности попадания случайной точки ( X , Y ) в прямоугольник со сторонами x, y , параллельными координатным осям, к площади этого прямоугольника при x 0, y 0 : onp P( x < X < x x, y < Y < y y) . x 0 x y y 0 f ( x, y) = lim Можно показать, что плотность распределения f ( x, y ) смешанной производной от функции распределения F ( x, y ) : f ( x, y ) = равна второй 2 F ( x, y ) . xy Имеет место обратное соотношение: x y F ( x, y ) = f (s, t ) dx dy. Плотность совместного распределения обладает следующими свойствами. 1) Функция f ( x, y ) неотрицательна. 2) Двойной несобственный интеграл от функции f ( x, y ) с бесконечными пределами равен единице: f ( x, y) dx dy = 1. 3) Несобственный интеграл с бесконечными пределами по одному из аргументов от плотности совместного распределения равен плотности распределения случайной величины, соответствующей другому аргументу: f ( x, y) dy = f ( x), 1 f ( x, y) dx = f ( y), 2 где f1 ( x) и f 2 ( y) - плотности распределения случайных величин X и Y соответственно. Зная плотность совместного распределения случайного вектора ( X , Y ) , можно найти вероятность попадания случайной точки ( X , Y ) в некоторую плоскую область G : P(( X , Y ) G ) = f ( x, y ) dx dy. G Все приведенные выше для двумерного случайного вектора результаты остаются справедливыми для произвольного n -мерного случайного вектора. Вопросы для самоконтроля. 1. Плотность совместного распределения вероятностей случайного вектора. 2. Связь между плотностью и функцией совместного распределения вероятностей случайного вектора. 3. Свойства плотности совместного распределения вероятностей случайного вектора. 1.3. Случайные величины зависимые и независимые. Условные законы распределения вероятностей. Две случайные величины называются независимыми (зависимыми), если закон распределения каждой из них не зависит (зависит) от того, какие значения приняла другая. Если известны законы F1 ( x) и F2 ( y) (или плотности f1 ( x) и f 2 ( y) ) распределения двух независимых случайных величин X и Y по отдельности, то их произведение будет представлять собой закон (или плотность) совместного распределения вектора ( X , Y ) : F ( x, y) = F1 ( x) F2 ( y); f ( x, y) = f1 ( x) f 2 ( y). Выполнение этих условий необходимо и достаточно для независимости случайных величин X и Y . Для зависимых случайных величин вводится понятие условной плотности распределения: f1 ( x / y) - условная плотность случайной величины Х при условии, что случайная величина Y приняла значение y. f 2 ( y / x) - условная плотность случайной величины Y при условии, что случайная величина X приняла значение x. Условные плотности обладают свойствами обычных плотностей. Чтобы получить условную плотность одной случайной величины, входящей в систему, надо совместную плотность системы разделить на безусловную плотность другой случайной величины: f1 ( x / y ) f ( x, y ) f ( x, y ) ; f 2 ( y / x) , f 2 ( y) f1 ( x) где f1 ( x) и f 2 ( y) - безусловные законы распределения случайных величин X и Y соответственно. Условное распределение компонент дискретного случайного вектора (X, Y) – это закон распределения одной случайной величины при условии, что другая случайная величина приняла определённое значение, а именно: p X ( xi | y j ) p ( xi , y j ) p( y j ) , i 1, 2,..., n ; pY ( y j | xi ) p( xi , y j ) p( xi ) , j 1, 2,..., n . Вопросы для самоконтроля. 1. Зависимые и независимые случайные величины. 2. Условная и безусловная плотности распределения случайной величины. 3. Закон совместного распределения двух независимых случайных величин. 1.6. Числовые характеристики ковариационной матрице. случайного вектора. Понятие о Для случайного вектора, как и для случайной величины, можно ввести понятие числовых характеристик, описывающих этот вектор в общем. Для удобства, по-прежнему будем рассматривать двумерный случайный вектор ( X , Y ). Совокупность математических ожиданий его компонент называется вектором математических ожиданий данного случайного вектора: ( M ( X ), M (Y )) = ( M X , M Y ). Поскольку случайный вектор представляет собой совокупность случайных величин, то возникает необходимость в рассмотрении числовой характеристики, описывающей тесноту взаимосвязи между ними. Нас в дальнейшем будем интересовать только один вид зависимости между случайными величинами -- так называемая корреляционная зависимость. Суть её состоит в том, что изменение одной из величин влечет за собой изменение не всего закона распределения другой, а лишь её математического ожидания. Для оценки этой связи и вводится понятие корреляционного и ковариационного моментов. Корреляционным моментом или корреляцией двух случайных величин X и Y называется математическое ожидание их произведения: onp XY = M ( X Y ). Ковариационным моментом или ковариацией двух случайных величин X и Y называется математическое ожидание произведения соответствующих центрированных величин: onp o o k XY = M ( X Y ) = M {( X M ( X )) (Y M (Y ))}. С учетом свойств математического ожидания, получим: k XY = XY M ( X ) M (Y ). Если X и Y - непрерывные случайные величины с плотностью совместного распределения f ( x, y ) , то их корреляционный и ковариационный моменты можно вычислить следующим образом: XY = x yf ( x, y) dx dy; k XY = ( x M ( X )) ( y M (Y )) f ( x, y) dx dy. Корреляционный и ковариационный моменты пары случайных величин являются частными случаями более общих понятий начального и центрального моментов. Начальным моментом порядка s, t случайных величин X и Y называется математическое ожидание случайной величины X s Y t : onp s ,t ( X , Y ) = M ( X s Y t ). Центральным моментом порядка s, t случайных величин X и Y называется o o математическое ожидание случайной величины X s Y t : onp o o s ,t = M ( X s Y t ). Очевидно, 1,1 ( X , Y ) = XY , 1,1 ( X , Y ) = k XY . В дальнейшем нас в основном будет интересовать ковариация. Рассмотрим её свойства. 1) Ковариация симметрична, то есть k XY = kYX . 2) Ковариация случайной величины X с самой собой равна её дисперсии: k XX = D( X ). Таким образом, отпадает необходимость рассматривать дисперсию как отдельную характеристику случайной величины. 3) Дисперсия суммы (разности) двух случайных величин равна сумме их дисперсий плюс (минус) их удвоенная взаимная ковариация: D( X Y ) = D( X ) D(Y ) 2k XY . 4) Прибавление к одной (или к обеим) из случайных величин константы не меняет их ковариации. 5) Если случайные величины X и Y независимы, то их взаимная ковариация равна нулю. Обратное, в общем случае, не верно. 6) Абсолютная величина ковариации случайных величин X превышает среднего геометрического их дисперсий: и Y не k XY D( X ) D(Y ) . Если | k XY | 0 , то это означает, что между случайными величинами X и Y существует взаимосвязь. Но k XY содержит в себе также информацию о рассеянии случайной точки ( X , Y ) относительно фиксированной точки ( M ( X ), M (Y )) . Таким образом, если дисперсия одной из случайных величин очень мала, то и их взаимная ковариация будет близка к нулю, какой бы сильной ни была зависимость между ними. Характеристикой, описывающей только степень взаимосвязи между случайными величинами, является коэффициент корреляции, который определяется следующим образом: onp XY = k XY . ( X ) (Y ) Коэффициент корреляции представляет собой безразмерную величину, по модулю не превосходящую единицы: XY 1. Чем ближе | XY | к единице, тем теснее корреляционная зависимость между X и Y . Предельный случай | XY |= 1 говорит о наличии функциональной линейной зависимости между случайными величинами: Y = aX b, где a , b -- константы. Если XY > 0 , то это означает, что при изменении одной из случайных величин другая имеет тенденцию меняться в том же направлении; если XY < 0 , то случайные величины имеют тенденцию меняться в противоположных направлениях. При XY = 0 случайные величины X и Y называются некоррелированными. Из независимости случайных величин следует их некоррелированность. Обратное не всегда верно, так как коэффициент ковариации характеризует степень близости только к линейной зависимости, а любой другой тип связи между случайными величинами при этом может иметь место. Ковариации и дисперсии случайного вектора ( X , Y ) удобно записывать в виде так называемой ковариационной матрицы: onp k K XY = XX kYX k XY DX = kYY kYX k XY . DY Если все элементы ковариационной матрицы поделить на произведение соответствующих средних квадратических отклонений, то мы получим нормированную ковариационную матрицу: onp k /( ) k XY /( X Y ) 1 XY rXY = XX X X = kYX /( Y X ) kYY /( Y Y ) YX 1 . Пусть теперь рассматривается n -мерный случайный вектор X1 X X = 2 . n ,1 ... X n Тогда его математическое ожидание представляет собой неслучайный вектор n -мерный M ( X1 ) M (X2) M (X ) = , n ,1 ... M (Xn) где M ( X i ) - математическое ожидание случайной величины X i , i = 1, 2, , n . Если из каждой компоненты вектора вычесть её математическое ожидание, то получим центрированный случайный вектор X1 M ( X1 ) o X2 M (X2) X= . n ,1 ... X M ( X ) n n Ковариационная матрица случайного вектора - это квадратная матрица ковариаций k ij между X i и X j , а элементами её главной диагонали являются дисперсии Di = kii компонент X i , i, j = 1, 2, , n : D1 o k K X = M ( X X T ) = 21 n,n kn1 o k1n k2 n . Dn k12 D2 kn 2 Нормированная ковариационная матрица -12 1 rX = 21 n,n n1 1n 2 n 1 1 n 2 , где ij - коэффициент корреляции между X i и X j , i, j = 1, 2, , n . Рассмотрим некоторые свойства ковариационной матрицы. 1) Ковариационная матрица симметрична: K X = K XT . n,n n,n Это означает, что все её элементы, расположенные симметрично относительно главной диагонали, равны. В связи с этим, часто ограничиваются заполнением лишь верхнего треугольника ковариационной матрицы. 2) Ковариационная матрица неотрицательно определена: T K X 0 , 1, n n ,n n ,1 где - произвольный ненулевой неслучайный вектор. Определитель дисперсией. | KX | ковариационной матрицы называют обобщенной Вопросы для самоконтроля. 1. Вектор математических ожиданий случайного вектора. 2. Ковариация, корреляция, начальный и центральный моменты порядка s, t , коэффициент корреляции двух случайных величин. 3. Свойства ковариации и коэффициента корреляции. 4. Ковариационная и корреляционная матрицы, их свойства. 1.7. Многомерное характеристики нормальное распределение и его числовые Говорят, что случайный вектор X имеет нормальное распределение, n ,1 если его плотность совместного распределения вероятностей имеет вид f ( x) = n ,1 Здесь x n ,1 1 1 exp ( x m)T K X1 ( x m) . 1/2 n ,1 n ,1 (2 ) | K X | 2 n,1 n,1 n/2 - вектор неслучайных переменных, M ( X1 ) M (X2) m= n ,1 ... M ( X ) n - вектор математических ожиданий, | K X | - обобщенная дисперсия (определитель ковариационной матрицы), K X1 - матрица, обратная к ковариационной. Перечислим некоторые свойства нормального вектора, отличающие его от произвольных случайных векторов. 1) Чтобы задать нормальный случайный вектор, достаточно знать вектор его математических ожиданий и его ковариационную матрицу. 2) Если компоненты нормального случайного вектора некоррелированы, то они и независимы. 3) Любое линейное преобразование нормального случайного вектора снова даёт нормальный случайный вектор. Вопросы для самоконтроля. 1. Параметры плотности совместного случайного вектора. распределения нормального 2. Свойства нормального случайного вектора. 1.8. Числовые характеристики линейных преобразований случайного вектора. Пусть задан случайный вектор X с известными математическим n ,1 ожиданием и ковариационной матрицей. В результате преобразования вектора X получен новый случайный вектор n ,1 линейного Y = A X C; l ,1 l , n n ,1 l ,1 здесь A и C - неслучайные матрицы. Тогда числовые характеристики вектора Y могут быть найдены следующим образом: l ,1 математическое ожидание M (Y ) = A M ( X ) C; l ,1 l , n n ,1 l ,1 ковариационная матрица KY = A K X AT . l ,l l ,n n ,n n ,l Вопросы для самоконтроля. 1. Линейное преобразование случайного вектора. 2. Математическое ожидание и ковариационная матрица линейного преобразования случайного вектора. 1.9. Числовые характеристики нелинейных преобразований случайного вектора. Метод линеаризации для приближенного оценивания числовых характеристик нелинейных преобразований случайного вектора. Пусть теперь тот же вектор подвергается X n ,1 нелинейному преобразованию 1 ( X 1 , X 2 , (X , X , Y = j( X ) = 2 1 2 l ,1 n ,1 ... l ( X 1 , X 2 , , Xn) , Xn) . , X n ) Числовые характеристики нового случайного вектора Y точно можно найти l ,1 лишь в том случае, когда для X известны не только математическое n ,1 ожидание и ковариационная матрица, но и закон совместного распределения вероятностей. На практике обычно задачу о числовых характеристиках нелинейного преобразования случайного вектора приближенно сводят к задаче о числовых характеристиках линейного преобразования. Для этого векторфункцию подвергают линеаризации в окрестности точки M = ( M ( X1 ), M ( X 2 ), , M ( X n )) : Y B X j ( M ). l ,1 Здесь l ,n n ,1 l ,1 1 x1 M 2 B = x1 M l ,n l x1 M 1 xn M 2 xn M l xn M 1 x2 M 2 x2 M l x2 M - матрица Якоби преобразования j , вычисленная в точке M ; X1 M ( X1 ) X M (X2) o X = 2 =X n ,1 n,1 ... Xn M (Xn) - столбец приращений аргумента; 1 ( M ( X 1 ), M ( X 2 ), ( M ( X 1 ), M ( X 2 ), j (M ) = 2 ... l ,1 l ( M ( X 1 ), M ( X 2 ), , M ( X n )) , M ( X n )) , M ( X n )) - значение вектор-функции j в точке M . Таким образом, числовые характеристики случайного вектора X n ,1 приближенно могут быть найдены так: математическое ожидание M (Y ) B M (X ) j ( M ) = j ( M ), l ,1 l , n n ,1 l ,1 l ,1 o так как M (X ) = M ( X ) = 0; n ,1 n ,1 n ,1 ковариационная матрица KY B K X B T . l ,l l ,n n ,n n ,l Вопросы для самоконтроля. 1. Нелинейное преобразование случайного вектора. 2. Математическое ожидание и ковариационная матрица нелинейного преобразования случайного вектора. 3. Линеаризация случайного вектора. Примеры решения задач. Пример 1. Качество продукции характеризуется двумя случайными величинами: X и Y. Закон распределения случайного вектора (X,Y) представлен в таблице: yj 0 0,1 0,2 0,3 pi 5 0,2 0,1 0,05 0,05 0,4 6 0 0,15 0,15 0,1 0,4 7 0 0 0,1 0,1 0,2 pj 0,2 0,25 0,3 0,25 p xi i ij 1 j На пересечении i-той строки и j-того столбца таблицы находятся вероятности pij=P{X=xi, Y=yj}. Найти закон распределения координат X и Y случайного вектора. Решение. Вероятность события {X=xi}=pi, есть сумма вероятностей, находящихся в i-той строке. Вероятности pi находятся в последнем столбце таблицы. Ряд распределения случайной величины X имеет вид: xi 5 6 7 pi 0,4 0,4 0,2 Ряд распределения Y находим, вычисляя суммы элементов столбцов таблицы. Эти вероятности pj находятся в последней строке таблицы. Ряд распределения случайной величины Y имеет вид: yj 0 0,1 0,2 0,3 pj 0,2 0,25 0,3 0,25 Пример 2. В условиях закона распределения дискретного случайного вектора (X,Y) из примера 1, найти условное распределение случайной величины X при условии, что случайная величина Y приняла значение y2=0,1. Решение. Выбрав значения p(xi|y2) из столбца таблицы, соответствующего значению y2=0,1, и разделив их на 0,25, получаем следующее условное распределение X при условии, что Y=0,1: xi 5 6 pX(xi|y2) 0,4 0,6 Пример 3. Для определения приращений координат x, y между двумя точками P1 и P2 плоскости независимо измерены расстояние s между этими точками со среднеквадратической ошибкой S = 1 см и угол между направлением вектора P1P2 и направлением оси абсцисс используемой прямоугольной системы координат со среднеквадратической ошибкой = 5' Получено: расстояние S = 100 м; угол = 30o . Требуется оценить среднеквадратические ошибки X , Y вычисленных приращений координат x = s cos и y = s sin и коэффициент корреляции k между X и Y . Решение. Так как измерения выполнены независимо, то исходная ковариационная матрица имеет диагональный вид : S2 CX = 0 0 2 , 2 где - количество секунд в одном радиане. Преобразование между двумерным случайным вектором измерений ( S , )T и искомым вектором (X , Y )T является нелинейным. Поэтому составим якобиеву матрицу этого преобразования: cos (x, y) = sin ( s, ) s sin s cos . Значение этой матрицы при S = 100, = 30o даёт нужную матрицу R . Имеем: 3 / 2 50 R = 1/ 2 50 3 ; 3 / 2 50 CY 1/ 2 50 3 (102 ) 2 0 3/2 1/ 2 50 50 3 0, 7656 = 10 0.4059 4 2 5'' 5 2 10 0 = 0.4059 0,8515 1 0.2969 KY 0,8515 1 . Итак, X 0,88 см, Y 0,54 см, kX ,Y 0,85. Пример 4. Вычислить среднеквадратическую ошибку объёма прямоугольного параллелепипеда v = x1 x2 x3 , если длины его рёбер X1 = 1 метр, X 2 = 2 метра, X 3 = 3метра измерены независимо с одной и той же среднеквадратической ошибкой X = 3 миллиметра. Решение. Так как измерения выполнены независимо и равноточно, то исходная ковариационная матрица является скалярной : X2 0 CX = 0 0 2 X 0 0 0 = (3мм) 2 E , 2 X где E - единичная матрица 3х3. Результатом нелинейного преобразования v = x1 x2 x3 трёхмерного случайного вектора измерений ( X 1 X 2 X 3 )T является в данном случае скаляр V . Поэтому якобиева матрица этого преобразования представляет собой одну строку: x x v = 2 3 ( x1 x2 x3 ) x1 x3 x1 x2 . Значение этой матрицы при X1 = 1 м, X 2 = 2м, X 3 = 3 м даёт нужную матрицу R . Имеем: y y y 6 3 2 R = = (103 мм) 2 , x1 x2 x3 0 0 0 6 6 3 2 2 3 2 3 CV = V2 (103 мм) 2 (3мм) (10 мм) = 2 = 49 9 (106 мм3 )2 . Отсюда следует, что искомая V = 21103 мм3 = 21 см3 . Задачи для самостоятельного решения. Задача 1. Дано: Трёхмерный случайный вектор X с математическим 4 1 M (X ) = 1 2 1 1 1 3 1 ожиданием и ковариационной матрицей C X = 1 1 4 2 1 3 4 1 3 1 1 , b= . подвергается линейному преобразованию, где R = 2 3 1 2 Требуется: вычислить математическое ожидание M (Y ) , ковариационную матрицу CY и матрицу коэффициентов корреляции K Y для преобразованного вектора Y = RX b . Задача 2. Дано: трёхмерный случайный вектор X ожиданием 4 1 M (X ) = 1 и с математическим 2 1 1 1 3 1 ковариационной матрицей C X = 1 1 4 подвергается нелинейному преобразованию: y1 = x12 x22 x32 4, y2 = x1 x2 x2 x3 1, y3 = x1 x2 x3 2. Требуется: вычислить математическое ожидание M (Y ) , ковариационную матрицу CY и матрицу коэффициентов корреляции K Y для преобразованного случайного вектора Y = ( X ) b. ЛИТЕРАТУРА 1. Вентцель Е. С., Овчаров Л. А. Теория вероятностей и ее инженерные приложения. М.: Наука,1986.-489 с. 2. Вентцель Е. С., Теория вероятностей. М.: Наука,1969.-576 с. 3. Гмурман В.Е. Теория вероятностей и математическая статистика, М.: Высшая школа. 2000.-479 с. 4. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике, М.: Высшая школа, 2000.-400 с. 5. Письменный Д. Конспект лекций по теории математической статистике, М.: Айрис Пресс, 2004. вероятностей и