1 Г о с уд а р с тв е н н о е о б р а з о в а те л ь н о е уч р е ж д е н и е в ы с ше г о п р о ф е с с и о н а л ь н о г о о б р а з о в а н и я Московский гос ударственный индустриальный университет (ГОУ МГИУ) Факультет экономики, менеджмента и информационных технологий Кафедра математических методов в экономике «Вероятностное знание – вот предел человеческого разумения» Цицерон. Лекции по учебной дисциплине Теория вероятностей и математическая статистика Часть I. Теория вероятностей Составил Алибеков И.Ю. 2 Москва, 2011 Содержание Введение .................................................................................................................................................................4 Тема 1. Классическое определение вероятности…………………………………………............................4 1.1. Случайные события…………………………………………………………………………………………..4 1.2. Классификация событий .................................................................................................................................5 1.3.Классическое определение вероятности ........................................................................................................6 1.4.Контрольные вопросы......................................................................................................................................7 Тема 2. Геометрическое и статистическое определения вероятности……………………………………8 2.1. Геометрическая вероятность ..........................................................................................................................8 2.2.Статистическая вероятность. Закон больших чисел. ....................................................................................9 2.3.Условная вероятность .................................................................................................................................... 10 2.4 Контрольные вопросы.....................................................................................................................................11 2.5.Задачи для самостоятельно решения ............................................................................................................11 Тема 3. Алгебра событий....................................................................................................................................12 3.1.Произведение событий ...................................................................................................................................12 3.2.Сумма событий. Свойства операций сложения и умножения событий. ...................................................12 3.3.Вероятность появления хотя бы одного из событий....................................................................................13 3.4.Принцип практической невозможности .......................................................................................................14 3.5.Контрольные вопросы.....................................................................................................................................14 Тема 4. Формула полной вероятности и формула Байеса………………………………………………...15 4.1.Формула полной вероятности события ........................................................................................................15 4.2.Формула Бейеса ..............................................................................................................................................16 4.3.Контрольные вопросы.....................................................................................................................................17 4.4.Задачи для самостоятельно решения ............................................................................................................18 Тема 5. Схема Бернулли……………………………………………………………………………………….19 5.1. Частная теорема о повторении опытов………………………………………………….............................19 5.2. Независимые испытания с несколькими исходами…………………………………… ………………....21 5.3. Формулы Муавра-Лапласа………………………………………………………………………………….21 5.3.1. Локальная теорема Муавра-Лапласа. Функция Гаусса.………………………………………………...21 5.3.2. Интегральная теорема Муавра-Лапласа. Функция Лапласа…………………………………………...23 Тема 6. Дискретные случайные величины....................................................................................................25 6.1. Классификация случайных величин.............................................................................................................25 6.2.Законы распределения дискретных случайных величин…………………………….…………………...26 6.2.1. Ряд распределения. Многоугольник распределения…………………………………. ……………….26 6.2.2. Функция распределения ............................................................................................................................28 Тема 7. Числовые характеристики дискретных случайных величин………………………………….31 7.1. Характеристики положения. Математическое ожидание. Мода. Медиана…………………………….31 7.2. Дисперсия. Среднеквадратическое отклонение………………………………………………………….34 7.3. Контрольные вопросы……………………………………………………………………………………..36 Тема 8. Законы распределения дискретных случайных величин……………………………………...36 8.1. Биномиальное распределение (закон Бернулли)………………………………………………………...36 8.2. Закон Пуассона…………………………………………………………………………………………….37 8.3. Контрольные вопросы…………………………………………………………………………………….39 8.4. Задачи для самостоятельного решения…………………………………………………………………..39 Тема 9. Непрерывные случайные величины……………………………………………………………..39 9.1. Законы распределения непрерывных случайных величин……………………………………………..39 9.1.1. Интегральный закон распределения…………………………………………………………………...39 9.1.2. Плотность распределения………………………………………………………………………………40 3 Тема 10. Числовые характеристики непрерывных случайных величин……………………………. 45 10.1. Математическое ожидание. Мода. Медиана…………………………………………………………..45 10.2. Дисперсия. Среднее квадратичное отклонение……………………………………………………….47 10.3. Моменты распределения………………………………………………………………………………..48 10.4. Контрольные вопросы…………………………………………………………………………………..51 Тема 11. Законы распределения непрерывных случайных величин…………………………………52 11.1. Закон равномерной плотности…………………………………………………………………………52 11.2. Задачи для самостоятельного решения………………………………………………………………..54 11.3. Экспоненциальное (показательное) распределение………………………………………………….55 11.4. Задачи для самостоятельного решения………………………………………………………………..56 11.5. Нормальный закон распределения…………………………………………………………………….57 11.5.1. Плотность нормального распределения вероятностей……………………………………………..57 11.5.2. Нормальная функция распределения………………………………………………………………..59 11.6. Задачи для самостоятельного решения………………………………………………………………..62 11.7. Контрольные вопросы…………………………………………………………………………………..63 Тема 12. Системы случайных величин……………………………………………………………………63 12.1. Функция распределения системы двух случайных величин…………………………………………64 12.2. Плотность распределения системы двух непрерывных случайных величин……………………….67 12.3. Таблица распределения системы двух дискретных случайных величин……………………………70 12.4. Условные законы распределения и их числовые характеристики…………………………………...72 12.5. Зависимые и независимые случайные величины……………………………………………………...75 12.6. Числовые характеристики системы двух случайных величин……………………………………….77 Тема 13. Функции случайных величин……………………………………………………………………82 13.1. Числовые характеристики функций случайных величин……………………………………………..82 13.2. Теоремы о числовых характеристиках функций случайных величин……………………………….86 13.3. Законы распределения функций случайных величин…………………………………………………89 13.3.1. Закон распределения функции одного случайного аргумента……………………………………..89 13.3.2. Закон распределения функции двух случайных аргументов……………………………………….94 13.3.3. Закон распределения суммы двух непрерывных случайных аргументов. Композиция законов распределения…………………………………………………………………………………………………96 Тема 14. Предельные теоремы теории вероятностей………………………………………………….100 14.1. Законы больших чисел. Центральная предельная теорема…………………………………………100 14.1.1. Неравенство Чебышева ……………………………………………………………………………...101 14.1.2. Теорема Чебышева………………………………………………………………………………… ..101 14.1.3. Теорема Бернулли …………………………………………………………………………………...104 14.2. Центральная предельная теорема …………………………………………………………………….105 Тема 15. Случайные функции…………………………………………………………………………….108 15.1. Понятие случайной функции…………………………………………………………………………108 15.2. Закон распределения случайной функции……………………………………………………………109 15.3. Вероятностные характеристики случайных функций……………………………………………….110 15.4. Стационарные случайные функции…………………………………………………………………...114 Тема 16. Вероятностные основы теории информации…………………………………………………116 16.1. Энтропия как мера степени неопределенности состояния физической системы………………….116 16.2. Энтропия и информация……………………………………………………………………………….120 Приложение. Приближённые значения функции стандартного нормального распределения…..122 Литература…………………………………………………………………………………………………...123 4 Введение Обычно считают, что теория вероятностей возникла в середине XVII столетия, причем ее появление связывают с именами П. Ферма (1601-1665), Б. Паскаля (1623-1662) и Х. Гюйгенса (1629-1695). Отправным пунктом исследований являлись задачи, связанные с азартными играми, особенно играми в кости, поскольку при их изучении можно ограничиваться простыми и понятными математическими моделями. Игра в карты – тоже азартная игра, потому, что в ней главную роль играет случай - от него зависит, какие именно карты окажутся у партнеров. Математика случая‖ — так еще в XVII в. назвал теорию вероятностей один из ее основателей, французский ученый Блез Паскаль Классическая теория вероятностей рассматривает вероятность как отношение числа благоприятствующих случаев ко всем возможным. При этом предполагается, что все рассмотренные случаи являются равновозможными, равновероятными. Гюйгенс в сочинении "О расчетах при игре в кости" писал: "...думаю, при внимательном изучении предмета читатель заметит, что имеет дело не только с игрой, но что здесь закладываются основы очень интересной и глубокой теории". Значительное влияние на развитие теории вероятностей оказали Д. Бернулли (1654-1705), А. Муавр (1667-1754), Т. Байес (1702-1763), П. Лаплас (1749-1827), К. Гаусс (1777-1855), С. Пуассон (17811840). Например, Д. Бернулли принадлежит первое доказательство одного из важнейших положений теории вероятностей - так называемого "закона больших чисел". Теорема, которую он доказал, устанавливает связь между вероятностью события и частотой его появления. Развитие теории вероятностей тесно связано с традициями и достижениями русской науки. Фундаментальные результаты были получены П. Л. Чебышевым (1821-1894), А. М. Ляпуновым (18571918), позже большой вклад в ее развитие внесли Е. Е. Слуцкий (1903-1987) и ряд других. Тема 1. Классическое определение вероятности 1.1. Случайные события. Теория вероятностей изучает закономерности, возникающие случайных экспериментах, раскрывает объективные закономерности, присущие массовым явлениям. Ее методы не дают возможности предсказать исход отдельного случайного явления, но позволяют предсказать средний суммарный результат массы однородных случайных явлений. Одна из важнейших задач любой науки – найти закономерности в водовороте «случайных» явлений окружающей нас жизни. Основателем теории вероятностей как строгой математической дисциплины является Колмогоров Андрей Николаевич (1903 –1988). В 1933г. он опубликовал аксиоматическое построение этой теории. Одно из основных понятий теории вероятностей – понятие случайного события. Его работа «Основные понятия теории вероятностей» (1933) новый этап в развитии теории вероятностей как науки. Для изучения физических явлений производят наблюдение и опыты, их результаты обычно регистрируют в виде значений некоторых наблюдаемых величин. При повторении опытов обнаруживается разброс их результатов. Говорят, что результат измерения есть величина случайная. Математический аппарат для изучения таких случайностей и закономерностей в них дает теория вероятностей. Определение. Случайные события – любые события или факты, относящиеся к результату эксперимента, которые могут происходить или не происходить. Название объясняется тем, что именно случай определяет, произойдет данное событие или не произойдет. 5 Отдельные случайные события в ТВ обозначают прописными латинскими буквами, например, A , B и т.д. Не все случайные явления можно изучать методами теории вероятностей, а лишь те, которые могут быть воспроизведены в одних и тех же условиях. Основной числовой характеристикой случайного события является его вероятность. Пример Испытание – подбрасывание монеты; исходы испытания – монета упала «орлом» или «решкой». Случайное событие – выпадение решки или орла. Пример Бросание игральной кости - выпадение цифр 1,2,3,4,5,6. Пусть производится серия из n испытаний, в каждом из которых может появиться или не появиться событие A . Если в результате испытания наблюдалось (появилось) событие A , то такой исход испытания называется благоприятным исходом. Определение. Элементарное событие – событие или каждый отдельный возможный результат испытания. Определение. Набор элементарных событий – набор всех возможных отдельных результатов испытаний. Парадокс игры в кости. Правильная игральная кость при бросании с равными шансами падает на любую из граней 1, 2, 3, 4, 5, 6. В случае бросания двух костей сумма выпавших чисел заключена между 2 и 12. Как 9, так и 10 из чисел 1, 2, ..., 6 можно получить двумя разными способами: 9=3+6= или 9=4+5 и 10=4+6 или 10=5+5. Почему 9 появляется чаще, когда бросают две кости, а 10 - когда бросают три? Решение. В случае двух костей 9 и 10 могут получиться следующим образом: =3+6, или 9=6+3, или 9=4+5, или =5+4, 10=4+6, или 10=6+4, или 10=5+5. Это значит, что при двух костях 9 можно "выбросить" четырьмя способами, а 10 - лишь тремя. Следовательно, здесь шансы получить 9 предпочтительней. В случае трех костей ситуация меняется на противоположную: 9 можно "выбросить" 25 способами, а 10 - уже 26 способами. Потому 10 получается чаще, чем 9. (Проверьте!!!) Теория вероятностей как наука раскрывает объективные закономерности, присущие массовым явлениям. Методы не дают возможности предсказать исход отдельного случайного явления, но позволяют предсказать средний суммарный результат массы однородных случайных явлений 1.2. Классификация событий Различные события различают по степени возможности их проявления и бывают взаимно связаны. Типы событий: случайное, достоверное, невозможное. Определение. Достоверное событие – событие, которое в результате опыта обязательно должно произойти. Пример -выпадение не менее одного очка при бросании игральной кости. Определение. Невозможное событие – событие, которое не может иметь место в данном опыте. 6 Пример - выпадение более 6 очков при бросании игральной кости. Если событие в данном опыте невозможно, то говорят, что вероятность его равна P(A) 0, если достоверно, то его вероятность равна P(A) 1.Чем ближе вероятность события к 1, тем больше объективная возможность его появления его в опыте. Определение Два или несколько событий называются равновозможными, если нет оснований утверждать, что одно из них имеет больше данных появиться в итоге опыта по сравнению с другими. Равная возможность исходов – основная гипотеза классической теории вероятностей. Пример- выпадение герба и цифры при однократном бросании монеты. По характеру совместной связи события подразделяются на совместные и несовместные. Определение. События, называются несовместными, если появление какого-нибудь одного из них в данном опыте исключает возможность появления других. Пример - выпадение 3 и 5 вместе при однократном бросании монеты. Определение. События, называются совместными, если появление одного из них в данном опыте не исключает возможность появления других. Пример - выпадение 3 и 5 вместе при двукратном бросании монеты. Получение студентом на экзамене по одной дисциплине оценок «5», «4»,»3» – события несовместные, а получение тех же оценок на экзамене по трем дисциплинам – события совместные. Определение. Полная группа событий – группа событий, из которых хотя бы одно непременно должно произойти в данном опыте. Примеры Попадание и непопадание в мишень при выстреле. Выпадение 1,2,3,4,5,6 при бросании кости. Определение. Вероятность события – численная мера, принимающая значения между 0 и 1 и характеризующая степень возможности появления события в данном опыте. Обозначается: P(A) , где А - случайное событие. Обозначение P происходит от первой буквы английского слова probability – вероятность. Определение. Противоположные события – два единственно возможных и несовместных события, для которых справедливо, что А наступает, когда не наступает А и наоборот. Противоположные события – частный случай, событий, образующих полную группу. 1.3. Классическое определение вероятности. Классическое определение вероятности дал еще Лаплас, но тогда ее приложение не выходило за сферу азартных игр. Пьер-Симон Лаплас (1749 1827) — французский математик; один из создателей теории вероятностей. 7 Классическое определение вероятности несовершенно и имеет недостатки. Во-первых, оно применимо лишь в тех случаях, когда число элементарных событий конечно, но на практике не всегда имеет место. Во вторых, предполагается, что все элементарные события (исходы опыта) равновероятны (не всегда можно определить равная вероятность наступления отдельных элементарных событий). Определение (классическое по Лапласу определение). Вероятность случайного события А число элементарных событий, благоприятствующих появлению события А , деленному на все число элементов в наборе элементарных событий (исходов). 𝑚 P (A) 𝑛 , 0 P(A) 1 Пример. Какова вероятность выпадения четного числа очков при бросании кости Решение. 𝑚 3 1 n 6, m 3 , 𝑃(𝐴) = 𝑛 , 𝑃(𝐴) = 6 = 2 Пример. Буквы, образующие слова «Теория вероятностей», перемешаны и наугад извлекается одна буква. Найти вероятность того, что эта буква гласная Решение Общее число исходов n 18 (число букв в словах). Число благоприятствующих исходов m 9 𝑚 9 1 𝑃(𝐴) = 𝑛 , 𝑃(𝐴) = 18 = 2 Ошибка Даламбера. Классическое определение вероятности справедлива только в случае с равновозможными исходами. Пренебрежение этим требованием приводит к ошибкам при решении простых вероятностных задач. Рассмотрим знаменитую задачу о бросании обычной монеты, связанную с именем знаменитого математика Ж. Даламбера. Ж. Даламбер (1717 —1783) — французский ученый-энциклопедист. Широко известен как философ, математик и механик, вошел в историю теории вероятностей со своей знаменитой ошибкой, суть которой в том, что он неверно определил равная возможность исходов в опыте всего с двумя монетами! Опыт. Подбрасываем две одинаковые монеты. Какова вероятность того, что они упадут на одну и ту же сторону? Решение Даламбера: Опыт имеет три равновозможных исхода: 1) обе монеты упадут на «орла»; 2) обе монеты упадут на «решку»; 3) одна из монет упадет на «орла», другая на «решку». Из них благоприятными будут два исхода. 𝑚 2 n 3, m 2 , 𝑃(𝐴) = 𝑛 , 𝑃(𝐴) = 3 Правильное решение: Опыт имеет четыре равновозможных исхода: 1) обе монеты упадут на «орла»; 2) обе монеты упадут на «решку»; 3) первая монета упадет на «орла», вторая на «решку»; 4) первая монета упадет на «решку», вторая на «орла». Из них благоприятными будут два исхода. 8 n 4, m 2 , 𝑃(𝐴) = 𝑛 , 𝑃(𝐴) = 4 = 2 𝑚 2 1 Замечание. В настоящее время при выполнении условий конечности и равновероятности элементарных исходов, используют понятие относительной частоты события. Замечание. События, вероятности которых малы или очень велики, называются практически невозможными или практически достоверны. 1.4. Контрольные вопросы 1. Что изучает теория вероятностей? 2. Кто основатель теории вероятностей как строгой математической дисциплины? 3. Основная числовая характеристика случайного события. 4. Как определяются случайное, достоверное и невозможное события? 5. В чем недостатки классического определения вероятностей? 6. Как подразделяются события по характеру совместной связи ? 7. Классификация событий по степени возможности их проявления 8. Приведите примеры полной группы событий. 9. С какой вероятностью монета, брошенная дважды, по крайней мере один раз выпадет гербом? 10. Докажите, что события A,B, AB образуют полную группу. Тема 2. Геометрическое и статистическое определения вероятности 2.1. Геометрическая вероятность Одним из недостатков классического определения вероятности, ограничивающим его применение, является то, что оно предполагает конечное число возможных исходов испытания. Этот недостаток преодолен в классическом геометрическом определении вероятности, т.е. находя вероятность попадания точки в некоторую область (отрезок, часть плоскости и т.д.). Геометрическое определение вероятности является обобщением классического определения вероятности на случайный эксперимент с бесконечным числом равновозможных случайных исходов, изображаемых точками, прямой, плоскостью, пространством и т.д. Пусть плоская фигура g составляет часть плоской фигуры G. На фигуру G наудачу бросается точка. Это означает, что все точки области G «равноправны» в отношении попадания туда брошенной случайной точки. Фигуру g называют благоприятствующей событию A. Область, на которую распространяется понятие геометрической вероятности может быть одномерной (прямая, отрезок), двумерной и трехмерной и. т. д. Определение. Геометрическая вероятность события A - отношение меры области, благоприятствующей появлению события A к мере всей области Пример. В квадрат со стороной 4см «бросают» точку. Какова вероятность, что расстояние от этой точки до ближайшей стороны квадрата будет меньше 1 см? Решение. Закрасим в квадрате множество точек, удаленных от ближайшей стороны меньше, чем 9 на 1см. Площадь не закрашенной части квадрата 𝑆(𝐴) = 16см2 − 4см2 = 12см2 . Площадь большого квадрата 𝑆(Ω) = 16см2. Тогда, в соответствии с определением геометрической вероятности, получим 𝑆(𝐴) 12 3 𝑃(𝐴) = 𝑆(Ω) = 16 = 4. 2.2. Статистическая вероятность. Закон больших чисел. Недостатком классического определения вероятности является то, что не всегда удается узнать, являются исходы испытания равновозможными или не являются. Число равновозможных исходов конечно. Результат испытаний не всегда можно представить в виде совокупности элементарных событий. Введем понятие статистической вероятности. Если производить многократно повторение одного и того же опыта, то относительное число появлений данного события во всей серии опытов, или частота его появления, будет близка к значению его вероятности. Оказывается, что при большом числе испытаний n, относительная частота появления события А в различных сериях отличается друг от друга мало и это отличие тем меньше, чем больше испытаний в сериях. Определение. Абсолютной частотой случайного события A в серии из N случайных опытов называется число NA , которое показывает, сколько раз в этой серии произошло событие A . Определение. Относительной частотой случайного события называют отношение числа появлений этого события к общему числу проведенных экспериментов: Пример. Выпадение герба. При небольшом количестве опытов относительное число появлений герба будет отличаться от 0.5, но если увеличить число до несколько десятков тысяч, то небольшие отклонения не могут оказать влияния на общий результат. Такие опыты проводились Бюффоном (Франция), и Пирсоном (Англия), при этом получены следующие результаты. Число бросаний 4040 12000 24000 Относит. частота появления герба 0,50693 0,5016 0,5005 Французский естествоиспытатель Бюффон (XVIII в.) бросил монету 4040 раз, и при этом герб выпал в 2048 случаях. Следовательно, частота выпадения герба в данной серии испытаний равна 2048 µ= =0,50693… . Английский математик Карл Пирсон (1857-1936) бросал монету 24000 раз, причем 4040 герб выпал 12012 раз. Следовательно, частота выпадения герба в данной серии испытаний равна: µ = 12012 =0,5005… . Расхождение с математической вероятностью в четвертом знаке после запятой. Это 24000 закон больших чисел. Определение. При статистическом определении вероятностью события называют относительную частоту события при большом числе испытаний или число близкое к ней: Вероятность PAвыражает количественную меру появления события в данных сериях испытаний. Пример. Наблюдения показывают, что в среднем среди 1000 новорожденных детей 515 мальчиков. Какова относительная частота рождения мальчика в такой серии наблюдений? 10 Решение. 𝑊(𝐴) = 515 1000 = 0,515. Согласно закону больших чисел, относительная частота обладает определенной устойчивостью, то есть ее значения изменяясь, колеблются около некоторого неотрицательного числа, к которому она стремится при n → ∞, (неограниченном возрастании числа испытаний). lim 𝑊(𝐴) = 𝑃(𝐴) 𝑛→∞ 2.3. Условная вероятность Пусть имеем два последовательных случайных событий. Ставится вопрос: какова вероятность наступления второго события, если первое событие уже произошло? Пример. Пусть в урне было 5 шаров, (2 белых+ 3 черных). Найти вероятность извлечь белый шар во втором испытании. Решение. После извлечения первого шара в ней останется 4 шара и один белый в их числе (если извлекли первым белый шар), или 2 белых ( если в первый раз извлечен черный шар). 1 1 В первом случае вероятность извлечь белый шар во второй раз будет , во втором . Таким образом, 4 2 вероятность извлечь белый шар во втором испытании зависит от результата первого испытания. Понятия условной вероятности и независимости введены А. Муавром в 1718 г. Определение. Условная вероятность это вероятность одного события, вычисленная в предположении, что другое событие произошло. Вероятность события 𝐴1 в предположении, что произошло событие 𝐴2 , обозначается как ⁄ 𝑃(𝐴1 𝐴2 ). Определение. Два или несколько событий называются независимыми, если вероятность появления каждого из них не зависит от того, имели ли место другие события. Определение. Два или несколько событий называются зависимыми, если появление одного из них влияет на вероятность наступления других. Из этих определений следует математическая запись условия независимости двух событий 𝑃(𝐴1 ⁄𝐴2 )=𝑃(𝐴1 ) - событие 𝐴1 не зависит от события 𝐴2 𝑃(𝐴2 ⁄𝐴1 )= 𝑃(𝐴2 ) - событие 𝐴2 не зависит от события 𝐴1 . Если выполняются оба эти условия. То события 𝐴1 и 𝐴2 называются взаимно-независимыми событиями. Пример. Событие A – извлечение из колоды туза, событие B – то, что и вторая вынутая из колоды карта - туз. Тогда, если после первого раза карта была возвращена в колоду, то вероятность вынуть вторично туз не меняется: 4 1 𝑃(𝐵) = 𝑃(𝐴) = = . 36 9 Если же первая карта в колоду не возвращается, то осуществление события A приводит к тому, что в колоде осталась 31 карта, в числе которых имеются только 3 туза. Поэтому 11 𝑃(𝐵⁄𝐴) = 3 . 35 2.4. Контрольные вопросы 1. Дайте статистическое определение вероятности. 2. В чем отличие от классического определения вероятности? 3. В чем разница абсолютной и относительной частоты? 2.5. Задачи для самостоятельно решения 1. В ящике имеется 50 одинаковых деталей, из них 5 окрашенных. Наудачу вынимают одну деталь. Найти вероятность того, что извлеченная деталь окажется окрашенной. Ответ: p 0.1. 2. Брошена игральная кость. Найти вероятность того, что выйдет четное число очков. Ответ: p 0.5 . 3. Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100. Найти вероятность того, что номер первого, наудачу извлеченного жетона, не "содержит цифры 5. Ответ: p 0.81. 4. В мешочке имеется 5 одинаковых кубиков. На всех гранях каждого кубика написана одна из следующих букв: о, п, р, с, т. Найти вероятность того, что на вынутых по одному из расположенных «в 𝟏 одну линию» кубиках можно будет прочесть слово «спорт». Ответ: 𝟏𝟐𝟎 5. Куб, все грани которого окрашены, распилен на тысячу кубиков одинакового размера, которые затем тщательно перемешаны. Найти вероятность того, что наудачу извлеченный кубик будет иметь окрашенных граней: а) одну; б) две; в) три. Ответ: а) 0,384; б) 0,096; в) 0,008. 6. Из тщательно перемешанного полного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую наудачу извлеченную кость можно приставить к первой, если первая кость: 2 4 а) оказалась дублем, б) не есть дубль. Ответ: (а) 9, (б) 9. 7. В замке на общей оси пять дисков, каждый из которых разделен на шесть секторов с различными написанными на них буквами. Замок открывается, только в том случае, если каждый диск занимает одно определенное положение относительно корпуса замка. Найти вероятность того, что при произвольной 𝟏 установке дисков замок можно будет открыть. Ответ: 𝟔𝟓. 8. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что две определенные книги окажутся поставленными рядом. Ответ: 0,25. 9. Библиотечка состоит из десяти различных книг, причем пять книг стоят по 4 рубля каждая, три книги — по одному рублю и две книги — по 3 рубля. Найти вероятность того, что взятые наудачу две книги стоят 5 рублей. Ответ: 5 /12. 10. В партии из 100 деталей отдел технического контроля обнаружил 6 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей? Ответ: W 0,06 . 11. При стрельбе из винтовки относительная частота попадания в цель оказалась равной 0,85. Требуется найти число попаданий, если всего было произведено 120 выстрелов. Ответ: 102 попадания. 12 Тема 3. Алгебра событий 3.1. Произведение событий Определение. Произведением нескольких событий называется событие, состоящие в совместном наступлении всех этих событий в результате испытания. Обозначают AB, AB, AиB. Замечание. Произведение означает связку «и» (АВС, это означает, что наступило событие A и B и C ). Пример. Событие A – «из колоды карт вынута дама», событие B – «из колоды карт вынута карта пиковой масти». Тогда событие A ∙B означает «вынута дама пик». Пример. Событие A – « число выпавших очков < 5», событие B – «число выпавших очков > 2», C – «число выпавших очков четное». Тогда событие ABC означает – «выпало 4 очка». Теорема Вероятность произведения взаимно-независимых событий равна произведению их вероятностей. P( A1 A2) P (A1) P(A2) . Теорема Вероятность произведения зависимых событий равна произведению вероятности одного события на условную вероятность другого события, вычисленную в предположении, что первое случайное событие уже произошло. P( A1 A2) 𝑃(𝐴1 ) ∙ 𝑃(𝐴2 ⁄𝐴1 ) 3.2. Сумма событий. Свойства операций сложения и умножения событий. Определение. Суммой двух событий A1 и A2 - называется событие, состоящее в появлении хотя бы одного из этих событий. A A1 A2 Знаком плюс обозначается связка «или». Теорема Вероятность суммы двух несовместных событий равняется сумме их вероятностей. P(A1 A2) P(A1) P(A2) Заметим, что сформулированная теорема справедлива для любого числа несовместных событий. Следствие теоремы сложения. Сумма вероятностей полной группы несовместимых событий равна единице. Теорема Вероятность суммы двух совместных событий равняется сумме их вероятностей, уменьшенная на вероятность произведения этих событий. P (A1 A2) P (A1) P A2) P(A1 A2) Свойства операций сложения и умножения. 1. AB BA коммутативность сложения. 13 2. AB CABC - ассоциативность сложения. 3. AB BA коммутативность умножения. 4. ABCABC ассоциативность умножения 5. ABCABAC закон дистрибутивности. 3.3. Вероятность появления хотя бы одного из событий. Теорема. Вероятность появления хотя бы одного из событий A1, A2, , An , независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий P (A1+A2+…+An) P (𝐴1) P (𝐴2) P(𝐴n). Следствие. При производимых n одинаковых независимых испытаниях, в каждом из которых события A появляется с вероятностью p , вероятность появления события A хотя бы один раз равна P(A) 11p)n. Пример. В урне 30 шаров: 10 красных, 5 синих и 15 белых. Найти вероятность появления цветного шара. Решение. Появление цветного шара означает появление либо красного, либо синего шара. 10 1 Вероятность появления красного шара (событие A): 𝑃(𝐴) = 30 = 3. 5 1 Вероятность появления синего шара (событие B): 𝑃(𝐵) = 30 = 6. События A и B несовместны (появление шара одного цвета исключает появление шара другого цвета), поэтому искомая вероятность 1 1 1 P(AB) P(A) P(B) + = . 3 6 2 Пример. На стеллаже в библиотеке стоит 15 учебников, причем 5 из них в переплете. Библиотекарь берет три учебника. Найти вероятность того, что хотя бы один из взятых учебников окажется в переплете. Решение. Пусть события A – хотя бы один учебник в переплете. Событие 𝐴̅ - ни один из взятых учебников не имеет переплета. Так как события 𝐴̅ и противоположные, то они образуют полную группу событий, то (см. следствие теоремы сложения вероятностей событий): 𝐶3 24 67 𝑃(𝐴) = 1 − 𝑃(𝐴)=1 − 𝐶10 3 = 1− 91 = 91. 15 Пример Студент разыскивает нужную ему формулу в трех справочниках. Вероятности того, что формула содержится в первом, втором и третьем справочниках равны 0,6; 0,7 и 0,8. Найти вероятности того, что формула содержится 1) только в одном справочнике; 2) только в двух справочниках; Решение. A – формула содержится в первом справочнике; B – формула содержится во втором справочнике; С – формула содержится в третьем справочнике. Воспользуемся теоремами сложения и умножения вероятностей. 1) Вероятность того. Что формула содержится только в одном справочнике: 14 P A 𝐵 𝐶 𝐴 𝐵 𝐶 𝐴 𝐵𝐶 0,60,30,20,40,70,20,40,30,8 0,188. 2) только в двух справочниках; 𝑃(𝐴 𝐵 𝐶 + 𝐴 𝐵 𝐶 + 𝐴 𝐵 𝐶) = 0,6 ∙ 0,7 ∙ 0,2 + 0,6 ∙ 0,3 ∙ 0,8 + 0,4 ∙ 0,7 ∙ 0,8 = 0,452. 3.4. Принцип практической невозможности. При решении многих практических задач приходится иметь дело с событиями, вероятность которых весьма мала, т. е. близка к нулю. Можно ли считать, что маловероятное событие 𝐴 в единичном испытании не произойдет? Такого заключения сделать нельзя, так как не исключено, хотя и маловероятно, что событие 𝐴 наступит. Казалось бы, появление или не появление маловероятного события в единичном испытании предсказать невозможно. Однако длительный опыт показывает, что маловероятное событие в единичном испытании в подавляющем большинстве случаев не наступает. На основании этого факта принимают следующий «принцип практической невозможности маловероятных событий»: если случайное событие имеет очень малую вероятность, то практически можно считать, что в единичном испытании это событие не наступит. Естественно возникает вопрос: насколько малой должна быть вероятность события, чтобы можно было считать невозможным его появление в одном испытании? На этот вопрос нельзя ответить однозначно. Для задач, различных по существу, ответы будут разными. Например, если вероятность того, что парашют при прыжке не раскроется, равна 0,01, то было бы недопустимым применять такие парашюты. Если же вероятность того, что поезд дальнего следования прибудет с опозданием, равна 0,01, то можно практически быть уверенным, что поезд прибудет вовремя. Определение. Достаточно малую вероятность, при которой событие можно считать практически невозможным, называют уровнем значимости. На практике обычно принимают уровни значимости, заключенные между 0,01 и 0,05. Уровень значимости, равный 0,01, называют однопроцентным; уровень значимости, равный 0,02, называют двухпроцентным и т. д. Подчеркнем, что рассмотренный здесь принцип позволяет делать предсказания не только о событиях, имеющих малую вероятность, но и о событиях, вероятность которых близка к единице. Действительно, если событие A имеет вероятность близкую к нулю, то вероятность противоположного события близка к единице. С другой стороны, непоявление события A означает наступление противоположного события 𝐴.Таким образом, из принципа невозможности маловероятных событии вытекает следующее важное для приложении следствие: если случайное событие имеет вероятность очень близкую к единице, то практически можно считать, что в единичном испытании это событие наступит. Разумеется, и здесь ответ на вопрос о том, какую вероятность считать близкой к единице, зависит от существа задачи. 3.5. Контрольные вопросы 1. Что относится к основным понятиям теории вероятностей? 2. Назовите действия над событиями. 3. Виды случайных событий. 4. Дайте классическое определение вероятности. 5. Дайте статистическое определение вероятности. 6. Чему равна вероятность суммы двух несовместных событий? 7. Дайте определение произведения двух событий 15 8. Как определяется вероятность появления хотя бы одного события 9. Как определяется условная вероятность? 10. Сформулируйте теорему совместного появления двух событий. 11. Приведите формулу для вычисления вероятностей совместных событий. Тема 4. Формула полной вероятности события и формула Байеса Важными следствиями двух теорем теории вероятностей – теоремы сложения и умножения – являются формула полной вероятности события, зависящего от нескольких несовместных гипотез и формула Байеса. Изучение какого-либо объекта исследователь начинает с предположений (гипотез). Например: экзаменатор, предлагающий студенту билет, выдвигает гипотезы, что студент учил материал и т.д. 4.1. Формула полной вероятности события Определение. Гипотезы Н1 , Н2 ,…,Нn – это события, в условиях которых только и может появиться событие A. Вычисляя вероятность события A, выдвигаем различные предположения (гипотезы), относительно обстоятельств, которые могут привести к событию A . Определение. Априорные гипотезы – это гипотезы, полученные до предстоящего опыта, апостериорные гипотезы - это гипотезы, полученные после опыта. Теорема Полная вероятность события A равна сумме произведений вероятностей гипотез на условные вероятности событий, вычисленные соответственно при каждой из гипотез. 𝑛 𝑃(𝐴) = ∑ 𝑃(𝐻𝑖 ) ∙ 𝑃(𝐴⁄𝐻𝑖 ) 𝑖=1 где Н1 , Н2 ,…,Нn – совокупность гипотез, образующих полную группу событий. Доказательство. Пусть A - событие, вероятность которого надо вычислить. Полагаем, что это гипотезы Н1, Н2, …, Нn несовместимы, а их совокупность охватывает всевозможные события, каждое из которых может привести к появлению события A, т.е. они образуют полную группу несовместимых событий. Следовательно, PH1PH2 PHn1, где P (H1) , P(H 2) , … , P(Hn )- вероятности соответствующих гипотез. Найдем полную вероятность события А. Событие А может наступить только вместе с одним из событий Н1 , Н2 ,…,Нn. Вероятность наступления гипотезы H1 и вместе с ним события А на основании теоремы умножения равна P (H 1 и A) P (H1) P(A/H1) Но событие А может наступить, вместе с событием H2 . И тогда P (H2 и A) P (H2) P(A/H2) 16 и т.д. Для определения полной вероятности события А применяем теорему сложения вероятностей несовместных событий. PAPH1 и APH2 и APHnи A Заменяя слагаемые их значениями, получим 𝑛 𝑃(𝐴) = ∑ 𝑃(𝐻𝑖 ) ∙ 𝑃(𝐴⁄𝐻𝑖 ) 𝑖=1 Пример. Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй – 2 белых и 5 черных, в третьей – 10 черных шаров. Из случайно выбранной урны наудачу вынут шар. Найти вероятность того, что он белый. Решение. Будем считать гипотезами H1 , H2 и H3 выбор урны с соответствующим номером. Так 1 как по условию задачи все гипотезы равновозможны, то P (H1) P(H2) P(H3) 3 Найдем условную вероятность А при реализации каждой гипотезы: 3 2 2𝑃(𝐴⁄𝐻1 ) = 7, 𝑃(𝐴⁄𝐻2 ) = 3, 𝑃(𝐴⁄𝐻3 ) = 0. 1 3 1 2 1 Тогда 𝑃(𝐴) = 3 ∙ 7 + 3 ∙ 7 + 3 ∙ 0 ≈ 0,238. 4.2. Формула Байеса Формула Байеса — одна из основных теорем элементарной теории вероятностей, которая определяет вероятность того, что произошло какое-либо событие (гипотеза), имея на руках лишь косвенные тому подтверждения (данные), которые могут быть неточны. Полученную по формуле вероятность можно далее уточнять, принимая во внимание данные новых наблюдений. Томас Байес (1702 —1761) — английский математик. Математические интересы Байеса относились к теории вероятностей. Он сформулировал и решил одну из основных задач этого раздела математики (теорема Байеса). Работа, посвященная этой задаче, была опубликована в 1763 году, уже после его смерти. Формула Байеса применяется, когда событие А, которое может появиться только с одной из гипотез Н1 , Н2 ,…,Нn, образующих полную группу событий, произошло, и необходимо произвести количественную переоценку априорных вероятностей этих гипотез, т.е. найти апостериорные условные вероятности . Рассмотрим полную группу несовместных событий Н1 , Н2 ,…,Нn, вероятности появления которых PH1PH2 PHn известны. Событие А может наступить только вместе с каким-либо из событий Н1 , Н2 ,…,Нn . Вероятность появления события А по формуле полной вероятности определяется как 𝑛 𝑃(𝐴) = ∑ 𝑃(𝐻𝑖 ) ∙ 𝑃(𝐴⁄𝐻𝑖 ). 𝑖=1 Пусть событие А произошло, тогда это изменит вероятности гипотез PH1PH2 PHn 17 Определим теперь условные вероятности осуществления этих гипотез в предположении, что событие А произошло: 𝑃(𝐻1 ⁄𝐴), : 𝑃(𝐻2 ⁄𝐴) , … , : 𝑃(𝐻𝑛 ⁄𝐴). Учитывая, что 𝑃(𝐴 ∙ 𝐻1 ) = 𝑃(𝐴) ∙ 𝑃(𝐻1 ⁄𝐴)=𝑃(𝐻1 ) ∙ 𝑃(𝐴⁄𝐻1 ), получим 𝑃(𝐻1 ) ∙ 𝑃(𝐴⁄𝐻1 ) . 𝑃(𝐴) Аналогично можно найти апостериорные вероятности остальных гипотез, используя общую формулу 𝑃(𝐻1 ⁄𝐴) = 𝑃(𝐻𝑘 ⁄𝐴) = где k=1,2, …, n 𝑃(𝐻𝑘 ) ∙ 𝑃(𝐴⁄𝐻𝑘 ) , 𝑃(𝐴) Формула называется – формулой Байеса. Значение формулы Байеса состоит в том, что при наступлении события А, т.е. по мере получения новой информации, мы можем проверять и корректировать выдвинутые до испытания гипотезы. Это дает возможность корректировать управленческие решения в экономике, оценки неизвестных параметров распределения изучаемых признаков в статистическом анализе. Замечание Психологические эксперименты показали, что люди при оценках вероятности игнорируют различие априорных вероятностей (ошибка базовой оценки), и потому правильные результаты, получаемые по теореме Байеса, могут очень отличаться от ожидаемых. Пример. После двух выстрелов двух стрелков, вероятности попаданий каждого из которых равны 𝑝1 = 0,6 и 𝑝2 = 0,7, в мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок. Решение. Пусть событие А – одно попадание при двух выстрелах, а гипотезы: H1 – первый попал, а второй промахнулся, H2 – первый промахнулся, а второй попал, H3 – оба попали, H4 – оба промахнулись. Гипотезы Н1 , Н2, Н3,H4 образуют полную группу событий. Априорные вероятности этих гипотез: pH10,6 0,3 0,18, pH2 0,4 0,7 0,28, pH3 0,60,7 0,42 , pH4 0,4 0,3 0,12. Условные вероятности 𝑃(𝐴⁄𝐻1 )= 𝑃(𝐴⁄𝐻2 ) = 1, 𝑃(𝐴⁄𝐻3 )= 𝑃(𝐴⁄𝐻4 ) = 0. Следовательно, полная вероятность: 𝑃(𝐴) = 0,18 ∙ 1 + 0,28 ∙ 1 + 0,42 ∙ 0 + 0,12 ∙ 0 = 0,46 Вычислим апостериорную вероятность первой гипотезы Н1, с учетом того факта, что после выстрелов в мишени оказалась одна пробоина (событие A произошло). Применяя формулу Байеса, получим: 𝑃(𝐻1 ⁄𝐴) = 𝑃(𝐻1 ) ∙ 𝑃(𝐴⁄𝐻1 ) 0,18 ∙ 1 = ≈ 0,39 𝑃(𝐴) 0,46 Формула Бейеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной. События, отражающие действие «причин», в данном случае обычно называют гипотезами, так как они — предполагаемые события, повлекшие данное. Можно также уточнять вероятность гипотезы, учитывая другие имеющиеся данные (другие произошедшие события). Для учета каждого следующего события нужно в качестве априорной вероятности гипотезы подставлять ее апостериорную вероятность с предыдущего шага. 4.3. Контрольные вопросы 1. Как определяется условная вероятность? 2. При каких условиях применяется формула Байеса? 18 3. В каких случаях применяется формула полной вероятности? Каким свойствам должны удовлетворять гипотезы? 4. Что такое априорные и апостериорные вероятности? 5. Если все априорные вероятности гипотез одинаковы, то остаются ли их апостериорные вероятности также всегда одинаковыми? 4.4. Задачи для самостоятельно решения 1. В денежно-вещевой лотерее на каждые 10 000 билетов разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна вероятность выигрыша, безразлично денежного или вещевого, для владельца одного лотерейного билета? Ответ P=0, 02. 2. Вероятность того, что стрелок при одном выстреле выбьет 10 очков, равна 0,1; вероятность выбить 9 очков равна 0.3; вероятность выбить 8 или меньше очков равна 0,6. Найти вероятность того, что при одном выстреле стрелок выбьет не менее 9 очков. Ответ P=0,4. 3. В партии из 10 деталей 8 стандартных. Найти вероятность того, что среди наудачу извлеченных 44 2 деталей есть хоти бы одна стандартная. Ответ P=45. 4. В ящике 10 деталей, среди которых 2 нестандартных. Найти вероятность того, что в наудачу 2 отобранных 6 деталях окажется не более одной нестандартной детали. Ответ P=3. Указание. Если A — нет ни одной нестандартной детали, B— есть одна нестандартная деталь, то 𝐶6 P(A+B)=P(A)+P(B)= 𝐶 68 + 10 𝐶21 ∙𝐶85 6 . 𝐶10 7. События A, B, C и D образуют полную группу. Вероятности событий таковы: 𝑃(𝐴) = 0,1, 𝑃(𝐵) = 0,4, 𝑃(𝐶) = 0,3. Чему равна вероятность события D? Ответ P(D) = 0,2. 8. По статистическим данным ремонтной мастерской в среднем на 20 остановок токарного станка приходится: 10—для смены резца; 3 — из-за неисправности привода; 2 — из-за несвоевременной подачи заготовок. Остальные остановки происходят по другим причинам. Найти вероятность остановки станка по другим причинам. Ответ P=0,25. 9. Вероятность того, что стрелок при одном выстреле попадает в мишень, равна 0,9. Стрелок произвел 3 выстрела. Найти вероятность того, что все 3 выстрела дали попадание. Ответ: P=0,729. 10. Брошены монета и игральная кость. Найти вероятность совмещения событий: «появился герб», «появилось 6 очков». Ответ: P=0,729. 11. В двух ящиках находятся детали: в первом — 10 (из них 3 стандартных), во втором — 15 (из них 6 стандартных). Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что обе детали окажутся стандартными. Ответ: P= 0,12. 12. В студии телевидения 3 телевизионные камеры. Для каждой камеры вероятность того, что она включена в данный момент, равна 0,6. Найти вероятность того, что в данный момент включена хотя бы одна камера. Ответ: P=0,936. 13. Чему равна вероятность того, что при бросании трех игральных костей 6 очков появится хотя 91 бы на одной из костей. Ответ: P=216. 14. Предприятие изготовляет 95% изделий стандартных, причем из них 86%— первого сорта. Найти вероятность того что взятое наудачу изделие изготовленное на этом предприятии окажется первого сорта. Ответ: P=0,817. 15. Монета бросается до тех пор, пока 2 раза подряд она не выпадет одной и той же стороной. найти вероятность следующих событий: а) опыт окончится до шестого бросания. б) потребуется четное 15 2 число бросания. Ответ: а) 16, б) 3. 19 16. Из цифр 1,2,3,4,5 сначала выбирается одна, а затем из оставшихся четырех — вторая цифра. Предполагается, что все 20 возможных исходов равновероятны Найти вероятность того, что будет 3 3 3 выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в оба раза. Ответ: а )5, б) 5, в) 7. 17. Вероятность того, что при одном выстреле стрелок попадет в десятку, равна 0,6. Сколько выстрелов должен сделать стрелок, чтобы с вероятностью не менее 0,8. он попал в десятку хотя бы один раз? Ответ: 𝑛 > 2. 18. Три электрические лампочки последовательно включены в цепь. Вероятность того, что одна (любая) лампочка перегорит, если напряжение в сети превысит номинальное, равна 0,6. Найти вероятность того, что при повышенном напряжении тока в цепи не будет разрыва. Ответ: P=0,936. 19. Вероятность того, что событие А появится хотя бы один раз при двух независимых испытаниях, равна 0,75. Найти вероятность появления события в одном испытании (предполагается, что вероятность появления события в обоих испытаниях одна и та же). Ответ: P=0,5. 20. Вероятность поражения цели первым стрелком при одном выстреле равна 0,8, а вторым стрелком — 0,6. Найти вероятность того, что цель будет поражена только одним стрелком. Ответ: P=0,44. 21. Отдел технического контроля проверяет изделия на стандартность. Вероятность того, что изделие нестандартно, равна 0,1. Найти вероятность того, что: а) из трех проверенных изделий только одно окажется нестандартным; б) нестандартным окажется только четвертое по порядку проверенное изделие. Ответ: а) 0.243; б) 0,0729 . Тема 5. Повторение опытов. При практическом применении теории вероятностей часто приходится встречаться с задачами, в которых один и тот же опыт или аналогичные опыты повторяются неоднократно. В результате каждого опыта может появиться или не появиться некоторое событие А, причем нас интересует не результат каждого отдельного опыта, а общее число появлений события А в результате серии опытов. Например, если производится группа выстрелов по одной и той же цели, нас, как правило, интересует не результат каждого выстрела, а общее число попаданий. В подобных задачах требуется уметь определять вероятность любого заданного числа появлений события в результате серии опытов. Такие задачи и будут рассмотрены в данной главе. Они решаются весьма просто в случае, когда опыты являются н е зависимыми. Несколько опытов называются независимыми, если вероятность того или иного исхода каждого из опытов не зависит от того, какие исходы имели другие опыты. Например, несколько последовательных бросаний монеты представляют собой независимые опыты. Несколько последовательных извлечений карты из колоды представляют собой независимые опыты при условии, что вынутая карта каждый раз возвращается в колоду и карты перемешиваются; в противном случае это — зависимые опыты. Несколько выстрелов представляют собой независимые опыты только в случае, если прицеливание производится заново перед каждым выстрелом; в случае, когда прицеливание производится один раз перед всей стрельбой или непрерывно осуществляется в процессе стрельбы (стрельба очередью) выстрелы представляют собой зависимые опыты. Независимые опыты могут производиться в одинаковых или различных условиях. В первом случае вероятность события А во всех опытах одна и та же. Во втором случае вероятность события А от опыта к опыту меняется. К первому случаю относится частная задача, а ко второму — общая задача о повторении опытов. В данном курсе будет рассмотрена частная задача. 5.1. Частная задача о повторении опытов (схема Бернулли) Схемой Бернулли называется последовательность независимых опытов, в каждом из которых 20 возможны лишь два исхода: появление события A, или непоявление события A. Вероятность появления события A в каждом опыте постоянна и равна 𝑝, а вероятность его непоявления равна 𝑞 = 1 − 𝑝. Ставится задача определения вероятности того, что событие A в серии из n опытов произойдет ровно m раз. Рассмотрим событие Вт, состоящее в том, что событие А появится в n опытах ровно т раз. Это событие может осуществиться различными способами. Если событие А появится т раз подряд, начиная с первого опыта, то событие Вт можно записать в виде Вт = 𝐴1 ∙ 𝐴2 ∙ … ∙ 𝐴𝑚 ∙ 𝐴̅𝑚+1 ∙ … ∙ 𝐴̅𝑛 , где 𝐴̅𝑚+1 , … , 𝐴̅𝑛 – означают непоявление событий в опытах, начиная с номера 𝑚 + 1. Поскольку опыты в схеме Бернулли независимы, то и события, являющиеся результатами этих опытов также независимы. Поэтому P(Вт )= 𝑃(𝐴1 ) ∙ 𝑃(𝐴2 ) ∙ … ∙ 𝑃(𝐴𝑚 ) ∙ 𝑃(𝐴̅𝑚+1 ) ∙ … ∙ 𝑃(𝐴̅𝑛 ) = pmqn-m. Событие A может наступить т раз в n опытах в разной последовательности. При этом число возможных сочетаний появлений т событий A в серии из n опытов равно 𝐶𝑛𝑚 . Следовательно, искомая вероятность (обозначим ее 𝑃𝑚,𝑛 ) будет равна 𝑚 𝑛−𝑚 𝑃𝑚,𝑛 = С𝑚 . 𝑛 𝑝 (1 − 𝑝) Эта формула называется формулой Бернулли. Пример. Игральная кость выбрасывается 15 раз. Найти вероятность того, что в данной серии опытов выпадет ровно 10 троек. Решение. Условие задачи удовлетворяет условиям схемы Бернулли. Здесь n=15, т=10, вероятность 1 выпадения трех очков в каждом опыте равна 𝑝 = , вероятность не выпадения трех очков в каждом опыте 6 5 6 равна 𝑞 = (1 − 𝑝) = . Тогда 𝑃10,15 = С10 15 1 10 5 15−10 ∙( ) ∙( ) . 6 6 Применяя теорему сложения вероятностей несовместных событий можно получить следующую формулу для вероятности появления события A не менее k раз в серии из n опытов по схеме Бернулли 𝑛 𝑃𝑚≥𝑘 = ∑ 𝐶𝑛𝑚 ∙ 𝑝𝑚 ∙ (1 − 𝑝)𝑛−𝑚 . 𝑚=𝑘 Эту формулу можно, в частности применить для нахождения вероятности появления события A не менее одного раза в серии из n опытов или другими словами – хотя бы один раз. Но проще найти эту вероятность исходя из противоположного события 𝐴̅, которое состоит в том, что событие A не появится ни разу в n опытах. Очевидно, что события A и 𝐴̅ вместе образуют полную группу событий. А это значит, что 𝑃(𝐴) = 1 − 𝑃(𝐴̅). Найдем вероятность 𝑃(𝐴̅) по формуле Бернулли, полагая , что m=0: 𝑛! 𝑃(𝐴̅) = 𝑃0,𝑛 = 𝐶𝑛𝑜 ∙ 𝑝0 ∙ (1 − 𝑝)𝑛−0 = ∙ 1 ∙ (1 − 𝑝)𝑛 = (1 − 𝑝)𝑛 . 0! ∙ (𝑛 − 0)! Тогда 21 𝑃(𝐴) = 𝑃𝑚≥1 = 1 − (1 − 𝑝)𝑛 . Пример. Игральная кость выбрасывается 15 раз. Найти вероятность того, что в данной серии опытов выпадет хотя бы одна тройка. Решение. Условие задачи удовлетворяет условиям схемы Бернулли. Здесь n=15, т=10, вероятность 1 выпадения трех очков в каждом опыте равна 𝑝 = 6. Тогда 1 15 𝑃𝑚≥1 = 1 − (1 − 𝑝)𝑛 = 1 − (1 − 6) . 5.2. Независимые испытания с несколькими исходами. Пусть в серии, состоящей из n независимых опытов, в результате каждого опыта произойдет не одно из двух событий, как это было в схеме Бернулли, а одно из m событий с вероятностями p1,p2,…,pm, причем p1+p2+…+pm=1. Найдем вероятность 𝑃𝑛1 ,𝑛2 ,…,𝑛𝑚 того, что событие с номером 1 появится n1 раз, событие с номером 2 появится n2 раза, …, событие с номером m появится nm раз. При этом n1+n2+…+nm = n Рассмотрим один элементарный исход, когда после проведения серии из n опытов в первых n1 опытах наступило событие с номером 1, в следующих n2 опытах наступило событие с номером 2,…, в последних nm опытах наступило событие с номером m: 𝑛 𝑛 𝑛 Вероятность такого исхода серии n независимых опытов равна 𝑝1 1 ∙ 𝑝2 2 ∙ … ∙ 𝑝𝑚𝑚 . Остальные благоприятствующие исходы отличаются лишь расположением чисел на n местах. Подсчитаем число благоприятствующих исходов, применяя основное правило комбинаторики и формулу для подсчета числа 𝑛 сочетаний. Очевидно, что n1 единиц можно разместить на n местах 𝐶𝑛 1 различными способами. Каждому из этих вариантов соответствует размещение n2 двоек на оставшихся n-n1 местах и т. д. В результате получим следующее количество вариантов размещения: 𝑛 𝑛 𝑛 𝑛 2 3 𝑚 𝐶𝑛 1 ∙ 𝐶𝑛−𝑛 ∙ 𝐶𝑛−𝑛 ∙ … ∙ 𝐶𝑛−𝑛 = 1 1 −𝑛2 1 −𝑛2 −⋯−𝑛𝑚−1 𝑛! . 𝑛1 !∙𝑛2 !∙…∙𝑛𝑚 ! Тогда искомая вероятность рассчитывается по формуле 𝑃𝑛1 ,𝑛2 ,…,𝑛𝑚 = 𝑛! ∙ 𝑝 𝑛1 ∙ 𝑝 𝑛2 ∙ … ∙ 𝑝 𝑛𝑚 . 𝑛1 ! ∙ 𝑛2 ! ∙ … ∙ 𝑛𝑚 ! Пример. Игральная кость выбрасывается 15 раз. Найти вероятность того, что в данной серии опытов выпадет ровно 10 троек и три единицы. Решение. Здесь каждое испытание имеет три, а не два исхода: выпадение тройки, выпадение единицы, выпадение остальных граней. Поэтому данная серия опытов не соответствует схеме Бернулли. Итак, в данной задаче количество исходов в одном опыте m=3, число опытов в серии n=15, Число появления тройки n1=10, число появление единицы n2=3, число остальных случаев n3=2, так, что n1+ n2+ n3=n=15. Вероятность появления тройки и единицы в одном опыте серии равны, соответственно, p1= 1 4 2 p2 = 6 , вероятность появления остальных граней в одном опыте равна p3 =6 = 3. Тогда искомая вероятность : 15! 1 10 𝑃10,3,2 = 10!∙3!∙2! ∙ (6) 1 3 2 2 ∙ (6) ∙ (3) . 22 5.3. Формулы Муавра-Лапласа 5.3.1. Локальная теорема Муавра-Лапласа. Функция Гаусса. Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие A наступает с вероятностью p , причем число испытаний достаточно велико (n >100) .Тогда вероятность 𝑃𝑚,𝑛 того, что в этих n испытаниях событие A наступит m раз, вычисляется по следующей приближенной формуле Р m ,n где 𝑓(𝑥) = 1 −𝑥 2⁄ 2 𝑒 2𝜋 – функция Гаусса; 𝑥 = 𝑚−𝑛𝑝 ; √𝑛𝑝𝑞 f (x ) npq , 𝑞 = 1 − 𝑝. Формула дает удовлетворительную для практики точность при условии 𝑛𝑝𝑞 > 20. Свойства функции Гаусса. 1) Функция Гаусса четна: f ( x ) f ( x ) , поэтому ее график симметричен относительно оси OY; 2) f ( x ) 0 при всех x , т.е. график y f (x ) расположен строго выше оси OX; 3) lim f ( x ) lim f ( x ) 0 , т.е. ось OX является горизонтальной асимптотой графика этой функции; на n n практике полагаем f ( x ) 0 при x 5 . Схематично график функции Гаусса изображен на рисунке Значения функции Гаусса для различных значений x можно найти, например, в [1]. Пример. Имеется партия деталей, состоящая из 1000 штук. В среднем среди деталей такого вида стандартные детали составляют 90. Найти вероятность того, что число стандартных деталей в данной партии окажется равным 890. Решение. Число испытаний в данном случае достаточно велико ( n 1000 10) , поэтому локальная теорема Муавра-Лапласа применима. Из условия следует, что вероятность быть стандартной 90 0,9 , q 1 p 1 0,9 0,1 , m 890 . Тогда 100 m np 890 1000 0,9 x 1,05. npq 1000 0,9 0,1 для произвольной детали данной партии равна p По локальной теореме Муавра-Лапласа, 23 Р 890,1000 f ( 1,05) 1000 0,9 0,1 . Учитывая, что функция Гаусса четная, используя таблицу этой функции (см. [1]), находим 𝑓(−1,05) = 𝑓(1,05) ≈ 0,2299. Окончательно, получаем Р890,1000 0,2299 0,0242. 1000 0,9 0,1 5.3.2. Интегральная теорема Муавра-Лапласа. Функция Лапласа. Теорема. Пусть произведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью p, причем число испытаний достаточно велико (n >100). Тогда вероятность того, что число m наступлений события А в этих n испытаниях будет заключено в границах от 𝑚1 до 𝑚2, вычисляется по следующей приближенной формуле P(m1 m m2 ) где Ф(𝑥) = 𝑥 −𝑥 2⁄ 2 2 𝑑𝑥 𝑒 ∫ √2𝜋 0 m np 1 m2 np , 1 npq 2 npq – функция Лапласа, 𝑞 = 1 − 𝑝. Формула дает удовлетворительную для практики точность при условии 𝑛𝑝𝑞 > 20. Свойства функции Лапласа: 1. Ф (0) = 0 2. Ф (−∞) = −1. 3. Ф (+∞) = 1. 4. Ф (х) — неубывающая функция. 5. Ф (−𝑥) = − Ф( 𝑥) — нечетная функция. Практически можно считать, что уже при x > 4 Ф(𝑥) ≈ 1, в чем можно убедиться по таблице значений функции Лапласа Ф(𝑥), которая приводится во многих работах по теории вероятностей, в частности в книге [2]. Пример. Каждая из 1000 деталей партии стандартна с вероятностью 0,9. Найти вероятность того, что число стандартных деталей этой партии будет не меньше 880. Решение. Число n повторных независимых испытаний в данном случае равно числу деталей в партии (каждая из деталей партии будет проверяться на предмет качества, а в этой проверке и состоит испытание). По условию задачи 𝑛 = 1000 > 100 поэтому интегральная теорема Муавра-Лапласа применима; неравенство 𝑚 ≥ 880, где m − число стандартных деталей в партии, здесь равносильно условию 880 ≤ 𝑚 ≤ 1000 поэтому 𝑚1 = 880, 𝑚2 = 1000; 𝑝 = 0,9; 𝑞 = 1 − 0,9 = 0,1; 𝑛𝑝 = 1000 ∙ 90 = 900; 𝑛𝑝𝑞 = 1000 ∙ 90 ∙ 0,1 = 90. Тогда 880 900 1 1000 900 P (880 m 1000) 2 90 90 1 10,5 2,11. 2 По свойствам функции Лапласа: Ф(10,5) ≈ 1; Ф(−2,11) = −Ф(2,11). По таблице функции Лапласа [2] находим Ф(2,11) = 0,9651. Тогда окончательно имеем 24 P (880 m 1000) 1 1 (1 (2,11)) (1 0,9651) 0,9826. 2 2 Следствия из интегральной теоремы Муавра-Лапласа. Пусть выполнены условия применимости интегральной теоремы Муавра-Лапласа. Следствие 1. Вероятность того, что число m наступлений события А в n повторных независимых испытаниях будет отличаться от величины np не более чем на (по абсолютной величине), вычисляется по формуле . P m np npq Следствие 2. Вероятность того, что доля m n наступлений события А в n повторных независимых испытаниях будет отличаться от вероятности p наступления этого события в одном испытании не более чем на (по абсолютной величине), вычисляется по формуле n m P p pq n . Пример. Подлежат исследованию 1000 проб руды. Вероятность промышленного содержания металла в каждой пробе равна 0,15. Найти границы, в которых с вероятностью 0,9973 будет заключено число проб руды с промышленным содержанием металла. Решение. Искомые границы для числа m проб руды с промышленным содержанием металла (из данных 1000 проб) определяются величинами m 1 и m 2 (см. интегральную теорему Муавра-Лапласа). Будем предполагать, что искомые границы симметричны относительно величины np , где n 1000 и p 0,15 . Тогда m 1 np , m 2 np для некоторого 0 , и, тем самым, единственной определяющей неизвестной в данной задаче становится величина . Из следствия 1 и условия задачи следует, что 0,9973. npq По таблице значений функции Лапласа найдем такое x = Тогда 𝜀 , 𝑛𝑝𝑞 √ что ( x) 0,9973 : x 3. npq 3 и 3 npq 3 1000 0,15 0,85 33,8748 34 . Окончательно получаем np 150 34 184, т.е. с границы: np 1000 0,15 34 150 34 116, искомые вероятностью 0,9973 число проб руды с промышленным содержанием металла (из данных 1000 проб) попадет в интервал (116; 184). Пример. В лесхозе приживается в среднем 80 саженцев. Сколько саженцев надо посадить, чтобы с вероятностью 0,9981 можно было утверждать, что доля прижившихся саженцев будет находиться в границах от 0,75 до 0,85. Решение. p 80 100 0,8 – вероятность прижиться для каждого из саженцев, q 1 p 1 0,8 0,2 . Пусть n – необходимое число саженцев (искомая величина данной задачи) и m – число прижившихся из них, тогда m n – доля прижившихся саженцев. По условию, m P 0,75 0,85 0,9981. n 25 Данные границы для доли m n симметричны относительно величины p 0,8 , поэтому неравенство 0,75 m n 0,85 равносильно неравенству m n 0,8 0,05. Следовательно, вероятность 0,9981 – это та самая вероятность, которая вычисляется по следствию 2 из интегральной теоремы Муавра-Лапласа при 0,05 , p 0,8, q 0,2 : 0,05 n m 0,9981. P 0,8 0,05 n 0,8 0,2 По таблице функции Лапласа найдем такое значение x= x 3,1. Тогда 0,05 n 0,8 0,2 0,05√𝑛 , √0,8∙0,2 что ( x) 0,9981. Это значение: 3,1, n 3,1 0,8 0,2 0,05 и 3,12 0,8 0,2 n 615,04 616. 0,05 2 Заметим, что значение n округлено до целых в большую сторону, чтобы обеспечить, как говорят, “запас по вероятности”. Кроме того, видно, что полученное значение n достаточно велико (более 100), поэтому применение интегральной теоремы Муавра-Лапласа для решения данной задачи было возможно. Тема 6. Дискретные случайные величины 6.1. Классификация случайных величин Случайные события - это качественная характеристика случайного результата опыта, но случайный результат можно характеризовать и количественно, если каждому элементарному исходу опыта поставить в соответствие вещественное число. Определение. Случайная величина – величина, которая в результате опыта может принять то или иное значение, но неизвестно заранее какое именно. Случайная величина – числовая функция от случайного события, определенное обобщение понятия случайного события. Принятие случайной величиной конкретного значения тоже представляет собой событие, поэтому все теоремы, рассмотренные ранее для случайных событий можно применять и для случайных величин. Пример. Число выпадения герба при бросании монеты, ошибка при измерении, количество транзисторов, отказывающих за некоторый промежуток времени. Названия случайных величин обозначают заглавными буквами X,Y, Z, а их всевозможные значения, соответственно малыми x, y, z. Например, случайная величина X – число попаданий при трех выстрелах; ее возможные значения : x1=1, x2=2, x3=3. Случайная величина должна удовлетворять следующим условиям: – непредсказуемость исхода, – и устойчивость относительной частоты появления случайной величины. 26 Среди случайных величин можно выделить два основных класса: дискретные случайные величины непрерывные случайные величины. Определение. Дискретная случайная величина это величина, принимающая конечное или счетное множество значений. Ее значения отделимы друг от друга. Непрерывная случайная величина это величина, возможные значения которой неотделимы друг от друга и непрерывно заполняют некоторый интервал. Примеры дискретных случайных величин: 1) число появлений герба при трех бросаниях монеты (возможные значения 0, 1, 2, 3); 1 2 2) частота появления герба в том же опыте (возможные значения: 0, , , 1). 3 3 3) число отказавших элементов в приборе, состоящем из пяти элементов (возможные значения 0, 1, 2; 3, 4, 5); Примеры непрерывных случайных величин: 1) абсцисса (ордината) точки попадания при выстреле; 2) расстояние от точки попадания до центра мишени; 3) ошибка измерителя высоты; 6.2. Законы распределения дискретных случайных величин 6.2.1. Ряд распределения. Многоугольник распределения Рассмотрим дискретную случайную величину X с возможными значениями x1, x2, ..., хп. Каждое из этих значений возможно, но не достоверно, и величина X может принять каждое из них с некоторой вероятностью. В результате опыта величина X примет одно из этих значений, т. е. произойдет одно из полной группы несовместных событий: 𝑋 = 𝑥1 , 𝑋 = 𝑥2, { ……… 𝑋 = 𝑥𝑛 . Обозначим вероятности этих событий буквами р с соответствующими индексами: P(X =𝑥1 ) = 𝑝1 , Р(Х = 𝑥2 ) =𝑝2 , ... , Р(Х = 𝑥𝑛 ) = 𝑝𝑛 . Так перечисленные выше события несовместны и образуют полную группу, то ∑𝑛𝑖=1 𝑝𝑖 = 1, т. е. сумма вероятностей всех возможных значений случайной величины равна единице. Эта суммарная вероятность каким-то образом р а с п р е д е л е н а между отдельными значениями. Случайная величина будет полностью описана с вероятностной точки зрения, если мы зададим это распределение, т. е. в точности укажем, какой вероятностью обладает каждое из событий. Этим мы установим так называемый закон распределения случайной величины. Определение. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. 27 Про случайную величину мы будем говорить, что она подчинена данному закону распределения. Закон распределения может быть представлен в виде: таблицы, аналитической зависимости графика. Установим форму, в которой может быть задан закон распределения дискретной случайной величины X. Простейшей формой задания этого закона является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности: хi x1 x2 … xn pi p1 p2 … pn Такую таблицу мы будем называть рядом распределения случайной величины X. Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изображению: по оси абсцисс откладываются возможные значения случайной величины, а по оси ординат — вероятности этих значений. Для наглядности полученные точки соединяются отрезками прямых линий. Такая фигура называется многоугольником распределения. Многоугольник распределения, так же как и ряд распределения, полностью характеризует случайную величину; он также является одной из форм закона распределения. Замечание. Сумма все ординат многоугольника распределения равна единице. Замечание. При построении многоугольника распределения надо помнить, что соединение полученных точек носит условный характер. В промежутках между значениями случайной величины вероятность не принимает никакого значения. Точки соединены только для наглядности. Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при одном выстреле равны соответственно p1 = 0,6 и p2 = 0,7. Составить ряд распределения случайной величины Х – числа попаданий после двух выстрелов. Решение. Очевидно, что Х может принимать три значения: 0, 1 и 2. Их вероятности: P(X = 0) = (1- p1) ∙ (1-p2) = 0,4 ∙ 0,3= 0,12; P(X =1) =p1 ∙ (1-p2) + (1- p1) ∙ p2= 0,6 ∙ 0,3+0,4 ∙ 0,7= 0,46; 28 P(X =2) =p1 ∙ p2 = 0,6 ∙ 0,7 = 0,42. Следовательно, ряд распределения имеет вид: Х Р 0 1 2 0,12 0,46 0,42 6.2.2. Функция распределения В предыдущем п° мы ввели в рассмотрение ряд распределения как закон распределения дискретной случайной величины. Однако эта характеристика не является универсальной; она существует только для дискретных случайных величин. Нетрудно убедиться, что для непрерывной случайной величины такой характеристики построить нельзя. Действительно, непрерывная случайная величина имеет бесчисленное множество возможных значений, сплошь заполняющих некоторый промежуток (так называемое «несчетное множество»). Составить таблицу, в которой были бы перечислены все возможные значения такой случайной величины, невозможно. Для количественной характеристики этого распределения вероятностей удобно воспользоваться не вероятностью события Х = х, а вероятностью события X < х, где х — некоторая текущая переменная. Вероятность этого события, очевидно, зависит от х, есть некоторая ф у н к ц и я от х. Эта функция называется функцией распределения случайной величины X и обозначается F (х): 𝐹(𝑥) = 𝑃(𝑋 < 𝑥). Функцию распределения F(х) иногда называют также интегральной функцией распределения или интегральным законом распределения. Функция распределения — самая универсальная характеристика случайной величины. Она существует для всех случайных величин: как дискретных, так и непрерывных. Функция распределения полностью характеризует случайную величину с вероятностной точки зрения, т. е. является одной из форм закона распределения. Сформулируем некоторые о б щ и е с в о й с т в а функции распределения. 1. Функция распределения F (х) есть неубывающая функция своего аргумента, т. е. при 𝑥2 > 𝑥1 , F((𝑥2 ) > F (𝑥1 ). 2. На минус бесконечности функция распределения равна нулю: F(− ∞) = 0. 3. На плюс бесконечности функция распределения равна единице: F(+∞)=l. 4. Вероятность того, что случайная величина примет значение из интервала [a; b] равна разности значений функции распределения на концах интервала: 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎). Это следует из определения интегральной функции распределения. Не давая строгого доказательства этих свойств, проиллюстрируем их с помощью наглядной геометрической интерпретации. Для этого будем рассматривать случайную величину X как с л у ч а й н у ю т о ч к у на оси ОX, которая в результате опыта может занять то или иное положение. Тогда функция распределения F (х) есть вероятность того, что случайная точка X в результате опыта попадет л е в е е точки х. Будем увеличивать х, т. е. перемещать точку х вправо по оси абсцисс. Очевидно, при этом вероятность того, что случайная точка X попадет левее х, не может уменьшиться; следовательно, функция распределения F(х) с возрастанием х убывать не может. Чтобы убедиться в том, что F(- ∞) = 0, будем неограниченно перемещать точку х влево по оси абсцисс. При этом попадание случайной точки X левее х в пределе становится невозможным событием; естественно полагать, что вероятность этого события стремится к нулю, т. е. F(- ∞) = 0. 29 Аналогичным образом, неограниченно перемещая точку х вправо, убеждаемся, что F(+∞)=l, так как событие X < х становится в пределе достоверным. Зная ряд распределения дискретной случайной величины, можно легко построить функцию распределения этой величины. Действительно, F(x) = P(X <х) =∑𝑥𝑖 𝑃(Х < хi), где неравенство Х < 𝑥𝑖 под знаком суммы указывает, что суммирование распространяется на все те значения 𝑥𝑖 , которые меньше 𝑥. Когда текущая переменная х проходит через какое-нибудь из возможных значений дискретной величины X, функция распределения меняется скачкообразно, причем величина скачка равна вероятности этого значения. Пример. Производится один опыт, в котором может появиться или не появиться событие А. Известно, что вероятность появления события А равна 0,3. Пусть случайная величина X— число появлений события A в опыте. Построить ее функцию распределения. Решение. Ряд распределения величины X имеет вид; хi 1 2 pi 0,3 0,7 Построим функцию распределения величины X: 1) при х = 1 F (1) = Р (Х < 1) = 0, так как данная случайная величина не имеет значений меньших единицы, а потому событие (Х < 1)для нее является невозможным. Таким образом, в интервале 𝑥 ≤ 1 интегральная функция распределения F(х) везде постоянна и равна 0; 2) при х =2 F (2) = Р (Х < 2) = Р(X = 1) = 0,3, так как случайная величина по условию задачи может принимать только одно значение меньшее двух, которое равно единице с вероятностью 0,3. Таким образом, в интервале 1 < 𝑥 ≤ 2 интегральная функция распределения F(х) везде постоянна и равна 0,3; 3) при х > 2, например, х = 2,6 F (2,1) = Р (Х < 2,6) = Р (X = 1) + Р (X = 2) = 0,7 + 0,3=1, так как случайная величина по условию задачи может принимать только два значение меньшее 2,6: либо X = 1, либо X = 2. Аналогично, при любом значении переменной x, которое больше двух, будем иметь F ( x ) 1. График функции распределения представлен на рисунке. Окончательно имеем: 30 0 при x 1; F ( x ) 0,3 при 1 x 2; 1 при x 2. График найденной функции распределения изображен на рисунке Пример. Производится четыре независимых опыта. Вероятность появления события А в каждом опыте равна 0,3. Построить функцию распределения числа появлений события А. Найти вероятность того, что случайная величина Х – число появления события А примет значения из интервала [3;4]. Р е ш е н и е . Cлучайная величина Х, обозначенная в условии задачи, имеет ряд распределения хi pi 0 1 2 3 4 0,2401 0,4116 0,2646 0,0756 0,0081 Построим функцию распределения случайной величины Х: 1) при х ≤ 0 F (х) = 0; 2) при 0 < х ≤ 1 F (х) = 0,2401; 3 ) п р и 1 < х ≤ 2 F(x) = 0,6517; 4) при 2 < х ≤ 3 F (х) = 0,9163; 5) при 3 < х ≤ 4 F(х) = 0,9919; 6) при х > 4 F (х) = 1. График функций распределения представлен на рисунке. 31 Вероятность того, что случайная величина Х – примет значения из интервала [3;4]: 𝑃(3 ≤ 𝑋 ≤ 4) = 𝐹(4) − 𝐹(3) = 0,9919 − 0,9163 = 0,0756. Пример 3. Пусть Х – случайное число очков, выпавшее при одном выбрасывании игральной кости. Найти интегральную функцию распределения случайной величины X. Решение. Интегральный закон распределения случайной величины имеет вид P( x 1) 0 1 P( x 2) 6 1 P( x 3) 1 2 6 6 6 1 1 1 3 F (x) P( x 4) 6 6 6 6 1 P( x 5) 1 1 1 4 6 6 6 6 6 1 1 1 1 1 5 P( x 6) 6 6 6 6 6 6 P ( x 6 ) 1 Функция распределения любой дискретной случайной величины всегда есть разрывная ступенчатая функция, скачки которой происходят в точках, соответствующих возможным значениям случайной величины, и равны вероятностям этих значений. Сумма всех скачков функции F(x) равна единице. По мере увеличения числа возможных значений случайной величины и уменьшения интервалов между ними число скачков становится больше, а сами скачки — меньше; ступенчатая кривая становится более плавной: 32 Cлучайная величина постепенно приближается к непрерывной величине, а ее функция распределения к непрерывной функции. Тема 7. Числовые характеристики дискретных случайных величин В теории вероятностей для общей характеристики случайной величины используются числовые характеристики. Они выражают наиболее существенные особенности того или иного распределения. Закон распределения полностью характеризует случайную величину. Однако, когда невозможно найти закон распределения, или этого не требуется, можно ограничиться нахождением значений, называемых числовыми характеристиками случайной величины. Эти величины определяют некоторое среднее значение, вокруг которого группируются значения случайной величины, и степень их разбросанности вокруг этого среднего значения. 7.1. Характеристики положения. Математическое ожидание. Мода. Медиана. Характеристики положения указывают некоторое среднее, ориентировочное значение, около которого группируются все возможные значения случайной величины. К ним относятся: Математическое ожидание Мода Медиана Определение. Математическим ожиданием дискретной случайной величины называется сумма произведений всех возможных значений случайной величины на соответствующие им вероятности. Для математического ожидания случайной величины мы будем использовать следующие обозначения: 𝑀(𝑋) или 𝑚𝑥 . Согласно определению 𝑀(𝑋) = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖 . При этом ∑𝑛𝑖 𝑝𝑖 = 1. Среднее арифметическое наблюдаемых значений случайной величины, при неограниченном возрастании числа испытаний, стремится к математическому ожиданию. В дальнейшем мы будем пользоваться понятием центрированной случайно величины, которая определяется формулой X X mx . Теорема. Математическое ожидание центрированной случайной величины равно нулю. Доказательство. 𝑀[ X ] = 𝑀[𝑋 − 𝑚𝑥 ] = ∑𝑛𝑖=1(𝑥𝑖 − 𝑚𝑥 ) ∙ 𝑝𝑖 = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖 − ∑𝑛𝑖=1 𝑚𝑥 𝑝𝑖 = = 𝑚𝑥 − 𝑚𝑥 ∑𝑛𝑖=1 𝑝𝑖 = 𝑚𝑥 − 𝑚𝑥 ∙ 1 = 0. Свойства математического ожидания. 33 1. Математическое ожидание линейно: 𝑀(∑𝑛𝑖=1 𝑐𝑖 ∙ 𝑥𝑖 ) = ∑𝑛𝑖=1 𝑐𝑖 ∙ 𝑀(𝑥𝑖 ). 2. Математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. 3. Математическое ожидание постоянной равно самой постоянной: MCC. 4. Постоянный множитель можно выносить за знак математического ожидания: MCxCMx 5. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: MX Y MX MY 6. Математическое ожидание суммы двух случайных величин (зависимых или независимых) равно сумме математических ожиданий слагаемых: MX Y MX MY Пример. Производится три независимых выстрела по мишени; вероятность попадания при каждом выстреле равна 0,4. Случайная величина X — число попаданий. Определить математическое ожидание величины X . Р е ш е н и е . Ряд распределения величины X имеет вид: xi 0 1 2 3 pi 0,216 0,432 0,288 0,064 тх = 0 ∙ 0,216 +1∙ 0,432 + 2 ∙ 0,288 + 3 ∙ 0,064 = 1,2. Определение. Мода –значение случайной величины xi , имеющее наибольшую вероятность или наиболее вероятное значение. Обозначается ℳ. Определение. Медиана - такое значение Mе случайной величины, что выполняется условие P (X Mе ) P(X Mе ), т.е. одинаково вероятно окажется ли случайная величина меньше или больше Mе. Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам. 34 Замечание. Если распределение симметричное и модальное (имеет одну моду), то все они характеризуются одним положением и совпадают. Пример. Если ряд распределения дискретной случайной величины Х имеет вид: xi 1 2 3 4 pi 0,1 0,7 0,15 0,05 то мода m0 2. Пример. Рассмотрим две случайные величины X и Y , заданные рядами распределения вида xi 49 50 51 pi 0,1 0,8 0,1 xi 0 100 pi 0,5 0,5 Найти математические ожидания дискретных случайных величин X и Y . Решение. MX 49 0.150 0.8 510.1 50 , MY 00.5 100 0.5 50 . MX MY , но если для случайной величины X ее математическое ожидание MХ хорошо описывает поведение случайной величины, являясь ее наиболее вероятным возможным значением, то значения Y существенно отстоят от MY. Следовательно, наряду с математическим ожиданием желательно знать, насколько значения случайной величины отклоняются от него. Для этого вводятся понятия: дисперсия и среднеквадратическое отклонение случайной величины как характеристики ее рассеивания относительно математического ожидания. 7.2. Дисперсия. Среднеквадратическое отклонение. Значения наблюдаемых в практике случайных величин всегда колеблются около среднего значения (математического ожидания). Это явление называется рассеиванием величины около ее среднего значения. Числовые характеристики, описывающие степень рассеивания случайной величины называются характеристиками рассеивания и основные из них - дисперсия и среднеквадратическое отклонение. Само слово дисперсия означает «рассеивание». Отклонения противоположных знаков в среднем взаимно погашаются. Поэтому в качестве меры рассеивания берут математическое ожидание квадрата отклонения случайной величины от ее математического ожидания математическое ожидание центрированной случайной величины. Определение. Дисперсией называется математическое ожидание квадрата разности случайной величины и ее математического ожидания. Для дисперсии случайной величины мы будем использовать следующие обозначения: 𝐷(𝑋) или 𝐷𝑥 . В соответствии с определением: 𝐷(𝑋) = 𝑀[(𝑋 − 𝑚𝑥 )2 ] =∑𝑛𝑖=1(𝑥𝑖 − 𝑚𝑥 )2 ∙ 𝑝𝑖 . Чем большие отклонения в обе стороны от среднего значения 𝑚𝑥 возможны у 35 данной случайной величины и чем больше вероятности таких отклонений, тем больше дисперсия случайной величины. В частном случае, когда среднее значение случайной величины равно нулю, дисперсия характеризует разброс значений случайной величины в обе стороны от нуля. Дисперсия, как и математическое ожидание, являются величиной не случайной. В ряде случаев для вычисления дисперсии удобней использовать формулу 𝐷(𝑋) = 𝑀(𝑋 2 ) − 𝑀2 (𝑋). Это означает, что дисперсия равна разности математического ожидания квадрата случайной величины и квадрата ее математического ожидания. Действительно, 𝑛 𝐷(𝑋) = ∑(𝑥𝑖 − 𝑚𝑥 𝑖=1 𝑛 )2 ∙ 𝑝𝑖 = 𝑛 ∑ 𝑥𝑖2 𝑝𝑖 𝑖=1 𝑛 − 2 ∑ 𝑥𝑖 ∙ 𝑚𝑥 ∙ 𝑝𝑖 + ∑ 𝑚𝑖2 ∙ 𝑝𝑖 = 𝑖=1 𝑖=1 =∑𝑛𝑖=1 𝑥2𝑖 𝑝𝑖 − 2 ∙ 𝑚𝑥 ∙ ∑𝑛𝑖=1 𝑥𝑖 ∙ 𝑝𝑖 + 𝑚2𝑖 ∙ ∑𝑛𝑖=1 𝑝𝑖 = 𝑀(𝑋2 ) − 𝑚𝑥2 . Свойства дисперсии. 1. Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат: 2 2 2 𝐷(𝑐 ∙ 𝑋) = 𝑀 [(𝑐𝑋 − 𝑀(𝑐𝑋)) ] = 𝑀 [(𝑐 ∙ 𝑋 − 𝑐 ∙ 𝑀(𝑋)) ] = 𝑐 2 ∙ 𝑀 [(𝑋 − 𝑀(𝑋)) ] = 𝑐 2 ∙ 𝐷(𝑋). 2. Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий: DX Y DX DY 3. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий: DX Y DX DY 4. Дисперсия неслучайной (детерминированной) величины равна нулю: 2 𝐷(𝑐) = 𝑀(𝑐 − 𝑀(𝑐)) = 𝑀(𝑐 − 𝑐)2 =𝑀(0) = 0. 5. Дисперсия принимает только неотрицательные значения. Это свойство следует из определения дисперсии. Из определения дисперсии ясно, что дисперсия случайной величины имеет размерность квадрата случайно величины; для наглядности удобнее пользоваться характеристикой рассеивания, размерность которой совпадает с размерностью случайной величины. Для этого из дисперсии извлекают квадратный корень. Полученная величина называется средним квадратичным отклонением случайной величины (сокращенно с.к.о.). Среднее квадратичное отклонение будем обозначать σ[X] или σx. Таким образом, с.к.о. вычисляется по формуле σ[X] = √𝐷(𝑋). В случае, когда не возникает сомнения, к какой случайной величине относятся эти характеристики, мы будем использовать обозначения дисперсии и с.к.о. без индексов: D и σ. Математическое ожидание и с.к.о. – наиболее часто применяемые характеристики случайной величины. Они характеризуют наиболее важные черты распределения: его положение и степень разбросанности. Так, например, если случайная величина Х – есть доходность некоторого актива, то M[X] – средняя (прогнозная) доходность актива, а D[X] – мера отклонения (колебания) доходности от ожидаемого среднего значения, то есть риск актива. Пример. Рассмотрим две случайные величины X и Y , заданные рядами распределения вида 36 xi 49 50 51 pi 0,1 0,8 0,1 xi 0 100 pi 0,5 0,5 Найти дисперсии и среднеквадратические отклонения дискретных случайных величин X и Y . Решение. Из предыдущего примера: MX 50 , MY 50 . Найдем дисперсии 𝐷𝑥 и 𝐷𝑦 . 𝐷𝑥 = (49 − 50)2 ∙ 0,1 + (50 − 50)2 ∙ 0,8 + (51 − 50)2 ∙ 0,1 = 0,2; σx = √0,2 ≈ 0,447. 𝐷𝑦 = (0 − 50)2 ∙ 0,5 + (100 − 50)2 ∙ 0,5 = 1250; σy = √1250 ≈ 35,355. Определение. Начальным моментом k – порядка случайной величины Х называется математическое ожидание k степени этой величины: 𝛼𝑘 =𝑀[𝑋 𝑘 ] = ∑𝑛𝑖=1 𝑥𝑖𝑘 ∙ 𝑝𝑖 . Определение. Центральным моментом k – порядка случайной величины Х называется математическое ожидание k степени отклонение центрированной случайной величины X : 𝜇𝑘 = 𝑀[ X k ] = 𝑀[(𝑋 − 𝑚𝑥 )𝑘 ] Замечание. Начальный момент 1-го порядка равен математическому ожиданию: 𝛼1 = 𝑀[𝑋]. Центральный момент 2 -го порядка равен дисперсии: µ2 = 𝐷[𝑋]. 7.3. Контрольные вопросы. 1. Дайте определение дискретной случайной величины. 2. Какими способами можно задать дискретную случайную величину? 3. Функция распределения. Свойства функции распределения. График функции распределения. 4. .Дайте определение математического ожидания дискретной случайной величины. Назовите свойства математического ожидания. 5. Определение дисперсии дискретной случайной величины. Формулы для вычисления дисперсии. Свойства дисперсии. 6. Дайте определение начальных и центральных моментов k-го порядка. Тема 8. Законы распределения дискретных случайных величин 8.1. Биномиальное распределение (закон Бернулли). Данное распределение описывает весьма характерную для практики ситуацию последовательного осуществления ряда независимых опытов с одинаковыми возможными исходами при каждом из них. Например, если производится группа выстрелов по одной и той же цели, нас интересует не результат каждого выстрела, а общее число попаданий. Пусть производится n независимых испытаний, в каждом из которых случайное событие А может наступить с вероятностью p и не наступить с вероятностью 𝑞 = 1 − 𝑝. Найдем вероятность 𝑃𝑛 (𝑚) = того, что событие А наступит в m испытаниях. Это частная задача о повторении опытов или схема Бернулли. Ее решение рассматривалось в п.5. Искомая вероятность вычисляется по формуле 𝑚 𝑛−𝑚 𝑃𝑛 (𝑚) = 𝑃(𝑋 = 𝑚) = С𝑚 , 𝑛 𝑝 (1 − 𝑝) 37 где Х – дискретная случайная величина, равная числу наступления события А в n опытах. Определение. Дискретная случайная величина, которая может принимать только целые 𝑚 𝑛−𝑚 неотрицательные значения с вероятностью 𝑃𝑛 (𝑚) = С𝑚 , называется распределенной по 𝑛 𝑝 (1 − 𝑝) биноминальному закону или закону распределения Бернулли. Величина р является параметром биномиального распределения. Ряд распределения случайной величины, подчиненной биномиальному закону, можно представить в следующем виде: 0 1 2 … n m 0 0 𝑛 1 1 𝑛−1 2 2 𝑛−2 𝑛 𝑛 𝑃𝑛 (𝑚) 𝐶𝑛 ∙ 𝑝 ∙ (1 − 𝑝) 𝐶𝑛 ∙ 𝑝 ∙ (1 − 𝑝) 𝐶𝑛 ∙ 𝑝 ∙ (1 − 𝑝) 𝐶𝑛 ∙ 𝑝 ∙ (1 − 𝑝)0 Числовые характеристики биномиального распределения. В соответствии с формулами математического ожидания и дисперсии дискретной случайной величины (п.7) математическое ожидание и дисперсия дискретной случайной величины, распределенной по биномиальному закону, определяются выражениями 𝑛 𝑛 𝑀[𝑋] = ∑ 𝑚 ∙ 𝑃𝑛 (𝑚) = ∑ 𝑚 ∙ 𝐶𝑛𝑚 ∙ 𝑝𝑚 ∙ (1 − 𝑝)𝑛−𝑚 = 𝑛 ∙ 𝑝, 𝑚=0 𝑚=0 𝐷[𝑋] = 𝑛𝑝𝑞, где 𝑞 = (1 − 𝑝) − есть вероятность не наступления события A в отдельном опыте. Пример. Составить ряд распределения дискретной случайной величины X – числа попаданий при 5 выстрелах, если вероятность попадания при одном выстреле равна p=0,8. Найти математическое ожидание, дисперсию и среднеквадратическое отклонение случайной величины Х. Решение. 𝑃(𝑋 = 0) = 𝑃5 (0) = 𝐶50 ∙ 𝑝0 ∙ (1 − 𝑝)5 = 0,25 ≈ 0,00032; 𝑃(𝑋 = 1) = 𝑃5 (1) = 𝐶51 ∙ 𝑝1 ∙ (1 − 𝑝)4 = 5 ∙ 0,8 ∙ 0,24 ≈ 0,0064; 𝑃(𝑋 = 2) = 𝑃5 (2) = 𝐶52 ∙ 𝑝2 ∙ (1 − 𝑝)3 = 10 ∙ 0,82 0,23 ≈ 0,0512; 𝑃(𝑋 = 3) = 𝑃5 (3) = 𝐶53 ∙ 𝑝3 ∙ (1 − 𝑝)2 = 10 ∙ 0,83 0,22 ≈ 0,2048; 𝑃(𝑋 = 4) = 𝑃5 (4) = 𝐶54 ∙ 𝑝4 ∙ (1 − 𝑝)1 = 5 ∙ 0,84 0,21 ≈ 0,4096; 𝑃(𝑋 = 5) = 𝑃5 (5) = 𝐶55 ∙ 𝑝5 ∙ (1 − 𝑝)0 = 1 ∙ 0,85 0,20 ≈ 0,3277; Ряд распределения: 0 1 2 3 4 5 𝑋 𝑃𝑛 (𝑚) 0,00032 0,0064 0,0512 0,2048 0,4096 0,3277 Математическое ожидание: 𝑀[𝑋] = 𝑛 ∙ 𝑝 = 5 ∙ 0,8 = 4. Дисперсия: 𝐷[𝑋] = 𝑛𝑝𝑞 = 5 ∙ 0,8 ∙ 0,2 = 0,8. Среднеквадратическое отклонение: 𝜎𝑋 = √𝐷𝑋 =√0,8 = 0,89. 8.2. Закон Пуассона 38 При большом числе испытаний n и малой вероятности р формулой Бернулли пользоваться неудобно. В этом случае для вычисления вероятности того, что в n опытах событие произойдет m раз, используют формулу Пуассона. 𝜆𝑚 −𝜆 𝑃𝑚 = ∙ 𝑒 , (𝑚 = 0,1, … , ), 𝑚! где 𝜆 - параметр закона Пуассона. Рассмотрим дискретную случайную величину X, неотрицательные значения: которая может принимать только целые, 0, 1, 2, .... т, .... причем последовательность этих значений теоретически не ограничена. Говорят, что случайная величина X распределена по закону Пуассона, если вероятность того, что она примет определенное значение т, выражается формулой Пуассона: Ряд распределения случайной величины X, распределенной по закону Пуассона, имеет вид: xm 0 1 2 … m … Pm 𝑒 −𝜆 𝜆 −𝜆 ∙𝑒 1! 𝜆2 −𝜆 ∙𝑒 2! … 𝑎𝑚 −𝜆 ∙𝑒 𝑚! … Отличительная особенность распределения Пуассона состоит в том, что его математическое ожидание и дисперсия равны параметру распределения 𝜆: 𝑀[𝑋] = 𝜆, 𝐷[𝑋] = 𝜆. Таким образом, дисперсия случайной величины, распределенной по закону Пуассона, равна ее математическому ожиданию. Закон Пуассона является предельным для биномиального распределения, если одновременно устремлять число опытов n к бесконечности, а вероятность р появления события в каждом опыте к нулю, причем их произведение сохраняет постоянное значение: np = 𝜆: lim 𝐶𝑛𝑚 𝑝𝑚 (1 − 𝑝)𝑛−𝑚 = 𝑛→∞ 𝜆𝑚 𝑚! ∙ 𝑒 −𝜆 . Это предельное свойство биномиального распределения часто находит практическое применение при 𝑝 ≤ 0,1 и 𝑛𝑝 ≤ 10. Тогда для вычисления вероятности 𝑃𝑚,𝑛 того, что событие A появится m при n испытаниях можно воспользоваться приближенной формулой (𝑛𝑝)𝑚 −𝑛𝑝 𝑃𝑛 (𝑚) ≈ 𝑒 , 𝑚! где 𝑛𝑝 = 𝜆 − параметр того закона Пуассона, которым приближенно заменяется биномиальное распределение. От этого свойства закона Пуассона - приближенно заменять биномиальное распределение при большом числе опытов и малой вероятности наступления события в каждом опыте – происходит его название, часто применяемое в учебниках статистики: закон редких явлений. 39 Пример. АТС производит в среднем 2000 соединений в час. Вероятность ошибочного соединения равна 0,001. Какова вероятность того , что за час будет: а) ровно три ошибочных соединения m=3; б) менее трех ошибочных соединений m < 3; в) более трех ошибочных соединений m > 3. Решение. Рассматриваемые события – ошибочные соединения - независимы, поэтому имеет место биномиальное распределение числа ошибочных соединений. Число опытов n=2000 – велико, вероятность ошибочного соединения в одном опыте – мала: p = 0,001. Поэтому биномиальное распределение можно приближенно заменить распределением Пуассона с параметром 𝜆 = 𝑛𝑝: 𝑃𝑛 (𝑚) ≈ (𝑛𝑝)𝑚 𝑚! 𝑒 −𝑛𝑝 , где np = 2000 ∙ 0,001 = 2. Тогда: (2)3 а) вероятность ровно трех ошибочных соединений равна 𝑃2000 (3) ≈ 3! 𝑒 −2 = 0,0226; б) вероятность менее трех ошибочных соединений 21 22 𝑃2000 (< 3) = 𝑃2000 (0) + 𝑃2000 (1) + 𝑃2000 (2) = 𝑒 −2 + ∙ 𝑒 −2 + ∙ 𝑒 −2 ≈ 0,541. 1! 2! в) более трех ошибочных соединений 𝑃2000 (> 3) = 1 − (𝑃2000 (0) + 𝑃2000 (1) + 𝑃2000 (2) + 𝑃2000 (3)) = 1−≈ 0,436. 8.3. Контрольные вопросы. 1.Что называется биноминальным законом распределения? Записать формулы для вычисления числовых характеристик дискретной случайной величины, распределенной по биномиальному закону. 2. Какое распределение называется распределением Пуассона? 3. В каком случае применяется закон распределения Пуассона и в чем состоит его особенность? 4. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится ровно m раз при малом числе испытаний? 5. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится ровно m раз при большом числе испытаний и малой вероятности p? 8.4. Задачи для самостоятельного решения. 1. Определить вероятность того, что в семье, имеющей 5 детей, будет не больше трех девочек. Вероятности рождения мальчика и девочки предполагаются одинаковыми. 2. Завод выпускает 96% изделий первого сорта и 4% изделий второго сорта. Наугад выбирают 1000 изделий. Пусть Х – число изделий первого сорта в данной выборке. Найти закон распределения, математическое ожидание и дисперсию случайной величины X. Тема 9. Непрерывные случайные величины В противоположность дискретной случайной величине совокупность возможных непрерывных значений случайной переменной не поддается перечислению. Неформально говоря, случайная величина непрерывна, если ее значения полностью заполняют некоторый интервал. Более точно, справедливо 40 Определение. Случайная величина называется непрерывной, если ее функция распределения непрерывна на всей числовой прямой и дифференцируема при всех х за исключением, быть может, отдельных значений. 9.1. Законы распределения непрерывных случайных величин. 9.1.1. Интегральный закон распределения Непрерывную случайную величину, так же как и дискретную, можно задать с помощью интегральной функции распределения, которая равна вероятности того, что случайная величина Х приняла значение меньшее некоторого заданного значения х (п.6.2.2.) 𝐹(𝑥) = 𝑃(𝑋 < 𝑥). В дальнейшем интегральную функцию распределения для краткости будем называть функцией распределения. Функция распределения полностью характеризует случайную величину и является одной из форм закона распределения. Все свойства функции распределения, перечисленные в п. 6.2.2 справедливы и для функций распределения непрерывных случайных величин. Согласно одному из свойств функции распределения, вероятность попадания случайной величины на заданный участок равна приращению функции распределения на этом участке: 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎). Будем неограниченно уменьшать участок (а, b), полагая, что 𝑏 → 𝑎. В пределе вместо вероятности попадания случайной величины на участок получим вероятность того, что величина примет отдельно взятое значение а: lim (𝑎 ≤ 𝑋 < 𝑏) = lim (𝐹(𝑏) − 𝐹(𝑎)) = 𝑃(𝑋 = 𝑎). 𝑏→𝑎 𝑏→𝑎 Значение этого предела зависит от того, непрерывна ли функция F(x) в точке х= а или же терпит разрыв. Если в точке а функция F(x) имеет разрыв, то предел равен значению скачка функции F(x) в точке а. Если же в точке а функция F(x) непрерывна, то этот предел равен нулю. В дальнейшем изложении мы условимся называть «непрерывными» только те случайные величины, функция распределения которых везде непрерывна. Имея это в виду, можно сформулировать следующее положение: функция распределения непрерывной величины всюду непрерывна. Ниже приведен характерный вид функции распределения непрерывной случайной величины По виду функции распределения трудно судить о характере распределения случайной величины в небольшой окрестности той или иной точки числовой оси. В таком случае пользуются другой разновидностью закона распределения непрерывной случайной величины - плотностью распределения. Свойства функции распределения для непрерывной случайной величины. 1). Функция распределения непрерывной случайной величины не имеет точек разрыва. 2). Функция распределения 𝐹(𝑥) есть неубывающая функция своего аргумента, т.е. при 𝑥2 > 𝑥1 𝐹(𝑥2 ) > 𝐹(𝑥1 ). 41 3). На минус бесконечности функция распределения равна нулю: 𝐹(−∞) = 0. 4). На плюс бесконечности функция распределения равна единице: 𝐹(+∞) = 1. 9.1.2. Плотность распределения Плотность распределения, также как и функция распределения есть одна из форм закона распределения, но в отличие от функции распределения, плотность распределения используется для описания только непрерывных случайных величин. Пусть имеется непрерывная случайная величина X с функцией распределения F(x), которую мы предположим непрерывной и дифференцируемой. Вычислим вероятность попадания этой случайной величины на участок от х до х+𝛥х: Р (х < X < х+𝛥х) = F (х+𝛥х) - F(x), т. е. приращение функции распределения на этом участке. Рассмотрим отношение этой вероятности к длине участка, т. е. с р е д н ю ю в е р о я т н о с т ь , приходящуюся на единицу длины на этом участке, и будем приближать 𝛥х к нулю. В пределе получим п р о и з в о д ную от функции распределения: 𝐹 (х + 𝛥х) − 𝐹(𝑥) lim = 𝐹 ′ (𝑥). 𝛥𝑥→0 𝛥х Введем обозначение: f (x) = F'(x). Функция f (x) — производная функции распределения — характеризует как бы п л о т н о с т ь , с которой распределяются значения случайной величины в данной точке. Эта функция называется плотностью распределения (иначе— «плотностью вероятности») непрерывной случайной величины X. Кривая, изображающая плотность распределения случайной величины, называется кривой распределения: Рассмотрим непрерывную случайную величину X с плотностью распределения f (X) и элементарный участок dx, примыкающий к точке х Вероятность попадания случайной величины X на этот элементарный участок (с точностью до беско- 42 нечно малых высшего порядка) равна f(x)dx. Величина f(x)dx называется элементом вероятности. Геометрически это есть площадь элементарного прямоугольника, опирающегося на отрезок dx. Выразим вероятность попадания непрерывной случайной величины X на отрезок (α, β) через плотность распределения. Очевидно, она равна сумме элементов вероятности на всем этом участке, т. е. интегралу: 𝛽 Р (α < X < β) =∫𝛼 𝑓(𝑥)𝑑𝑥 . Так как вероятность любого отдельного значения непрерывной случайной величины равна нулю, то можно рассматривать здесь отрезок (α, β), не включая в него левую границу. Геометрически вероятность попадания величины X на участок (α,β), равна площади кривой распределения, опирающейся на этот участок Формула f (x) = F'(x) выражает плотность распределения через функцию распределения. Зададимся обратной задачей: выразить функцию распределения через плотность. По определению 𝐹(𝑥) = 𝑃(𝑋 < 𝑥) = 𝑃(−∞ < 𝑋 < 𝑥), Следовательно, по формуле 𝛽 Р (α < X < β) =∫𝛼 𝑓(𝑥)𝑑𝑥 имеем 𝑥 𝐹(𝑥) = ∫ 𝑓(𝑥)𝑑𝑥. −∞ Геометрически F (х) есть не что иное, как площадь под кривой распределения, лежащая левее точки х: 1. Укажем основные свойства плотности распределения. Плотность распределения есть неотрицательная функция: f (x) > 0. Это свойство непосредственно вытекает из того, что функция распределения F (х) есть 43 неубывающая функция. 2. Интеграл в бесконечных пределах от плотности распределения равен единице (условие нормировки): ∞ ∫ 𝑓(𝑥)𝑑𝑥 = 1. Это следует из формулы −∞ 𝑥 𝐹(𝑥) = ∫ 𝑓(𝑥)𝑑𝑥. −∞ и из того, что F(+ ∞) =1. Геометрически основные свойства плотности распределения означают, что: 1) вся кривая распределения лежит не ниже оси абсцисс; 2) полная площадь, ограниченная кривой плотности распределения и осью абсцисс, равна единице. Выясним размерности основных характеристик случайной величины — функции распределения и плотности распределения. Функция распределения F(x), как всякая вероятность, есть величина безразмерная. Размерность плотности распределения f(x), как следует из ее определения, обратна размерности случайной величины. П р и м е р . Функция распределения непрерывной случайной величины X задана выражением 0 при 𝑥 ≤ 0 2 𝐹(𝑥) = {𝑎𝑥 при 0 < 𝑥 ≤ 1 1 при 𝑥 > 1. а) б) в) Найти коэффициент а. Найти плотность распределения f(x). Найти вероятность попадания величины X на участок от 0,25 до 0,5. Решение. а) Так как функция распределения величины X непрерывна, то при х=1 aх2=1, откуда a = 1. б) Плотность распределения величины X выражается формулой 0 при 𝑥 ≤ 0 𝑓(𝑥) = {2𝑥 при 0 < 𝑥 ≤ 1 0 при 𝑥 > 1. в) Р (0,25 < X < 0,5) = F (0,5) — F (0,25) = 0,52 — 0,252 = 0,1875. а) б) в) г) П р и м е р 2. Случайная величина X подчинена закону распределения с плотностью: 𝑎 ∙ 𝑐𝑜𝑠 𝑥 при − 𝜋⁄2 ≤ 𝑥 ≤ 𝜋⁄2 𝑓(𝑥) = { 0 при 𝑥 < 𝜋⁄2 или 𝑥 > 𝜋⁄2 . Найти коэффициент а. Построить график плотности распределения f(х). Найти функцию распределения F (х) и построить ее график. Найти вероятность попадания величины X на участок от 0 до 𝜋⁄4. 44 Решение. а) Для определения коэффициента а, воспользуемся свойством плотности распределения: 𝜋⁄ 2 ∞ ∫ 𝑓(𝑥)𝑑𝑥 = ∫ 𝑎 ∙ 𝑐𝑜𝑠 𝑥 ∙ 𝑑𝑥 = 2𝑎 = 1, −𝜋⁄2 −∞ откуда следует: а = 1 . 2 б) График плотности f(x): в) Получим выражение функции распределения: 𝑥 𝜋 при х < 2 : 𝐹(𝑥) = ∫−∞ 0 ∙ 𝑑𝑥 = 0; 𝜋 2 𝑥 𝜋 2 1 𝑐𝑜𝑠 22 при − ≤ 𝑥 ≤ : 𝐹(𝑥) = ∫−𝜋⁄ 𝑥 1 1 𝜋 1 𝑥 ∙ 𝑑𝑥 = ∙ 𝑠𝑖𝑛 𝑥 |− 𝜋⁄ = ∙ (𝑠𝑖𝑛 𝑥 − 𝑠𝑖𝑛 (− )) = ∙ (𝑠𝑖𝑛 𝑥 + 1). 2 2 2 2 2 𝜋⁄ 𝑥 𝜋 2 1 𝑐𝑜𝑠 22 F(x)= ∫−∞ 0 ∙ 𝑑𝑥 + ∫−𝜋⁄2 при 𝑥 > : 𝑥 2 Полученный результат можно записать в виде: 0 𝐹(𝑥) = График 𝐹(𝑥): 1 2 𝜋 2 𝜋 2 𝑥 ∙ 𝑑𝑥 + ∫𝜋⁄ 0 ∙ 𝑑𝑥 = ∙ (𝑠𝑖𝑛 − 𝑠𝑖𝑛 (− )) = 1; при 𝑥 < − 𝜋 2 1 𝜋 𝜋 ∙ (𝑠𝑖𝑛 𝑥 + 1) при − ≤ 𝑥 ≤ 2 2 2 𝜋 1 при 𝑥 > . { 2 𝜋 𝜋 1 𝜋 √2 4 4 2 4 4 г) 𝑃 (0 < 𝑥 < ) = 𝐹 ( ) − 𝐹(0) = ((𝑠𝑖𝑛 + 1) − (𝑠𝑖𝑛 0 + 1)) = . 45 Тот же результат, но несколько более сложным путем можно получить по формуле 𝛽 𝜋 1 Р (α < X < β) =∫𝛼 𝑓(𝑥)𝑑𝑥, где α=0, β=4 , 𝑓(𝑥) = 2 𝑐𝑜𝑠 𝑥. +Тема 10. Числовые характеристики непрерывных случайных величин Каждый закон распределения представляет собой некоторую ф у н к ц и ю , и указание этой функции полностью описывает случайную величину с вероятностной точки зрения. Однако во многих вопросах практики нет необходимости характеризовать случайную величину полностью, исчерпывающим образом. Зачастую достаточно бывает указать только отдельные числовые параметры, характеризующие существенные черты распределения случайной величины: например, какоето среднее значение, около которого группируются возможные значения случайной величины; какое-либо число, характеризующее степень разбросанности этих значений относительно среднего, и т. д. Пользуясь такими характеристиками, мы хотим все существенные сведения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такие характеристики, назначение которых -выразить в сжатой форме наиболее существенные особенности распределения, называются числовыми характеристиками случайной величины. В теории вероятностей числовые характеристики и операции с ними играют огромную роль. С помощью числовых характеристик существенно облегчается решение многих вероятностных задач. Очень часто удается решить задачу до конца, оставляя в стороне законы распределения и оперируя одними числовыми характеристиками. При этом весьма важную роль играет то обстоятельство, что когда в задаче фигурирует большое количество случайных величин, каждая из которых оказывает известное влияние на численный результат опыта, то закон распределения этого результата в значительной мере можно считать независимым от законов распределения отдельных случайных величин (возникает так называемый нормальный закон распределения). В этих случаях не требуется знать законов распределения отдельных случайных величин, фигурирующих в задаче; достаточно знать лишь некоторые числовые характеристики этих величин. В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик, имеющих различное назначение и различные области применения. Из них в настоящем курсе мы введем только некоторые, наиболее часто применяемые. 10.1. Математическое ожидание. Мода. Медиана. Математическое ожидание непрерывной случайной величины определяется выражением ∞ 𝑀[𝑋] = ∫ 𝑥 ∙ 𝑓(𝑥)𝑑𝑥, −∞ где f (x) – плотность распределения случайной величины x. Эта формула получается из формулы 46 𝑛 𝑀(𝑋) = ∑ 𝑥𝑖 𝑝𝑖 𝑖=1 математического ожидания дискретной случайной величины, если в ней заменить отдельные значения хi непрерывно изменяющимся параметром х, соответствующие вероятности pi — элементом вероятности f(x)dx, конечную сумму — интегралом. В дальнейшем мы будем пользоваться таким способом распространения формул, выведенных для прерывных величин, на случай непрерывных величин. В ряде случаев, когда величина М [X] входит в формулы как определенное число, ее удобнее обозначать одной буквой. В этих случаях мы будем обозначать математическое ожидание величины X через тх: тх=М[Х]. Обозначения тх и М[X] для математического ожидания будут в дальнейшем применяться параллельно в зависимости от удобства той или иной записи формул. Следует заметить, что важнейшая характеристика положения — математическое ожидание — существует не для всех случайных величин. Можно составить примеры таких случайных величин, для которых математического ожидания не существует, так как соответствующая сумма или интеграл расходятся. Однако для практики такие случаи существенного интереса не представляют. Обычно случайные величины, с которыми мы имеем дело, имеют ограниченную область возможных значений и безусловно обладают математическим ожиданием. Модой случайной величины называется ее наиболее вероятное значение. Термин «наиболее вероятное значение», строго говоря, применим только к дискретным, величинам; для непрерывной величины модой является то значение, в котором плотность вероятности максимальна. Условимся, как и для дискретной случайной величины, обозначать моду буквой ℳ. На рисунке показана мода для непрерывной случайной величины. В общем случае мода и математическое ожидание случайной величины не совпадают. В частном случае, когда распределение является симметричным и модальным (т. е. имеет моду) и существует математическое ожидание, то оно совпадает с модой и центром симметрии распределения. Часто применяется еще одна характеристика положения — так называемая медиана случайной величины. Этой характеристикой пользуются обычно только для непрерывных случайных величин, хотя формально можно ее определить и для прерывной величины. Медианой случайной величины X называется такое ее значение Ме, для которого Р (X < Ме) = Р (X > Me); т. е. одинаково вероятно, окажется ли случайная величина меньше или больше Ме. Геометрическая медиана — это абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам 47 В случае симметричного модального распределения медиана совпадает с математическим ожиданием и модой. 10.2. Дисперсия. Среднее квадратичное отклонение. Дисперсия случайной величины есть характеристика рассеивания, т.е. разбросанности значений случайной величины около ее математического ожидания. Само слово «дисперсия» означает «рассеивание». Дисперсия непрерывной случайной величины определяется выражением ∞ 𝐷[𝑋] = ∫ (𝑥 − 𝑚𝑥 )2 𝑑𝑥. −∞ Дисперсия случайной величины имеет размерность квадрата случайной величины; для наглядной характеристики рассеивания удобнее пользоваться величиной, размерность которой совпадает с размерностью случайной величины. Для этого из дисперсии извлекают квадратный корень. Полученная величина называется средним квадратичным отклонением (иначе — «стандартом») случайной величины X. Среднее квадратичное отклонение определяется по формуле 𝜎[𝑋] = √𝐷𝑥 . Для упрощения записей мы часто будем пользоваться сокращенными обозначениями среднего квадратичного отклонения и дисперсии: 𝜎х и Dx. В случае, когда не возникает сомнения, к какой случайной величине относятся эти характеристики, мы будем иногда опускать индекс х, т.е. писать просто 𝜎 и D. Слова «среднее квадратичное отклонение» иногда будем сокращенно заменять буквами с. к. о. На практике для расчета дисперсии часто применяется формула 𝐷[𝑋] = 𝑀[𝑋 2 ] − 𝑀2 [𝑋]. Математическое ожидание тх и дисперсия Dx (или среднее квадратичное отклонение 𝜎х) — наиболее часто применяемые характеристики случайной величины. Они характеризуют наиболее важные черты распределения: его положение и степень разбросанности. Формулы для вычисления математического ожидания и дисперсии непрерывной случайной величины аналогичны соответствующим формулам для дискретной случайной величины (см. п.п. 7.1 и 7.2). Действительно, рассмотрим следующую таблицу. Способ Дискретная случайная величина Непрерывная случайная величина Закон распределения Плотность распределения 48 описания k M (X ) M (X ) x i p i M (X ) i 1 k D (X ) D ( X ) ( x i M ( X )) 2 p i i 1 x f ( x)dx D( X ) ( x M ( X )) 2 f ( x)dx Таким образом, переходя при записи этих формул от дискретной к непрерывной случайной величине, суммирование заменяется интегрированием по всей числовой оси, а вместо вероятности p i используется элемент вероятноcти 𝑓(𝑥)𝑑𝑥 − определяющий вероятность попадания непрерывной случайной величины в элементарный интервал шириной 𝑑𝑥 (п. 9.1.2). 10.3. Моменты распределения. Кроме математического ожидания и дисперсии употребляется еще ряд характеристик, каждая из которых описывает то или иное свойство распределения. В качестве таких характеристик чаще всего применяются так называемые моменты. Чаще всего применяются на практике моменты двух видов: начальные и центральные. Начальным моментом k-го порядка непрерывной случайной величины X называется интеграл вида ∞ 𝛼𝑘 [𝑋] = ∫ 𝑥 𝑘 𝑓(𝑥)𝑑𝑥. −∞ Нетрудно убедиться, что математическое ожидание — представляет собой не что иное, как первый начальный момент случайной величины X. 𝛼1 [𝑋] = 𝑀[𝑋]. Можно написать общее определение начального момента k-гo порядка, справедливое как для дискретных, так и для непрерывных случайных величин: 𝛼𝑘 [𝑋] = 𝑀[𝑋 𝑘 ] т. е. начальным моментом k-го порядка случайной величины X называется математическое ожидание k-й степени этой случайной величины. Для определения центрального момента, используем понятие «центрированной случайной величины», рассмотренное в п.7.1: X X mx В п.7.1 доказывалось, что математическое ожидание центрированной дискретной случайной величины равно нулю: 𝑀[ X ] = 0. Аналогично можно убедиться, что это свойство центрированной случайной величины распространяется и на непрерывные случайные величины. Центрирование случайной величины, очевидно, равносильно переносу начала координат в точку, абсцисса которой равна математическому ожиданию. Моменты центрированной случайной величины носят название центральных моментов. Таким образом, центральным моментом порядка k непрерывной случайной величины X называется математическое ожидание k-й степени соответствующей центрированной случайной величины: 49 𝜇𝑘 [𝑋] = 𝑀[ X k ] = 𝑀[(𝑋 − 𝑚𝑥 )𝑘 ] Заметим, что это определение полностью совпадает с определением центрального момента порядка k дискретной случайной величины X. Для непрерывной случайной величины k-й центральный момент выражается интегралом ∞ 𝜇𝑘 = ∫ (𝑥 − 𝑚𝑥 )𝑘 𝑓(𝑥)𝑑𝑥. −∞ В дальнейшем в тех случаях, когда не возникает сомнений, к какой случайной величине относится данный момент, мы будем для краткости вместо 𝛼𝑘 [𝑋] и 𝜇𝑘 [𝑋] писать просто 𝛼𝑘 и 𝜇𝑘 . Очевидно, для любой случайной величины центральный момент первого порядка равен нулю: 𝜇1 = 𝑀[ X ] = 𝑀[𝑋 − 𝑚𝑥 ], так как математическое ожидание центрированной случайной величины всегда равно нулю. Для более подробного описания распределения применяются моменты высших порядков. Третий центральный момент служит для характеристики асимметрии распределения. Если распределение симметрично относительно математического, то все моменты нечетного порядка (если они существуют) равны нулю. Действительно, интеграл ∞ 𝜇𝑘 = ∫ (𝑥 − 𝑚𝑥 )𝑘 𝑓(𝑥)𝑑𝑥 −∞ при нечетном значении k равен нулю, как интеграл в симметричных пределах от нечетной функции. Естественно поэтому в качестве характеристики асимметрии распределения выбрать какой-либо из нечетных центральных моментов. Простейший из них есть третий центральный момент. Он имеет размерность куба случайной величины. Чтобы получить безразмерную характеристику, третий момент 𝜇3 делят на куб среднего квадратичного отклонения. Полученная величина носит название «коэффициента асимметрии» или просто «асимметрии»; мы обозначим ее Sk: 𝜇 Sk = 𝜎33 . На показаны два асимметричных распределения Одно них (кривая I) имеет положительную асимметрию (Sk > 0); другое (кривая II) — отрицательную (Sk < 0). Четвертый центральный момент 𝜇4 служит для характеристики так называемой островершинности или плосковершинности распределения. Эти свойства распределения описываются с помощью так 50 называемого эксцесса. Эксцессом случайной величины X называется величина 𝐸𝑥 = 𝜇4 − 3. 𝜎4 𝜇 Число 3 вычитается из отношения 𝜎44 , потому, что для весьма важного и широко распространенного в природе нормального закона распределения (с которым мы подробно познакомимся в дальнейшем) 𝜇4 = 𝜎4 3. Таким образом, для нормального распределения эксцесс равен нулю; кривые, более островершинные по сравнению с нормальной, обладают положительным эксцессом; кривые более плосковершинные — отрицательным эксцессом. Ниже на рисунке изображены: нормальное распределение (кривая I), распределение с положительным эксцессом (кривая II) и распределение с отрицательным эксцессом (кривая III): Математическое ожидание, мода, медиана, начальные и центральные моменты и, в частности, дисперсия, среднее квадратичное отклонение, асимметрия и эксцесс представляют собой наиболее употребительные числовые характеристики случайных величин. Во многих задачах практики полная характеристика случайной величины — закон распределения — или не нужна, или не может быть получена, В этих случаях ограничиваются приблизительным описанием случайной величины с помощью числовых характеристик, каждая из которых выражает какое-либо характерное свойство распределения. Очень часто числовыми характеристиками пользуются для приближенной замены одного распределения другим, причем обычно стремятся произвести эту замену так, чтобы сохранились неизменными несколько важнейших моментов. П р и м е р . Непрерывная случайная величина X подчинена закону распределения с плотностью: 𝑓(𝑥) = 𝐴 ∙ 𝑒 −|𝑥| , изображенной на рисунке Найти коэффициент А. Определить м. о., дисперсию, с. к. о., асимметрию, эксцесс случайной величины X. Р е ш е н и е . Для определения А воспользуемся свойством плотности распределения: ∞ ∞ ∫−∞ 𝑓(𝑥)𝑑𝑥 = 2𝐴 ∫0 𝑒 −𝑥 𝑑𝑥 = 2𝐴 = 1. 51 1 Отсюда 𝐴 = 2. 1 ∞ Математическое ожидание 𝑚𝑥 = 2 ∫−∞ 𝑥 ∙ 𝑒 −|𝑥| 𝑑𝑥 = 0, так как функция 𝑥 ∙ 𝑒 −|𝑥| нечетная. Дисперсия и с.к.о. равны, соответственно: 1 ∞ 𝐷𝑥 = 2 ∙ ∫ 𝑥 2 𝑒 −𝑥 𝑑𝑥 = 2; 2 0 𝜎𝑥 = √𝐷𝑥 = √2. Так как распределение симметрично, то коэффициент асимметрии Sk=0. Для вычисления эсцесса находим 𝜇4 : 1 ∞ 𝜇4 = 2 ∙ ∫ 𝑥 4 𝑒 −𝑥 𝑑𝑥 = 24. 2 0 Откуда 𝜇4 𝐸𝑥 = 4 − 3 = 3. 𝜎𝑥 П р и м е р . Случайная величина X подчинена закону распределения, плотность которого задана графически: Написать выражение плотности распределения. Найти м. о., дисперсию, с. к. о. распределения. Р е ше ние . Выражение плотности распределения имеет вид: 𝑎𝑥 при 0 < 𝑥 < 1 0 при 𝑥 < 0 или 𝑥 > 0. Пользуясь свойством плотности распределения (условие нормировки), находим а = 2. Математическое ожидание случайной величины X: 𝑓(𝑥) = { 1 2 3 тх= 2 ∫0 2𝑥 2 𝑑𝑥 = . Дисперсию найдем через второй начальный момент: 𝟏 𝟏 𝟏 𝜶𝟐 = 𝟐 ∫ 𝒙𝟐 𝒅𝒙 = , 𝑫𝒙 = 𝜶𝟐 − 𝒎𝟐𝒙 = , 𝟐 𝟏𝟖 𝟎 Отсюда 1 𝜎𝑥 = . 3√2 Для нахождения коэффициента асимметрии найдем 𝜇3 : 2 3 1 𝜇3 = 2 ∫ (𝑥 − ) 𝑥𝑑𝑥 = − . 3 135 0 1 Откуда 𝝁 𝟐 𝑆𝑘 = 𝝈𝟑𝟑 = − 𝟓 √𝟐. 𝒙 10.4. Контрольные вопросы. и асимметрию 52 1. Сформулировать определение непрерывной случайной величины. 2. Что такое плотность распределения вероятностей? 3. Каким свойством обладает плотность распределения вероятностей? 4. Какими свойствами обладает функция распределения непрерывной случайной величины? 5. Как найти интегральную функцию, зная плотность распределения и наоборот? 6. Перечислить свойства интегральной функции распределения. 7. Дать определения числовым характеристикам непрерывной случайной величины. 8. Как можно задать случайные величины? Тема 11. Законы распределения непрерывных случайных величин Часто на практике мы имеем дело со случайными величинами, закон распределения которых имеет некоторую стандартную форму. В п. 8 были рассмотрены примеры таких законов распределения для дискретных случайных величин (биномиальный закон распределения и закон Пуассона). Для непрерывных случайных величин тоже существуют типовые законы распределения, имеющие широкое практическое применение 11.1. Закон равномерной плотности. В некоторых задачах практики встречаются непрерывные случайные величины, о которых заранее известно, что их возможные значения лежат в пределах некоторого определенного интервала; кроме того, известно, что в пределах этого интервала все значения случайной величины одинаково вероятны (точнее, обладают одной и той же плотностью вероятности). О таких случайных величинах говорят, что они распределяются по закону равномерной плотности. Рассмотрим случайную величину X, подчиненную закону равномерной плотности на участке от 𝛼 до 𝛽. Как видим из рисунка, плотность f (х) постоянна и равна с на отрезке (𝛼, 𝛽); вне этого отрезка она равна нулю. Напишем для нее выражение плотности распределения f (х). Так как площадь, ограниченная кривой распределения, равна единице: 𝑐 ∙ (𝛽 − 𝛼) = 1, то 1 𝑐= , (𝛽 − 𝛼) И плотность распределения имеет вид 1 при 𝛼 < 𝑥 < 𝛽 𝑓(𝑥) = {𝛽 − 𝛼 0 при 𝑥 < 𝛼 или 𝑥 > 𝛽. 53 Эта формула и выражает закон равномерной плотности на интервале (𝛼, 𝛽 ). Напишем выражение для соответствующей функции распределения F(x). Функция распределения выражается площадью кривой распределения, лежащей левее точки х. Следовательно, 0 при 𝑥 < 𝛼 𝑥− ∝ при 𝛼 < 𝑥 < 𝛽 𝐹(𝑥) = { 𝛽−𝛼 1 при 𝑥 > 𝛽. График интегральной функции распределения F (х) для равномерно распределенной непрерывной случайной величины имеет вид: Определим основные числовые характеристики случайной величины Х, подчиненной закону равномерной плотности на участке от 𝛼 до 𝛽. Математическое ожидание величины Х равно: 𝛽 𝑚𝑥 = ∫ 𝛼 1 𝛼+𝛽 ∙ 𝑥𝑑𝑥 = . 𝛽−𝛼 2 В силу симметричности функции плотности распределения относительно математического 𝛼+𝛽 ожидания медиана случайной величины Х также равна 2 . Моды закон равномерной плотности не имеет. Дисперсия случайной величины Х: 𝛽 (𝛽 − 𝛼)2 1 𝛼+𝛽 2 𝐷𝑥 = ∫ (𝑥 − ) 𝑑𝑥 = , 𝛽−𝛼 2 12 Откуда среднее квадратичное отклонение 𝛼 𝜎𝑥 = √𝐷𝑥 = 𝛽−𝛼 . 2√3 В силу симметричности функции плотности распределения относительно математического ожидания асимметрия закона распределения равна нулю: 𝜇3 𝑆𝑘 = 3 = 0. 𝜎𝑥 Для определения эксцесса находим четвертый центральный момент: 𝛽 (𝛽 − 𝛼)4 1 𝛼+𝛽 4 𝜇4 = ∫ (𝑥 − ) 𝑑𝑥 = , 𝛽−𝛼 2 80 откуда 𝛼 𝐸𝑥 = 𝜇4 − 3 = −1,2. 𝜎𝑥4 54 Вероятность попадания случайной величины Х, распределенной по равномерному закону на участок (а,b), представляющий собой часть участка (𝛼, 𝛽) равна 𝑏 𝑃(𝑎 < 𝑋 < 𝐵) = ∫ 𝑎 1 𝑏−𝑎 𝑑𝑥 = . 𝛽−𝛼 𝛽−𝛼 Геометрически эта вероятность равна заштрихованной области на рисунке: Пример. Поезда метрополитена идут с интервалом 2 мин. Пассажир выходит на платформу в некоторый момент времени. Время Т, в течение которого ему придется ждать поезда, представляет собой случайную величину, распределенную с равномерной плотностью на интервале (0; 2) минут. Найти вероятность того, что пришедшему на остановку пассажиру придется ожидать поезд не более 1 мин. Решение. Плотность распределения: 1 𝑓(𝑥) = {2 при 0 < 𝑥 < 2 0 при 𝑥 < 0 или 𝑥 > 2. 11 1 Тогда 𝑃(0 < 𝑋 < 1) = ∫0 2 𝑑𝑥 = 2 = 0,5 мин. Числовые характеристики этого закона распределения определяются по формулам, приведенным выше для равномерного закона распределения вероятности: среднее время ожидания поезда на платформе 𝑚 𝑇 = 1 мин; с.к.о. времени ожидания от среднего времени ожидания 𝜎𝑇 ≈ 0,57 мин. 11.2. Задачи для самостоятельного решения. 1. Плотность f (x) равномерного распределения в интервале (а, b) имеет некоторое постоянное значение, равное C; вне этого интервала f (x) = 0. Найти значение постоянного параметра С. 2. Закон равномерного распределения задан плотностью вероятности f (x)=1/(b—а) в интервале (а, b); вне этого интервала f (x)=0. Найти функцию распределения F (х). 3. Найти математическое ожидание случайной величины X, равномерно распределенной в интервале (а, b). 4. Найти математическое ожидание случайной величины, X, распределенной равномерно в интервале (2, 8). 5. Найти дисперсию и стандартное отклонение случайной величины X, распределенной равномерно в интервале (a, b). 6. Найти дисперсию и среднее квадратичное отклонение случайной величины X, распределенной равномерно в интервале (2, 8). 7. Равномерно распределенная случайная величина Х задана плотностью распределения f (x)= 1/2 в интервале (а −1, а + l); вне этого интервала f (x)=0. Найти математическое ожидание и дисперсию X. 55 8. Диаметр круга х измерен приближенно, причем: а < x < b. Рассматривая диаметр как случайную величину X, распределенную равномерно в интервале (а, b), найти математическое ожидание и дисперсию площади круга. 9. Ребро куба х измерено приближенно, причем a < x < b. Рассматривая ребро куба как случайную величину Х, распределенную равномерно в интервале (a;b), найти математическое ожидание и дисперсию объема куба. 11.3. Экспоненциальное (показательное) распределение. Экспоненциальное распределение является одним из основных распределений, используемых в теории надежности. Например, продолжительность безотказной работы многих технических устройств, а также время задержки вылета самолета по вине технических служб аэропорта удовлетворительно описываются соответствующими экспоненциальными распределениями. Экспоненциальное распределение описывает наработку до отказа объектов, у которых в результате сдаточных испытаний отсутствует период приработки, а назначенный ресурс установлен до окончания периода нормальной эксплуатации. Экспоненциальный закон характерен для распределения случайных величин, изменение которых обусловлено влиянием доминирующего фактора. Он используется при рассмотрении внезапных отказов деталей в тех случаях, когда явления изнашивания и усталости выражены настолько слабо, что ими можно пренебречь. Плотность вероятности случайной величины X, распределенной по экспоненциальному закону с параметром 𝜆 > 0 , имеет вид 𝜆 ∙ 𝑒 −𝜆𝑥 при 𝑥 ≥ 0 𝑓(𝑥) = { 0 при 𝑥 < 0 . Функция распределения 𝐹(𝑥) = 1 − 𝑒 −𝜆𝑥 . Ниже приведены графики функций 𝑓(𝑥) и 𝐹(𝑥) при 𝜆 = 0,1. f(x)=λexp(-λx) 0.12 0.10 0.08 0.06 f(x)=λexp(-λx) 0.04 0.02 0.00 0.0 10.0 20.0 30.0 40.0 50.0 56 F(x)=1- exp(-λx) 1.2000 1.0000 0.8000 0.6000 F(x)=1- exp(-λx) 0.4000 0.2000 0.0000 0.0 10.0 20.0 30.0 40.0 50.0 Числовые характеристики экспоненциального распределения. ∞ 1 Математическое ожидание: 𝑀[𝑋] = ∫0 𝑥 ∙ 𝜆𝑒 −𝜆𝑥 𝑑𝑥 = 𝜆 . ∞ Дисперсия: 𝐷𝑥 = 𝑀[𝑋 2 ] − 𝑀2 [𝑋] = ∫0 𝑥 2 𝜆𝑒 −𝜆𝑥 𝑑𝑥 − 1 1 𝜆2 = 1 . 𝜆2 Среднее квадратичное отклонение: 𝜎𝑥 = √𝐷𝑥 = 𝜆. Коэффициент асимметрии 𝑆𝑘 = 2 . Коэффициент эксцесса 𝐸𝑥 = 6. 𝑙𝑛2 Медиана 𝑀𝑒 = . 𝜆 Как видим в случае, когда случайная величина распределена по экспоненциальному закону, ее математическое ожидание и среднее квадратичное отклонение равны между собой. Вероятность попадания случайной величины в заданный интервал: 𝑃(𝑎 < 𝑋 < 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) = 𝑒 −𝜆𝑎 − 𝑒 −𝜆𝑏 . 11.4. Задачи для самостоятельного решения. 1. Непрерывная случайная величина Х распределена по экспоненциальному закону, заданному плотностью вероятности f (x) = 3𝑒 −3𝑥 при x ≥ 0; f (x) = 0 при x < 0. Найти вероятность того, что в результате испытания Х попадает в интервал (0,13;0,7). 2. Непрерывная случайная величина Х распределена по экспоненциальному закону, заданному плотностью распределения f (x)= 0,04𝑒 −0,04𝑥 при x ≥ 0; f (x) = 0 при x< 0. Найти вероятность того, что в результате испытания Х попадает в интервал (1; 2). 3. Непрерывная случайная величина Х распределена по экспоненциальному закону, заданному функцией распределения . F(x) =1−𝑒 −0,6𝑥 . Найти вероятность того, что в результате испытания Х попадет в интервал (2; 5). 4. Найти математическое ожидание экспоненциального распределения f (x)= 𝑒 −𝑥 при x ≥ 0 ; f (x) = 0 при x < 0. 5. Найти математическое ожидание экспоненциального распределения, заданного при x ≥ 0: а) плотностью f (x)= 4𝑒 −4𝑥 ; б) функцией распределения F (x)= 1−𝑒 −0,1𝑥 . 57 6. Найти: а) дисперсию; б) стандартное отклонение экспоненциального распределения, заданного плотностью вероятности: f (x) = 𝑒 −6𝑥 при x ≥ 0; f (x) = 0 при x < 0. 7. Найти дисперсию и стандартное отклонение экспоненциального распределения, заданного плотностью вероятности f (x) = 10𝑒 −2𝑥 при x ≥ 0; f (x) = 0 при x < 0.. 8. Найти дисперсию и стандартное отклонение экспоненциального закона, заданного функцией распределения F(x)= 1−𝑒 −0,1𝑥 . 11.5. Нормальный закон распределения. Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях. Этот вопрос рассмотрен в группе теорем, называемых центральной предельной теоремой. Они утверждают, что закон распределения суммы случайных величин, каждая из которых может иметь различные распределения, приближается к нормальному распределению при достаточно большом числе слагаемых. Этим объясняется важность нормального закона для практических приложений. Приведем формулировку одной из форм центральной предельной теоремы теории вероятностей. Пусть случайные величины 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏– независимы и одинаково распределены. Тогда закон распределения их частичной суммы 𝑿 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 – неограниченно приближается к нормальному распределению при неограниченном увеличении числа n эти случайных величин. Так, например, биномиальный закон распределения (п.8.1) неограниченно приближается к нормальному распределению при неограниченном увеличении параметра n этого закона. Частным случаем центральной предельной теоремы для дискретных случайных величин являются также формулы Муавра - Лапласа (п.5.3). Основное ограничение, налагаемое на суммируемые случайные величины, состоит в том, чтобы они все играли в общей сумме примерно одинаковую относительно малую роль. Если это условие не выполняется и, например, одно из слагаемых окажется по своему влиянию на сумму резко превалирующей над всеми другими, то закон распределения этой превалирующей случайной величины наложит свое влияние на всю сумму и определит в основных чертах ее закон распределения. Рост людей на нашей планете хорошо описывается нормальным распределением. Это, повидимому, связано с тем, что на рост влияют разнообразные независимые случайные факторы: климат, экология окружающей среды, экономические условия, болезни и т.д. Практически можно использовать центральную предельную теорему при достаточно небольшом количестве слагаемых, так как вероятностные расчеты требуют сравнительно малой точности. Опыт показывает, что для суммы даже десяти и менее слагаемых закон их распределения можно заменить нормальным. Часто нормальное распределение называют распределением Гаусса (Карл Фридрих Гаусс (17771855)), в честь того, кто открыл его. 11.5.1. Плотность нормального распределения вероятностей. Нормальный закон распределения характеризуется плотностью вероятности вида: 𝑓(𝑥) = 1 − (𝑥−𝑚𝑋 )2 2 2𝜎𝑋 , 𝑒 𝜎𝑋 √2𝜋 где 𝑚𝑋 – математическое ожидание, 𝜎𝑋 −среднее квадратичное отклонение случайной величины Х. Простое преобразование случайной величины 𝑋 к нормированной (стандартизованной) случайной величине 𝑈 по формуле 58 𝑈= 𝑋 − 𝑚𝑋 𝜎𝑋 Приводит к так называемой нормированной плотности нормального распределения вероятности: 𝑝(𝑢) = с параметрами 𝑚𝑈 = 0, 𝜎𝑈 = 1. Действительно, из 𝑋 = 𝑈𝜎𝑥 + 𝑚𝑥 , следует: 1 − 𝑢2 𝑒 2 2𝜋 𝑚𝑋 = 𝑀(𝑋) = 𝑀(𝑈𝜎𝑋 + 𝑚𝑋 ) = 𝑀(𝑈𝜎𝑋 ) + 𝑀( 𝑚𝑋 ) = 𝜎𝑋 𝑀(𝑈) + 𝑚𝑋 → 𝜎𝑋 𝑀(𝑈) = 0 → 𝑀(𝑈) = 𝑚𝑈 = 0. 𝐷𝑋 = 𝐷(𝑈𝜎𝑋 + 𝑚𝑋 ) = 𝐷(𝑈𝜎𝑋 ) + 𝐷( 𝑚𝑋 ) = 𝜎𝑋2 𝐷(𝑈) = 𝐷𝑋 𝐷(𝑈) → 𝐷(𝑈) = 1 → 𝜎𝑈 = √𝐷(𝑈) = 1. На нижеследующем рисунке дано сравнение нормальных распределений вероятности для нормированной случайной величины U и случайной величины X .Проценты характеризуют величину площади под кривой в пределах, указанных на оси х. Кривая распределения по нормальному закону имеет симметричный колоколообразный вид: 59 Максимальная ордината кривой, равная 𝜎 1 , √2𝜋 соответствует точке математического ожидания 𝑥 = 𝑚; по мере удаления от точки т плотность распределения падает, и при значении 𝑥 → ∞ кривая асимптотически приближается к оси абсцисс. Математическое ожидание m является центром рассеивания случайной величины X. Если изменять 𝑚, то кривая распределения вероятностей будет смещаться вдоль оси абсцисс, не изменяя своей формы. Таким образом, центр рассеивания характеризует положение распределения на оси абсцисс: Среднее квадратичное отклонение 𝜎 характеризует форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна 𝜎; при увеличении 𝜎 максимальная ордината уменьшается. Так как площадь под кривой распределения всегда должна оставаться равной единице, то при увеличении 𝜎 кривая распределения становится более плоской, растягиваясь вдоль оси абсцисс; напротив, при уменьшении 𝜎 кривая распределения вытягивается вверх, одновременно сжимаясь с боков, и становится более иглообразной. На рисунке показаны три нормальные кривые (I, II, III) при т=0; из них кривая I соответствует самому большому 𝜎, а кривая III — самому малому значению 𝜎: Асимметрия эксцесс нормального распределения равны нулю 𝑆𝑘 = 0 т.к. кривая плотности нормального распределения симметрична относительно x=m. Эксцесс также равен нулю 𝐸𝑥 = 0. Это естественно, т.к. назначение эксцесса – характеризовать относительную островершинность, или плосковершинность данного закона распределения относительно нормального. 11.5.2. Нормальная функция распределения. Найдем функцию распределения F(х) случайной величины X, распределенной по нормальному закону с параметрами 𝑚𝑥 и 𝜎𝑥 : 60 𝑥 𝐹(𝑥) = ∫ 𝑓(𝑥)𝑑𝑥 = Сделаем замену 𝑥−𝑚 переменной: 𝜎 𝑥 𝑥 −∞ 𝑥 1 𝜎𝑥 √2𝜋 ∫𝑒 − (𝑥−𝑚𝑥 )2 2𝜎𝑥2 𝑑𝑥. −∞ = 𝑢. Тогда: 𝐹(𝑥) = 1 𝑥−𝑚𝑥 𝜎𝑥 − 𝑢2 2 𝑑𝑡. ∫ 𝑒 √2𝜋 −∞ Этот интеграл не выражается через элементарные функции, но его можно вычислить через специальную функцию вида 𝑃(𝑢) = 𝑢 1 − 𝑢2 2 𝑑𝑢. ∫𝑒 √2𝜋 −∞ Эта функция называется стандартной или нормированной функцией нормального распределения. Она представляет собой интегральную функцию распределения для нормально распределенной случайной величины с параметрами: 𝑚𝑢 =0, 𝜎𝑢 = 1. Существуют таблицы значений функции стандартного нормального распределения (см. приложение 1). Интегральная функция 𝐹(𝑥) нормально распределенной случайной величины с заданными числовыми характеристиками 𝑚𝑥 и 𝜎𝑥 выражается через функцию 𝑃(𝑢) стандартного нормального распределения следующим образом: 𝑥−𝑚𝑥 ). 𝜎𝑥 𝐹(𝑥) = 𝑃 ( Теперь найдем вероятность попадания на участок от а до b случайной величины X, распределенной по нормальному закону с любыми заданными параметрами m, 𝜎: 𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃 ( 𝑏 − 𝑚𝑥 𝑎 − 𝑚𝑥 )−𝑃( ) 𝜎𝑥 𝜎𝑥 Аргументы функции 𝑃(𝑢) в этой формуле имеют следующий смысл: ( 𝑏−𝑚𝑥 )− 𝜎𝑥 есть расстояние от правой границы интервала [a,b] до центра рассеивания, выраженное в средних квадратичных отклонениях; ( 𝑎−𝑚𝑥 )− 𝜎𝑥 такое же расстояние для левой границы. Причем это расстояние имеет положительное значение, если граница интервала расположена справа от центра рассеивания и отрицательно – если слева. Свойства функции P(u). 1. 𝑃(0) = 0,5. 2. P (−∞) = 0. 3. P(∞) = 1. 4. P(u) — неубывающая функция. 5. P (−𝑢) = 1− P ( 𝑢). Пятое свойство следует из симметричности нормального распределения относительно начала 61 координат, когда m=0. 2 𝑢 𝑢 1 − 2 𝑒 ∫ √2𝜋 −∞ Следует заметить, что функция 𝑃(𝑢) = 𝑑𝑡 является лишь одной из форм так называемого интеграла вероятностей. Не все справочные таблицы построены по этой функции. Для решения прикладных задач, в частности для вычисления вероятности попадания случайной величины в заданный интервал, очень часто пользуются и другими формами интеграла вероятностей. Например, форма интеграла вероятностей вида Ф(𝑢) = 2 𝑢 ∫𝑒 −𝑢2⁄ 2 𝑑𝑢 √2𝜋 0 называется интегралом Лапласа (п. 5.3.2). Справочные таблицы, построенные по интегралу Лапласа можно найти в большинстве работ, посвященных теории вероятностей и математической статистики. Свойства функции Лапласа рассмотрены в п. 5.3.2. Стандартная функция нормального распределения 𝑃(𝑢) и функция Лапласа Ф(𝑢) связаны отношением 1 1 𝑃(𝑢) = + Ф(𝑢) 2 2 или Ф(𝑢) = 2𝑃(𝑢) − 1. 𝑥−𝑎 ) 𝜎𝑥 График функции распределения F (x ) =𝑃 ( нормально распределенной случайной величины с математическим ожиданием m=a изображен на рисунке 1 F(x) a Пример. Математическое ожидание и среднее квадратичное отклонение случайной величины Х, распределенной по нормальному закону равны, соответственно: 𝑚𝑥 = 10 и 𝜎𝑥 = 2. Найти вероятность того, что в результате испытания Х примет значение, заключенное в интервале (12; 14). Решение. Для решения задачи воспользуемся функцией стандартного нормального распределения (приложение 1): 14−10 ) 2 𝑃(12 < 𝑋 < 14) = 𝑃 ( 12−10 ) =𝑃(2) − 2 −𝑃( 𝑃(1) ≈ 0,9772 − 0,8413= 0,1359. Если для определения искомой вероятности использовать функцию Лапласа, то решение примет вид: 1 14−10 ) 2 𝑃(12 < 𝑋 < 14) = 2 [Ф ( 12−10 1 ) ]= 2 (Ф(2) − 2 − Ф( 1 Ф(1)) = 2 (0,9545 − 0,6827) = 0,1359. 62 На практике часто встречается задача вычисления вероятности попадания нормально распределенной случайной величины на участок, симметричный относительно центра рассеивания m. Рассмотрим такой участок длины 2𝑙. Вычислим вероятность попадания на этот участок: 𝑙 𝑙 𝑥 𝑥 𝑃(𝑚 − 𝑙 < 𝑋 < 𝑚 + 𝑙) = 𝑃 (𝜎 ) − 𝑃 (− 𝜎 ). Учитывая четвертое свойство функции Ф∗ (𝑥), стандартного нормального распределения, получим формулу вероятности попадания случайной величины, распределенной по нормальному закону, на участок, симметричный относительно центра рассеивания: 𝑙 𝑃(𝑚 − 𝑙 < 𝑋 < 𝑚 + 𝑙) = 2𝑃 ( ) − 1 𝜎𝑥 Или в более компактном виде: 𝑙 𝑃(|𝑋 − 𝑚| < 𝑙) = 2𝑃 ( ) − 1. 𝜎𝑥 Если для вычисления этой же вероятности использовать функцию Лапласа, то решение примет вид 𝑙 ). 𝜎𝑥 Как видим, применение функции Лапласа для вычисления вероятности попадания случайной величины в интервал, симметричный относительно математического ожидания позволяет получить более компактную форму. 𝑃(|𝑋 − 𝑚| < 𝑙) = Ф ( Решим следующую задачу. Отложим в каждую сторону от центра рассеивания отрезки длиной 𝜎, 2𝜎, 3𝜎 и вычислим вероятность попадания случайной величины X в каждый из них. Так как кривая нормального закона симметрична относительно линии 𝑥 = 𝑚, то по вышеприведенной формуле находим: 𝑃(|𝑋 − 𝑚| < 𝜎𝑥 ) = 2𝑃(1) − 1 ≈ 0,6826 ≈ 68,3%, 𝑃(|𝑋 − 𝑚| < 2𝜎𝑥 ) = 2𝑃(2) − 1 ≈ 0,9544 ≈ 95,4%, 𝑃(|𝑋 − 𝑚| < 3𝜎𝑥 ) = 2𝑃(3) − 1 ≈ 0,9972 ≈ 99,73%. Таким образом, вероятность того, что случайная величина x лежит в пределах ±3𝜎, относительно центра рассеивания m близка к единице или к 100%. Следовательно, вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю. Это позволяет, зная среднее квадратичное отклонение и математическое ожидание случайной величины, ориентировочно указать интервал ее практически возможных значений. Такой способ оценки диапазона возможных значений случайной величины известен в математической статистике под названием «правило трех сигма». Из правила трех сигма вытекает также ориентировочный способ определения среднего квадратичного отклонения случайной величины: берут 63 максимальное практически возможное отклонение от среднего и делят его на три. Разумеется, этот грубый прием может быть рекомендован, только если нет других, более точных способов определения 𝜎. Ошибка по вероятности, которую, мы допускаем при оценке диапазона возможных отклонений случайной величины от ее математического ожидания, составляет: 1−0,9973 = 0,0027. П р и м е р . Случайная величина X, распределенная по нормальному закону, представляет собой ошибку измерения некоторого расстояния. При измерении допускается систематическая ошибка в сторону завышения на 1,2 (м); среднее квадратичное отклонение ошибки измерения равно 0,8 (м). Найти вероятность того, что отклонение измеренного значения от истинного значения не превзойдет по абсолютной величине 1,6 (м). Р е ш е н и е . Ошибка измерения есть случайная величина X, подчиненная нормальному закону с параметрами т = 1,2 и 𝜎 = 0,8. Вероятность попадания этой величины на участок от а = −1,6 до b = +1,6, вычисленная с помощью функции стандартного нормального распределения: 1,6−1,2 )− 0,8 𝑃(−1,6 < 𝑋 < 1,6) = 𝑃 ( −1,6−1,2 ) =𝑃(0,5) − 0,8 𝑃( 𝑃(−3,5) ≈ 0,6915 − 0,0002 ≈ 0,691. П р и м е р . Найти ту же вероятность, что в предыдущем примере, но при условии, что систематической ошибки нет. Р е ш е н и е . Отсутствие систематической ошибки означает, что значения случайной величины Х группируются около нуля, поэтому m=0. Применим формулу вероятности попадания случайной величины, распределенной по нормальному закону, на участок, симметричный относительно центра рассеивания: 1,6 𝑃(|𝑋| < 1,6) = 2𝑃 ( ) − 1 = 2𝑃(2) − 1 ≈ 0,955. 0,8 В отличие от предыдущей задачи, границы интервала здесь симметричны относительно математического ожидания, поэтому эту же задачу удобней было бы решить используя функцию Лапласа: 1,6 0,8 𝑃(|𝑋| < 1,6) = Ф ( ) = Ф(2) ≈ 0,955, где значение функции Лапласа находим по таблице, приведенной в [1]. 11.6. Контрольные вопросы 1. Верно ли, что математическое ожидание, медиана и мода нормально распределенной случайной величины X совпадают? 2. Верно ли, что кривая Гаусса симметрична относительно своего математического ожидания? 3. Верно ли, что кривая Гаусса имеет максимум в точке равной значению M[X ]? 4. Верно ли, что кривая Гаусса тем круче, чем больше сигма? 7. Почему распределение Гаусса называется нормальным? 8. Что такое функция Лапласа, для чего она используется и какими свойствами обладает? 9. Свойства случайной величины, имеющей нормальный закон распределения. Правило трех сигм. 11.7. Задачи для самостоятельного решения. 64 1. Автомат штампует детали. Контролируется длина детали X, которая распределена нормально с математическим ожиданием (проектная длина), равным 50 мм. Фактически длина изготовленных деталей не менее 32 и не более 68 мм. Найти вероятность того, что длина наудачу взятой детали больше 55 мм. 2. Производится измерение диаметра вала без систематических ошибок. Случайные ошибки измерения Х подчинены нормальному закону со стандартным отклонением 10 мм. Найти вероятность того, что измерение будет произведено с ошибкой, не превосходящей по абсолютной величине 15 мм. 3. Автомат изготовляет шарики. Шарик считается годным, если отклонение Х диаметра шарика от проектного размера по абсолютной величине меньше 0,7 мм. Считая, что случайная величина Х распределена нормально со стандартным отклонением 0,4 мм., найти, сколько в среднем будет годных шариков среди ста изготовленных. 4 0. 4. Деталь, изготовленная автоматом, считается годной, если отклонение ее контролируемого размера от проектного не превышает 10 мм. Случайные отклонения контролируемого размера от проектного размера подчинены нормальному закону со стандартным отклонением 5 мм и математическим ожиданием, равным нулю. Сколько процентов годных деталей изготавливает автомат? 5. Случайная величина Х распределена нормально с математическим ожиданием 𝑚𝑥 = 10. Вероятность попадания Х в интервал (10, 20) равна 0,3. Чему равна вероятность попадания Х в интервал (0, 10)? 6. Случайная величина Х распределена нормально с математическим ожиданием 𝑚𝑥 = 25 . Вероятность попадания Х в интервал (10, 15) равна 0,2. Чему равна вероятность попадания Х в интервал (35, 40)? 7. Случайная величина Х распределена нормально с математическим ожидание 𝑚𝑥 = 10 и стандартным отклонением 𝜎𝑥 = 5 . Найти интервал, симметричный относительно математического ожидания, в который с вероятностью 0,9973 попадет величина Х в результате испытания. 8. Случайная величина Х распределена нормально со стандартным отклонением 𝜎𝑥 = 5. Найти длину интервала, симметричного относительно математического ожидания, в который с вероятностью 0,9973 попадет Х в результате испытания. Тема 12. Системы случайных величин В практических применениях теории вероятностей очень часто приходится сталкиваться с задачами, в которых результат опыта описывается не одной случайной величиной, а двумя или более случайными величинами, образующими комплекс или систему. Свойства системы нескольких случайных величин не исчерпываются свойствами отдельных величин, ее составляющих: помимо этого, они включают также взаимные связи (зависимости) между случайными величинами. Пример. Пусть Х – рост человека, Y – вес человека. Тогда Z = (X,Y) – (непрерывная) двумерная случайная величина. При рассмотрении вопросов, связанных с системами случайных величин, удобно пользоваться геометрической интерпретацией системы. Например, систему двух случайных величин (X, Y) можно изображать с л у ч а й н о й т о ч к о й на плоскости с координатами X и Y 65 Аналогично система трех случайных величин может быть изображена случайной точкой в трехмерном пространстве. Часто бывает удобно говорить о системе п случайных величин как о «случайной точке в пространстве п измерений». Несмотря на то, что последняя интерпретация не обладает непосредственной наглядностью, пользование ею дает некоторый выигрыш в смысле общности терминологии и упрощения записей. Часто вместо образа с л у ч а й н о й т о ч к и для геометрической интерпретации системы случайных величин пользуются образом с л уч а й н о г о в е к т о р а . Систему двух случайных величин при этом рассматривают как случайный вектор на плоскости хОу, составляющие которого по осям представляют собой случайные величины X, Y Система трех случайных величин изображается случайным вектором в трехмерном пространстве, система n случайных величин − случайным вектором в пространстве п измерений. При этом теория систем случайных величин рассматривается как т е о р и я с л у ч а й н ы х в е к т о р о в . Определение. Вектор Z = (X,Y), компоненты Х и Y которого являются случайными величинами, называется случайным вектором или двумерной случайной величиной. В данном курсе мы будем в зависимости от удобства изложение пользоваться как одной, так и другой интерпретацией. Занимаясь системами случайных величин, мы будем рассматривать как полные, исчерпывающие вероятностные характеристики — законы распределения, так и неполные — числовые характеристики. Изложение начнем с наиболее простого случая системы двух случайных величин. 12.1. Функция распределения системы двух случайных величин. Функцией распределения системы двух случайных величин (X,Y) называется вероятность совместного выполнения двух неравенств 𝑋 < 𝑥 и 𝑌 < 𝑦: 𝐹(𝑥, 𝑦) = 𝑃((𝑋 < 𝑥)(𝑌 < 𝑦)). 66 Геометрически функция распределения системы двух случайных величин (X,Y) есть вероятность попадания случайной точки (X,Y) в бесконечный квадрат с вершиной в точке (x,y), лежащий левее и ниже ее Функция распределения одной из случайных величин системы (X,Y) , например, случайной величины X — обозначим ее F1 (х) — представляет собой вероятность попадания случайной точки в полуплоскость, ограниченную справа абсциссой х Функция распределения F2 (y) другой величины Y системы (X,Y) есть вероятность попадания в полуплоскость, ограниченную сверху ординатой у В п.9.1.1 мы привели основные свойства функции распределения F(x) для одной случайной величины. Сформулируем аналогичные свойства для функции распределения системы случайных величин и снова воспользуемся геометрической интерпретацией для наглядной иллюстрации этих свойств. 1. Функция распределения F(x, у) есть неубывающая функция обоих своих аргументов, т. е. при х2 > х1 F(x2, y) ≥ F(x1, у); при y2 > y1 F(x, y2) ≥ F(x, y1). В этом свойстве функции F (х) можно наглядно убедиться, пользуясь геометрической интерпретацией функции распределения как вероятности попадания в квадрант с вершиной (х, у). Действительно, увеличивая х (смещая правую границу квадранта вправо) или увеличивая у (смещая верхнюю границу вверх), мы, очевидно, не можем уменьшить вероятность попадания в этот квадрант. 2. Повсюду на −∞, функция распределения равна нулю: F(x,−∞) = F (−∞ , y) = F (−∞,−∞) = 0. 67 В этом свойстве мы наглядно убеждаемся, неограниченно отодвигая влево правую границу квадранта (х → −∞) или вниз его верхнюю границу (у → −∞) или делая это одновременно с обеими границами; при этом вероятность попадания в квадрант стремится к нулю. 3. При одном из аргументов, равном +∞, функция распределения системы превращается в функцию распределения случайной величины, соответствующей другому аргументу: F (х,+∞) = 𝐹1 (х), F (+∞, у) = F2 (у), где F1(x); F2(y) − соответственно функции распределения случайных величин X и Y. В этом свойстве функции распределения можно наглядно убедиться, смещая ту или иную из границ квадранта на +∞; при этом в пределе квадрант превращается в полуплоскость, вероятность попадания в которую есть функция распределения одной из величин, входящих в систему. 4. Если оба аргумента стремятся к +∞, функция распределения системы равна единице: F (+∞,+∞) = 1. Действительно, при х → +∞, у → +∞ квадрант с вершиной (х, у) в пределе плоскость хОу, попадание в которую есть достоверное событие. обращается во всю При рассмотрении законов распределения отдельных случайных величин мы вывели выражение для вероятности попадания случайной величины в пределы заданного участка. Эту вероятность мы выразили как через функцию распределения, так и через плотность распределения. Аналогичным вопросом для системы двух случайных величин является вопрос о вероятности попадания случайной точки (Х,Y) в пределы заданной области D на плоскости хОу. Условимся событие, состоящее в попадании случайной точки (X, Y) в область D, обозначать символом (X, Y) ⊂ D. Вероятность попадания случайной точки в заданную область выражается наиболее просто в том случае, когда эта область представляет собой прямоугольник со сторонами, параллельными координатным осям. Выразим через функцию распределения системы вероятность попадания случайной точки (X, Y) в прямоугольник R, ограниченный абсциссами ∝ и 𝛽 и ординатами 𝛾 и 𝛿 При этом следует условиться, куда мы будем относить границы прямоугольника. Аналогично тому, как мы делали для одной случайной величины, условимся включать в прямоугольник R его нижнюю и левую границы и не включать верхнюю и правую. Тогда событие (X, Y) ⊂ 𝑅 будет равносильно произведению двух событий: 𝛼 ≤ Х < 𝛽 и 𝛾 ≤ 𝑌, < 𝛿. Выразим вероятность этого события через функцию распределения системы. Для этого рассмотрим на плоскости хОу четыре бесконечных квадранта с вершинами в точках (𝛽, 𝛿); (𝛼, 𝛿); (𝛽, 𝛾) и (𝛼, 𝛾): 68 Очевидно, вероятность попадания в прямоугольник R равна вероятности попадания в квадрант (𝛽, 𝛿) минус вероятность попадания в квадрант (𝛼, 𝛿) минус вероятность попадания в квадрант (𝛽, 𝛾) плюс вероятность попадания в квадрант (𝛼, 𝛾) (так как мы дважды вычли вероятность попадания в этот квадрант). Отсюда получаем формулу, выражающую вероятность попадания в прямоугольник через функцию распределения системы: 𝑃((𝑋, 𝑌) ⊂ 𝑅) = 𝐹(𝛽, 𝛿) − 𝐹(𝛼, 𝛿) − 𝐹(𝛽, 𝛾) + 𝐹(𝛼, 𝛾). Рассмотренная функция распределения системы двух случайных величин существует для систем любых случайных величин, как дискретных, так и непрерывных. 12.2. Плотность распределения системы двух непрерывных случайных величин. Плотностью совместного распределения вероятностей (двумерной плотностью вероятности) непрерывной двумерной случайной величины называется смешанная частная производная 2-го порядка от функции распределения: 𝜕 2 𝐹(𝑥, 𝑦) ′′ (𝑥, 𝑓(𝑥, 𝑦) = = 𝐹𝑥𝑦 𝑦). 𝜕𝑥𝜕𝑦 Замечание. Двумерная плотность вероятности представляет собой предел отношения вероятности попадания случайной точки в прямоугольник со сторонами∆𝑥, ∆𝑦 к площади этого прямоугольника при ∆𝑥 → 0, ∆𝑦 → 0. Геометрически функцию f(x, у) можно изобразить некоторой поверхностью: 69 Эта поверхность аналогична кривой распределения для одной случайной величины и называется поверхностью распределения. Если пересечь поверхность распределения f(x,у) плоскостью, параллельной плоскости хОу, и спроектировать полученное сечение на плоскость хОу, получится кривая, в каждой точке которой плотность распределения постоянна. Такие кривые называются кривыми равной плотности. Часто бывает удобно задавать распределение семейством кривых равной плотности. Рассматривая плотность распределения f (х) для одной случайной величины, мы ввели понятие «элемента вероятности» f(x)dx. Это есть вероятность попадания случайной величины X на элементарный участок dх, прилежащий к точке х. Аналогичное понятие «элемента вероятности» вводится и для системы двух случайных величин. Элементом вероятности в данном случае называется выражение f(x,y)dxdy. Очевидно, элемент вероятности есть не что иное, как вероятность попадания в элементарный прямоугольник со сторонами dх,dy, примыкающий к точке (х, у): Эта вероятность равна объему элементарного параллелепипеда, поверхностью f(x,у) и опирающегося на элементарный прямоугольник dxdy: ограниченного сверху Пользуясь понятием элемента вероятности, выведем выражение для вероятности попадания случайной точки в произвольную область D. Эта вероятность, очевидно, может быть получена суммированием (интегрированием) элементов вероятности по всей области D: 70 𝑃((𝑋, 𝑌) ⊂ 𝐷) = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (𝐷) Геометрически вероятность попадания в область D изображается объемом цилиндрического тела С, ограниченного сверху поверхностью распределения и опирающегося на область D: Из общей формулы для вероятности попадания случайной точки в произвольную область D вытекает формула для вероятности попадания случайной точки в прямоугольник R, ограниченный абсциссами 𝛼 и 𝛽 и ординатами 𝛾 и 𝛿: 𝛽 𝛿 𝑃((𝑋, 𝑌) ⊂ 𝑅) = ∫ 𝑑𝑥 ∫ 𝑓(𝑥, 𝑦)𝑑𝑦. 𝛼 𝛾 Воспользуемся этой формулой для того, чтобы выразить функцию распределения системы F(x,у) через плотность распределения f(x,у). Функция распределения F(x,у) есть вероятность попадания случайной точки (X,Y) в бесконечный квадрант; последний можно рассматривать как прямоугольник, ограниченный абсциссами — −∞ и x и ординатами −∞ и у. Тогда 𝑥 𝑦 𝐹(𝑥, 𝑦) = ∫ 𝑑𝑥 ∫ 𝑓(𝑥, 𝑦)𝑑𝑦. −∞ −∞ Легко убедиться в следующих свойствах плотности распределения системы: 1. Плотность распределения системы есть функция неотрицательная: 𝑓(х, у) ≥ 0. Это ясно из того, что плотность распределения есть предел отношения двух неотрицательных величин: вероятности попадания в прямоугольник и площади прямоугольника — и, следовательно, отрицательной быть не может. 2. Двойной интеграл в бесконечных пределах от плотности распределения системы равен единице: +∞ ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1. −∞ Это следует из того, что вероятность попадания случайной точки (𝑋, 𝑌) на всю плоскость хОу, есть вероятность достоверного события. Геометрически это свойство означает, что полный объем тела, ограниченного поверхностью распределения и плоскостью хОу, равен единице. П р и м е р . Система двух случайных величин (X, Y) подчинена закону распределения с плотностью 1 𝑓(𝑥, 𝑦) = 2 . 2 𝜋 (1 + 𝑥 )(1 + 𝑦 2 ) Определить вероятность попадания случайной точки (X,Y) в квадрат R, изображенный на рисунке 71 Решение. Вероятность попадания в прямоугольник R : 1 1 1 1 1 1 1 𝑑𝑥 𝑑𝑦 1 𝑃((𝑋, 𝑌) ⊂ 𝑅) = 2 ∫ 𝑑𝑥 ∫ 𝑑𝑦 = 2 ∫ ∫ = . 2 2 2 2 (1 + 𝑥 )(1 + 𝑦 ) (1 + 𝑦 ) 16 𝜋 𝜋 1+𝑥 0 0 0 0 Зная закон распределения системы двух случайных величин, можно всегда определить законы распределения отдельных величин, входящих в систему. Чтобы получить плотность распределения одной из непрерывных случайных величин, входящих в систему, нужно плотность распределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной величине: +∞ +∞ 𝑓1 (𝑥) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦, 𝑓2 (𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥. Эти формулы дают возможность, зная закон распределения системы, заданный в виде плотности распределения 𝑓(𝑥, 𝑦), найти законы распределения 𝑓1 (𝑥) и 𝑓2 (𝑦) отдельных величин, входящих в систему. П р и м е р . Система двух непрерывных случайных величин (X, Y) подчинена закону распределения с плотностью 1 𝑓(𝑥, 𝑦) = 2 . 2 𝜋 (1 + 𝑥 )(1 + 𝑦 2 ) Определить плотности 𝑓1 (𝑥) и 𝑓2 (𝑦) распределения каждой из случайных величин X и Y. Решение. +∞ +∞ +∞ 1 1 1 𝑑𝑦 1 𝑑𝑦 1 𝑓1 (𝑥) = 2 ∫ 𝑑𝑦 = 2 ∫ = 2 ∫ = . 2 2 2 2 2 2 (1 + 𝑥 )(1 + 𝑦 ) (1 + 𝑥 )(1 + 𝑦 ) 𝜋 (1 + 𝑥 ) (1 + 𝑦 ) 𝜋(1 + 𝑥 2 ) 𝜋 𝜋 −∞ Аналогично 𝑓2 (𝑦) = −∞ −∞ 1 . 𝜋(1+𝑦 2 ) 12.3. Таблица распределения системы двух дискретных случайных величин. Закон распределения системы дискретных случайных (X,Y) величин задается таблицей распределения. 𝑝(𝑥, 𝑦) 𝑦1 𝑦2 … 𝑦𝑗 … 𝑦𝑚 𝑥1 𝑝(𝑥1 , 𝑦1 ) 𝑝(𝑥1 , 𝑦2 ) … 𝑝(𝑥1 , 𝑦𝑗 ) … 𝑝(𝑥1 , 𝑦𝑚 ) 72 𝑥2 𝑝(𝑥2 , 𝑦1 ) 𝑝(𝑥2 , 𝑦2 ) … 𝑝(𝑥2 , 𝑦𝑗 ) … … … … … … … 𝑥𝑖 𝑝(𝑥𝑖 , 𝑦1 ) 𝑝(𝑥𝑖 , 𝑦2 ) … 𝑝(𝑥𝑖 , 𝑦𝑗 ) … 𝑝(𝑥𝑖 , 𝑦𝑚 ) … … … … … … … 𝑥𝑛 … 𝑝(𝑥2 , 𝑦𝑚 ) 𝑝(𝑥𝑛 , 𝑦1 ) 𝑝(𝑥𝑛 , 𝑦2 ) … 𝑝(𝑥𝑛 , 𝑦𝑗 ) … 𝑝(𝑥𝑛 , 𝑦𝑚 ) Приведенная таблица называется совместным законом распределения случайных величин Х и Y. По аналогии с основным свойством закона распределения одномерной случайной величины, справедливо равенство 𝑛 𝑚 ∑ ∑ 𝑝𝑖𝑗 = 1, 𝑖=1 𝑗=1 где 𝑝𝑖𝑗 = 𝑝(𝑥𝑖 , 𝑦𝑗 ) = 𝑃 ((𝑋 = 𝑥𝑖 ), (𝑌 = 𝑦𝑗 )). То есть сумма вероятностей, стоящих во всех клетках таблицы, равна 1. Эта таблица является двумерным аналогом ряда распределения, который рассматривался в п. 6.2.1. Зная закон 𝑝(𝑥, 𝑦) распределения двумерной дискретной случайной величины (𝑋, 𝑌), в виде таблицы распределения, можно найти законы распределения 𝑝(𝑥) и 𝑝(𝑦) ее составляющих X и Y в виде соответствующих рядов. Действительно, событие (𝑋 = 𝑥1 ) представляется собой сумму несовместных событий: (𝑋 = 𝑥1 ) = (𝑋 = 𝑥1 ; 𝑌 = 𝑦1 ) + (𝑋 = 𝑥1 ; 𝑌 = 𝑦2 ) + ⋯ + (𝑋 = 𝑥1 ; 𝑌 = 𝑦𝑗 ) + ⋯ + (𝑋 = 𝑥1 ; 𝑌 = 𝑦𝑚 ). поэтому 𝑃(𝑋 = 𝑥1 ) = 𝑝(𝑥1 , 𝑦1 ) + 𝑝(𝑥1 , 𝑦2 ) +…+ 𝑝(𝑥1 , 𝑦𝑗 ) + ⋯ + 𝑝(𝑥1 , 𝑦𝑚 ). В правой части равенства находится сумма вероятностей, стоящих в столбце, соответствующем 𝑋 = 𝑥1 . Так же можно найти вероятности остальных табличных значений 𝑥2 , 𝑥3 , … , 𝑥𝑛 дискретной случайной величины X : 𝑃(𝑋 = 𝑥2 ) = 𝑝(𝑥2 , 𝑦1 ) + 𝑝(𝑥2 , 𝑦2 ) +…+ 𝑝(𝑥2 , 𝑦𝑗 ) + ⋯ + 𝑝(𝑥2 , 𝑦𝑚 ), …………………………………………………………………………………. 𝑃(𝑋 = 𝑥𝑛 ) = 𝑝(𝑥𝑛 , 𝑦1 ) + 𝑝(𝑥𝑛 , 𝑦2 ) +…+ 𝑝(𝑥𝑛 , 𝑦𝑗 ) + ⋯ + 𝑝(𝑥𝑛 , 𝑦𝑚 ). Аналогично, для определения вероятностей возможных значений дискретной случайной величины 𝑌 нужно сложить вероятности, стоящие в строке таблицы, соответствующей 𝑌 = 𝑦𝑗 . Так для 𝑌 = 𝑦1 имеем 𝑃(𝑌 = 𝑦1 ) = 𝑝(𝑥1 , 𝑦1 ) + 𝑝(𝑥2 , 𝑦1 ) +…+ 𝑝(𝑥𝑖 , 𝑦1 ) + ⋯ + 𝑝(𝑥𝑛 , 𝑦𝑛 ), 𝑃(𝑌 = 𝑦2 ) = 𝑝(𝑥1 , 𝑦2 ) + 𝑝(𝑥2 , 𝑦2 ) +…+ 𝑝(𝑥𝑖 , 𝑦2 ) + ⋯ + 𝑝(𝑥𝑛 , 𝑦2 ), …………………………………………………………………………………. 𝑃(𝑌 = 𝑦𝑚 ) = 𝑝(𝑥1 , 𝑦𝑚 ) + 𝑝(𝑥2 , 𝑦𝑚 ) +…+ 𝑝(𝑥𝑖 , 𝑦𝑚 ) + ⋯ + 𝑝(𝑥𝑛 , 𝑦𝑚 ). Пример. Задан закон распределения двумерной дискретной случайной величины (𝑋, 𝑌): 73 𝒑(𝒙, 𝒚) X Y -2 3 6 -0,8 0,10 0,30 0,10 -0,5 0,15 0,25 0,10 Найти законы распределения составляющих. Решение. Складывая стоящие в таблице вероятности «по строкам», получим ряд распределение для отдельной случайной величины Y, входящей в систему (𝑋, 𝑌): X -0,8 -0,5 𝒑(𝒙) 0,50 0,50 Складывая стоящие в таблице вероятности «по столбцам», получим ряд распределение для отдельной случайной величины Y, входящей в систему (𝑋, 𝑌): Y -2 3 6 𝒑(𝒚) 0,25 0,55 0,20 Мы нашли два ряда распределения: один ряд для дискретной случайной величины X , входящей в систему (X,Y), другой – для дискретной случайной величины Y. Отсюда нетрудно найти математические ожидания и дисперсии отдельно для каждой из величин X и Y по формулам, представленным в п.7. Рекомендуется проделать это в качестве самостоятельной работы. Заметим, что числовые характеристики для X и Y можно получить непосредственно из двумерного закона распределения, заданного в условии задачи. Об этом будет сказано ниже при рассмотрении числовых характеристик двумерных случайных величин. Таким образом, зная закон распределения системы, заданный в виде плотности распределения (для непрерывных случайных величин) или в виде таблицы распределения (для дискретных случайных величин), можно найти законы распределения отдельных величин, входящих в систему. Естественно, возникает вопрос об обратной задаче: нельзя ли по законам распределения отдельных величин, входящих в систему, восстановить закон распределения системы? Оказывается, что в общем случае этого сделать нельзя: зная только законы распределения отдельных величин, входящих в систему, не всегда можно найти закон распределения системы. Для того чтобы исчерпывающим образом охарактеризовать систему, недостаточно знать распределение каждой из величин, входящих в систему; нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью так называемых условных законов распределения. 12.4. Условные законы распределения и их числовые характеристики. Определение. Закон распределения одной из переменных при фиксированном значении другой называется условным распределением. Определение. Связь между переменными называется статистической, если каждому значению одной переменной ставится в соответствие условное распределение другой переменной. Условный закон распределения можно задавать как функцией распределения, так и плотностью. Условная функция распределения обозначается F(х|у), условная плотность распределения f (х|у). Так как системы непрерывных величин имеют основное практическое значение, мы в данном курсе ограничимся рассмотрением условных законов, заданных плотностью распределения. 74 Чтобы нагляднее пояснить понятие условного закона распределения, рассмотрим пример. Система случайных величин X и Y представляет собой рост и вес человека, соответственно. Пусть нас интересует рост X человека безотносительно к его весу Y. Случайная величина X, подчинена закону распределения с плотностью 𝑓1 (𝑥). Этот закон распределения мы можем исследовать, рассматривая всеx без исключения людей и оценивая их только по росту, то есть 𝑓1 (𝑥) есть безусловный закон распределения роста человека. Однако нас может интересовать и закон распределения роста человека, имеющего вполне определенный вес, например 80 кГ. Для того чтобы определить этот закон распределения, мы будем исследовать не всех людей, а только определенную весовую группу, в которой вес приблизительно равен 80 кГ, и получим условный закон распределения роста человека при весе 80 кГ с плотностью f(x|y) при y=80. Этот условный закон распределения вообще отличается от безусловного 𝑓1 (𝑥); очевидно, люди с большим весом должны в среднем быть более высокими; следовательно, условный закон распределения длины осколка существенно зависит от веса y. Зная закон распределения одной из величин, входящих в систему, и условный закон распределения второй, можно составить закон распределения системы. Выведем формулу, выражающую это соотношение, для непрерывных случайных величин. Для этого воспользуемся понятием об элементе вероятности. Рассмотрим прилежащий к точке (x,y)элементарный прямоугольник Rd со сторонами dx, dy Вероятность попадания в этот прямоугольник − элемент вероятности f(x, у)dxdy − равна вероятности одновременного попадания случайной точки (X, Y) в элементарную полосу I, опирающуюся на отрезок dx, и в полосу II, опирающуюся на отрезок dy: f (x,y)dxdy = P((X, Y)⊂ Rd) = P(( x < X < x+dx),(y < Y < y+dy)). Вероятность произведения этих двух событий, по теореме умножения вероятностей, равна вероятности попадания в элементарную полосу I, умноженной на условную вероятность попадания в элементарную полосу II, вычисленную при условии, что первое событие имело место. Это условие в пределе равносильно условию Х = х; следовательно, f (x,y)dxdy =f1(x)dx ∙ f(y|x)dy, откуда f (x, y) = f1 (x) ∙ f (y|x), т. е. плотность распределения системы двух величин равна плотности распределения одной из величин, входящих в систему, умноженной на условную плотность распределения другой величины, вычисленную при условии, что первая величина приняла заданное значение. Мы сформулировали теорему умножения законов распределения. Эта теорема в схеме случайных величин аналогична теореме умножения вероятностей в схеме событий. 75 Очевидно, формуле умножения законов распределения можно придать другой вид, если задать значение не величины X, а величины Y: f (x, y) = f2 (y) ∙ f (x|y), Отсюда получим выражения условных законов распределения через безусловные: 𝑓(𝑦|𝑥) = 𝑓(𝑥,𝑦) 𝑓1 (𝑥) , 𝑓(𝑥|𝑦) = , 𝑓(𝑥|𝑦) = 𝑓(𝑥,𝑦) 𝑓2 (𝑦) , или 𝑓(𝑦|𝑥) = 𝑓(𝑥,𝑦) +∞ ∫−∞ 𝑓(𝑥,𝑦)𝑑𝑦 𝑓(𝑥,𝑦) +∞ ∫−∞ 𝑓(𝑥,𝑦)𝑑𝑥 . Графическое представление об условных законах распределения можно получить из рисунка: Основными числовыми характеристиками условных законов распределения являютя: условное математическое ожидание и условная дисперсия. Под условным математическим ожиданием случайной величины X понимается математическое ожидание X, при условии, что величина Y приняла какое-либо фиксированное значение. Будем обозначать условное математическое ожидание X как 𝑚𝑥|𝑦 . Например, запись 𝑚𝑥|5 = 2 означает, что математическое ожидание величины X равно двум, при условии, что другая величина системы приняла значение, равное пяти. Аналогично, условное математическое ожидание величины Y, при условии, что X приняла некоторое определенное значение, обозначается как 𝑚𝑦|𝑥 . Под условной дисперсией случайной величины X понимается дисперсия X, при условии, что величина Y приняла какое-либо фиксированное значение. Будем обозначать условную дисперсию X как 𝐷𝑥|𝑦 . Например, запись 𝐷𝑥|5 = 0,12 означает, что дисперсия величины X равно 0,12, при условии, что величина Y системы приняла значение, равное пяти. Аналогично, условная дисперсия величины Y, при условии, что X приняла некоторое определенное значение, обозначается как 𝐷𝑦|𝑥 . 76 Для системы непрерывных случайных величин (X,Y), с условными плотностями распределения 𝑓(𝑥|𝑦) и 𝑓(𝑦|𝑥) условные математические ожидания 𝑚𝑥|𝑦 и 𝑚𝑦|𝑥 определяются формулами: +∞ +∞ 𝑚𝑥|𝑦 = ∫−∞ 𝑥𝑓(𝑥|𝑦)𝑑𝑥, а условные дисперсии: 𝑚𝑦|𝑥 =∫−∞ 𝑦𝑓(𝑦|𝑥)𝑑𝑦, +∞ +∞ 𝐷𝑥|𝑦 = ∫−∞ (𝑥 − 𝑚𝑥|𝑦 )2 𝑓(𝑥|𝑦)𝑑𝑥, 𝐷𝑦|𝑥 = ∫−∞ (𝑦 − 𝑚𝑦|𝑥 )2 𝑓(𝑦|𝑥)𝑑𝑦, Для системы дискретных случайных величин (X,Y), заданной таблицей распределения 𝑝(𝑥, 𝑦), (см. п. 12.3), условные математические ожидания 𝑚𝑥|𝑦𝑗 и 𝑚𝑦|𝑥𝑖 определяются формулами: 𝑚𝑥|𝑦𝑗 = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖𝑗 , а условные дисперсии: 𝑚𝑦|𝑥𝑖 = ∑𝑚 𝑗=1 𝑦𝑗 𝑝𝑖𝑗 , 2 𝐷𝑥|𝑦𝑗 = ∑𝑛𝑖=1 (𝑥𝑖 − 𝑚𝑥|𝑦𝑗 ) 𝑝𝑖𝑗 , 2 𝐷𝑦|𝑥𝑖 = ∑𝑚 𝑗=1(𝑦𝑗 − 𝑚𝑦|𝑥𝑖 ) 𝑝𝑖𝑗 . Пример. Вычислить условные математические ожидания и условные дисперсии случайных величин X и Y, если совместный закон распределения задан таблицей: 𝒑(𝒙, 𝒚) X Y -2 3 6 -0,8 0,10 0,30 0,10 -0,5 0,15 0,25 0,10 Решение. 𝑚𝑥|−2 = −0,8 ∙ 0,10 − 0,5 ∙ 0,15 = −0,155; 𝑚𝑥|3 = −0,8 ∙ 0,30 − 0,5 ∙ 0,25 = −0,365; 𝑚𝑥|6 = −0,8 ∙ 0,10 − 0,5 ∙ 0,10 = 0,13; 𝑚𝑦|−0,8 = −2 ∙ 0,10 + 3 ∙ 0,30 + 6 ∙ 0,10 = 1,3; 𝑚𝑦|−0,5 = −2 ∙ 0,15 + 3 ∙ 0,25 + 6 ∙ 0,10 = 1,05; 𝐷𝑥|−2 = (−0,8 + 0,155)2 ∙ 0,10 + (−0,5 + 0,155)2 ∙ 0,15 ≈ 0,059; 𝐷𝑥|3 = (−0,8 + 0,365)2 ∙ 0,30 + (−0,5 + 0,365)2 ∙ 0,25 ≈0,139; 𝐷𝑥|6 = (−0,8 + 0,13)2 ∙ 0,10 + (−0,5 + 0,13)2 ∙ 0,10 ≈0,059; 𝐷𝑦|−0,8 = (−2 − 0,13)2 ∙ 0,10 + (3 − 0,13)2 ∙ 0,30 + (6 − 0,13)2 ∙ 0,10 ≈6,37; 𝐷𝑦|−0,5 = (−2 − 1,05)2 ∙ 0,15 + (3 − 1,05)2 ∙ 0,25 + (6 − 1,05)2 ∙ 0,10 ≈4.8. 12.5. Зависимые и независимые случайные величины При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми. 77 Определение. Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и Y называются зависимыми. Для непрерывных случайных величин условие независимости Y от X может быть записано в виде: f (у | х) = f2 (у) при любом у. Напротив, в случае, если Y зависит от X, то f (у | х) ≠ f2 (у). Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина Y не зависит от X, то и величина X не зависит от Y. Действительно, пусть Y не зависит от X: f (у | х) = f2 (у) Учитывая, что f1 (x) ∙ f (y | x) = f2 (y) ∙ f (x | y), получаем f (x | y) = f1 (x), что и требовалось доказать. Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид: f (x, y) = f1 (x) ∙ f2 (y), т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему. Это условие может рассматриваться как необходимое и достаточное условие независимости случайных величин. Часто по самому виду функции f (x, у) можно заключить, что случайные величины X, Y являются независимыми. А именно, если плотность распределения f (x,у) распадается на произведение двух функций, из которых одна зависит только от х, другая — только от у, то случайные величины являются независимыми случайными величинами. Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы (X, Y) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины X и Y независимы. Тогда можно написать плотность распределения системы как произведение, плотностей распределения отдельных величин, входящих в систему. Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин. Понятие «зависимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости — полную, жесткую, так называемую функциональную зависимость. Две величины X и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой. В теории вероятностей мы встречаемся с другим, более общим, типом зависимости—с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X. Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай — полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости — от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем 78 функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь. Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании ,Y). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступления. Вернемся к ранее рассмотренному примеру двух случайных величин: X — рост наугад взятого человека, Y — его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: Y (кГ) = X (см) − 100. Формулы подобного типа, очевидно, не являются точными и выражают лишь некоторую среднюю, массовую закономерность, тенденцию, от которой в каждом отдельном случае возможны отступления. В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: X — рост наугад взятого человека; Z — его возраст. Очевидно, для взрослого человека величины X и Z можно считать практически независимыми; напротив, для ребенка величины X и Z являются зависимыми. В п. 12.6 мы познакомимся с некоторыми числовыми характеристиками системы случайных величин, которые дадут нам возможность оценивать степень зависимости этих величин. 12.6. Числовые характеристики системы двух случайных величин. В п. 7 рассмотрели числовые характеристики одной дискретной случайной величины X, а в п. 10 − для непрерывной. Напомним, что в качестве таких характеристик используются начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание тх и дисперсия Dx. Аналогичные числовые характеристики — начальные и центральные моменты различных порядков — можно ввести и для системы двух случайных величин. Определение. Начальным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения Хk на Y s: 𝛼𝑘,𝑠 =𝑀[𝑋 𝑘 ∙ 𝑌 𝑠 ] Определение. Центральным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин: 𝑠 𝜇𝑘,𝑠 = 𝑀[(𝑋 − 𝑚𝑥 )𝑘 ∙ (𝑌 − 𝑚𝑦 ) . ] Эти формулы справедливы как для системы двух непрерывных случайных величин, так и для системы двух дискретных случайных величин. На практике чаще всего находят применение начальные моменты первого порядка: 79 𝛼1,0 = 𝑀[𝑋1 𝑌 0 ] = 𝑀[𝑋] = 𝑚𝑥 , 𝛼0,1 = 𝑀[𝑋 0 𝑌1 ] = 𝑀[𝑌] = 𝑚𝑦 , представляющие собой математические ожидания отдельно для каждой случайной величины, входящей в систему, а также центральные моменты второго порядка: 0 𝜇2,0 = 𝑀 [(𝑋 − 𝑚𝑥 )2 (𝑌 − 𝑚𝑦 ) ] = 𝑀[(𝑋 − 𝑚𝑥 )2 ] = 𝐷[𝑋] = 𝐷𝑥 , 2 2 𝜇0,2 = 𝑀 [(𝑋 − 𝑚𝑥 )0 (𝑌 − 𝑚𝑦 ) ] = 𝑀 [(𝑌 − 𝑚𝑦 ) ] = 𝐷[𝑌] = 𝐷𝑦 , представляющие собой дисперсии отдельно для каждой случайной величины, входящей в систему. Особую роль в качестве характеристики системы двух случайных величин, как дискретных, так и непрерывных играет второй смешанный центральный момент: 𝜇1,1 = 𝑀[(𝑋 − 𝑚𝑥 )(𝑌 − 𝑚𝑦 )] = 𝐾𝑥𝑦 , представляющий собой математическое ожидание центрированных случайных величин. Характеристика 𝐾𝑥𝑦 называется корреляционным моментом или ковариацией случайных величин X и Y. Смысл этой характеристики состоит в том, что она описывает не только степень рассеивания случайных величин X и Y, входящих в систему, но и связь между ними. Все формулы, приведенные выше для начальных и центральных моментов относятся как к дискретным, так и к непрерывным случайным величинам. Применительно к описанию системы двух дискретных случайных величин они принимают вид: 𝑚𝑥 = 𝛼1,0 = ∑𝑖 ∑𝑗 𝑥𝑖 𝑝𝑖𝑗 , 𝑚𝑦 = 𝛼0,1 = ∑𝑖 ∑𝑗 𝑦𝑗 𝑝𝑖𝑗 , 2 𝐷𝑥 = 𝜇2,0 = ∑𝑖 ∑𝑗(𝑥𝑖 − 𝑚𝑥 )2 𝑝𝑖𝑗 , 𝐷𝑦 = 𝜇0,2 = ∑𝑖 ∑𝑗(𝑦𝑗 − 𝑚𝑦 ) 𝑝𝑖𝑗 , 𝐾𝑥𝑦 = 𝜇1,1 = ∑ ∑(𝑥𝑖 − 𝑚𝑥 )(𝑦𝑗 − 𝑚𝑦 ), 𝑖 𝑗 где суммирование распространяется на все возможные значения i, j. Применительно к описанию системы двух непрерывных случайных величин они принимают вид: +∞ +∞ 𝑚𝑥 = 𝛼1,0 = ∬−∞ 𝑥𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, 𝑚𝑦 = 𝛼0,1 = ∬−∞ 𝑦𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, +∞ +∞ 2 𝐷𝑥 = 𝜇2,0 = ∬−∞ (𝑥 − 𝑚𝑥 )2 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, 𝐷𝑦 = 𝜇0,2 = ∬−∞ (𝑦 − 𝑚𝑦 ) 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, +∞ 𝐾𝑥𝑦 = 𝜇1,1 = ∬ (𝑥 − 𝑚𝑥 )(𝑦 − 𝑚𝑦 )𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. −∞ Пример. Задан закон распределения двумерной дискретной случайной величины (𝑋, 𝑌): 𝒑(𝒙, 𝒚) X Y -2 3 6 -0,8 0,10 0,30 0,10 -0,5 0,15 0,25 0,10 80 Найти числовые характеристики системы: 𝑚𝑥 , 𝑚𝑦 , 𝐷𝑥 , 𝐷𝑦 , 𝐾𝑥𝑦 . Решение. 2 3 𝑚𝑥 = ∑ ∑ 𝑥𝑖 𝑝𝑖𝑗 = 𝑥1 (𝑝11 + 𝑝12 + 𝑝13 ) + 𝑥2 (𝑝21 + 𝑝22 + 𝑝23 ) = −0,8 ∙ (0,10 + 0,30 + 0,10) + 𝑖=1 𝑗=1 +(−0,5) ∙ (0,15 + 0,25 + 0,10) = −0,65; 2 3 3 2 𝑚𝑦 = ∑ ∑ 𝑦𝑗 𝑝𝑖𝑗 = ∑ ∑ 𝑦𝑗 𝑝𝑖𝑗 = = 𝑦1 (𝑝11 + 𝑝21 ) + 𝑦2 (𝑝12 + 𝑝22 ) + 𝑦3 (𝑝13 + 𝑝23 ) = 𝑖=1 𝑗=1 𝑗=1 𝑖=1 −2 ∙ (0,10 + 0,15) + 3 ∙ (0,30 + 0,25) + 6 ∙ (0,10 + 0.10) = 2,35; 3 2 𝐷𝑥 = ∑ ∑(𝑥𝑖 − 𝑚𝑥 )2 𝑝𝑖𝑗 = (𝑥1 − 𝑚𝑥 )2 (𝑝11 + 𝑝12 + 𝑝13 ) + (𝑥2 − 𝑚𝑥 )2 (𝑝21 + 𝑝22 + 𝑝23 ) = 𝑖=1 𝑗=1 = (−0,8 + 0,65)2 (0,10 + 0,30 + 0,10) + (−0,5 + 0,65)2 (0,15 + 0,25 + 0,10)=0,025; 3 2 2 2 2 2 𝐷𝑦 = ∑ ∑(𝑦𝑗 − 𝑚𝑦 ) 𝑝𝑖𝑗 = (𝑦1 − 𝑚𝑦 ) (𝑝11 + 𝑝21 ) + (𝑦2 − 𝑚𝑦 ) (𝑝12 + 𝑝22 ) + (𝑦3 − 𝑚𝑦 ) (𝑝13 + 𝑝23 ) = 𝑗=1 𝑖=1 = (−2 − 2,35)2 (0,10 + 0,15) + (3 − 2,35)2 (0,30 + 0,25) + (6 − 2,35)2 (0,10 + 0.10) ≈ 7,63; 2 3 𝐾𝑥𝑦 = ∑ ∑(𝑥𝑖 − 𝑚𝑥 )(𝑦𝑗 − 𝑚𝑦 )𝑝𝑖𝑗 = (𝑥1 − 𝑚𝑥 )(𝑦1 − 𝑚𝑦 )𝑝11 + (𝑥1 − 𝑚𝑥 )(𝑦2 − 𝑚𝑦 )𝑝12 + 𝑖=1 𝑗=1 +(𝑥1 − 𝑚𝑥 )(𝑦3 − 𝑚𝑦 )𝑝13 + (𝑥2 − 𝑚𝑥 )(𝑦1 − 𝑚𝑦 )𝑝21+(𝑥2 − 𝑚𝑥 )(𝑦2 − 𝑚𝑦 )𝑝22 + (𝑥2 − 𝑚𝑥 )(𝑦3 − 𝑚𝑦 )𝑝23 = =(−0,8 + 0,65)(−2 − 2,35) ∙ 0,1 + (−0,8 + 0,65)(3 − 2,35) ∙ 0,3 + (−0,8 + 0,65)(6 − 2,35) ∙ 0,1 + +(−0,5 + 0,65)(−2 − 2,35) ∙ 0,15 + (−0,5 + 0,65)(3 − 2,35) ∙ 0,25 + (−0,5 + 0,65)(6 − 2,35) ∙ 0,1 ≈ ≈ −0,037. Выше уже говорилось, что корреляционный момент есть характеристика системы случайных величин, описывающая связь между случайными величинами, входящими в систему. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционный момент равен нулю. Доказательство проведем для непрерывных случайных величин. Пусть X, Y — независимые непрерывные величины с плотностью распределения f(х, у). В п. 12.4 мы доказали, что для независимых величин f (x, y) = f1 (x) ∙ f2 (y), где f1 (x) и f2 (y) — плотности распределения соответственно величин X и Y. Подставляя это выражение в формулу корреляционного момента системы непрерывных случайных величин +∞ 𝐾𝑥𝑦 = 𝜇1,1 = ∬ (𝑥 − 𝑚𝑥 )(𝑦 − 𝑚𝑦 )𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, −∞ видим, что двойной интеграл превращается в произведение двух интегралов: +∞ +∞ 𝐾𝑥𝑦 = ∫−∞ (𝑥 − 𝑚𝑥 )𝑓1 (𝑥)𝑑𝑥 ∙ ∫−∞ (𝑦 − 𝑚𝑦 )𝑓2 (𝑦)𝑑𝑦 . 81 +∞ Интеграл ∫−∞ (𝑥 − 𝑚𝑥 )𝑓1 (𝑥)𝑑𝑥 представляет собой не что иное, как первый центральный момент величины X, и, следовательно, равен нулю; по той же причине равен нулю и второй сомножитель; следовательно, для независимых случайных величин 𝐾𝑥𝑦 = 0. Таким образом, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними. Из формулы для корреляционного момента видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента 𝐾𝑥𝑦 к безразмерной характеристике 𝐾𝑥𝑦 𝑟𝑥𝑦 = , 𝜎𝑥 𝜎𝑦 где 𝜎𝑥 , 𝜎𝑦 — средние квадратичные отклонения величин X, Y. Эта характеристика называется коэффициентом корреляции величин X и Y. Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для независимых случайных величин коэффициент корреляции равен нулю. Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными. Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается — нет. Можно построить примеры таких случайных величин, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции — необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величин еще не следует их независимость. Условие независимости случайных величин — более жесткое, чем условие некоррелированности. Убедимся в этом на примере. Рассмотрим систему случайных величин (X, Y), распределенную с равномерной плотностью 𝑓(𝑥, 𝑦) = 1⁄ 2 внутри круга С радиуса r с центром в начале координат: 𝜋𝑟 Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, если величина X приняла, например, значение 0, то величина Y может с равной вероятностью принимать все значения от -r до r; если же величина X приняла значение r, то величина Y может принять только одно единственное значение, в точности равное нулю. Таким образом, диапазон возможных значений Y зависит от того, какое значение приняла X. 82 Посмотрим, являются ли эти величины коррелированными. Вычислим корреляционный момент. Имея в виду, что по соображениям симметрии 𝑚𝑥 = 𝑚𝑦 = 0, получим: 𝐾𝑥𝑦 = ∬ 𝑥𝑦𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = (𝐶) 1 ∬ 𝑥𝑦𝑑𝑥𝑑𝑦. 𝜋𝑟 2 (𝐶) Для вычисления интеграла разобьем область интегрирования (круг С) на четыре сектора C1, C2, С3, С4, соответствующие четырем координатным углам. В секторах C1 и С3 подынтегральная функция положительна, в секторах С2 и С4 — отрицательна; по абсолютной же величине интегралы по этим секторам равны; следовательно, интеграл равен нулю, и величины (X, Y) не коррелированы. Таким образом, мы видим, что из некоррелированности случайных величин не всегда следует их независимость. Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины X и Y связаны точной линейной функциональной зависимостью: Y = aX+b, то 𝑟𝑥𝑦 = ± 1, причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах: −1 < 𝑟𝑥𝑦 < 1. В случае 𝑟𝑥𝑦 > 0 говорят о положительной корреляции величин X и Y, в случае 𝑟𝑥𝑦 < 0 — об отрицательной корреляции. Положительная корреляция между случайными величинами означает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать. В рассмотренном выше примере двух случайных величин (X, Y), распределенных внутри круга с равномерной плотностью, несмотря на наличие зависимости между X и Y, линейная зависимость отсутствует; при возрастании X меняется только диапазон изменения Y, а его среднее значение не меняется; естественно, величины (X, Y) оказываются некоррелированными. Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом приближении по графику, на котором изображены в виде точек все полученные из опыта пары значений случайных величин. Например, если наблюденные пары значений величин расположились так, как показано на левом рисунке 83 то это указывает на наличие явно выраженной положительной корреляции между величинами. Еще более ярко выраженную положительную корреляцию, близкую к линейной функциональной зависимости, наблюдаем на правом рисунке. На следующем рисунке показан случай сравнительно слабой отрицательной корреляции. Наконец, проиллюстрируем случай практически некоррелированных случайных величин: На практике, перед тем как исследовать корреляцию случайных величин, всегда полезно предварительно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции. Свойства ковариации и коэффициента корреляции 1. Если случайные величины независимы, то их ковариация, а, следовательно, и коэффициент корреляции равны нулю. 2. Область значений коэффициента корреляции: −1 ≤ 𝑟𝑥𝑦 ≤ 1. 3. Если |𝑟𝑥𝑦 | = 1 то между случайными величинами существует линейная функциональная зависимость. 4. Ковариация случайных величин по абсолютной величине не превосходит произведение их средних квадратичных отклонений: 𝐾𝑥𝑦 ≤ 𝜎𝑥 𝜎𝑦 . 5. Корреляционный момент (ковариацию) можно вычислять по формуле 𝐾𝑥𝑦 = 𝑀[𝑋 ∙ 𝑌] − 𝑀[𝑋] ∙ 𝑀[𝑌]. 84 Тема 13. Функции случайных величин 13.1. Числовые характеристики функций случайных величин. Поставим следующую задачу. Имеется случайная величина X с заданным законом распределения; другая случайная величина Y связана с X функциональной зависимостью: 𝑌 = 𝜑(𝑋). Требуется, не находя закона распределения величины Y, определить ее числовые характеристики: математическое ожидание 𝑚𝑦 = 𝑀[𝜑(𝑥)] и дисперсию 𝐷𝑦 = 𝐷[𝜑(𝑥)]. Рассмотрим сначала случай, когда X есть дискретная случайная величина с рядом распределения: 𝑥𝑖 𝑥1 𝑥2 … 𝑥𝑛 𝑝𝑖 𝑝1 𝑝2 … 𝑝𝑛 Выпишем возможные значения величины Y и вероятности этих значений 𝑦𝑖 = 𝜑(𝑥𝑖 ) 𝜑(𝑥1 ) … 𝜑(𝑥2 ) 𝜑(𝑥𝑛 ) … 𝑝𝑖 𝑝1 𝑝2 𝑝𝑛 Таблица не является в строгом смысле слова рядом распределения случайной величины Y, так как в общем случае некоторые из значений 𝜑(𝑥1 ), 𝜑(𝑥2 ), … , 𝜑(𝑥𝑛 ) могут совпадать между собой; к тому же эти значения в верхней строке таблицы не обязательно идут в возрастающем порядке. Для того чтобы перейти к подлинному ряду распределения величины Y, нужно было бы расположить значения 𝜑(𝑥1 ), 𝜑(𝑥2 ), … , 𝜑(𝑥𝑛 ) в порядке возрастания, объединить столбцы, с равными между собой значениями Y, и сложить соответствующие вероятности. Но в данном случае нас не интересует закон распределения величины Y как таковой; для наших целей — определения числовых характеристик — достаточно такой «неупорядоченной» формы ряда распределения. Математическое ожидание и дисперсия случайной величины Y= 𝜑(𝑥) можно определить по формулам: 2 𝑚𝑦 = 𝑀[𝜑(𝑥)] = ∑𝑛𝑖=1 𝜑(𝑥𝑖 ) 𝑝𝑖 , 𝐷𝑦 = 𝐷[𝜑(𝑥)] = ∑𝑛𝑖=1[𝜑(𝑥𝑖 ) − 𝑚𝑦 ] 𝑝𝑖 . Очевидно, что 𝑚𝑦 и 𝐷𝑦 не могут измениться от того, что под знаком суммы некоторые слагаемые будут объединены заранее, а порядок слагаемых изменен. В выражениях для 𝑚𝑦 и 𝐷𝑦 не содержится в явном виде закон распределения самой функции 𝑌 = 𝜑(𝑥), а содержится только закон распределения аргумента 𝑥. Таким образом, для определения математического ожидания и дисперсии функции вовсе не требуется знать закон распределения этой функции, а достаточно знать закон распределения аргумента. Заменяя в формулах для 𝑚𝑦 и 𝐷𝑦 сумму интегралом, а вероятность pi — элементом вероятности 𝑓(𝑥)𝑑𝑥, получим аналогичные формулы для числовых характеристик функции 𝑦 = 𝜑(𝑥) непрерывной случайной величины 𝑥: +∞ +∞ 2 𝑚𝑦 = 𝑀[𝜑(𝑥)] = ∫−∞ 𝜑(𝑥)𝑓(𝑥)𝑑𝑥, 𝐷𝑦 = 𝐷[𝜑(𝑥)] =∫−∞ [𝜑(𝑥) − 𝑚𝑦 ] 𝑓(𝑥)𝑑𝑥, где f(x) — плотность распределения величины X. Заметим, что часто при вычислении дисперсии бывает удобно выражать ее через начальный и центральный моменты второго порядка: 85 +∞ 𝐷𝑦 = 𝐷[𝜑(𝑥)] = ∫ [𝜑(𝑥)]2 𝑓(𝑥)𝑑𝑥 − 𝑚𝑦2 −∞ Пример. Ряд распределения для X имеет вид: 𝑥𝑖 0 1 2 3 𝑝𝑖 0,1 0,2 0,3 0,4 Найдем закон распределения функции Y = X 2 - 2X. Решение. Составляем таблицу соответствующих значений Y: 𝑦𝑖 = 𝑥𝑖2 − 2𝑥𝑖 0 −1 0 3 𝑝𝑖 0,1 0,2 0,3 0,4 Тогда 𝑚𝑦 = ∑4𝑖=1 𝑦𝑖 𝑝𝑖 = 0 ∙ 0,1 + (−1) ∙ 0,2 + 0 ∙ 0,3 + 3 ∙ 0,4 = 1,0; 4 𝐷𝑦 = ∑ 2 (𝑦𝑖 − 𝑚𝑦 ) 𝑝𝑖 = (0 − 1)2 ∙ 0,1 + (−1 − 1)2 ∙ 0,2 + (0 − 1)2 ∙ 0,3 + (3 − 1)2 ∙ 0,4 = 2,8. 𝑖=1 Можно было сначала преобразовать таблицу значений Y в ряд распределения Y, объединив первый и третий столбцы таблицы: 𝑦𝑖 = 𝑥𝑖2 − 2𝑥𝑖 −1 0 3 𝑝𝑖 0,2 0,4 0,4 Действительно, так как Y=0 либо когда X=0, либо когда X=2, следовательно, 𝑃(𝑌 = 0) = 𝑃(𝑋 = 0) + 𝑃(𝑋 = 2) = 0,1 + 0,3 = 0,4. Полученная таблица, в отличие от предыдущей, является рядом распределения случайной величины Y в строгом смысле, поскольку значения Y в верхней строке таблицы уже не повторяются и, кроме того, выстроены в возрастающем порядке. Нетрудно убедиться, что числовые характеристики 𝑚𝑦 и 𝐷𝑦 , рассчитанные по ряду распределения Y будут иметь те же значения. Пример. На плоскости задан отрезок длины 𝑙 = 3, вращающийся случайным образом так, что все направления его одинаково вероятны. Отрезок проектируется на неподвижную ось АВ. Определить среднее значение длины проекции отрезка. 86 Решение. Длина проекции равна: Y = 𝑙 ∙ | cos 𝛼|, где угол 𝛼 — случайная величина, распределенная с равномерной плотностью на участке [0; 2𝜋] По формуле математического ожидания функции непрерывной случайной величины имеем: 𝜋 2𝜋 1 2𝑙 ⁄2 2𝑙 𝑚𝑦 = 𝑀[𝑙 ∙ cos 𝛼] = ∫ 𝑙 ∙ | cos 𝛼| ∙ 𝑑𝛼 = ∫ cos 𝛼𝑑𝛼 = ≈ 1,91. 2𝜋 𝜋 0 𝜋 0 Если задана функция от двух дискретных случайных аргументов: 𝑍 = 𝜑(𝑋, 𝑌), то математическое ожидание и дисперсия дискретной случайной величины Z вычисляются по формулам: 2 𝑚𝑧 = 𝑀[𝜑(𝑋, 𝑌)] = ∑𝑖 ∑𝑗 𝜑(𝑥𝑖 , 𝑦𝑗 )𝑝𝑖𝑗 ; 𝐷𝑧 = 𝐷[𝜑(𝑋, 𝑌)] = ∑𝑖 ∑𝑗[𝜑(𝑥𝑖 , 𝑦𝑗 ) − 𝑚𝑧 ] 𝑝𝑖𝑗 , где 𝑝𝑖𝑗 = 𝑃[(𝑋 = 𝑥𝑖 ), (𝑌 = 𝑦𝑗 )] − вероятность того , что система (𝑋, 𝑌) примет значения (𝑥𝑖 , 𝑦𝑗 ). Для функции 𝑍 = 𝜑(𝑋, 𝑌) непрерывных случайных величин X и Y математическое ожидание и дисперсия непрерывной случайной величины Z вычисляются по формулам: +∞ +∞ 𝑚𝑧 = 𝑀[𝜑(𝑋, 𝑌)] = ∬−∞ 𝜑(𝑥, 𝑦)𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 ; 𝐷𝑧 = 𝐷[𝜑(𝑋, 𝑌)] = ∫−∞ [𝜑(𝑥, 𝑦) − 𝑚𝑧 ]2 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. Существует и другой способ вычисления дисперсии функции двух случайных аргументов: +∞ 𝐷𝑧 = 𝐷[𝜑(𝑋, 𝑌)] = ∫ [𝜑(𝑥, 𝑦)]2 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 − 𝑚𝑧2 . −∞ Эти формулы нетрудно распространить на функции произвольного числа случайных аргументов 𝑍 = 𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 ): ∞ ∞ 𝑚𝑧 = 𝑀[𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 )] = ∫ … ∫ 𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 )𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑑𝑥1 𝑑𝑥2 … 𝑑𝑥𝑛 ; −∞ ∞ −∞ ∞ 𝐷𝑧 = 𝐷[𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 )] = ∫ … ∫ [𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) − 𝑚𝑧 ]2 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑑𝑥1 𝑑𝑥2 … 𝑑𝑥𝑛 или −∞ −∞ ∞ ∞ 𝐷𝑧 = 𝐷[𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 )] = ∫ … ∫ [𝜑(𝑥1 , 𝑥2 , … , 𝑥𝑛 )]2 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑑𝑥1 𝑑𝑥2 … 𝑑𝑥𝑛 − 𝑚𝑧2 . −∞ −∞ Пример. Задан закон распределения двумерной дискретной случайной величины (𝑋, 𝑌): 𝒑(𝒙, 𝒚) X Y -2 3 6 -0,8 0,10 0,30 0,10 -0,5 0,15 0,25 0,10 87 Найти числовые характеристики функции 𝑍 = 2𝑋 − 𝑌: 𝑚𝑧 , 𝐷𝑧 . Решение. 2 3 2 3 𝑚𝑧 = 𝑀[2𝑋 − 𝑌] = ∑ ∑ 𝑍𝑖𝑗 𝑝𝑖𝑗 = ∑ ∑(2𝑥𝑖 − 𝑦𝑗 )𝑝𝑖𝑗 = (2𝑥1 − 𝑦1 )𝑝11 + (2𝑥1 − 𝑦2 )𝑝12 + 𝑖=1 𝑗=1 𝑖=1 𝑗=1 +(2𝑥1 − 𝑦3 )𝑝13 + (2𝑥2 − 𝑦1 )𝑝21 + (2𝑥2 − 𝑦2 )𝑝22 + (2𝑥2 − 𝑦3 )𝑝23 = (2∙ (−0,8) − (−2)) ∙ 0,1 + +(2∙ (−0,8) − 3) ∙ 0,3 +(2∙ (−0,8) − 6) ∙ 0,1 + (2 ∙ (−0,5) − (−0,2)) ∙ 0,15 + (2 ∙ (−0,5) − 3) ∙ 0,25 + +(2 ∙ (−0,5) − 6) ∙ 0,1 = 0,04−1,38 − 0,76 − 0,12 − 1 − 0,7 = −3,92. 2 3 2 3 𝐷𝑧 = 𝐷[2𝑋 − 𝑌] = ∑ ∑(𝑍𝑖𝑗 − 𝑚𝑧 )2 𝑝𝑖𝑗 = ∑ ∑ = (2𝑥𝑖 − 𝑦𝑗 − 𝑚𝑧 )2 𝑝𝑖𝑗 = (2𝑥1 − 𝑦1 − 𝑚𝑧 )2 𝑝11 + 𝑖=1 𝑗=1 𝑖=1 𝑗=1 +(2𝑥1 − 𝑦2 − 𝑚𝑧 )2 𝑝12 + (2𝑥1 − 𝑦3 − 𝑚𝑧 )2 𝑝13 + (2𝑥2 − 𝑦1 − 𝑚𝑧 )2 𝑝21 +(2𝑥2 − 𝑦2 − 𝑚𝑧 )2 𝑝22 + +(2𝑥2 − 𝑦3 − 𝑚𝑧 )2 𝑝23 = (2 ∙ (−0,8) − (−2))2 ∙ 0,1 + (2 ∙ (−0,8) − 3)2 ∙ 0,3 + (2 ∙ (−0,8) − 6)2 ∙ 0,1 + +(2 ∙ (−0,5) − (−2))2 ∙ 0,15 + (2 ∙ (−0,5) − 3)2 ∙ 0,25+(2 ∙ (−0,5) − 6)2 ∙ 0,1 =21,19. 13.2. Теоремы о числовых характеристиках функций случайных величин. В п. 13.1 мы привели ряд формул, позволяющих находить числовые характеристики функций, когда известны законы распределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще можем обойтись без каких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам аргументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако некоторые элементарные нелинейные функции также допускают подобный подход. В настоящем параграфе мы изложим ряд теорем о числовых характеристиках функций, широко применимый в практических приложениях. Свойства математического ожидания 1. Математическое ожидание постоянной случайной величины равно самой постоянной, т.е. М (С)=С, где С – некоторое число. (Постоянной случайной величиной С называется такая случайная величина, которая принимает единственное значение равное С с вероятностью 1.) 2. Постоянный множитель можно выносить за знак математического ожидания, т.е. M (X ) M ( X ), где α − произвольное число. 88 3. Математическое ожидание суммы двух независимых случайных величин равно сумме математических ожиданий этих случайных величин, т.е. M ( X Y ) M ( X ) M (Y ). 4. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий, т.е. M ( XY ) M ( X )M (Y ). 5. Математическое ожидание произведения двух зависимых случайных величин равно произведению математических ожиданий этих случайных величин плюс корреляционный момент 𝑀(𝑋𝑌) = 𝑀(𝑋)𝑀(𝑌) + 𝐾𝑥𝑦 , 6. Пусть X1 , X 2 , … , X n – такие случайные величины, математические ожидания которых равны между собой, т.е. M(X i ) = a, где i = 1, 2, … , n и а – некоторое число. Тогда среднее арифметическое этих случайных величин равно их общему математическому ожиданию, т.е. X X 2 ... X M 1 n n a. Свойства дисперсии 1. Дисперсия постоянной случайной величины равна нулю, т.е. D (C ) 0. 2. Постоянный множитель можно выносить за знак дисперсии, возводя его при этом в квадрат, т.е. D (X ) 2 D ( X ), где ∝ – произвольное число. 3. Справедливо равенство: D (X ) M (X 2 ) M 2 (X ). 4. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих случайных величин D ( X Y ) D ( X ) D (Y ), 5. Дисперсия суммы двух зависимых случайных величин равна сумме дисперсий этих случайных величин плюс удвоенный корреляционный момент 𝐷(𝑋 + 𝑌) = 𝐷(𝑋) + 𝐷(𝑌) + 2𝐾𝑥𝑦 , 6. Дисперсия произведения двух независимых случайных величин определяется по формуле 𝐷(𝑋𝑌) = 𝐷(𝑋)𝐷(𝑌) + 𝑚𝑥2 𝐷(𝑌) + 𝑚𝑦2 𝐷(𝑋), 7. Пусть случайные величины X1 , X 2 , … , X n – независимы и D[X i ] = σ2 , где i = 1, 2, … , n Тогда X X 2 ... X D 1 n n 2 . n 89 Заметим, что перечисленные свойства математического ожидания и дисперсии справедливы как для дискретных, так и для непрерывных случайных величин. Некоторые из вышеперечисленных свойств уже рассматривались в пп.7.1 и 7.2. Доказательство их легко можно провести, опираясь на понятие числовых характеристик функций случайных величин. Пример. Пусть случайная величина 𝑋 = 𝑚 – распределена по биномиальному закону с параметрами n и p , тогда параметры ее распределения могут быть найдены по формулам. Известно (п. 8.1), что для биномиального распределения: M ( m ) np , D ( m ) npq . Тогда из свойств математического ожидания и дисперсии следует: m M n p, m D n pq . n Очевидно, что использование этих свойств упрощает и ускоряет вычисление математического ожидания и дисперсии случайной величины, распределенной по биномиальному закону по сравнению с применением исходных определений для М (Х) и 𝐷(𝑋). Пример. Математическое ожидание числа появлений события при нескольких опытах. Производится п опытов, в каждом из которых может появиться или не появиться некоторое событие 𝐴. Вероятность появления события 𝐴 в i-м опыте равна 𝑝𝑖 . Найти математическое ожидание 𝑚𝑥 , дисперсию 𝐷𝑥 и среднее квадратичное отклонение 𝜎𝑥 случайной величины 𝑋 − числа появлений события 𝐴 в n опытах. Решение. Представим дискретную случайную величину X в виде 𝑛 𝑋 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = ∑ 𝑋𝑖 𝑖=1 где 𝑋1 — число появлений события в первом опыте, 𝑋2 — число появлений события во втором опыте, …………………………………………………….. 𝑋𝑛 — число появлений события в n-м опыте. Причем каждая из величин 𝑋𝑖 есть дискретная случайная величина с двумя возможными значениями: 0 или 1. Ряд распределения величины 𝑋𝑖 имеет вид: 0 1 𝑞𝑖 𝑝𝑖 где 𝑞𝑖 = 1 − 𝑝𝑖 вероятность того, что событие 𝐴 в i-м опыте не появится. По теореме сложения математических ожиданий: 𝑚𝑥 = 𝑀[X] = 𝑀[𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ] = 𝑀[𝑋1 ] + 𝑀[𝑋2 ] + ⋯ + 𝑀[𝑋𝑛 ] = ∑𝑛𝑖=1 𝑀[𝑋𝑖 ]. Найдем математическое ожидание 𝑀[𝑋𝑖 ] дискретной случайной величины 𝑋𝑖 , заданной ее рядом распределения: 𝑀[𝑋𝑖 ] = 0 ∙ 𝑞𝑖 + 1 ∙ 𝑝𝑖 = 𝑝𝑖 . Подставляя это выражение в предыдущую формулу, имеем 90 𝑛 𝑚𝑥 = 𝑀[X] = ∑ 𝑝𝑖 , 𝑖=1 т. е. математическое ожидание числа появлений события при нескольких опытах равно сумме вероятностей события в отдельных опытах. В частности, когда условия опытов одинаковы, т.е. 𝑝1 = 𝑝2 = ⋯ = 𝑝𝑛 = 𝑝, формула математического ожидания принимает вид 𝑚𝑥 = 𝑀[X] = 𝑛𝑝. Так как теорема сложения математических ожиданий применима к любым случайным величинам — как зависимым, так и независимым, полученные формулы математического ожидания применимы к любым опытам — зависимым и независимым. Дисперсию и среднее квадратичное отклонение числа появлений события в n опытах будем искать исходя из предположения о независимости опытов. В силу независимости опытов случайные величины 𝑋1 , 𝑋2 , … , 𝑋𝑛 независимы и к ним применима теорема сложения дисперсий: 𝐷𝑥 = 𝐷[X] = 𝐷[𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ] = 𝐷[𝑋1 ] + 𝐷[𝑋2 ] + ⋯ + 𝐷[𝑋𝑛 ] = ∑𝑛𝑖=1 𝐷[𝑋𝑖 ]. Найдем дисперсию 𝐷[𝑋𝑖 ] дискретной случайной величины 𝑋𝑖 , заданной ее рядом распределения: 𝐷[𝑋𝑖 ] = (0 − 𝑝𝑖 )2 ∙ 𝑞𝑖 + (1 − 𝑝𝑖 )2 ∙ 𝑝𝑖 = 𝑝𝑖 𝑞𝑖 . Подставляя это выражение в предыдущую формулу, имеем 𝑛 𝐷𝑥 = 𝐷[X] = ∑ 𝑝𝑖 𝑞𝑖 , 𝑖=1 т. е. дисперсия числа появлений события при нескольких опытах равно сумме вероятностей появления и непоявления события в отдельных опытах. Из этой формулы находим среднее квадратичное отклонение числа появлений события 𝐴: 𝑛 𝜎𝑥 = √∑ 𝑝𝑖 𝑞𝑖 . 𝑖=1 При неизменных условиях опытов, когда 𝑝1 = 𝑝2 = ⋯ = 𝑝𝑛 = 𝑝 (схема Бернулли п.5.1) формулы дисперсии и среднего квадратичного отклонения упрощаются и принимают вид: 𝐷𝑥 = 𝐷[X]= 𝑛𝑝𝑞, 𝜎𝑥 = √𝑛𝑝𝑞, что соответствует числовым характеристикам, полученным в п.8.1 для биномиального распределения. 91 13.3. Законы распределения функций случайных величин. 13.3.1. Закон распределения функции одного случайного аргумента. В предыдущих параграфах мы познакомились с методами определения числовых характеристик функций случайных величин; главное удобство этих методов в том, что они не требуют нахождения законов распределения функций. Однако иногда возникает необходимость в определении не только числовых характеристик, но и законов распределения функций. Задача о нахождении закона распределения функции одного дискретного случайного аргумента по известному закону распределения самого аргумента уже рассматривалась в п.13.1. Рассмотрим теперь задачу о нахождении закона распределения функции одного непрерывного случайного аргумента. Постановка задачи. Пусть имеется непрерывная случайная величина X с заданной плотностью распределения f(x). Другая случайная величина Y связана с нею известной функциональной зависимостью: 𝑌 = 𝜑(𝑋), Предполагаем, что функция 𝜑(𝑋) непрерывна и дифференцируема. Требуется найти плотность распределения 𝑔(𝑦) случайной величины Y. Рассмотрим участок оси абсцисс (а, b), на котором лежат все возможные значения величины X, т. е. 𝑃(𝑎 < 𝑋 < 𝑏) = 1. В частном случае, когда область возможных значений X ничем не ограничена, 𝑎 = −∞, 𝑏 = ∞. Способ решения поставленной задачи зависит от поведения функции 𝜑(𝑋)на участке (а, b), возрастает ли она на этом участке или убывает, или колеблется. 1. Функция 𝒀 = 𝝋(𝑿) на участке (а, b) монотонно возрастает или убывает. Пусть функция 𝑌 = 𝜑(𝑋) на участке (а, b) монотонно возрастает: Для того чтобы определить плотность распределения g (у) случайной величины Y, найдем сначала функцию распределения величины Y: 𝐺(𝑦) = 𝑃(𝑌 < 𝑦). Проведем прямую AB, параллельную оси абсцисс, на расстоянии y от нее. Чтобы выполнялось условие Y < у, случайная точка (X, Y) должна попасть на тот участок кривой, который лежит ниже прямой АВ; для этого необходимо и достаточно, чтобы случайная величина X попала на участок оси абсцисс от а до х, где х — абсцисса точки пересечения кривой y = 𝜑(𝑥) и прямой АВ. Следовательно, 𝑥 𝐺(𝑦) = 𝑃(𝑌 < 𝑦) = 𝑃(𝑎 < 𝑋 < 𝑥) = ∫𝑎 𝑓(𝑥)𝑑𝑥, 92 где 𝑓(𝑥) − плотность распределения случайной величины X. Верхний предел х интеграла можно выразить через y: 𝑥 = 𝜓(𝑦), где 𝜓 — функция, обратная функции 𝜑. Тогда 𝜓(𝑦) 𝐺(𝑦) = ∫𝑎 𝑓(𝑥)𝑑𝑥 , Дифференцируя интеграл по переменной у, входящей в верхний предел, получим: 𝑔(𝑦) = 𝐺 ′ (𝑦) = 𝑓(𝜓(𝑦))𝜓 ′ (𝑦). Аналогично можно показать, что, если функция 𝑌 = 𝜑(𝑋) на участке (а, b) монотонно убывает, то 𝑔(𝑦) = −𝑓(𝜓(𝑦))𝜓 ′ (𝑦). Объединяем две полученные формулы в одну и получаем выражение для плотности распределения, в случае, когда функция случайного аргумента монотонна 𝑔(𝑦) = 𝑓(𝜓(𝑦)) ∙ |𝜓 ′ (𝑦)|. Пример. Случайная величина X подчинена закону с плотностью распределения: 𝑓(𝑥) = 1 . 𝜋(1 + 𝑥 2 ) Величина Y связана с X зависимостью Y = 1 − 𝑋. Найти плотность распределения 𝑔(𝑦) величины Y. Решение. Так как функция 𝑦 = 1 − 𝑥 монотонна на участке от −∞ до + ∞, то можно применить формулу 𝑔(𝑦) = 𝑓(𝜓(𝑦)) ∙ |𝜓 ′ (𝑦)|. 1 По условию 𝑦 = 𝜑(𝑥) = 1 − 𝑥. Тогда 𝑥 = 𝜓(𝑦) = 1 − 𝑦; 𝜓 ′ (𝑦) = −1; 𝑓(𝜓(𝑦)) = 𝜋(1+(1−𝑦)2 ). 1 1 Тогда 𝑔(𝑦) = 𝑓(𝜓(𝑦)) ∙ |𝜓 ′ (𝑦)| = 𝜋(1+(1−𝑦)2 ) ∙ |−1| = 𝜋(𝑦2 −2𝑦+2). Пример. Случайная величина X подчинена нормальному закону с плотностью распределения: 𝑓(𝑥) = 1 𝜎𝑥 √2𝜋 𝑒𝑥𝑝 (− (𝑥 − 𝑚𝑥 )2 2𝜎𝑥2 ), а случайная величина Y связана с ней линейной функциональной зависимостью: 𝑌 = 𝑎𝑋 + 𝑏, где a и b – неслучайные коэффициенты. Требуется найти закон распределения случайной величины Y. 93 Решение. Так как функция 𝑦 = 𝑎𝑥 + 𝑏 монотонна на участке от −∞ до + ∞, то можно применить формулу 𝑔(𝑦) = 𝑓(𝜓(𝑦)) ∙ |𝜓 ′ (𝑦)|. В нашем случае: 𝑦 = 𝜑(𝑥) = 𝑎𝑥 + 𝑏; 𝑥 = ψ(𝑦) = 𝑦−𝑏 ; 𝑎 1 𝑎 𝜓 ′ (𝑦) = ; |𝜓 ′ (𝑦)| = 1 ; |𝑎| Тогда 𝑔(𝑦) = 𝑓(𝜓(𝑦)) ∙ |𝜓 ′ (𝑦)| = 1 𝜎𝑥 √2𝜋 или окончательно 𝑔(𝑦) = 1 |𝑎|𝜎𝑥 √2𝜋 𝑒𝑥𝑝 (− 𝑒𝑥𝑝 − 2 𝑦−𝑏 ( 𝑎 − 𝑚𝑥 ) ∙ 2𝜎𝑥2 ( 1 |𝑎| ) [𝑦 − (𝑎𝑚𝑥 + 𝑏)]2 )∙ 2|𝑎|2 𝜎𝑥2 Полученный закон есть не что иное, как нормальный закон распределения с параметрами: 𝑚𝑦 = 𝑎𝑚𝑥 + 𝑏, 𝜎𝑦 = |𝑎| ∙ 𝜎𝑥 . Таким образом, на этом примере мы убедились, что линейная функция от аргумента, подчиненного нормальному закону, также подчинена нормальному закону. Чтобы найти центр рассеивания этого закона, нужно в выражение линейной функции вместо аргумента подставить его центр рассеивания. Чтобы найти среднее квадратичное отклонение этого закона, нужно среднее квадратичное отклонение аргумента умножить на модуль коэффициента при аргументе в выражении линейной функции. 2. Функция 𝒀 = 𝝋(𝑿) на участке (а, b) не является монотонной. Имеется непрерывная случайная величина X с плотностью распределения f(x); другая величина Y связана с X функциональной зависимостью: 𝑌 = 𝜑(𝑋), причем функция y= 𝜑(𝑥), на участке (а, b) возможных значений аргумента не монотонна: Найдем интегральную функцию распределения 𝐺(𝑦) случайной величины Y. Для этого проведем прямую AB, параллельно оси абсцисс, на расстоянии y от нее. Выделим те участки кривой 𝑦 = 𝜑(𝑥), для которых выполняется условие Y < у. Пусть этим участкам соответствуют участки оси абсцисс: ∆1 (𝑦), ∆2 (𝑦), … . Событие Y < у равносильно попаданию случайной величины X на один из участков ∆1 (𝑦), ∆2 (𝑦), … — безразлично, на какой именно. Поэтому 94 𝐺(𝑦) = 𝑃(𝑌 < 𝑦) = 𝑃(𝑋 ⊂ ∆1 (𝑦)) + 𝑃(𝑋 ⊂ ∆1 (𝑦)) + ⋯ = ∑ 𝑃(𝑋 ⊂ ∆𝑖 (𝑦)) = ∑ ∫ 𝑓(𝑥)𝑑𝑥. 𝑖 𝑖 ∆𝑖 (𝑦) Таким образом, для функции распределения величины 𝑌 = 𝜑(𝑋) имеем формулу: 𝐺(𝑦) = ∑ ∫ 𝑓(𝑥)𝑑𝑥. 𝑖 ∆𝑖 (𝑦) Границы интервалов ∆𝑖 (𝑦) зависят от y и при заданном конкретном виде функции 𝑦 = 𝜑(𝑥) могут быть выражены как явные функции y. Дифференцируя G(y) по величине y, входящей в пределы интегралов, получим плотность распределения величины Y: 𝑔(𝑦) = 𝐺 ′ (𝑦). 𝜋 𝜋 Пример. Величина X подчинена закону равномерной плотности на участке от − 2 до + 2 : 1 𝜋 при |𝑥| < 2 𝑓(𝑥) = {𝜋 𝜋 0 при |𝑥| > 2 Найти закон распределения 𝑔(𝑦) величины 𝑌 = cos 𝑋 Решение. Строим график функции 𝑦 = cos 𝑥: 𝜋 2 𝜋 2 Очевидно 𝑎 = − , 𝑏 = + , и в интервале (𝑎, 𝑏) функция 𝑦 = cos 𝑥 немонотонна. Применяя формулу 𝐺(𝑦) = ∑ ∫ 𝑓(𝑥)𝑑𝑥. 𝑖 ∆𝑖 (𝑦) имеем 𝜋⁄ 2 𝑥1 𝐺(𝑦) = ∫ 𝑓(𝑥)𝑑𝑥 + ∫ 𝑓(𝑥)𝑑𝑥. −𝜋⁄2 𝑥2 Выразим пределы 𝑥1 и 𝑥2 через y: 𝑥1 = − arccos 𝑦; 𝑥2 = arccos 𝑦. Отсюда 𝜋⁄ 2 − arccos 𝑦 𝐺(𝑦) = ∫ −𝜋⁄2 𝑓(𝑥)𝑑𝑥 + ∫ arccos 𝑦 𝑓(𝑥)𝑑𝑥. 95 Чтобы найти плотность 𝑔(𝑦), не будем вычислять интегралы в этой формуле, а непосредственно продифференцируем это выражение по переменной y, входящей в пределы интегралов: 𝑔(𝑦) = 𝐺 ′ (𝑦) = 𝑓(− arccos 𝑦) 1 √1 − 𝑦 2 + 𝑓(arccos 𝑦) 1 √1 − 𝑦 2 . 1 Имея в виду, что 𝑓(𝑥) = 𝜋, получим: 𝑔(𝑦) = 2 1 . 𝜋 √1 − 𝑦 2 Указывая для Y закон распределения, следует оговорить, что в нашем случае он действителен лишь в пределах от 0 до 1, т.е. в тех пределах, в которых меняется 𝑌 = cos 𝑋 при аргументе X, 𝜋 𝜋 заключенном между − 2 и 2 . Вне этих пределов плотность g(y) равна нулю. Ниже представлен график функции g (у). При y = 1 кривая 𝑔(𝑦) имеет ветвь, уходящую на бесконечность. 13.3.2. Закон распределения функции двух случайных аргументов. Определение. Если каждой паре возможных значений случайных величин X и Y соответствует одно возможное значение случайной величины Z , то Z называют функцией двух случайных аргументов X и Y: Z = 𝜑(𝑋, 𝑌). Начнем с рассмотрения дискретных случайных величин X и Y. Если X и Y – дискретные независимые случайные величины, то для определения закона распределения Z= 𝜑(𝑋, 𝑌) нужно найти все возможные значения Z и соответствующие им вероятности. На основании полученных данных строится ряд распределения дискретной случайной величины Z. Пример. Дискретные независимые случайные величины X и Y заданы законами распределения: X pi -2 0,3 1 0,4 3 0,3 Y pj 0 0,2 1 0,5 2 0,3 96 Требуется найти закон распределения дискретной случайной величины Z = X+Y. Решение. Найдем возможные значения Z: 𝑧11 = 𝑥1 + 𝑦1 = −2 + 0 = −2; 𝑝11 = 0,3 ∙ 0,2 = 0,06; 𝑧12 = 𝑥1 + 𝑦2 = −2 + 1 = −1; 𝑝12 = 0,3 ∙ 0,5 = 0,15; 𝑧13 = 𝑥1 + 𝑦3 = −2 + 2 = 0; 𝑝13 = 0,3 ∙ 0,3 = 0,09; 𝑧21 = 𝑥2 + 𝑦1 = 1 + 0 = 1; 𝑝21 = 0,4 ∙ 0,2 = 0,08; 𝑧22 = 𝑥2 + 𝑦2 = 1 + 1 = 2; 𝑝22 = 0,4 ∙ 0,5 = 0,20; 𝑧23 = 𝑥2 + 𝑦3 = 1 + 2 = 3; 𝑝23 = 0,4 ∙ 0,3 = 0,12; 𝑧31 = 𝑥3 + 𝑦1 = 3 + 0 = 3; 𝑝31 = 0,3 ∙ 0,2 = 0,06; 𝑧32 = 𝑥3 + 𝑦2 = 3 + 1 = 4; 𝑝32 = 0,3 ∙ 0,5 = 0,15; 𝑧33 = 𝑥3 + 𝑦3 = 3 + 2 = 5; 𝑝33 = 0,3 ∙ 0,3 = 0,09; Сложив вероятности повторившегося дважды значения Z = 3, составим ряд распределения для Z: Z p -2 0,06 -1 0 0,15 0,09 1 0,08 2 0,2 3 4 5 0,18 0,15 0,09 Перейдем к вопросу о нахождении законов распределения функций двух непрерывных случайных величин. Постановка задачи. Имеется система двух непрерывных случайных величин (X, Y) с плотностью распределения f (x, у). Случайная величина Z связана с X и Y функциональной зависимостью: Z = 𝜑(𝑋, 𝑌). Требуется найти закон распределения величины Z. Для решения задачи воспользуемся геометрической интерпретацией, аналогичной той, которую мы применяли в случае одного непрерывного аргумента. Функция z = 𝜑(𝑥, 𝑦) изобразится уже не кривой, а поверхностью: Найдем интегральную функцию распределения величины Z: 𝐺(𝑧) = 𝑃(𝑍 < 𝑧) = 𝑃(𝜑(𝑥, 𝑦) < 𝑧). Проведем плоскость Q, параллельную плоскости 𝑥𝑂𝑦, на расстоянии 𝑧 от нее. Эта плоскость пересечет поверхность 𝑧 = 𝜑(𝑥, 𝑦) по некоторой кривой К. Спроектируем кривую К на плоскость 𝑥𝑂𝑦. Эта проекция, уравнение которой 𝜑(𝑥, 𝑦) = 𝑧, разделит плоскость 𝑥𝑂𝑦 на две области; для одной из них высота поверхности над плоскостью 𝑥𝑂𝑦 будет меньше, а для другой — больше z. Обозначим через D ту 97 область, для которой эта высота меньше 𝑧. Чтобы выполнялось неравенство 𝜑(𝑥, 𝑦) < 𝑧, случайная точка (X, Y), очевидно, должна попасть в область D; следовательно, 𝐺(𝑧) = 𝑃((𝑥, 𝑦) ⊂ 𝐷) = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (𝐷) В это выражение величина 𝑧 входит неявно, через пределы интегрирования. Дифференцируя интегральную функцию распределения 𝐺(𝑧) по 𝑧, получим плотность распределения величины Z: 𝑔(𝑧) = 𝐺 ′ (𝑧). Зная конкретный вид функции 𝑧 = 𝜑(𝑥, 𝑦), можно выразить пределы интегрирования через 𝑧 и написать выражение 𝑔(𝑧) в явном виде. Для того чтобы найти закон распределения функции двух аргументов, нет необходимости каждый раз строить поверхность z = 𝜑(𝑥, 𝑦) и пересекать ее плоскостью, параллельной 𝑥𝑂𝑦. На практике достаточно построить на плоскости 𝑥𝑂𝑦 кривую, уравнение которой 𝜑(𝑥, 𝑦) = 𝑧, затем выяснить, по какую сторону этой кривой Z < 𝑧, а по какую Z > 𝑧, и интегрировать по области D, для которой Z < 𝑧. Пример. Система случайных величин (𝑋, 𝑌) задана плотностью распределения: 6𝑒 −2𝑥−3𝑦 при 𝑥 > 0 и 𝑦 > 0 𝑓(𝑥, 𝑦) = { 0 при остальных значениях 𝑥 и 𝑦 𝑌 Случайная величина Z зависит от X и Y так, что 𝑍 = 𝑋. Требуется найти плотность распределения случайной величины Z. Решение. Область интегрирования D есть пересечение области определения 𝑓(𝑥, 𝑦) и области, 𝑦 удовлетворяющей условию 𝑥 < 𝑧 или 𝑦 < 𝑧𝑥. Геометрически это означает, что область D расположена в первой четверти плоскости 𝑥𝑂𝑦 ниже прямой 𝑦 = 𝑧𝑥: y y=zx Область D x 0 Запишем выражение для интегральной функции распределения: ∞ 𝑧𝑥 ∞ 𝑧𝑥 𝐺(𝑧) = ∬(𝐷) 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫0 ∫0 6 𝑒 −2𝑥−3𝑦 dxdy =6∫0 𝑒 −2𝑥 (∫0 𝑒 −3𝑦 𝑑𝑦)𝑑𝑥. Дифференцируя интегральную функцию распределения 𝐺(𝑧) по z, получим плотность распределения случайной величины Z: 98 ∞ 𝑔(𝑧) = 𝐺 ′ (𝑧) = 6∫ 𝑒 ∞ −2𝑥 −3𝑧𝑥 𝑒 (𝑧𝑥)′𝑧 𝑑𝑥 = 6 ∫ 𝑥𝑒 −(2+3𝑧)𝑥 𝑑𝑥 = 0 0 6 . (2 + 3𝑧)2 Нетрудно убедиться, что полученная функция обладает всеми свойствами плотности распределения вероятности (п.9.1.2). 13.3.3. Закон распределения суммы двух непрерывных случайных аргументов. Композиция законов распределения. Воспользуемся изложенным выше общим методом для решения одной важной для практики частной задачи, а именно для нахождения закона распределения суммы двух непрерывных случайных величин. Имеется система двух случайных величин (X, Y) с плотностью распределения f(x, у). Рассмотрим сумму случайных величин X и Y: Z = X + Y, и найдем закон распределения величины Z. Для этого построим на плоскости 𝑥𝑂𝑦 линию, уравнение которой x+y =𝑧: Это — прямая, отсекающая на осях отрезки, равные 𝑧. Прямая x+y = 𝑧 делит плоскость 𝑥𝑂𝑦 на две части; правее и выше ее x+y > 𝑧; левее и ниже x+y < 𝑧. Область D в данном случае — левая нижняя часть плоскости 𝑥𝑂𝑦. Согласно формуле 𝐺(𝑧) = 𝑃((𝑥, 𝑦) ⊂ 𝐷) = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (𝐷) имеем: ∞ 𝑧−𝑥 ∞ 𝑧−𝑥 𝐺(𝑧) = ∫ ∫ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ [ ∫ 𝑓(𝑥, 𝑦)𝑑𝑦] 𝑑𝑥. −∞ −∞ −∞ −∞ Дифференцируя это выражение по переменной Z, входящей в верхний предел внутреннего интеграла, получим: ∞ 𝒈(𝒛) = ∫ 𝒇(𝒙, 𝒛 − 𝒙)𝒅𝒙. −∞ Это — общая формула для плотности распределения суммы двух случайных величин. 99 Из соображений симметричности задачи относительно X и У можно написать другой вариант той же формулы: ∞ 𝒈(𝒛) = ∫−∞ 𝒇(𝒛 − 𝒚, 𝒙)𝒅𝒚. Особое практическое значение имеет случай, когда складываемые случайные величины (X, Y) независимы. Тогда говорят о композиции законов распределения. Произвести композицию двух законов распределения это значит найти закон распределения суммы двух независимых случайных величин, подчиненных этим законам распределения. Выведем формулу для композиции двух законов распределения. Имеются две независимые случайные величины X и Y, подчиненные соответственно законам распределения 𝑓1 (𝑥) и 𝑓2 (𝑦); требуется произвести композицию этих законов, т. е. найти плотность распределения величины Z = X+Y. Так как величины X и Y независимы, то 𝑓(𝑥, 𝑦) = 𝑓1 (𝑥) ∙ 𝑓2 (𝑦), и формулы для нахождения 𝑔(𝑧) принимают вид: ∞ 𝒈(𝒛) = ∫−∞ 𝒇𝟏 (𝒙) ∙ 𝒇𝟐 (𝒛 − 𝒙)𝒅𝒙, ∞ 𝒈(𝒛) = ∫−∞ 𝒇𝟏 (𝒛 − 𝒚) ∙ 𝒇𝟐 (𝒚)𝒅𝒚. Будем называть их формулами свертки плотностей распределения. Для обозначения композиции законов распределения часто применяют символическую запись: 𝑔 = 𝑓1 ∗ 𝑓2 , где ∗ − символ композиции. Формулы для композиции законов распределения удобны только тогда, когда законы распределения 𝑓1 (𝑥) и 𝑓2 (𝑦) (или, по крайней мере, один из них) заданы одной формулой на всем диапазоне значений аргумента от −∞ до +∞. Если же оба закона заданы на различных участках различными уравнениями (например, два закона равномерной плотности), то удобнее пользоваться непосредственно общим методом, изложенным в п.13.3.2 для случая непрерывных случайных величин. Пример. Составить композицию нормального закона: 𝑓1 (𝑥) = 1 𝜎√2𝜋 𝑒 −− (𝑥−𝑚)2 2𝜎 2 и закона равномерной плотности: 1 𝑓2 (𝑦) = 𝛽−𝛼 при 𝛼 < 𝑦 < 𝛽. Решение. Применим формулу композиции законов распределения в виде ∞ 𝑔(𝑧) = ∫−∞ 𝑓1 (𝑧 − 𝑦) ∙ 𝑓2 (𝑦)𝑑𝑦. Получим 1 𝛽 𝑔(𝑧) = 𝛽−𝛼 ∫𝛼 (𝑧−𝑦−𝑚) 1 −− 2𝜎2 𝑒 𝜎√2𝜋 2 1 𝛽 𝑑𝑦 = 𝛽−𝛼 ∫𝛼 [𝑦−(𝑧−𝑚)] 1 −− 2𝜎2 𝑒 𝜎 √2𝜋 2 𝑑𝑦. 100 Подынтегральная функция в этом выражении есть не что иное, как нормальный закон с центром рассеивания 𝑧 −т и средним квадратичным отклонением 𝜎, а интеграл есть вероятность попадания случайной величины, подчиненной этому закону, на участок от 𝛼 до 𝛽. Следовательно, 𝑔(𝑧) = 1 𝛽 − (𝑧 − 𝑚) 𝛼 − (𝑧 − 𝑚) ) − Ф∗ ( )]. [Ф∗ ( 𝛽−𝛼 𝜎 𝜎 Графики законов 𝑓1 (𝑥), 𝑓2 (𝑥) и 𝑔(𝑧) при 𝛼 = −2, 𝛽 = 2, т = 0, 𝜎 = 1 приведены на рисунке Пример. Составить композицию двух законов равномерной плотности, заданных на одном и том же участке (0, 1): 𝑓1 (𝑥) = 1 при 0 < х < 1, 𝑓2 (𝑦) = 1 при 0 < у < 1. Решение. Так как законы 𝑓1 (𝑥) и 𝑓2 (𝑥) заданы только на определенных участках осей Ох и Оу, для решения этой задачи удобнее воспользоваться не формулами свертки плотностей распределения, а общим методом, изложенным в п. 13.3.2. Найдем интегральную функцию распределения 𝐺(𝑧) величины Z = X +Y. Рассмотрим случайную точку (X, Y) на плоскости 𝑥𝑂𝑦. Область ее возможных положений — квадрат R со стороной, равной единице: Чтобы выполнялось неравенство 𝑥 + 𝑦 < 𝑧, случайная точка (X, Y), очевидно, должна попасть в область D, следовательно, 𝐺(𝑧) = 𝑃((𝑥, 𝑦) ⊂ 𝐷) = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∬ 𝑑𝑥𝑑𝑦. (𝐷) (𝐷) где область D — часть квадрата R, лежащая левее и ниже прямой 𝑥 + 𝑦 = 𝑧. Очевидно, 101 G(z) = SD, где 𝑆 𝐷 — площадь области D. Составим выражение для площади области D при различных значениях z, пользуясь рисунками, приведенными выше: 1) при 𝑧 < 0 2) при 0 < 𝑧 <1 3) при 1 < 𝑧 < 2 4) при 𝑧 > 2 𝐺(𝑧) = 0; 2 𝐺(𝑧) = 𝑧 ⁄2 ; (2−𝑧)2 G (𝑧) = 1 − 2 ; 𝐺(𝑧) = 1. Дифференцируя эти выражения, получим выражения для плотностей распределения композиции 𝑔(𝑧): 1) при 𝑧 < 0 𝑔(𝑧)= 0; 2) при 0 < 𝑧 < 1 𝑔(𝑧) = 𝑧;. 3) при 1 < 𝑧 < 2 𝑔(𝑧)= 2 −𝑧; 4) при 𝑧 > 2 𝑔(𝑧) = 0. График закона распределения 𝑔(𝑧) имеет вид: Такой закон носит название «закона Симпсона» или «закона треугольника». Тема 14. Предельные теоремы теории вероятностей 14.1. Закон больших чисел. Центральная предельная теорема. Основными понятиями теории вероятностей являются понятия случайного события и случайной величины. При этом предсказать заранее результат испытания, в котором может появиться или не появиться то или иное событие или какое-либо определенное значение случайной величины, невозможно, так как исход испытания зависит от многих случайных причин, не поддающихся учету. Однако при неоднократном повторении испытаний наблюдаются закономерности, свойственные массовым случайным явлениям. Эти закономерности обладают свойством устойчивости. Суть этого свойства состоит в том, что конкретные особенности каждого отдельного случайного явления почти не сказываются на среднем результате большой массы подобных явлений, а характеристики случайных событий и случайных величин, наблюдаемых в испытаниях, при неограниченном увеличении числа испытаний становятся практически не случайными. В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному закону. Для практики очень важно знание условий, при выполнении которых совокупное действие очень многих случайных причин приводит к результату, почти не зависящему от случая, так как позволяет предвидеть ход явлений. Условия, при которых совокупный результат воздействия случайных факторов практически перестает быть случайным, описываются в нескольких теоремах, которые носят общее название: закон больших чисел. 102 Под законом больших чисел не следует понимать какой-то один общий закон, связанный с большими числами. Закон больших чисел - это обобщенное название нескольких теорем, из которых следует, что при неограниченном увеличении числа испытаний средние величины стремятся к некоторым постоянным. Иными словами, сущность закона больших чисел состоит в том, что при большом числе независимых опытов частота появления какого- то события близка к его вероятности. К теоремам закона больших чисел относятся теоремы Чебышева и Бернулли. Теорема Чебышева является наиболее общим законом больших чисел, теорема Бернулли - простейшим. В основе доказательства теорем, объединенных термином "закон больших чисел", лежит неравенство Чебышева, по которому устанавливается вероятность отклонения случайной величины от ее математического ожидания. Закон больших чисел играет важную роль в практических применениях теории вероятностей. Свойство случайных величин при определенных условиях вести себя практически как не случайные позволяет уверенно оперировать с этими величинами, предсказывать результаты массовых случайных явлений почти с полной определенностью. Возможности таких предсказаний в области массовых случайных явлений еще больше расширяются наличием другой группы предельных теорем, касающихся уже не предельных значений случайных величин, а предельных законов распределения. Речь идет о группе теорем, известных под названием «центральной предельной теоремы». Мы уже говорили о том, что при суммировании достаточно большого числа случайных величин закон распределения суммы неограниченно приближается к нормальному закону распределения при соблюдении некоторых условий (п.11.5). Эти условия, которые математически можно формулировать различным образом — в более или менее общем виде,— по существу сводятся к требованию, чтобы влияние на сумму отдельных слагаемых было равномерно малым, т. е. чтобы в состав суммы не входили члены, явно преобладающие над совокупностью остальных по своему влиянию на рассеивание суммы. Различные формы центральной предельной теоремы различаются между собой теми условиями, для которых устанавливается это предельное свойство суммы случайных величин. Различные формы закона больших чисел вместе с различными формами центральной предельной теоремы образуют совокупность так называемых предельных теорем теории вероятностей. Предельные теоремы дают возможность не только осуществлять научные прогнозы в области случайных явлений, но и оценивать точность этих прогнозов. 14.1.1. Неравенство Чебышёва. Неравенство Чебышёва, используется для доказательства основных теорем закона больших чисел. Оно справедливо как для непрерывных, так и для дискретных случайных величин. Пусть имеется случайная величина X с математическим ожиданием 𝑚𝑥 и дисперсией 𝐷𝑥 . Неравенство Чебышёва утверждает, что, каково бы ни было положительное число 𝜀, вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше 𝐷 положительного числа ε, не меньше, чем 1 − 𝜀2𝑥 : 𝑃(|𝑋 − 𝑚𝑥 | < 𝜀) ≥ 1 − 𝐷𝑥 . 𝜀2 Часто используется другая форма неравенства Чебышёва: 𝑃(|𝑋 − 𝑚𝑥 | ≥ 𝜀) ≤ Доказательство. 𝐷𝑥 . 𝜀2 103 ∞ ∞ ∞ 𝑃(|𝑋 − 𝑚𝑥 | ≥ 𝜀) = ∫ (|𝑥 − 𝑚𝑥 |)𝑓(𝑥)𝑑𝑥 ≤ ∫ (|𝑥 − 𝑚𝑥 |)𝑓(𝑥)𝑑𝑥 ≤ ∫ 𝜀 −∞ −∞ (𝑥 − 𝑚𝑥 )2 𝐷𝑥 𝑓(𝑥)𝑑𝑥 = 2 . 2 𝜀 𝜀 Пример. Оценить сверху вероятность того, что случайная величина X отклонится от своего среднего не меньше, чем на 3σx. Решение. Используя неравенство Чебышёва, получаем 𝐷 𝜎2 1 𝑃(|𝑋 − 𝑚𝑥 | ≥ 3𝜎𝑥 ) ≤ (3𝜎𝑥 )2 = (3𝜎𝑥 )2 = 9 ≈ 0,111. 𝑥 𝑥 т.е., иными словами, вероятность того, что случайная величина X отклонится от своего среднего больше, чем на 3𝜎 не превышает 1/9. Таким образом, считая, что все значения величины X находятся в пределах ±3𝜎𝑥 от ее математического ожидания 𝑚𝑥 , мы совершаем ошибку по вероятности, не превышающую 1/9≈ 0,111. Будем называть эту ошибку − ошибкой правила «трех сигма». Неравенство Чебышёва дает только верхнюю границу вероятности данного отклонения. Выше этой границы вероятность не может быть ни при каком законе распределения. На практике в большинстве случаев вероятность того, что величина X выйдет за пределы участка 𝑚𝑥 ± 3𝜎𝑥 значительно меньше полученной в примере величины. Например, для нормального закона распределения ошибка правила «трех сигма» составляет 0,0027 (п.11.5.2). 14.1.2. Теорема Чебышёва. В предыдущем параграфе было показано, что неравенство Чебышёва дает весьма грубую оценку вероятностей отклонений случайной величины от ее математического ожидания. В то же время оно оказывается весьма полезным при доказательстве законов больших чисел, так как оно справедливо для любой случайной величины. Перейдем к конкретным формулировкам законов больших чисел. Простейшим примером является теорема Чебышёва для пространства элементарных событий из конечного числа элементов. Эта теорема устанавливает связь между средним арифметическим наблюденных значений случайной величины и ее математическим ожиданием. Предварительно решим следующую вспомогательную задачу. Имеется случайная величина X с математическим ожиданием 𝑚𝑥 и дисперсией 𝐷𝑥 . Над этой величиной производится n независимых опытов и вычисляется среднее арифметическое всех наблюденных значений величины X. Очевидно, от одной серии опытов к другой значение среднего арифметического будет принимать, возможно, различные значения, причем неизвестно заранее какие именно, т.е. будет случайной величиной. Требуется найти числовые характеристики этого среднего арифметического — математическое ожидание и дисперсию и выяснить, как они изменяются с увеличением n. Обозначим: 𝑋1 — значение величины X в первом опыте; 𝑋2 — значение величины X во втором опыте, и т. д. Очевидно, совокупность величин 𝑋1 , 𝑋2 , … , 𝑋𝑛 представляет собой n попарно независимых случайных величин, каждая из которых распределена по тому же закону, что и сама величина X. Рассмотрим среднее арифметическое этих величин: 1 𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖 . 𝑛 104 Случайная величина 𝑋̅ есть линейная функция независимых случайных величин 𝑋1 , 𝑋2 , … , 𝑋𝑛 . Найдем математическое ожидание и дисперсию этой величины. Согласно теоремам о числовых характеристиках функций случайных величин (п.13.2) получим: 1 1 𝑚𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑀[𝑋𝑖 ] = 𝑛 ∙ 𝑛 ∙ 𝑚𝑥 = 𝑚𝑥 . 1 𝐷𝑋̅ = 𝑛2 ∑𝑛𝑖=1 𝐷[𝑋𝑖 ] = 𝐷𝑥 . 𝑛 Таким образом, математическое ожидание величины 𝑋̅ не зависит от числа опытов n и равно математическому ожиданию наблюдаемой величины X; что касается дисперсии величины 𝑋̅, то она неограниченно убывает с увеличением числа опытов и при достаточно большом значении n может быть сделана сколь угодно малой. Мы убеждаемся, что среднее арифметическое есть случайная величина со сколь угодно малой дисперсией и при большом числе опытов ведет себя почти как не случайная. Теорема Чебышёва и устанавливает в точной количественной форме это свойство устойчивости среднего арифметического. Она формулируется следующим образом: Теорема Чебышёва. При достаточно большом числе независимых опытов среднее арифметическое наблюденных значений, случайной величины, сходится по вероятности к ее математическому ожиданию, т.е. 𝟏 ∀𝜺 > 𝟎 𝐥𝐢𝐦 𝑷 (| ∑𝒏𝒊=𝟏 𝒙𝒊 − 𝒎𝒙 | < 𝜺) = 𝟏, 𝒏→∞ 𝒏 Поясним смысл термина «сходится по вероятности». Говорят, что случайная величина 𝑋𝑛 сходится по вероятности к величине a, если при увеличении n вероятность того, что 𝑋𝑛 и а будут сколь угодно близки, неограниченно приближается к единице, а это значит, что при достаточно большом значении n 𝑃(|𝑋𝑛 − 𝑎| < 𝜀) > 1 − 𝛿, где 𝜀 и 𝛿 − произвольно малые положительные числа. Запишем в аналогичной форме теорему Чебышёва, Она утверждает, что при увеличении п среднее арифметическое сходится по вероятности к 𝑚𝑥 , т. е. 1 𝑃 (|𝑛 ∑𝑛𝑖=1 𝑥𝑖 − 𝑚𝑥 | < 𝜀) > 1 − 𝛿. 1 Докажем это неравенство. Выше было показано, что величина 𝑌 = 𝑛 ∑𝑛𝑖=1 𝑥𝑖 имеет числовые 𝐷 характеристики 𝑚𝑦 = 𝑚𝑥 ; 𝐷𝑦 = 𝑛𝑥 . Применим к случайной величине Y неравенство Чебышёва: 𝑃(|𝑌 − 𝑚𝑦 | ≥ 𝜀) ≤ 𝐷𝑦 𝜀2 𝐷 = 𝑛𝜀𝑥2 . Как бы мало ни было число 𝜀, можно взять n таким большим, чтобы выполнялось неравенство 𝐷𝑥 𝑛𝜀 2 где 𝛿 — сколь угодно малое число. Тогда < 𝛿, 105 1 𝑃 (|𝑛 ∑𝑛𝑖=1 𝑥𝑖 − 𝑚𝑥 | ≥ 𝜀) > 𝛿. Переходя к противоположному событию, окончательно получаем. 1 𝑛 𝑃 (| ∑𝑛𝑖=1 𝑥𝑖 − 𝑚𝑥 | < 𝜀) > 1 − 𝛿. Теорема Чебышёва легко может быть обобщена на более сложный случай, а именно когда закон распределения случайной величины X от опыта к опыту не остается одним и тем же, а изменяется. Тогда вместо среднего арифметического наблюденных значений одной и той же величины X с постоянными математическим ожиданием и дисперсией мы имеем дело со средним арифметическим n различных случайных величин, с различными математическими ожиданиями и дисперсиями. Оказывается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной неслучайной величине. Обобщенная теорема Чебышёва формулируется следующим образом. Если 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 − независимые случайные величины с математическими ожиданиями 𝒎𝒙𝟏 , 𝒎𝒙𝟐 , … , 𝒎𝒙𝒏 и дисперсиями 𝑫𝒙𝟏 , 𝑫𝒙𝟐 , … , 𝑫𝒙𝒏 и если все дисперсии ограничены сверху одним и тем же числом L: 𝑫𝒙𝒊 < 𝑳 (𝒊 = 𝟏, 𝟐, … , 𝒏), то при возрастании n среднее арифметическое наблюденных значений величин 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 сходится по вероятности к среднему арифметическому их математических ожиданий: ∀𝜺 > 𝟎 𝒏→∞ 𝟏 𝟏 𝐥𝐢𝐦 𝑷 (|𝒏 ∑𝒏𝒊=𝟏 𝒙𝒊 − 𝒏 ∑𝒏𝒊=𝟏 𝒎𝒙𝒊 | < 𝜺) = 𝟏. Вывод: среднее арифметическое достаточно большого числа случайных величин принимает значения, близкие к среднему арифметическому их математических ожиданий, то есть утрачивает характер случайной величины и при достаточно большом числе измерений их среднее арифметическое окажется сколь угодно близким к истинному значению измеряемой величины. При этом должны соблюдаться следующие условия: а) результат каждого измерения не зависит от результатов остальных, то есть все результаты представляют собой попарно независимые случайные величины; б) обеспечена определенная точность измерений, следовательно, дисперсии рассматриваемых случайных величин равномерно ограничены. 14.1.3. Теорема Бернулли Частным случаем теоремы Чебышева является теорема Бернулли – первый в истории вариант закона больших чисел. Теорема Бернулли, устанавливает связь между частотой события и его вероятностью. Пусть производится n независимых опытов, в каждом из которых может появиться или не появиться некоторое событие A, вероятность которого в каждом опыте равна р. Теорема Бернулли утверждает, что при неограниченном увеличении числа испытаний n частота 𝒑∗ события A сходится по вероятности к его вероятности p: 𝑷(|𝒑∗ − 𝒑| < 𝜺) > 𝟏 − 𝜹, где 𝜺 и 𝜹 − сколь угодно малые положительные числа. 106 Доказательство. Пусть p – вероятность появления события A в однократном испытании. Рассмотрим случайную величину 𝑋𝑖 – число появлений события A в i-м испытании. Ее ряд распределения 0 1 q p где q=1−р. Математическое ожидание случайной величины 𝑋𝑖 : 𝑀[𝑋𝑖 ] = 0 ∙ 𝑞 + 1 ∙ 𝑝 = 𝑝. Пусть k – число успехов в n испытаниях, тогда 𝑘 = ∑𝑛𝑖=1 𝑋𝑖 и частота события A: 𝑛 𝑘 1 𝑝∗ = = ∑ 𝑋𝑖 . 𝑛 𝑛 𝑖=1 По обобщенной теореме Чебышева: 𝑛 𝑛 𝑖=1 𝑖=1 1 1 lim 𝑃 (| ∑ 𝑋𝑖 − ∑ 𝑀[𝑋𝑖 ]| < 𝜀) = 1, 𝑛→∞ 𝑛 𝑛 или, учитывая, что ∑𝑛𝑖=1 𝑀[𝑋𝑖 ] = 𝑛 ∙ 𝑀[𝑋𝑖 ] = 𝑛𝑝, получаем: lim 𝑃(|𝑝∗ − 𝑝| < 𝜀) = 1. Что и требовалось доказать. 𝑛→∞ Теорема Бернулли утверждает устойчивость частоты при постоянных условиях опыта. Но при изменяющихся условиях опыта аналогичная устойчивость также существует. Теорема, устанавливающая свойство устойчивости частот при переменных условиях опыта, называется теоремой Пуассона и формулируется следующим образом: Если производится n независимых опытов и вероятность появления события A в i-м опыте равна 𝒑𝒊 , то при увеличении n частота события A сходится по вероятности к среднему арифметическому вероятностей 𝒑𝒊 . Теорема Пуассона выводится из обобщенной теоремы Чебышева точно так же, как теорема Бернулли была выведена из закона больших чисел. Теорема Пуассона имеет большое принципиальное значение для практического применения теории вероятностей. Дело в том, что зачастую вероятностные методы применяются для исследования явлений, которые в одних и тех же условиях не имеют шансов повториться достаточно много раз, но повторяются многократно при весьма разнообразных условиях, причем вероятности интересующих нас событий сильно зависят от этих условий. 14.2. Центральная предельная теорема. Рассмотренные выше формулировки закона больших чисел утверждали, что некоторые случайные величины сходятся по вероятности к определенным постоянным величинам. Другая группа предельных теорем – центральная предельная теорема – устанавливает вид предельной функции распределения некоторой случайной величины, одновременно оговаривая условия применимости. Все формы центральной предельной теоремы посвящены установлению условий, при которых возникает нормальный закон распределения. Так как эти условия на практике весьма часто выполняются, нормальный закон является самым распространенным из законов распределения, наиболее часто 107 встречающимся в случайных явлениях природы. Он возникает во всех случаях, когда исследуемая случайная величина может быть представлена в виде суммы достаточно большого числа независимых (или слабо зависимых) элементарных слагаемых, каждое из которых в отдельности сравнительно мало влияет на сумму Один из вариантов центральной предельной теоремы мы уже приводили в п.11.5. Рассмотрим эту формулировку более подробно. Пусть случайные величины 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏– независимы и одинаково распределены. Тогда закон распределения их частичной суммы 𝒀𝒏 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏– неограниченно приближается к нормальному распределению при неограниченном увеличении числа n эти случайных величин. Откуда следует, что мы исходим из условия равенства математических ожиданий и дисперсий каждой из случайных величин, составляющих частичную сумму 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 : 𝑚𝑥1 = 𝑚𝑥2 = … = 𝑚𝑥𝑛 , 𝐷𝑥1 = 𝐷𝑥2 = … = 𝐷𝑥𝑛 . Теорема утверждает, что когда 𝑛 → ∞, последовательность частичных сумм 𝑌𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 стремится к нормальному распределению с параметрами 𝑚𝑦 и 𝐷𝑦 . Согласно теоремам сложения математических ожиданий и дисперсий (п.п. 7.1, 7.2): 𝑚𝑦 = ∑𝑛𝑖=1 𝑚𝑥𝑖 , 𝐷𝑦 = ∑𝑛𝑖=1 𝐷𝑥𝑖 . Тогда вероятность попадания случайной величины на заданный участок (𝑎; 𝑏) выражается формулой (п.11.5.2): 𝑏 − 𝑚𝑦 𝑎 − 𝑚𝑦 𝑃(𝑎 < 𝑌 < 𝑏) = Ф∗ ( ) − Ф∗ ( ), 𝜎𝑦 𝜎𝑦 где 𝜎𝑦 = √𝐷𝑦 . Таким образом, для того чтобы приближенно найти вероятность попадания суммы большого числа случайных величин на заданный участок, не требуется знать законы распределения этих величин; достаточно знать лишь их характеристики. Разумеется, это относится только к случаю, когда выполнено основное условие центральной предельной теоремы — равномерно малое влияние слагаемых на рассеивание суммы. На практике часто применяются формулы, в которых вместо суммы случайных величин фигурирует их центрированная и нормированная сумма, 𝑌 − 𝑚𝑦 ∑𝑛𝑖=1 𝑋𝑖 − ∑𝑛𝑖=1 𝑚𝑥𝑖 𝑍= = . 𝜎𝑦 √∑𝑛𝑖=1 𝐷𝑥𝑖 Случайную величину Z по другому еще называют стандартной случайной величиной. Тогда 𝑀[𝑍] = 𝑀 [ 𝑌−𝑚𝑦 𝜎𝑦 ]= 𝑀[𝑌]−𝑀[𝑛𝑝] √𝑛𝑝𝑞 = 𝑛𝑝−𝑛𝑝 √𝑛𝑝𝑞 = 0; 𝐷[𝑍] = 𝐷 [ 𝑌−𝑛𝑝 ] √𝑛𝑝𝑞 = 𝐷[𝑌] 𝑛𝑝𝑞 𝑛𝑝𝑞 = 𝑛𝑝𝑞 = 1. Таким образом, математическое ожидание 𝑀[𝑍] стандартной случайной величины равно нулю, а ее дисперсия 𝐷[𝑍] равна единице. Если закон распределения случайной величины Y близок к нормальному распределению с параметрами 𝑚𝑦 , 𝜎𝑦 , то и закон распределения случайной величины Z близок к нормальному распределению с параметрами 𝑚𝑧 = 0, 𝜎𝑧 = 1. Отсюда следует 108 𝑃(𝑎 < 𝑍 < 𝑏) = Ф∗ (𝑏) − Ф∗ (𝑎). Центральная предельная теорема может применяться не только к непрерывным, но и к дискретным случайным величинам при условии, что мы будем оперировать не плотностями, а функциями распределения. Действительно, если величины 𝑋1 , 𝑋2 , … , 𝑋𝑛 дискретны, то их сумма 𝑌𝑛 — также дискретная случайная величина и поэтому, строго говоря, не может подчиняться нормальному закону. Однако все формулы, аналогичные приведенным выше, где фигурируют не плотности, а функции распределения остаются в силе. Формула Муавра-Лапласа (п. 5.3.2) является одним из следствий центральной предельной теоремы. Рассмотрим схему испытаний Бернулли: n – опытов, в каждом случае с вероятностью p может появиться событие A. Пусть 𝑋𝑖 – случайная величина, связанная с появлением события A (индикатор события A): 0, 𝑋𝑖 = { 1, если событие 𝐴 не наступило в 𝑖 − м опыте если событие 𝐴 наступило. Тогда 𝑌𝑛 = ∑𝑛𝑖=1 𝑋𝑖 − число появлений события A в n опытах. Случайная величина 𝑌𝑛 распределена по биномиальному закону (п. 8.1): 𝑃𝑛 (𝑘) = 𝑃(𝑌𝑛 = 𝑘) = С𝑘𝑛 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 (m = 0,1, … ,n) с математическим ожиданием 𝑀[𝑌𝑛 ] = 𝑛𝑝 и дисперсией 𝐷[𝑌𝑛 ] = 𝑛𝑝𝑞, 𝑞 = 1 − 𝑝. Введем стандартную случайную величину 𝑍𝑛 = 𝑌 − 𝑚𝑦 𝑌 − 𝑛𝑝 = 𝜎𝑦 √𝑛𝑝𝑞 с параметрами 𝑀[𝑍𝑛 ] = 0, 𝐷[𝑍𝑛 ] = 1. В соответствии с центральной предельной теоремой распределение стандартной случайной величины 𝑍𝑛 стремится к нормальному распределению с теми же по величине параметрами, т.е. к стандартному нормальному распределению (п. 11.5.2): Ф∗ (𝑥) = 1 𝑥 𝑡2 ∫ 𝑒 − 2 𝑑𝑡. √2𝜋 −∞ Найдем теперь вероятность того, что в серии из n опытов число успехов k будет лежать между фиксированными значениями 𝑘1 и 𝑘2 : 𝑃(𝑘1 < 𝑘 < 𝑘2 ) = 𝑃 ( 𝑘1 − 𝑛𝑝 √𝑛𝑝𝑞 < 𝑘 − 𝑛𝑝 √𝑛𝑝𝑞 < 𝑘2 − 𝑛𝑝 √𝑛𝑝𝑞 ) ≈ Ф∗ ( 𝑘2 − 𝑛𝑝 √𝑛𝑝𝑞 ) − Ф∗ ( 𝑘1 − 𝑛𝑝 √𝑛𝑝𝑞 ), т.е. получена интегральная формула Муавра-Лапласа. На практике судят о замене биномиального распределения нормальным распределением по выполнению критериев: 𝑛𝑝 − 3√𝑛𝑝𝑞 > 0, 𝑛𝑝 + 3√𝑛𝑝𝑞 < 𝑛. Если они выполнены, замена правомерна. Пример. Станок с ЧПУ делает за смену n =1000 изделий, из которых 2% дефектов. Найти вероятность того, что за станком будет изготовлено не менее 970 не дефектных изделий. Решение. Вероятность изготовления доброкачественных изделий 𝑝 = 1 − 1000 ∙ 0,02 = 0,98, Y =970 – минимальное число нормальных изделий, n =1000. Проверим выполнимость условий замены биномиального распределения нормальным распределением: 109 𝑚𝑦 = 𝑛𝑝 = 1000 ∙ 0,98 = 980, 𝜎𝑦 = √𝑛𝑝𝑞 = √1000 ∙ 0,98 ∙ 0,02 ≈ 4,43, 𝑛𝑝 − 3√𝑛𝑝𝑞 = 980 − 4,43 > 0, 𝑛𝑝 + 3√𝑛𝑝𝑞 = 980 + 4,43 < 1000. Условия выполняются. Тогда: 𝑃(𝑌 ≥ 970) = 1 − 𝑃(𝑌 < 970) ≈ 1 − Ф∗ ( 𝑌 − 𝑚𝑦 970 − 980 ) = 1 − Ф∗ (−2,26) = ) = 1 − Ф∗ ( 𝜎𝑦 4,43 = 1 − [1 − Ф∗ (2,26)] ≈ 0,988 Заметим, что утверждение центральной предельной теоремы о сходимости функции распределения частичных сумм к нормальному распределению справедливо и при более широких предположениях. Одно из обобщений, не требующее одинаковости числовых характеристик распределений слагаемых было сформулировано и доказано Ляпуновым. Тема 15. Случайные функции 15.1. Понятие о случайной функции. Случайной функцией называется функция, которая в результате опыта может принять тот или иной конкретный вид, неизвестно заранее — какой именно. Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции. Если над случайной функцией произвести группу опытов, то мы получим группу или «семейство» реализаций этой функции. Так как аргументом случайной функции чаще всего является время, будем обозначать его буквой t. Кроме того, условимся, как правило, обозначать случайные функции большими буквами 𝑋(𝑡), 𝑌(𝑡), … в отличие от неслучайных функций 𝑥(𝑡), 𝑦(𝑡), … . Рассмотрим некоторую случайную функцию 𝑋(𝑡). Предположим, что над ней произведено n независимых опытов, в результате которых получено n реализаций: 110 Обозначим их соответственно номеру опыта 𝑥1 (𝑡), 𝑥2 (𝑡), … , (𝑡). Каждая реализация, очевидно, есть обычная (неслучайная) функция. Таким образом, в результате каждого опыта случайная функция 𝑋(𝑡) превращается в обычную, неслучайную функцию. Зафиксируем теперь некоторое значение аргумента t и посмотрим, во что превратится при этом случайная функция 𝑋(𝑡). Очевидно, она превратится в случайную величину в обычном смысле слова. Условимся называть эту случайную величину сечением случайной функции, соответствующим данному значению t. Если провести «сечение» семейства реализаций при данном значении t, мы получим n значений, принятых случайной величиной 𝑋(𝑡) в n опытах. Мы видим, что случайная функция совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента, она превращается в обычную случайную величину; в результате каждого опыта она превращается в обычную (неслучайную) функцию. В ходе дальнейшего изложения мы будем попеременно рассматривать одну и ту же функцию 𝑋(𝑡) как случайную функцию, или как случайную величину, в зависимости от того, рассматривается ли она на всем диапазоне изменения 𝑡 или при его фиксированном значении. 15.2. Закон распределения случайной функции. Рассмотрим некоторую случайную функцию 𝑋(𝑡) на определенном отрезке времени Строго говоря, случайную функцию мы не можем изображать с помощью кривой на графике: начертить мы можем лишь ее конкретные реализации. Однако в целях наглядности можно позволить себе условно изобразить на чертеже случайную функцию 𝑋(𝑡) кривой, понимая под этой кривой не конкретную реализацию, а всю совокупность возможных реализаций совокупность возможных реализаций 𝑋(𝑡). Эту условность мы будем отмечать тем, что кривую, символически изображающую случайную функцию, будем проводить пунктиром. Случайную функцию можно рассматривать как систему случайных величин – сечений, соответствующих значениям 𝑡1 , 𝑡2 , … , 𝑡𝑚 . Мы знаем, что закон распределения одной случайной величины есть функция одного аргумента, закон распределения системы двух величин — функция двух аргументов и т. д. Однако пользоваться законами распределения многих случайных величин настолько неудобно, что даже для систем трехчетырех величин мы обычно отказываемся от пользования законами распределения и рассматриваем только числовые характеристики. Тем не менее, можно для случайной функции построить некоторые вероятностные характеристики, аналогичные законам распределения. Идея построения этих характеристик заключается в следующем. Рассмотрим случайную величину 𝑋(𝑡) — сечение случайной функции в момент 𝑡: 111 Эта случайная величина, очевидно, обладает законом распределения, который в общем случав зависит от 𝑡. Обозначим его 𝑓(𝑥, 𝑡). Функция 𝑓(𝑥, 𝑡)называется одномерным законом распределения случайной функции 𝑋(𝑡). Очевидно, функция 𝑓(𝑥, 𝑡) не является полной, исчерпывающей характеристикой случайной функции 𝑋(𝑡). Действительно, эта функция характеризует только закон распределения 𝑋(𝑡) для данного 𝑡. Она не отвечает на вопрос о зависимости случайных величин 𝑋(𝑡) при различных значениях 𝑡. С этой точки зрения более полной характеристикой случайной функции 𝑋(𝑡) является так называемый двумерный закон распределения: 𝑓(𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 ). Это — закон распределения системы двух случайных величин 𝑋(𝑡1 ), 𝑋(𝑡2 ), т. е. двух произвольных сечений случайной функции 𝑋(𝑡). Однако и эта характеристика в общем случае не является исчерпывающей. Еще более полной характеристикой был бы трехмерный закон: 𝑓(𝑥1 , 𝑥2 , 𝑥3 , 𝑡1 , 𝑡2 , 𝑡3 ). Очевидно, теоретически можно неограниченно увеличивать число аргументов и получать при этом все более подробную характеристику случайной функции, но оперировать со столь громоздкими характеристиками, зависящими от многих аргументов, крайне неудобно. Поэтому при исследовании законов распределения случайных функций обычно ограничиваются рассмотрением частных случаев, где для полной характеристики случайной функции достаточно, например, знания функции 𝑓(𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 ) (так называемые «процессы без последействия»). В пределах настоящего элементарного изложения теории случайных функций мы вовсе не будем пользоваться законами распределения, а ограничимся рассмотрением простейших характеристик случайных функций, аналогичных числовым характеристикам случайных величин. 15.3. Вероятностные характеристики случайных функций. Искусство пользоваться числовыми характеристиками, оставляя по возможности в стороне законы распределения, — основа прикладной теории вероятностей. Аппарат числовых характеристик представляет собой весьма гибкий и мощный аппарат, позволяющий сравнительно просто решать многие практические задачи. Совершенно аналогичным аппаратом пользуются и в теории случайных функций. Для случайных функций также вводятся простейшие основные характеристики, аналогичные числовым характеристикам случайных величин, и устанавливаются правила действий с этими характеристиками. Такой аппарат оказывается достаточным для решения многих практических задач. В отличие от числовых характеристик случайных величин, представляющих собой определенные числа, характеристики случайных функций представляют собой в общем случае не числа, а функции. Математическое ожидание случайной функции 𝑋(𝑡) определяется следующим образом. Рассмотрим сечение случайной функции 𝑋(𝑡) при фиксированном значении 𝑡. В этом сечении мы имеем обычную случайную величину; определим ее математическое ожидание. Очевидно, в общем случае оно зависит от 𝑡, т. е. представляет собой некоторую функцию 𝑡: 112 𝑚𝑥 (t) = 𝑀[𝑋(𝑡)]. Таким образом, математическим ожиданием случайной функции 𝑿(𝒕) называется неслучайная функция mx(t), которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайной функции. По смыслу математическое ожидание случайной функции есть некоторая средняя функция, около которой различным образом варьируются конкретные реализации случайной функции: Аналогичным образом определяется дисперсия случайной функции. Дисперсией случайной функции 𝑿(𝒕) называется неслучайная функция 𝑫𝒙 (𝒕), значение которой для каждого t равно дисперсии, соответствующего сечения случайной функции: 𝐷𝑥 (𝑡) = 𝐷[𝑋(𝑡)]. Дисперсия случайной функции при каждом 𝑡 характеризует разброс возможных реализаций случайной функции относительно среднего, иными словами, «степень случайности» случайной функции. Очевидно, 𝐷𝑥 (𝑡) есть неотрицательная функция. Извлекая из нее квадратный корень, получим функцию 𝜎𝑥 (𝑡) — среднее квадратичное отклонение случайной функции: Математическое ожидание и дисперсия представляют собой весьма важные характеристики случайной функции; однако для описания основных особенностей случайной функции этих характеристик недостаточно. Чтобы убедиться в этом, рассмотрим две случайные функции 𝑋1 (𝑡) и 𝑋2 (𝑡), наглядно представленные семействами реализаций: 113 У случайных функций 𝑋1 (𝑡) и 𝑋2 (𝑡) примерно одинаковые математические ожидания и дисперсии; однако характер этих случайных функций резко различен. Для случайной функции 𝑋1 (𝑡) характерно плавное, постепенное изменение. Если, например, в точке 𝑡 случайная функция 𝑋1 (𝑡) приняла значение, заметно превышающее среднее, то весьма вероятно, что и в точке 𝑡 ′ она также примет значение больше среднего. Для случайной функции 𝑋1 (𝑡) характерна ярко выраженная зависимость между ее значениями при различных значениях 𝑡. Напротив, случайная функция 𝑋2 (𝑡)имеет резко колебательный характер с неправильными, беспорядочными колебаниями. Для такой случайной функции характерно быстрое затухание зависимости между ее значениями по мере увеличения расстояния по оси 𝑡 между ними. Очевидно, внутренняя структура обоих случайных процессов совершенно различна, но это различие не улавливается ни математическим ожиданием, ни дисперсией; для его описания необходимо ввести специальную характеристику. Эта характеристика называется корреляционной функцией (иначе — автокорреляционной функцией). Корреляционная функция характеризует степень зависимости между сечениями случайной функции, относящимися к различным значениям 𝑡. Пусть имеется случайная функция 𝑋(𝑡) Рассмотрим два ее сечения, относящихся к различным моментам: 𝑡 и 𝑡 ′ , т. е. две случайные величины 𝑋(𝑡) и 𝑋(𝑡 ′ ). Очевидно, что при близких значениях 𝑡 и 𝑡 ′ величины 𝑋(𝑡) и 𝑋(𝑡 ′ ) связаны тесной зависимостью: если величина 𝑋(𝑡) приняла какое-то значение, то и величина 𝑋(𝑡 ′ ) с большой вероятностью примет 114 значение, близкое к нему. Очевидно также, что при увеличении интервала между сечениями 𝑡, 𝑡 ′ зависимость величин 𝑋(𝑡) и 𝑋(𝑡 ′ ) вообще должна убывать. Степень зависимости величин 𝑋(𝑡) и 𝑋(𝑡 ′ ) может быть в значительной мере охарактеризована их корреляционным моментом; очевидно, он является функцией двух аргументов 𝑡 и 𝑡 ′ . Эта функция и называется корреляционной функцией. Таким образом, корреляционной функцией случайной функцией 𝑿(𝒕) называется неслучайная функция двух аргументов𝑲𝒙 (𝒕, 𝒕′ ), которая при каждой паре значений 𝒕, 𝒕′ равна корреляционному моменту соответствующих сечений случайной функции: 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝑀[(𝑋(𝑡) − 𝑚𝑥 (𝑡)) ∙ (𝑋(𝑡 ′ ) − 𝑚𝑥 (𝑡 ′ ))]. При 𝑡= 𝑡 ′ эта формула приобретает вид 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝑀[(𝑋(𝑡) − 𝑚𝑥 (𝑡))2 ] = 𝐷𝑥 (𝑡), т. е. если 𝒕= 𝒕′ корреляционная функция обращается в дисперсию случайной функции. Таким образом, необходимость в дисперсии как отдельной характеристике случайной функции отпадает и в качестве основных характеристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию. Так как корреляционный момент двух случайных величин 𝑋(𝑡) и 𝑋(𝑡 ′ ) не зависит от последовательности, в которой эти величины рассматриваются, то корреляционная функция симметрична относительно своих аргументов, т. е. не меняется при перемене аргументов местами: 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝐾𝑥 (𝑡′, 𝑡). Вместо корреляционной функции 𝐾𝑥 (𝑡, 𝑡 ′ ) можно пользоваться нормированной корреляционной функцией: 𝑟𝑥 (𝑡, 𝑡 ′ ) = 𝐾𝑥 (𝑡, 𝑡 ′ ) , 𝜎𝑥 (𝑡)𝜎𝑥 (𝑡 ′ ) которая представляет собой коэффициент корреляции величин 𝑋(𝑡) и 𝑋(𝑡 ′ ). Если 𝑡= 𝑡 ′ нормированная корреляционная функция равна единице: 𝑟𝑥 (𝑡, 𝑡) = 𝐾𝑥 (𝑡, 𝑡) 𝐷𝑥 (𝑡) = = 1. [𝜎𝑥 (𝑡)]2 [𝜎𝑥 (𝑡)]2 Выясним, как меняются основные характеристики случайной функции при элементарных операциях над ней: при прибавлении неслучайного слагаемого и при умножении на неслучайный множитель. Эти неслучайные слагаемые и множители могут быть как постоянными величинами, так в общем случае и функциями t. Прибавим к случайной функции 𝑋(𝑡) неслучайное слагаемое 𝜑(𝑡). Получим новую случайную функцию: 𝑌(𝑡) = 𝑋(𝑡) + 𝜑(𝑡). По теореме сложения математических ожиданий: 𝑚𝑦 (𝑡) = 𝑚𝑥 (𝑡) + 𝜑(𝑡), 115 т. е. при прибавлении к случайной функции неслучайного слагаемого к ее математическому ожиданию прибавляется то же неслучайное слагаемое. Определим корреляционную функцию случайной функции 𝑌(𝑡) = 𝑋(𝑡) + 𝜑(𝑡): 𝐾𝑦 (𝑡, 𝑡 ′ ) = 𝑀[(𝑌(𝑡) − 𝑚𝑦 (𝑡)) ∙ (𝑌(𝑡 ′ ) − 𝑚𝑦 (𝑡 ′ ))] = = 𝑀[(𝑋(𝑡) + 𝜑(𝑡) − 𝑚𝑥 (𝑡) − 𝜑(𝑡)) ∙ (𝑋(𝑡 ′ ) + 𝜑(𝑡 ′ ) − 𝑚𝑥 (𝑡 ′ )) − 𝜑(𝑡′)] = =𝑀[(𝑋(𝑡) − 𝑚𝑥 (𝑡)) ∙ (𝑋(𝑡 ′ ) − 𝑚𝑥 (𝑡 ′ ))] = 𝐾𝑥 (𝑡, 𝑡 ′ ) т. е. от прибавления неслучайного слагаемого корреляционная функция случайной функции не меняется. Умножим случайную функцию 𝑋(𝑡) на неслучайный множитель 𝜑(𝑡): 𝑌(𝑡) = 𝑋(𝑡) ∙ 𝜑(𝑡). Вынося неслучайную величину 𝜑(𝑡) за знак математического ожидания, имеем: 𝑚𝑦 (𝑡) = 𝑀[𝑋(𝑡) ∙ 𝜑(𝑡)] = 𝜑(𝑡) ∙ 𝑚𝑥 (𝑡). т. е. при умножении случайной функции на неслучайный множитель ее математическое ожидание умножается на тот же множитель. Определяем корреляционную функцию: 𝐾𝑦 (𝑡, 𝑡 ′ ) = 𝑀[(𝑌(𝑡) − 𝑚𝑦 (𝑡)) ∙ (𝑌(𝑡 ′ ) − 𝑚𝑦 (𝑡 ′ ))] = =𝑀[𝜑(𝑡)(𝜑(𝑡′)(𝑋(𝑡) − 𝑚𝑥 (𝑡)) ∙ (𝑋(𝑡 ′ ) − 𝑚𝑥 (𝑡 ′ ))] = 𝜑(𝑡) ∙ 𝜑(𝑡′) ∙ 𝐾𝑥 (𝑡, 𝑡 ′ ) т. е. при умножении случайной функции на неслучайную функцию 𝝋(𝒕) ее корреляционная функция умножается на 𝝋(𝒕) ∙ 𝝋(𝒕′ ). В частности, когда 𝜑(𝑡) = c (не зависит от 𝑡), корреляционная функция умножается на 𝑐 2 . Пользуясь выведенными свойствами характеристик случайных функций, можно в ряде случаев значительно упростить операции с ними. В частности, когда требуется исследовать корреляционную функцию или дисперсию случайной функции, можно заранее перейти от нее к так называемой центрированной функции: 𝑋(𝑡) − 𝑚𝑥 (𝑡). Математическое ожидание центрированной функции тождественно равно нулю, а ее корреляционная функция совпадает с корреляционной функцией случайной функции 𝑋(𝑡): 𝐾𝑥(𝑡)−𝑚𝑥 (𝑡) = 𝑀[((𝑋(𝑡) − 𝑚𝑥 (𝑡)) ∙ (𝑋(𝑡 ′ ) − 𝑚𝑥 (𝑡 ′ ))]=𝐾𝑥 (𝑡, 𝑡 ′ ). Иногда, кроме центрирования, применяется еще нормирование случайных функций. Нормированной называется случайная функция вида: 𝑋𝑁 (𝑡) = 𝑋(𝑡) − 𝑚𝑥 (𝑡) . 𝜎𝑥 (𝑡) Корреляционная функция нормированной случайной функции 𝑋𝑁 (𝑡) равна 𝐾𝑥𝑁 (𝑡, 𝑡 ′ ) = 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝑟𝑥 (𝑡, 𝑡 ′ ), 𝜎𝑥 (𝑡)𝜎𝑥 (𝑡′) 116 а ее дисперсия равна единице. 15.4. Стационарные случайные функции. Случайная функция 𝑋(𝑡) называется стационарной, если все ее вероятностные характеристики не зависят от 𝑡 (точнее, не меняются при любом сдвиге аргументов, от которых они зависят, по оси 𝑡). В данном элементарном изложении теории случайных функций мы совсем не пользуемся такими вероятностными характеристиками, как законы распределения: единственными характеристиками, которыми мы пользуемся, являются математическое ожидание, дисперсия и корреляционная функция. Сформулируем определение стационарной случайной функции в терминах этих характеристик. Так как изменение стационарной случайной функции должно протекать однородно по времени, то естественно потребовать, чтобы для стационарной случайной функции математическое ожидание было постоянным: 𝑚𝑥 (𝑡) = 𝑚𝑥 = 𝑐𝑜𝑛𝑠𝑡. Заметим, однако, что это требование не является существенным: мы знаем, что от случайной функции 𝑋(𝑡) всегда можно перейти к центрированной случайной функции 𝑋(𝑡) − 𝑚𝑥 (𝑡), для которой математическое ожидание тождественно равно нулю. Таким образом, если случайный процесс является нестационарным только за счет переменного математического ожидания, это не помешает нам изучать его как стационарный процесс. Второе условие, которому, очевидно, должна удовлетворять стационарная случайная функция, — это условие постоянства дисперсии: 𝐷𝑥 (𝑡) = 𝐷𝑥 = 𝑐𝑜𝑛𝑠𝑡. Установим, какому условию должна удовлетворять корреляционная функция стационарной случайной функции. Рассмотрим случайную функцию 𝑋(𝑡): Положим 𝑡 ′ = 𝑡 + 𝜏 и рассмотрим функцию 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝐾𝑥 (𝑡, 𝑡 + 𝜏), т.е. корреляционный момент двух сечений случайной функции, разделенных интервалом времени 𝜏. Очевидно, если случайный процесс 𝑋(𝑡) действительно стационарен, то этот корреляционный момент не должен зависеть от того, где именно на оси O𝑡 мы взяли участок 𝜏, а должен зависеть только от длины этого участка. Например, для участков I и II, имеющих одну и ту же длину 𝜏, значения корреляционной функции 𝐾𝑥 (𝑡, 𝑡 + 𝜏) и 𝐾𝑥 (𝑡1 , 𝑡1 + 𝜏)должны быть одинаковыми. Вообще, корреляционная функция стационарного случайного процесса должна зависеть не от положения 𝑡 первого аргумента на оси абсцисс, а только от промежутка 𝜏 между первым и вторым аргументами: 𝐾𝑥 (𝑡, 𝑡 + 𝜏)=𝑘𝑥 (𝜏). Следовательно, корреляционная функция стационарного случайного процесса есть функция не двух, а всего одного аргумента. Это обстоятельство в ряде случаев сильно упрощает операции над стационарными случайными функциями. Заметим, что условие постоянства дисперсии, является частным случаем условия 𝐾𝑥 (𝑡, 𝑡 + 𝜏)=𝑘𝑥 (𝜏). Действительно, полагая в этой формуле 𝑡 + 𝜏 = 𝑡 (𝜏= 0), имеем 117 𝐷𝑥 (𝑡) = 𝐾𝑥 (𝑡, 𝑡) = 𝑘𝑥 (𝜏) = 𝑐𝑜𝑛𝑠𝑡. Таким образом, условие 𝑲𝒙 (𝒕, 𝒕 + 𝝉)=𝒌𝒙 (𝝉) есть единственное существенное условие, которому должна удовлетворять стационарная случайная функция. Поэтому в дальнейшем мы под стационарной случайной функцией будем понимать такую случайную функцию, корреляционная функция которой зависит не от обоих своих аргументов 𝑡 и 𝑡′, а только от разности 𝜏 между ними. Чтобы не накладывать специальных условий на математическое ожидание, обычно рассматриваются только центрированные случайные функции. Мы знаем (п.15.3), что корреляционная функция любой случайной функции обладает свойством симметрии: 𝐾𝑥 (𝑡, 𝑡 ′ ) = 𝐾𝑥 (𝑡′, 𝑡). Отсюда для стационарного процесса, полагая 𝑡 ′ − 𝑡 = 𝜏, имеем: 𝑘𝑥 (𝜏) = 𝑘𝑥 (− 𝜏), т. е. корреляционная функция 𝒌𝒙 (𝝉) = есть четная функция своего аргумента. Поэтому обычно корреляционную функцию определяют только для положительных значений аргумента: На практике, вместо корреляционной функции 𝑘𝑥 (𝜏), часто пользуются нормированной корреляционной функцией 𝑘𝑥 (𝜏) 𝜌𝑥 (𝜏) = , 𝐷𝑥 где 𝐷𝑥 = 𝑘𝑥 (0) − дисперсия стационарного процесса, имеющая постоянное значение. Функция 𝜌𝑥 (𝜏) есть не что иное, как коэффициент корреляции между сечениями случайной функции, разделенными интервалом 𝜏 по времени. Очевидно, что 𝜌𝑥 (0) = 1. Тема 16. Вероятностные основы теории информации 16.1. Энтропия как мера степени неопределенности состояния физической системы. Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом составе сырья или температуре в печи. Это сообщение описывает 118 состояние физической системы. Сообщение приобретает смысл только тогда, когда состояние системы заранее неизвестно, случайно. Мы будем рассматривать некоторую физическую систему X, которая случайным образом может оказаться в том или ином состоянии, т. е. систему, которой заведомо присуща какая-то степень неопределенности. Очевидно, сведения, полученные о системе, будут, вообще говоря, тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений. Возникает естественный вопрос: что значит «большая» или «меньшая» степень неопределенности и чем можно ее измерить? Чтобы ответить на этот вопрос, сравним между собой две системы, каждой из которых присуща некоторая неопределенность. В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: 1) выпал герб и 2) выпала цифра. В качестве второй — игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, у какой системы больше неопределенность? Очевидно, у второй, так как у нее больше возможных состояний, в каждом из которых она может оказаться с одинаковой вероятностью. Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако в общем случае это не так. Рассмотрим, например, техническое устройство, которое может быть в двух состояниях: 1) исправно и 2) отказало. Предположим, что до получения сведений (априори) вероятность исправной работы устройства 0,99, а вероятность отказа 0,01. Такая система обладает только очень малой степенью неопределенности: почти наверно можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Мы видим, что степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний. Перейдем к общему случаю. Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: 𝑥1 , 𝑥2 , … , 𝑥𝑛 с вероятностями 𝑝1 , 𝑝2 , … , 𝑝𝑛 , где 𝑝𝑖 = 𝑃(𝑋~𝑥𝑖 ) — вероятность того, что система X примет состояние 𝑥𝑖 (символом 𝑋~𝑥𝑖 обозначается событие: система находится в состоянии 𝑥𝑖 ). Очевидно, ∑𝑛𝑖=1 𝑝𝑖 = 1. Запишем эти данные в виде таблицы, где в верхней строке перечислены возможные состояния системы, а в нижней — соответствующие вероятности: 𝑥𝑖 𝑥1 𝑥2 … 𝑥𝑛 𝑝𝑖 𝑝1 𝑝2 … 𝑝𝑛 Эта табличка по написанию сходна с рядом распределения дискретной случайной величины X с возможными значениями 𝑥1 , 𝑥2 , … , 𝑥𝑛 , имеющими вероятности 𝑝1 , 𝑝2 , … , 𝑝𝑛 . И действительно, между физической системой X с конечным множеством состояний и дискретной случайной величиной много общего; для того чтобы свести первую ко второй, достаточно присвоить каждому состоянию какое-то числовое значение (скажем, номер состояния). Подчеркнем, что для описания степени неопределенности системы совершенно неважно, какие именно значения 𝑥1 , 𝑥2 , … , 𝑥𝑛 записаны в верхней строке таблицы; важны только к о л и ч е с т в о этих значений и их в е р о я т н о с т и. В качестве меры априорной неопределенности системы (или дискретной случайной величины X) в теории информации применяется специальная характеристика, называемая энтропией. Понятие об энтропии является в теории информации основным. Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком: 119 𝒏 𝑯(𝑿) = − ∑ 𝒑𝒊 𝒍𝒐𝒈 𝒑𝒊 𝒊=𝟏 Энтропия 𝐻(𝑋), как мы увидим в дальнейшем, обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обращается в нуль, когда одно из состояний системы достоверно, а другие — невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний — увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т. е. когда несколько независимых систем объединяются в одну, их энтропии складываются. Логарифм в формуле 𝐻(𝑋) может быть взят при любом основании a > 1. Перемена основания равносильна простому умножению энтропии на постоянное число, а выбор основания равносилен выбору определенной единицы измерения энтропии. Если за основание выбрано число 10, то говорят о «десятичных единицах» энтропии, если основание логарифма равно 2 — то о «двоичных единицах энтропии». На практике удобнее всего пользоваться логарифмами по основанию 2 и измерять энтропию в двоичных единицах; это хорошо согласуется с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления. В дальнейшем мы будем под символом log понимать логарифм по основанию 2. Тогда за единицу измерения энтропии принимается энтропия простейшей системы X, которая имеет два равновозможных состояния: 𝑥𝑖 𝑥1 𝑥2 0,5 0,5 𝑝𝑖 Действительно, по формуле для энтропии имеем: 𝐻(𝑋) = −(0,5 ∙ log 0,5 + 0,5 ∙ log 0,5) = 1. Определенная таким образом единица энтропии называется «двоичной единицей» и иногда обозначается bit (от английского «binary digit»). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах энтропию системы X, которая имеет n равновероятных состояний: 𝑥𝑖 𝑝𝑖 𝑥1 1 𝑛 𝑥2 1 𝑛 … … 𝑥𝑛 1 𝑛 Имеем: 1 1 𝐻(𝑋) = −𝑛 log = − log 1 + log 𝑛 𝑛 𝑛 или 𝐻(𝑋) = log 𝑛, т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями 𝐻(𝑋) = log 8 = 3. Когда состояние системы в точности известно заранее, ее энтропия равна нулю. Действительно, в этом случае все вероятности 𝑝1 , 𝑝2 , … , 𝑝𝑛 обращаются в нуль, кроме одной — например, 𝑝𝑘 , которая равна единице. Член 𝑝𝑘 log 𝑝𝑘 обращается в нуль, так как log 1= 0. Остальные члены тоже обращаются в нуль, так как 120 lim 𝑝 ∙ 𝑙𝑜𝑔 𝑝 = 0. 𝑝→0 Докажем, что энтропия системы с конечным множеством состояний достигает максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию 𝑛 𝐻(𝑋) = − ∑ 𝑝𝑖 𝑙𝑜𝑔 𝑝𝑖 𝑖=1 как функцию многих переменных, в качестве которых выступают вероятности 𝑝1 , 𝑝2 , … , 𝑝𝑛 , и найдем условный экстремум этой функции при условии: 𝑛 ∑ 𝑝𝑖 = 1. 𝑖=1 Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции: 𝑛 𝑛 𝐹 = − ∑ 𝑝𝑖 𝑙𝑜𝑔 𝑝𝑖 + 𝜆 ∑ 𝑝𝑖 . 𝑖=1 𝑖=1 Дифференцируя F по 𝑝1 , 𝑝2 , … , 𝑝𝑛 и приравнивая производные нулю, получим систему уравнений: 𝜕𝐹 = log 𝑝1 + log 𝑒 + 𝜆 = 0 𝜕𝑝1 𝜕𝐹 = 𝑙𝑜𝑔 𝑝2 + 𝑙𝑜𝑔 𝑒 + 𝜆 = 0 𝜕𝑝2 …………………………………. 𝜕𝐹 = 𝑙𝑜𝑔 𝑝𝑛 + 𝑙𝑜𝑔 𝑒 + 𝜆 = 0 {𝜕𝑝𝑛 или log 𝑝1 = − log 𝑒 − 𝜆 𝑙𝑜𝑔 𝑝2 = − 𝑙𝑜𝑔 𝑒 − 𝜆 { ………………………. 𝑙𝑜𝑔 𝑝𝑛 = − 𝑙𝑜𝑔 𝑒 − 𝜆 откуда видно, что экстремум (в данном случае максимум) достигается при равных между собой значениях 𝑝1 = 𝑝2 = … = 𝑝𝑛 . Из условия ∑𝑛𝑖=1 𝑝𝑖 = 1 видно, что при этом 1 𝑝1 = 𝑝2 = … = 𝑝𝑛 = , 𝑛 а максимальная энтропия системы равна: 𝐻(𝑋) = log 𝑛, т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. 121 Пример. Определить максимально возможную энтропию системы, состоящей из трех элементов, каждый из которых может быть в четырех возможных состояниях. Решение. Общее число возможных состояний системы равно n = 4∙4∙4=64. Максимально возможная энтропия системы равна log 64 == 6 (bit). Пример. Определить максимально возможную энтропию сообщения, состоящего из пяти букв, причем общее число букв в алфавите равно 32. Решение. Число возможных состояний системы n= 325. Максимально возможная энтропия равна 5∙log 32 = 25 (bit). Формула 𝑛 𝐻(𝑋) = − ∑ 𝑝𝑖 𝑙𝑜𝑔 𝑝𝑖 𝑖=1 служит для непосредственного вычисления энтропии. Однако при выполнении преобразований часто более удобной оказывается другая форма записи энтропии, а именно, представление ее в виде математического ожидания: 𝐻(𝑋) = 𝑀[− log 𝑃(𝑋)], где 𝑙𝑜𝑔 𝑃(𝑋) — логарифм вероятности любого (случайного) состояния системы, рассматриваемый как случайная величина. Когда система X принимает состояния 𝑥1 , 𝑥2 , … , 𝑥𝑛 , случайная величина 𝑙𝑜𝑔 𝑃(𝑋) принимает значения: 𝑙𝑜𝑔 𝑝1 , 𝑙𝑜𝑔 𝑝2 , … , 𝑙𝑜𝑔 𝑝𝑛 . Среднее значение (математическое ожидание) случайной величины 𝑙𝑜𝑔 𝑃(𝑋) и есть, как нетрудно убедиться, энтропия системы X. Для ее получения значения 𝑙𝑜𝑔 𝑝1 , 𝑙𝑜𝑔 𝑝2 , … , 𝑙𝑜𝑔 𝑝𝑛 осредняются с «весами», равными соответствующим вероятностям 𝑝1 , 𝑝2 , … , 𝑝𝑛 . 16.2. Энтропия и информация. В предыдущем разделе была определена энтропия как мера неопределенности состояния некоторой физической системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем они более содержательны, тем больше будет информация о системе, тем менее неопределенным будет ее состояние. Естественно поэтому количество информации измерять уменьшением энтропии той системы, для уточнения состояния которой предназначены сведения. Рассмотрим некоторую систему X, над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным. До получения сведений (априори) энтропия системы была Н(X); после получения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим 𝐼𝑋 информацию, получаемую в результате выяснения состояния системы X. Она равна уменьшению энтропии: 𝐼𝑋 = 𝐻(𝑋) − 0 или 𝐼𝑋 = 𝐻(𝑋), 122 т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы. Представим последнюю формулу в виде: 𝑛 𝐼𝑋 = − ∑ 𝑝𝑖 𝑙𝑜𝑔𝑝𝑖 , 𝑖=1 где 𝑝𝑖 = 𝑃(𝑋~𝑥𝑖 ), т.е. 𝑝𝑖 − вероятность того, что система X находится в состоянии 𝑥𝑖 . Эта формула означает, что информация 𝐼𝑋 есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком. Действительно, для получения 𝐼𝑋 каждое значение 𝑙𝑜𝑔 𝑝𝑖 (логарифм вероятности i-го состояния) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое 𝑙𝑜𝑔 𝑝𝑖 рассматривать как частную информацию, получаемую от отдельного сообщения, состоящего в том, что система X находится в состоянии 𝑥𝑖 . Обозначим эту информацию 𝐼𝑥𝑖 : 𝐼𝑥𝑖 = −𝑙𝑜𝑔 𝑝𝑖 . Тогда информация 𝐼𝑋 представится как средняя (или полная) информация, получаемая от всех возможных отдельных сообщений с учетом их вероятностей. Формула для 𝐼𝑋 может быть записана в форме математического ожидания: 𝐼𝑋 = 𝑀[− log 𝑃(𝑋)], где буквой X обозначено любое (случайное) состояние системы X. Так как все числа 𝑝𝑖 не больше единицы, то как частная информация 𝐼𝑥𝑖 так и полная информация 𝐼𝑋 не могут быть отрицательными. Если все возможные состояния системы априори одинаково вероятны 1 𝑝1 = 𝑝2 = … = 𝑝𝑛 = , 𝑛 то, естественно, частная информация 𝐼𝑥𝑖 от каждого отдельного сообщения 𝐼𝑥𝑖 = − 𝑙𝑜𝑔 𝑝 = log 𝑛, равна средней (полной) информации 1 1 𝐼𝑋 = −𝑛 log = log 𝑛. 𝑛 𝑛 В случае, когда состояния системы обладают различными вероятностями, информации от разных сообщений неодинаковы: наибольшую информацию несут сообщения о тех событиях, которые априори были наименее вероятны. Например, сообщение о том, что 31 декабря в г. Москве выпал снег, несет гораздо меньше информации, чем аналогичное по содержанию сообщение, что 31 июля в г. Москве выпал снег. Пример. На шахматной доске в одной из клеток произвольным образом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообщения, в какой именно клетке находится фигура. Решение. Энтропия системы X с n равновероятными состояниями равна log 𝑛; в данном случае 123 𝐼𝑋 = 𝐻(𝑋) = log 64 = 6 (𝑏𝑖𝑡), т. е. сообщение содержит 6 двоичных единиц информации. Так как все состояния системы равновероятны, то ту же информацию несет и любое конкретное сообщение типа: фигура находится в квадрате e2. Пример. В условиях предыдущего примера определить частную информацию от сообщения, что фигура находится в одной из угловых клеток доски. Решение. Априорная вероятность состояния, о котором сообщается, равна 𝑝= 4 1 = . 64 16 Частная информация равна 𝐼 = − log 1 = 4 (𝑏𝑖𝑡). 16 Пример. Определить частную информацию, содержащуюся в сообщении впервые встреченного лица A: «сегодня мой день рождения». Решение. Априори все дни в году с одинаковой вероятностью могут быть днями рождения лица A. 1 Вероятность полученного сообщения 𝑝 = . Частная информация от данного сообщения 365 𝐼 = − log 1 ≈ 8,51 (𝑏𝑖𝑡). 365 Пример. В условиях предыдущего примера определить полную информацию от сообщения, выясняющего, является ли сегодняшний день днем рождения впервые встреченного лица A. Решение. Система, состояние которой выясняется, имеет два возможных состояния: 𝑥1 —день 1 364 рождения и 𝑥2 — не день рождения. Вероятности этих состояний, соответственно: 𝑝1 = 365 ; 𝑝2 = 365. Полная информация равна: 1 1 364 364 𝐼𝑋 = 𝐻(𝑋) = −𝑝1 log 𝑝1 − 𝑝2 𝑙𝑜𝑔 𝑝2 = − log − log ≈ 0,063 (𝑏𝑖𝑡). 365 365 365 365 124 Приложение. Приближённые значения функции стандартного нормального распределения 𝑷(𝒖) = 𝟏 √𝟐𝝅 𝒖 ∫𝒆 −∞ − 𝒖𝟐 𝟐 𝒅𝒖 125 Литература. 1. Венцель Е.С. Теория вероятностей. М.: Академия, 2005 2. Гмурман В.Е. Теория вероятностей и математическая статистика: учеб пособие. - М.: Образование, 2007. - 479с. 3. Вентцель Е.С. Задачи и упражнения по теории вероятностей. – М.: Высшая школа, 2002. – 448 с. 4. Кремер Н.Ш. Теория вероятностей и математическая статистика: Учебник для вузов. – М.: ЮНИТИДАНА, 2001. 5. Калинина В.Н., Панкин В.Ф. Математическая статистика. - М.: Высшая школа, 2001. 6. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. - М. Высшая школа , 2001 -400с.