Министерство образования и науки Российской Федерации Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования «Алтайский государственный технический университет им. И. И. Ползунова» В. П. Зайцев ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Учебное пособие Рекомендовано Алтайским техническим университетом им. И. И. Ползунова в качестве учебного пособия для студентов АлтГТУ, обучающихся по направлениям и специальностям в области техники и технологии Изд-во АлтГТУ Барнаул 2014 УДК 51(075.8) Зайцев, В. П. Теория вероятностей и математическая статистика : учебное пособие / В. П. Зайцев. Барнаул : Изд-во АлтГТУ, 2014. 268 с. ISBN 978-5-7568-1047-9 Пособие предназначено для студентов инженерных и экономических направлений и специальностей всех форм обучения, изучающих курс теории вероятностей с элементами математической статистики. Книга содержит лекционный материал с большим числом примеров, контрольные вопросы, задачи с решениями, упражнения для проведения практических занятий и самостоятельной работы. Для всех упражнений приводятся ответы. Включены задания двух контрольных работ (по 25 вариантов). Рекомендовано Алтайским техническим университетом им. И. И. Ползунова в качестве учебного пособия для студентов АлтГТУ, обучающихся по направлениям и специальностям в области техники и технологии. Протокол № 6 НМС АлтГТУ от 20 марта 2013 г. Рецензент: А. С. Киркинский, к.ф.-м.н., профессор кафедры «Высшая математика», АлтГТУ. ISBN 978-5-7568-1047-9 © Зайцев В. П., 2014 © Алтайский государственный технический университет им. И. И. Ползунова, 2014 СОДЕРЖАНИЕ Предисловие ............................................................................. 6 1 Случайные события 1.1 Множество элементарных исходов. Понятие случайного события ..............................................................................7 1.2 Операции над событиями ................................................ 9 1.3 Определения вероятности события.................................12 1.3.1 Статистическое определение вероятности ................12 1.3.2 Классическое определение вероятности ....................13 1.3.3 Геометрические вероятности .....................................14 1.3.4 Аксиоматическое определение вероятности..............15 1.4 Применение комбинаторики к подсчёту вероятностей ..18 1.4.1 Общие вопросы ..........................................................18 1.4.2 Схема выбора без повторений ...................................19 1.4.3 Схема выбора с повторениями ..................................21 1.5 Условные вероятности. Независимость событий ...........24 1.6 Формула полной вероятности и формула Байеса...........30 1.7 Схема Бернулли...............................................................34 1.7.1 Формула Бернулли .....................................................34 1.7.2 Приближённые формулы в схеме Бернулли .............37 1.8 Контрольные вопросы .....................................................42 1.9 Задачи ..............................................................................44 1.9.1 Задачи с решениями...................................................44 1.9.2 Упражнения для самостоятельного решения ............58 1.9.3 Ответы к упражнениям ..............................................64 2 Случайные величины 2.1 Понятие случайной величины. Функция распределения 66 2.2 Дискретные случайные величины ..................................69 2.3 Непрерывные случайные величины................................71 2.4 Числовые характеристики случайной величины.............74 2.4.1 Математическое ожидание ........................................75 2.4.2 Дисперсия...................................................................76 2.5 Примеры распределений случайных величин.................79 3 2.5.1 Биномиальное распределение.....................................79 2.5.2 Распределение Пуассона .............................................81 2.5.3 Геометрическое распределение...................................82 2.5.4 Гипергеометрическое распределение..........................83 2.5.5 Равномерное распределение .......................................85 2.5.6 Показательное распределение.....................................88 2.5.7 Нормальное распределение.........................................90 2.6 Функция от случайной величины ....................................93 2.7 Система случайных величин............................................96 2.7.1 Функция распределения.............................................97 2.7.2 Дискретная двумерная случайная величина .............98 2.7.3 Независимость случайных величин ........................102 2.7.4 Корреляционная зависимость..................................103 2.8 Предельные теоремы ......................................................109 2.8.1 Закон больших чисел ................................................109 2.8.2 Центральная предельная теорема .............................115 2.9 Однородные цепи Маркова............................................117 2.9.1 Определение и способ задания цепи Маркова .........117 2.9.2 Нахождение вероятностей перехода за несколько шагов.........................................................................121 2.9.3 Предельные вероятности...........................................123 2.10 Контрольные вопросы .................................................126 2.11 Задачи ..........................................................................128 2.11.1 Задачи с решениями...............................................128 2.11.2 Упражнения для самостоятельного решения ........149 2.11.3 Ответы к упражнениям ..........................................156 3 Математическая статистика 3.1 Выборка и способы её записи ........................................159 3.1.1 Генеральная и выборочная совокупности ................159 3.1.2 Способы записи и графическое представление выборки.....................................................................161 3.1.3 Распределение 2 k и распределение Стъюдента.168 3.2 Статистическое оценивание...........................................170 3.2.1 Точечные оценки......................................................170 3.2.2 Интервальные оценки ..............................................176 4 3.3 Проверка статистических гипотез.................................181 3.3.1 Основные понятия ...................................................181 3.3.2 Проверка некоторых параметрических гипотез ......185 3.3.3 Критерий согласия 2 (критерий Пирсона)............. 190 3.4 Статистическое описание результатов наблюдения двумерной случайной величины ....................................195 3.5 Понятие о регрессии.......................................................202 3.5.1 Определение регрессии .............................................202 3.5.2 Метод наименьших квадратов. Линейная регрессия203 3.6 Контрольные вопросы ...................................................206 3.7 Задачи ............................................................................207 3.7.1 Задачи с решениями................................................207 3.7.2 Упражнения для самостоятельного решения .........219 3.7.3 Ответы к упражнениям ...........................................225 4 Приложения 4.1 Контрольная работа по теме «Теория вероятностей»....227 4.2 Контрольная работа по теме «Математическая статистика».....................................................................244 4.2.1 Содержание и варианты задания .............................244 4.2.2 Образец выполнения контрольной работы ..............254 4.3 Таблицы..........................................................................264 Список рекомендуемой литературы...................................268 5 ПРЕДИСЛОВИЕ Теория вероятностей и математическая статистика отличается от других разделов математики большим своеобразием. Исходными понятиями теории вероятностей являются понятия случайного события и вероятности случайного события. Долгое время подход к этим понятиям основывался только на интуитивных соображениях. Аксиоматический подход построения теории вероятностей, предложенный советским математиком А. Н. Колмогоровым (1903 1987) в книге «Основные понятия теории вероятностей», сделал теорию вероятностей математической наукой. При написании пособия автор старался дать изложение основных разделов теории вероятностей и математической статистики, основанное на обычном курсе математики технического вуза. Книга состоит из четырёх разделов. В первом разделе вводятся важнейшие понятия теории вероятностей: множество элементарных исходов в опыте, случайные события и операции над ними, вероятность события (статистическое, классическое, геометрическое), формулируются основные аксиомы теории вероятностей и следствия из них. Рассматривается понятие условной вероятности, зависимости и независимости событий, схема Бернулли. Второй раздел посвящён случайным величинам. Приводятся наиболее важные примеры распределений дискретных и непрерывных случайных величин. Изучаются системы случайных величин, предельные теоремы, однородные цепи Маркова. В третьем разделе излагаются основные понятия математической статистики: выборочный метод, статистическое оценивание, проверка статистических гипотез, регрессия. Четвёртый раздел содержит задания контрольной работы по теме «Теория вероятностей» и контрольной работы по теме «Математическая статистика» с образцом решения. Приведены используемые таблицы. Пособие может быть использовано как учебник, так и как задачник (приведено 132 примера с решениями и 108 упражнений для самостоятельной работы, ответы к ним указаны). 6 1 СЛУЧАЙНЫЕ СОБЫТИЯ 1.1 Множество элементарных исходов. Понятие случайного события На практике часто встречаются такие ситуации, когда результаты проводимого опыта (наблюдения, испытания) нельзя заранее точно предсказать. Например, в опыте – подбрасывание монеты, невозможно заранее сказать, что мы увидим на верхней стороне упавшей монеты: герб или цифру. На исход этого опыта влияет большое число факторов: начальное положение монеты в момент броска, начальная скорость, сопротивление воздуха, особенности поверхности, на которую падает монета и т.д. В дальнейшем будут рассматриваться только такие опыты, которые можно повторять (воспроизводить) произвольное число раз (хотя бы теоретически). При этом нас будет интересовать только, какие случайные исходы в опыте могут наблюдаться и что в результате проведённого опыта действительно наблюдалось. Отправным пунктом является понятие множества элементарных исходов (будем обозначать ), связанного с данным опытом. Под этим понимают множество всех возможных взаимоисключающих исходов опыта. Любое подмножество A множества элементарных исходов интерпретируется как случайное событие. При этом, событие A произошло в опыте (наступило, осуществилось), если результатом этого опыта явился элементарный исход, принадлежащий A. Событие, совпадающее с пустым множеством , называется невозможным событием, а событие, совпадающее со всем множеством , – достоверным событием. Множество в общем случае может быть дискретным или непрерывным. К первым относятся конечные ( , 2 , ..., n ) или счётные ( , 2 , ..., n , ... ) множества элементарных исходов, ко вторым – непрерывные множества (например, любой конечный или бесконечный интервал на числовой прямой). Для описания реальной задачи множество выбирается 7 наиболее подходящим образом. Главное, чтобы все наблюдаемые события данного опыта могли быть однозначно описаны на основе построенного множества . Другими словами, если нас интересуют наблюдаемые события A, B, C, … в опыте, то должно состоять из таких исходов, чтобы существовали подмножества, равносильные событиям A, B, C, … . Рассмотрим ряд примеров, поясняющих выбор . Пример 1.1. Пусть опыт состоит в подбрасывании один раз игральной кости (однородного кубика, грани которого помечены числами от 1 до 6). Требуется описать множество элементарных исходов и указать состав подмножеств, соответствующих следующим событиям: A = {выпало число кратное трём}, B = {выпало чётное число}, C = {выпало число не менее четырёх}, D = {выпало число 0}, E = {выпало положительное число}, F = {выпало число меньше двух}. Решение. В качестве множества всех элементарных исходов можно взять 1, 2, ..., 6 . Все перечисленные события могут быть описаны как его подмножества. Действительно, A 3, 6 , B 2, 4 , 6 , C 4 , 5 , 6 , D , E 1, 2, ..., 6 , F 1 . Пример 1.2. Опыт: монета бросается до первого появления герба. Описать множество элементарных исходов и события A = {герб впервые появился при третьем бросании монеты}, B = {будет сделано не больше трёх бросаний}. Решение. Каждый исход опыта можно описать так: n n , имея ввиду, что герб появился 1-й раз при n-м бросании. Тогда = {1, 2, … , n, …}, A = {3}, B = {1, 2, 3}. Если обозначить n ЦЦ ...Ц Г – исход, заключающийся в n 1 раз том, что герб впервые появится при n-м бросании монеты (буква Ц означает появление цифры, буква Г – появление герба), то = {1, 2 , … , n , …}, A = {ЦЦГ}, B = {Г, ЦГ, ЦЦГ}. 8 Пример 1.3 (задача о встрече). Два человека M. и N. условились встретиться в определённом месте в интервале времени [0, T]. Записать множество элементарных исходов и его подмножество, соответствующее случайному событию A = {встреча произойдёт}, считая, что каждый ожидает другого время, не больше, чем , где 0 < < T. Решение. Элементарным исходом опыY та можно считать пару чисел (x, y), где x – T время прихода M., а y – время прихода N. Тогда x , y : 0 x T , 0 y T . A X O T По условию, эти люди встретятся, если их время прихода отличается не больше, чем на , т.е. x y . Поэтому, A x , y : x y . Множества и A изображены на рисунке ( – квадрат, A – заштрихованная область). 1.2 Операции над событиями Поскольку события в опыте отождествляются с подмножествами множества элементарных исходов , то над событиями возможно осуществлять все операции, присущие операциям над множествами. Рассмотрим основные из них. Суммой событий A и B в некотором опыте называется событие A + B, состоящее из тех элементарных исходов, которые входят или в событие A, или в событие B, или в то и другое. Можно сказать, что событие A + B состоит в том, что произошло хотя бы одно из событий A или B (здесь используется не исключающее логическое «или»). Например, пусть в опыте с бросанием игральной кости событие A = {выпало число очков, кратное двум}, B = {выпало число очков, кратное трём}. Тогда событие A + B = {выпало число очков, кратное или двум, или трём}. Так как = {1, 2, 3, 4, 5, 6}, то A = {2, 4, 6}, B = {3, 6}, A + B = {2, 3, 4, 6}. Аналогично определяется сумма большего числа событий. Произведением событий A и B называется событие A B , состоящее из элементарных исходов, принадлежащих и 9 событию A, и событию B, т.е. общих для A и B. Итак, событие A B происходит тогда и только тогда, когда одновременно происходят оба события A и B (логическое «и»). В разобранном выше примере с бросанием игральной кости событие A B означает выпадение шести очков, т.е. A B = {6}. Если же в том же примере рассмотреть события A = {выпадение чётного числа очков}, B = {выпадение нечётного числа очков}, то A B = , т.е. будет невозможным событием. Напомним, что в этом случае говорят: события A и B – несовместные события. Разностью событий A и B называется событие A – B, состоящее из элементарных исходов события A, но не принадлежащих событию B. Это событие состоит в том, что A происходит, а B не происходит. В опыте с бросанием игральной кости для случайных событий A = {выпало чётное число очков} = {2, 4, 6}, B = {выпало больше 4-х очков} = {5, 6} имеем A – B = {2, 4}, а B – A = {5}. Событие A A называется противоположным событию A (дополнительным к A). Событие A означает, что A не произошло (логическое отрицание). Два события A и B называются несовместными, если множества A и B не имеют общих элементов, в этом случае A B , иначе их называют совместными. События A1 , A2 , ..., An образуют полную группу событий в опыте, если выполняются два условия: Ai A j i j , т.е. попарно несовместны; A1 A2 ... An . Тот факт, что A является подмножеством множества B, означает, что все элементы A являются и элементами B, и обозначают так: A B . Для событий это означает, что из наступления события A следует наступление события B. События A и B считаются равными (A = B), если всякий раз, когда наступает одно из них, наступает и другое. Для наглядной иллюстрации введённые выше операции 10 над событиями могут быть представлены в виде так называемых диаграмм Эйлера- Венна (результаты операции изображены на рисунках ниже в виде заштрихованных фигур). A+B A B A–B A A A B A B A B Для произвольных событий непосредственно из определения легко проверить, что A A A , A + A = A, A + = A, A A , A A , A , A + A = , A B A B , A = A. Приведём без доказательства следующие важные равенства: A B A B , A B A B , A B C A C B C . Итак, с помощью введённых операций можно из простых событий образовать более сложные. Приведём пример. Пример 1.4. Произведено три выстрела из орудия по цели (опыт). Пусть события Ai = {попадание при i-м выстреле}, где i = 1, 2, 3. Выразить через Ai следующие события: A = {ровно одно попадание}, B = {ровно два попадания}, C = {ровно три попадания}, D = {все промахи}, E = {хотя бы одно попадание}, F = {хотя бы один промах}, G = {не меньше двух попаданий}. Решение. Запишем требуемые события: A A1 A2 A3 A1 A2 A3 A1 A2 A3 , B A1 A2 A3 A1 A2 A3 A1 A2 A3 , C A1 A2 A3 , D A1 A2 A3 , E A1 A2 A3 D , F A1 A2 A3 C , G A1 A2 A3 A1 A2 A3 A1 A2 A3 A1 A2 A3 B C . 11 1.3 Определения вероятности события Сравнивая между собой случайные события, отметим, что одни события наступают довольно часто, другие менее часто или совсем редко. Мы часто говорим, что одни события более вероятны (имеют больше шансов наступить, в большей степени возможны), чем другие. Чтобы придать подобным сравнениям точный смысл, необходимо с каждым событием связать число (вероятность случайного события), выражающее количественную меру возможности появления данного события. 1.3.1 Статистическое определение вероятности Пусть A – случайное событие по отношению к некоторому опыту. Предположим, что опыт произведён n раз и при этом событие A произошло n A раз или, что тоже, n A – число опытов, в которых произошло событие A (число «удачных» опытов для события A). Величину n A Pn A n называют относительной частотой события A в проведённой серии из n опытов. Относительная частота может быть вычислена лишь после того, как проведена серия опытов и, вообще говоря, относительная частота изменяется, если мы проведём другую серию из n опытов, или если изменим число n. Однако, природа случайных событий такова, что на практике наблюдается устойчивость относительных частот. Суть этой устойчивости в том, что по мере увеличения числа опытов n относительная частота Pn A практически перестаёт быть случайной и стабилизируется около некоторого постоянного числа P A , характерного для данного события A в данном опыте. Так, например, пусть много раз бросают симметричную монету. Тогда, как показывают многочисленные эксперименты, относительная частота появления герба в длинных сериях опытов мало отличается от числа 0,5 (читатель при желании может осуществить эти опыты). 12 Если при больших n Pn A P A , то число P A является вероятностью события A (статистическое определение вероятности). Подчеркнём, что статистическая устойчивость относительной частоты события A и, следовательно, наличие определённой его вероятности P A является основным, определяющим свойством случайного события. События, не обладающие этим свойством, в теории вероятностей не рассматриваются. Следует отметить основные недостатки статистического определения вероятности: вероятность события определяется после опытов, необходимы большие серии опытов, что часто бывает осуществить трудно или невозможно. 1.3.2 Классическое определение вероятности Значительный интерес представляют опыты с конечным числом одинаково возможных элементарных исходов. Пусть A – случайное событие в таком опыте, состоящее из n A элементарных исходов (говорят в этом случае, что событию A благоприятствуют n A элементарных исходов). Тогда вероятность события A определяется по формуле P A n A n . Итак, если в опыте число всевозможных исходов конечно и сами исходы равновозможны, то вероятность любого случайного события A в таком опыте равна отношению числа n A благоприятствующих исходов для события A к общему числу n исходов. Это определение вероятности называют классическим. Пример 1.5. Опыт: симметричная игральная кость бросается дважды. Найти вероятности следующих событий: A = {оба раза выпало число очков, кратное 3}, B = {оба раза выпало число очков, большее трёх}, C = {оба раза выпало одинаковое 13 число очков}, D = {сумма выпавших очков равна 6}. Решение. Назовём элементарным исходом пару чисел i , j , где i – число выпавших очков при первом бросании, а j – при втором. Тогда i , j i , j 1, 2 , ..., 6 , все исходы равновозможны, их общее число равно n = 36. Событие A 3, 3 , 3, 6 , 6 , 3 , 6 , 6 содержит 4 элементарных исхода (число благоприятствующих исходов n A 4 1 n A 4 ). Поэтому P A . n 36 9 Событие B 4 , 4 , 4, 5 , 4, 6 , 5 , 4 , 5 , 5 , 5 , 6 , 6 , 4 , 6 , 5 , 6 , 6 . n B 9 1 . n 36 4 Событие C 1, 1 , 2 , 2 , 3, 3 , 4 , 4 , 5 , 5 , 6 , 6 , Имеем n B 9 , P B 6 1 . 36 6 Событие D 1, 5 , 5 , 1 , 2, 4 , 4 , 2 , 3, 3 , n D 5 , n C 6 , P C P D 5 . 36 1.3.3 Геометрические вероятности Пусть множеством элементарных исходов некоторого опыта служит множество точек M некоторой фигуры , имеющей меру. Под фигурой будем понимать либо отрезок на числовой оси, либо плоскую область, либо тело в пространстве. Мерой будет служить соответственно длина отрезка, площадь плоской области, объём тела. Пример такого опыта: наугад выбирается точка M фигуры . Наблюдаемый исход – координаты этой точки. Рассмотрим событие A = {наугад взятая точка M фигуры принадлежит её части 1 }, т.е. A M 1 . Предположим, что вероятность события A пропорциональна мере 1 и не зависит от 14 местоположения 1 в . Тогда величину P A мера 1 мера называют вероятностью события A (геометрическая вероятность). Пример 1.6. Стержень длиной L произвольным образом сломали на три части (опыт). Найти вероятность того, что из этих трёх частей можно составить треугольник (событие А). Решение. Обозначим длины двух частей y через x и y, тогда длина третьей части будет L B L – х – y. Множество элементарных исходов M N состоит из множества точек (x, y) на координатной плоскости Oxy, таких, что 0 x L, C 0 K L x 0 y L, 0 x+y L (треугольник ОВС на рисунке). Любой разлом стержня равнозначен выбору точки x , y . Событию А удовлетворяют те точки x , y , для которых будут выполнены условия: сумма длин любых двух частей больше длины третьей: x, y x y L x y, x l x y y, y l x y x x, y x y 0,5L, x 0,5L, y 0,5L . Множество 1 есть заштрихованный треугольник MNK на рисунке. Вероятность события А можно найти как отношение площадей MNK и OBC, поэтому P A 0 ,25 . 1.3.4 Аксиоматическое определение вероятности Вероятности в статистическом, классическом и геометрическом смыслах имеют некоторые общие свойства, например, 1) 0 P A 1 ; 2) P 1 ; 15 3) P A B P A P B , если A и B – несовместные события в опыте. Обобщение этих результатов привело к аксиоматическому определению понятия вероятности. Аксиоматическая теория вероятностей в её современном виде была создана А.Н. Колмогоровым в 1933 г. Сформулируем аксиомы, задающие само понятие вероятности. Рассмотрим некоторый опыт. Пусть – множество элементарных исходов. Вероятностью P A события A называется числовая функция, определённая на и удовлетворяющая трём условиям (аксиомам вероятностей): аксиома 1 (аксиома не отрицательности) P A 0 A ; аксиома 2 (аксиома нормированности) P 1 ; аксиома 3 (аксиома аддитивности) P A B P A P B A, B A B . Во многих случаях требуется расширенный вариант аксиомы 3. А именно, аксиома 3 постулирует сложение вероятностей для конечного числа несовместных событий, в то время как в расширенном варианте речь идёт о счётном числе несовместных событий. аксиома 3 (расширенная аксиома аддитивности) P Ai P Ai Ai Ai A j , i j . i 1 i 1 Используя аксиомы, установим некоторые важные свойства вероятности. 1) P 0 . Это следует из равенства , несовместности и и аксиомы 3. 16 Замечание. Иногда ошибочно считают, что событие нулевой вероятности обязательно есть невозможное событие. Это не так. Например, пусть выбирается наугад число из отрезка 0 , 1 . и рассмотрим событие A = {слу- Положим x x 0 , 1 чайно выбранное число равно 0,5}. Для вычисления вероятности события A нельзя применить классическое определение вероятностей (почему?). При использовании геометрической вероятности (так как – непрерывное множество элементарных исходов) считаем, что мера (длина) отрезка равна 1, а мера множества A (множество состоит из одной точки) равна 0. Поэтому P A 0 . Однако, событие A может произойти в этом опыте, оно не является невозможным! А вот событие B 2 в этом опыте невозможное. 2) P A 1 P A , так как A A и A A . 3) 0 P A 1 , что следует из аксиомы 1 и свойства 2. 4) Если A B , то P A P B . Это следует из равенства B A A B , несовместности событий A и A B и аксиомы 3. 5) Формула сложения вероятностей P A B P A P B P A B . Для доказательства этой формулы рассмотрим соотношения между событиями (как между подмножествами множества ): A A B A B , A B B A B (см. рисунок). AB AB AB A A B B Применяя к обоим равенствам аксиому 3 (ясно, что A B и A B несовместны, B и A B несовместны), получим два числовых равенства: 17 P A P A B P A B , P A B P B P A B . Вычитая из последнего равенства предыдущее, приходим к формуле сложения вероятностей. Формула сложения вероятностей может быть обобщена на случай более двух слагаемых. Например, P A B C P A B C P A B P C P A B C P A P B P C P A B P A C P B C P A B C . Аналогично для большего числа слагаемых. 1.4 Применение комбинаторики к подсчёту вероятностей 1.4.1 Общие вопросы При подсчёте числа элементарных исходов, составляющих события в классической схеме, часто используются методы комбинаторики. Вначале рассмотрим важное правило комбинаторики. Правило умножения. Если некоторое действие может быть выполнено m способами, а для каждого из этих способов некоторое другое действие можно осуществить n способами, то сложное действие «и , и » можно осуществить m n способами. Аналогично формулируется правило умножения для большего числа действий. Пример 1.7. Сколько можно составить четырёхзначных чисел так, чтобы любые две соседние цифры были различны? Решение. Пусть x1 , x2 , x 3 , x4 – соответственно первая, вторая, третья и четвёртая цифры числа. Выбор цифры x1 возможен 9 способами (x1 может быть любой из цифр 1, 2, ..., 9). Если x1 выбрана, то для выбора x2 имеется тоже 9 возможностей (x2 может быть любой из цифр 0, 1, ..., 9, отличной от x1 ). После выбора x1, x2 для x3 имеется снова 9 возможностей и т. д. Применяя правило умножения, находим, что искомое количество чисел равно 9 9 9 9 9 4 . 18 Рассмотрим опыт: выбор наудачу m элементов из n различных элементов исходного множества X x1 , x2 , ..., xn (говорят о выборке объёма m). Такой опыт может быть организован по-разному. Если выбранные элементы возвращаются в X (т.е. каждый элемент может попасть в выборку несколько раз), то мы получим выборку с повторениями. Если элементы не возвращаются, то получим выборку без повторений. Кроме этого, нужно определить: важен ли порядок элементов в выборке? Если порядок важен, то выборка называется упорядоченной, или размещением. Если порядок элементов в выборке не важен, то выборка называется неупорядоченной, или сочетанием. 1.4.2 Схема выбора без повторений Рассмотрим вначале размещения в этой схеме (размещения без повторений из n элементов по m). Число всех таких размещений обозначается символом Anm . Чтобы найти число Anm , заметим, что на первом месте в упорядоченной цепочке может оказаться любой из n элементов множества X. После того, как заполнено первое место, на втором месте может оказаться любой из оставшихся n – 1 элементов и т.д. Пользуясь правилом умножения, находим n! Anm n n 1 n 2 ... n m 1 . n m ! В частном случае m = n опыт фактически состоит в произвольном упорядочивании множества X и сводится к случайной перестановке элементов всего множества (т.е. перестановка n элементов это размещение из n элементов по n). Число всех перестановок n элементов обозначается символом Pn , при этом Pn Ann n n 1 n 2 ... 2 1 n! . 19 Пример 1.8. Множество X содержит 6 первых букв русского алфавита. Опыт состоит в выборе без возвращения 3-х букв и записи слова в порядке поступления букв. Сколько 3-х буквенных слов может быть получено в данном опыте? Какова вероятность события A = {наугад составленное слово из 3-х букв множества X оканчивается буквой а}? Решение. Множество элементарных исходов данного опыта – множество всех 3-х буквенных слов, составленных в результате опыта. Число элементов этого множества равно n A63 6 5 4 120 . Число элементов множества A равно числу способов разместить на два оставшихся места по одной букве из пяти (буква а исключена из рассмотрения, так как её место уже определено). Таким образом, n A 20 1 n A A52 5 4 20 , P A . n 120 6 Рассмотрим теперь сочетания без повторений из n элементов по m. Число всех таких сочетаний обозначается символом C nm . Так как из каждого сочетания без повторений можно, переставляя элементы, получить m! размещений, то число размещений в m! раз больше, чем число сочетаний, т.е. C nm Anm n n 1 n 2 ... n m 1 n! . Pm m! n m !m ! Для чисел C nm справедливы свойства, которые следуют из этой формулы: C nm C nn m , C nm 1 C nm C nm 1 , C nn C n0 1 , C n0 C n1 ... C nn 2 n . Пример 1.9. В урне имеется n шаров, из них n1 белых и n2 чёрных (n1 + n2 = n). Опыт: наугад извлекаются m шаров (без возвращения). Найти вероятность события A = {среди выбранных m шаров окажется ровно k белых}. 20 Решение. За элементарные исходы естественно взять сочетания из n элементов (шаров) по m (порядок расположения шаров в выборке не важен!). Поэтому общее число исходов n C nm C nm1 n2 . Выясним, сколько исходов из общего числа исходов благоприятствуют событию A, т.е. наличию в выборке объёма m белых шаров в количестве k. Каждый набор шаров, соответствующий событию A, состоит из двух частей: k белых шаров и (m – k) чёрных шаров. Число способов, которыми можно из n1 белых шаров извлечь k штук, равно C nk1 , а число способов выбрать из n2 чёрных шаров (m – k) штук равно C nm2 k . Поэтому, согласно правилу умножения, число исходов, благоприятствующих появлению события A, равно n A C nk1 C nm2 k . Итак, P A n A n C nk1 Cnm2 k C nm1 n2 . Полученная формула находит широкое применение в дальнейшем. 1.4.3 Схема выбора с повторениями Рассмотрим вначале размещения в этой схеме (размещения с повторениями из n элементов по m). Используя правило умножения, легко определить число Anm таких размещений: Anm n m . Например, число всех распределений m шаров по n ящикам (считаем, что шары различимы и ящики различимы, например, пронумерованы) равно Anm . Действительно, у каждого шара равная возможность оказаться в любом из n ящиков (n способов). По правилу умножения число способов такого распределения n n ... n n m Anm . m множителей 21 У этой схемы имеются многочисленные конкретные реализации. Например: 1) распределения дней рождения m человек соответствует распределению m шаров по n = 365 ящикам; 2) распределение m пассажиров по n вагонам эквивалентно распределению m шаров по n ящикам (если для каждого пассажира существенным является только номер вагона, а не занимаемое им в вагоне место); 3) при артиллерийском обстреле некоторой местности, например, каждый гектар обстреливаемой территории соответствует ящику, а снаряд – шару. Пример 1.10. Найти вероятность того, что в группе из m студентов хотя бы у двух дни рождения совпадают (событие А). Решение. Будем считать, что у каждого из m студентов день рождения может быть любым днём года. Тогда число всех элеm ментарных исходов равно n A365 365 m (размещения с повторениями из 365 по m). Рассмотрим событие A = {в группе из m студентов у всех дни рождения различные}. Событию A m соответствует n A A365 исходов (размещения без повторений из 365 по Имеем m). P A 1 P A 1 P A n A n m A365 365 m , значит, m A365 . 365 m Подсчитав P A для различных значений m, можно составить такую таблицу m P A 5 0,027 10 0,117 22 0,476 23 0,507 30 0,706 60 0,994 Из неё видно, что если в аудитории на лекции сидит одна учебная группа, то уже и тогда имеется более половины шансов 22 на то, что хотя бы у двоих из них дни рождения совпадают, а если две учебные группы, то «почти достоверно». В рассматриваемой схеме с повторениями можно рассмотреть сочетания (сочетания с повторениями из n элементов по m). Число таких сочетаний (обозначим C nm ) равно m C n Cnm m 1 . Доказательство этой формулы в пособии не приводится. Отметим, что число всех распределений m неразличимых шаров по n ящикам равно C nm . Пример 1.11. В библиотеке имеются книги по 8 разделам науки. Поступили очередные 3 заказа на 1 книгу каждый. Считая, что любой состав заказанной литературы равновозможен, найти вероятности следующих событий: А = {заказаны книги из разных разделов науки}, В = {заказаны книги одного раздела науки}. Решение. Опыт: получение заказа на 3 книги. Элементарный исход: список из трёх разделов науки, по которым заказаны книги. Порядок этих разделов в списке роли не играет. Число таких исходов равно числу сочетаний с повторениями из n = 8 3 элементов по m = 3, т.е. n C 83 3 1 C 10 . Число исходов, благоприятствующих событию А, равно числу способов отобрать без возвращения четыре элемента из 8, поэтому n A C 83 8 7 6 7 . P A 3 n C 10 10 9 8 15 Число исходов, благоприятствующих событию В, равно числу способов выбрать один раздел науки из восьми, поэтому P B n B n C81 3 C10 23 8 1 . 10 9 8 15 1 2 3 1.5 Условные вероятности. Независимость событий При совместном рассмотрении двух случайных событий A и B часто возникает вопрос: насколько связаны эти события друг с другом, в какой мере наступление одного из них влияет на возможность наступления другого? Для характеристики зависимости одних событий от других вводится понятие условной вероятности. Вначале рассмотрим пример. Пример 1.12. Дважды брошена симметричная игральная кость. Рассмотрим события: A = {1-й раз выпало одно очко}, B = {сумма выпавших очков меньше четырёх}. Вычислить вероятность события A, если известно, что произошло событие B. Решение. Обозначим такую вероятность P A | B . Множество элементарных исходов состоит из 6 6 = 36 исходов и может быть так записано: i , j i , j 1, 2 , ..., 6 . События A и B – это следующие подмножества : A 1, 1 , 1, 2 , 1, 3 , 1, 4 , 1, 5 , 1, 6 , B 1, 1 , 1, 2 , 2, 1 . Составим ещё событие A B 1, 1 , 1, 2 . По классической схеме имеем P A n A n P A B nB 3 6 1 1 , P B , 36 6 n 36 12 n A B n 2 1 . 36 18 Если известно, что событие B произошло, то событие A может появиться, лишь тогда, когда произойдёт исход 1, 1 или исход 1, 2 . Значит, событию A в данной ситуации будет благоприятствовать n A B 2 исхода из n B 3 исходов. Поэтому естественно считать, что P A | B 24 n A B nB 2 . 3 Заметим, что полученный результат можно записать в виде: n A B 1 n P A B 18 2 . 1 3 n B P B 12 n Полученное в данном примере равенство положим в основу общего определения условной вероятности. Пусть A и B два случайных наблюдаемых события в некотором опыте, причём P B 0 . Условной вероятностью P A | B P A | B события A при условии, что событие B произошло в данном опыте, называется величина, определяемая равенством P A B P A | B . P B Для краткости условную вероятность P A | B можно называть «вероятностью события A при условии B». Если P B 0 , то условная вероятность P A | B не определена. Замечание. Между безусловной P A и условной P A | B вероятностями события A принципиальной разницы нет. Эти числа определяют вероятности события, наблюдаемого в двух разных опытах G и G1 соответственно. Если для опыта G множество элементарных исходов есть множество , то для G1 таким множеством является 1 B . Пример 1.13. Какова вероятность того, что вытащенная наугад кость домино окажется «дублем», если известно, что сумма очков на этой кости является чётным числом? Решение. Пусть события A = {вытащенная кость – «дубль»}, B = {сумма очков – чётная}. Имеем P A B 7 / 28 7 P A | B . P B 16 / 28 16 Здесь учтено, что из 28 костей домино 16 костей имеют чётную 25 7 . 28 Из равенства, являющегося определением условной вероятности, следует P A B P B P A | B . Если оба события A и сумму очков. Заметим, что безусловная вероятность P A B обладают ненулевой вероятностью, то, поменяв местами эти события, можно записать P A B P B P A | B P A P B | A (формула умножения вероятностей). Итак, вероятность произведения двух событий равна произведению вероятности одного из этих событий на условную вероятность другого при условии, что первое из них произошло. Формулу умножения вероятностей легко распространить на случай произвольного числа событий: так, например, в случае трёх событий A, B и C имеем P A B C P A B P C | A B P A P B | A P C | A B , а в общем случае P A1 A2 ... An P A1 P A2 | A1 P A3 | A1 A2 ... P An | A1 A2 ... An 1 . Пример 1.14. Студент знает 20 из 25 вопросов программы. Найти вероятность события A = {студент знает предложенные экзаменатором три вопроса}. Решение. Рассмотрим события Ai = {студент знает i-й предложенный вопрос, i = 1, 2, 3}. Тогда A A1 A2 A3 , поэтому P A P A1 A2 A3 20 19 18 57 . 25 24 23 115 Заметим, что вероятность события A можно было найти непосредственно, используя комбинаторику: 20 19 18 3 C 20 20 19 18 20 19 18 P A 3 1 2 3 . C 25 25 24 23 25 24 23 25 24 23 1 2 3 P A1 P A2 | A1 P A3 | A1 A2 26 Условная вероятность P A | B , как правило, не совпадает с безусловной вероятностью P A . Однако есть важное исключение, когда условные вероятности совпадают с безусловными. Событие A называют независимым от события B (при условии P B 0 , если выполняется равенство: P A | B P A , т. е. вероятность события A не зависит от того, произошло или не произошло событие B. В случае независимости события A от события B следует, что P A B P A P B . Свойство независимости событий взаимно: если A не зависит от B, то и B не зависит от A. Действительно, P A B P A P B P B | A P B . P A P A Поэтому, в дальнейшем мы можем говорить о независимых событиях A и B, и условием этого является выполнение равенства . Это равенство ещё называют формулой вероятности произведения независимых событий. Пример 1.15. Пусть дважды бросается симметричная монета. Показать, что события A = {1-й раз выпал герб (Г)}, B = {2-й раз выпала цифра (Ц)} независимы. Решение. Имеем: = {ГГ, ГЦ, ЦГ, ЦЦ}, A = {ГГ, ГЦ}, B = {ГЦ, ЦЦ}, AB = {ГЦ}. По классической схеме: 2 1 2 1 1 P A , P B , P A B . 4 2 4 2 4 Итак, P A B P A P B , следовательно события A и B независимы. Замечание. Если A и B независимы, то события A и B , A и B , A и B также независимы. Действительно, из равенства B A B A B следует 27 P B P A B P A B , так как A B и A B несовместны. Если A и B независимы, то P A B P B P A B P B P A P B P B 1 P A P B P A , что означает независимость событий A и B. Аналогично показывается независимость событий A и B, A и B . События A1, A2, … , An называются независимыми в совокупности, если для любых k из них (k n) следует равенство P Ai1 Ai2 ... Aik P Ai1 P Ai2 ... P Aik . Если это условие выполнено только при k = 2, то события попарно независимы. Замечания. 1. Отметим без доказательства, что из независимости в совокупности событий A1, A2, … , An следует, что любое из этих событий независимо от любой комбинации остальных. Например, в рассмотренном случае будут независимыми события A1 и A2 + A3, т. е. P A1 A2 A3 P A1 P A2 A3 и т. п. 2. Если события A1, A2, … , An независимы в совокупности, то вероятность осуществления хотя бы одного из них проще вычисляется не по формуле сложения, а с помощью формулы умножения: P A1 ... An 1 P A1 ... An 1 P A1 ... P An . Пример 1.16. Электрическая схема состоит из n блоков: p1 1) 2) p1 p2 p2 pn pn 28 1) соединённых последовательно; 2) соединённых параллельно. Пусть надёжность (т.е. вероятность безотказной работы) каждого блока равна соответственно p1, p2, … , pn. Считая выходы из строя различных блоков независимыми событиями, найти надёжность всей схемы в целом. Решение. Пусть события Ai = {исправная работа i-го блока, i = 1, 2, … , n}, A = {исправность схемы в целом}. В случае 1) событие A осуществляется только тогда, когда осуществляются все Ai, поэтому A A1 A2 ... An . В силу независимости событий Ai следует P A P A1 P A2 ...P An p1 p2 ...pn . В случае 2) событие A = A1 + A2 + … + An. Так как события Ai могут быть совместными, поэтому воспользоваться формулой для вероятности суммы событий неудобно. Заметим, что событие A (выход схемы из строя) происходит лишь в том случае, когда выходят из строя все блоки. Это означает, что A A1 A2 ... An , и, следовательно, P A P A1 P A2 ...P An 1 p1 1 p2 ... 1 pn . Таким образом, надёжность схемы в случае 2) оказывается равной P A 1 P A 1 1 p1 1 p2 ... 1 pn . Пример 1.17. Найти надёжность схемы, изображённой на рисунке. p2 Решение. Предложенную схему можно расp1 p4 сматривать как результат p3 последовательного соединения 3-х блоков (на рисунке эти блоки обведены пунктирами). Поэтому A A1 A2 A3 , где P A1 p1 , P A2 1 1 p2 1 p3 , P A3 p4 . Итак, P A p1 1 1 p2 1 p3 p4 . 29 1.6 Формула полной вероятности и формула Байеса В некоторых ситуациях нужно найти вероятность события в условиях «неполной определённости». Поясним на примере. Пример 1.18. В классе 3 отличника, 10 «хорошистов», а всего 20 учеников. Вероятность решить трудную задачу для отличника равна 0,8, для хорошиста – 0,6, для остальных учеников – 0,2. Какова вероятность события А = {задачу решит ученик, выбранный случайным образом}? Решение. Кто будет решать задачу, кого «выберет случай» – неизвестно. В такой ситуации нужно сделать предположения, или гипотезы. В рассматриваемом примере возьмём такие гипотезы: H1 = {выбран отличник}, H2 = {выбран хорошист}, H3 = {выбран более слабый ученик}. События H 1 , H 2 , H 3 – полная группа событий, т. е. они несовместны и P H i 1 . H1 H2 H3 i A На рисунке видно, что A A H 1 A H 2 A H 3 – сумма несовместных событий. Значит, P A P A H 1 P A H 2 P A H3 . Применив понятие условной вероятности, получим: P A P H 1 P A | H 1 P H 2 A | H 2 P H 3 P A | H 3 . Это и есть формула полной вероятности (для 3-х гипотез). В общем случае, когда гипотез n штук, формула имеет вид: n P A P H i P A | H i . i 1 Продолжим решение примера. Чтобы воспользоваться полученной формулой полной вероятности, вычислим вначале 3 10 7 0 ,15 , P H 2 0 ,5 , P H 3 0 ,35 . 20 20 20 Условные вероятности даны в условиях примера: P H1 P A | H 1 0 ,8 , P A | H 2 0 ,6 , P A | H 3 0 ,2 . 30 Итак, P A 0 ,15 0 ,8 0 ,5 0 ,6 0 ,35 0 ,2 0 ,49 . Пример 1.19. На предприятии изготавливаются изделия определённого вида на 3-х поточных линиях. На 1-й линии производится 20% изделий от всего объёма их производства, на 2-й – 30%, на 3-й – 50%. Каждая из линий характеризуется соответственно следующими процентами годности изделий: 95%, 98% и 97%. Требуется определить вероятность того, что наугад взятое изделие, выпущенное предприятием, окажется бракованным. Решение. Обозначим через H1, H2, H3 события, состоящие в том, что наугад взятое изделие сделано соответственно на 1-й, 2-й, 3-й линиях. Согласно условиям задачи P H 1 0 ,2 ; P H 2 0 ,3 ; P H 3 0 ,5 и эти события образуют полную группу событий. Рассмотрим событие A = {наугад взятое изделие оказалось бракованным}. Согласно условиям задачи P A | H 1 0 ,05 ; P A | H 2 0 ,02 ; P A | H 3 0 ,03 . Используя формулу пол- ной вероятности, получаем P A P H1 P A| H1 P H2 P A | H 2 P H3 P A| H 3 = 0,2 0,05 + 0,3 0,02 + 0,5 0,03 = 0,031. Пример 1.20. Экономист полагает, что вероятность роста стоимости акций некоторой компании в следующем году будет равна 0,8, если экономика страны будет на подъёме; и эта же вероятность будет равна 0,25, если экономика страны не будет успешно развиваться. По его мнению, вероятность экономического подъёма в новом году равна 0,7. Используя предположения экономиста, оценить вероятность того, что акции компании поднимутся в цене в следующем году. Решение. Обозначим события A = {акции компании поднимутся в цене в следующем году}, H1 = {экономика страны будет на подъёме}, H 2 H 1 = {экономика страны не будет успешно развиваться}. По условию задачи известны вероятности: P H 1 0 ,7 , P H 2 1 0 ,7 0 ,3, 31 P A | H 1 0 ,8 , P A | H 2 0 ,25 . По формуле полной вероятности находим P A P H1 P A| H1 P H2 P A| H2 0,7 0,8 0,3 0,25 0,635 . Пусть H1, H2, … , Hn – совокупность гипотез по отношению к интересующему нас событию A в некотором опыте. Пусть опыт проведён, и стало известно, что событие A осуществилось. Сам по себе этот факт ещё не позволяет сказать, какое из событий Hi имело место в проделанном опыте. Задача 1.1. Найти вероятности P H i | A каждой из гипотез в предположении, что наступило событие A (при этом будем считать известными вероятности гипотез до опыта P H i и условные вероятности P A | H i ). Решение. Согласно формуле умножения вероятностей можем записать P A H i P A P H i | A P H i P A | H i , отсюда получаем P Hi P A | Hi P Hi P A | Hi P H i | A n . P A P Hk P A | Hk k 1 Полученное соотношение называется формулой Байеса и является решением поставленной задачи. Итак, формула Байеса позволяет «переоценить» вероятность каждой из гипотез после поступления новой информации относительно осуществления тех или иных наблюдаемых событий. Пример 1.21. Из 10 студентов, которые пришли на экзамен по математике, трое знают все 20 вопросов («отличные» студенты), четверо – 16 вопросов («хорошие» студенты), двое – 10 вопросов («средние» студенты), а один студент – только 5 вопросов («плохой» студент). Каждый студент получает на экзамене наугад 3 вопроса из 20. Приглашённый наугад студент ответил на все 3 вопроса (событие А). Какова вероятность, что отвечал «отличный» студент, «хороший» студент, «средний» студент, «плохой» студент? 32 Решение. Рассмотрим события, которые можно взять в качестве гипотез: H1 = {на экзамен был приглашён «отличный» студент}, H2 = {на экзамен был приглашён «хороший» студент}, H3 = {на экзамен был приглашён «средний» студент}, H4 = {на экзамен был приглашён «плохой» студент}. Согласно условию задачи 3 4 2 1 P H1 , P H2 , P H3 , P H4 . 10 10 10 10 Нетрудно вычислить вероятность события A для каждой категории студентов (на знание и первого, и второго, и третьего из предложенных вопросов): 16 15 14 P A | H 1 1, P A | H 2 0 ,49 , 20 19 18 10 9 8 5 4 3 P A | H3 0 ,11, P A | H 4 0 ,01 . 20 19 18 20 19 18 Вначале найдём по формуле полной вероятности P A , а затем по формуле Байеса требуемые вероятности P H i | A : 4 P A P H i P A| H i i 1 0 ,3 1 0 ,4 0 ,49 0 ,2 0 ,11 0 ,1 0 ,01 0 ,52 ; P H 1 | A P H 2 | A P H 3 | A P H 4 | A P H1 P A | H1 P A P H2 P A | H2 P A P H 3 P A | H3 P A P H4 P A | H4 P A 33 0 ,3 1 0,58 ; 0 ,52 0 ,4 0 ,49 0 ,38 ; 0 ,52 0 ,2 0 ,11 0 ,04 ; 0 ,52 0 ,1 0 ,01 0 ,002 . 0 ,52 1.7 Схема Бернулли В теории вероятностей часто встречается так называемая схема независимых повторных испытаний с двумя исходами (схема Бернулли). Кратко опишем такую схему. Пусть A – случайное событие, наблюдаемое в некотором испытании. Отвлекаясь от возможного разнообразия исходов в испытании, будем интересоваться лишь тем, произошло событие A (успех) или не произошло A (неуспех). Пусть P A p , тогда P A 1 p q . Допустим теперь, что испытание в неизменных условиях повторяется n раз, в силу чего вероятность P A p остаётся одной и той же в каждом испытании (такие повторные испытания называют независимыми). Например, 2 раза (n = 2) бросается игральная кость. Пусть осуществление события A = {появление шести очков} означает успех, а осуществление A – неуспех. Множество элементарных исходов A A, A A, A A, A A состоит из 2 2 4 исходов. Вероятность q P A p P A успеха 1 , 6 а неуспеха 5 . 6 Рассмотрим задачу, связанную со схемой Бернулли, которая играет важнейшую роль для практических применений теории вероятностей. 1.7.1 Формула Бернулли Задача 1.2. Пусть производится n независимых испытаний, в каждом из которых с одной и той же вероятностью p может наступить некоторое событие A. Требуется найти вероятность события B = {в n испытаниях событие A наступит ровно k раз}. Решение. Событие B может быть представлено в виде суммы несовместных событий, каждое из которых включает k 34 успехов и (n – k) неуспехов. Каждому такому событию в n испытаниях будет соответствовать произведение k букв A и (n – k) букв A , чередующихся в том порядке, в котором появляются эти события в n испытаниях. Число таких слагаемых будет равно числу сочетаний C nk (количество способов расставить k букв A на n мест, остальные (n – k) мест занимаются буквами A ) Вероятность появления каждой такой последовательности, ввиду независимости испытаний, равна p k 1 p nk pk q n k . Отсюда, вероятность события B будет равна C nk p k q n k . Чтобы подчеркнуть, что полученная вероятность зависит от n и k, обозначим P B Pn k . Итак, Pn k C nk p k q n k . Полученная формула носит название формулы Бернулли, а сами вероятности Pn k называются биномиальными вероятностями. Такое название связанно с тем, что числа Pn k имеют непосредственное отношение к формуле бинома Ньютона: n n k 0 k 0 n Pn k Cnk pk q nk p q 1 . С точки зрения теории вероятностей это равенство обосновывается тем, что его левая часть определяет вероятность достоверного события, заключающегося в осуществлении события A при n испытаниях любое число раз от 0 до n. Пример 1.22. Стрелок стреляет по цели пять раз подряд. Вероятность поражения цели этим стрелком при каждом выстреле равна 0,8. Какова вероятность того, что цель будет поражена четыре раза? Решение. Рассматривая каждый выстрел как отдельное испытание, можно сделать вывод, что речь идёт о n = 5 независимых повторных испытаниях с вероятностью успеха (попадания в цель) p = 0,8, q = 1 – p = 0,2. Применим формулу Бернулли при k = 4 (число успехов): 35 4 P5 4 C54 p4 q 5 4 C55 4 p 4 q 1 5 0 ,8 0 ,2 0 ,4096 . Пример 1.23. В люстре 4 электролампочки. Для каждой лампочки вероятность того, что она останется исправной в тече5 ние года, равна . Какова вероятность того, что в течение года 6 придётся заменить меньше половины лампочек? Решение. Рассматривая эксплуатацию каждой лампочки в течение года как отдельное испытание, можно сказать, что проводится n = 4 испытания. Нас интересует событие B = B0 + B1, где Bk = {придётся заменить k лампочек, k = 0; 1}. Здесь «успехом» следует считать неисправность лампочки, поэтому 5 1 5 p 1 , а q . Итак, P B P4 0 P4 1 6 6 6 0 4 1 3 5 4 4 5 3 125 5 1 5 C 41 4 4 . 144 6 6 6 6 6 6 В схеме Бернулли довольно важной является 1 C 40 Задача 1.3. Какое число k успехов является наиболее вероятным при данном числе испытаний n? Решение. Задачу можно сформулировать иначе: какое из чисел Pn 0 , Pn 1 , ..., Pn n является наибольшим? Рассмотрим отношение соседних чисел: Pn k 1 C nk 1 p k 1 q n k 1 n k p nk p 1 1 k k n k Pn k k1 q Cn p q k 1 q 1 ak , где a = np – q. k 1 q Имеем: Pn k 1 Pn k при k < a, Pn k 1 Pn k при k > a, Pn k 1 Pn k при k < a (если a – целое число). 36 Итак, при k < a функция Pn k возрастает, а при значениях k > a убывает. Следовательно, если число a не является целым, то функция Pn k имеет единственный максимум и он достигается при ближайшем к числу a справа целом значении k, т.е. при таком целом k , которое заключается между a и a + 1: a k a 1 np q k np p . Если же a = np – q – целое число, то два равных между собой максимума достигаются при k = a и k = a + 1. Итак, если вероятности p и q отличны от нуля, то целое число k определяется из неравенства np q k np p . Пример 1.24. Отдел технического контроля проверяет партию из 10 деталей. Вероятность того, что деталь стандартна, равна 0,75. Какое наиболее вероятное число деталей будет признано стандартным? Решение. В данном случае n = 10, p = 0,75, q = 0,25. Определим наивероятнейшее число k : 10 0 ,75 0 ,25 k 10 0 ,75 0 ,75 7 ,25 k 8,25 , отсюда единственное целое число k 8 . 1.7.2 Приближённые формулы в схеме Бернулли В приложениях часто приходится вычислять вероятности Pn k при больших значениях n. В этом случае вычисления по формуле Бернулли становятся затруднительными. Поэтому при больших n пользуются приближёнными формулами для вычисления вероятностей Pn k , а также для сумм вида k2 Pn k . k k1 Укажем формулы такого рода. Пусть число испытаний n велико, а вероятности p и q не малы (обычно достаточно выполнения условия npq 10), тогда биномиальную вероятность Pn k можно приближённо найти по локальной формуле Лапласа: 37 1 Pn k x , npq где x k np npq x , 1 2 e x2 2 . k2 В этих же условиях вероятность Pn k1 k k2 Pn k k k1 можно приближённо найти по интегральной формуле Лапласа Pn k1 k k 2 x2 x1 , где xi ki np npq x , i 1, 2 , а x t dt 0 1 x e 2 0 t2 2 dt – функция Лапласа. Замечания. 1) Обоснование приведённых формул приводится в следующем разделе данного пособия. 2) Функция (x) – чётная функция, т.е. (–x) = (x), а функция Ф(x) – нечётная функция, т.е. Ф(–x) = – Ф(x). Для этих функций составлены таблицы (в данном пособии – это таблица 1, расположенная на с. 264). 3) Точность приближённых формул улучшается с ростом величины npq. Отсюда следует, что чем ближе одно из чисел p или q к нулю (другое число в этом случае близко к единице), тем большим следует брать n. Поэтому в случае близости одной из величин p или q к нулю формулами Лапласа обычно не пользуются, для этого случая более точными являются приближённые формулы Пуассона, которые рассмотрим ниже. Рассмотрим задачу, которую можно решить с помощью интегральной формулы Лапласа. Задача 1.4. Определить вероятность того, что в n независимых повторных испытаниях отклонение относительной частоты 38 k появления успеха от вероятности p успеха в одном испытаn нии не превысит заданного числа 0 , т.е. найти k P p . n Решение. Преобразуем неравенство в равносильное k p n k np n np n k np n . n Применяя интегральную формулу Лапласа при k1 np n , k2 np n , получим np n np np n np k n P p Ф Ф 2Ф . pq npq npq n Пусть теперь n велико, а p или q является малым числом. Будем считать для определённости, что мало p (в случае малого q нужно просто изменить обозначения и вместо события А рассмотреть событие A , при этом числа p и q поменяются ролями). Такая ситуация возникает, когда имеем дело с редко происходящими событиями. Примеры таких событий: совпадение дней рождения у нескольких человек, достижение столетнего возраста, рождение трёх близнецов и т.п. nk Выражение Pn k C nk p k 1 p представляет собой функцию трёх переменных: n, p и k. Предположим, что k зафиксировано, а n и p изменяются следующим образом: при возрастании n вероятность p появления интересующего нас события убывает, притом так, что величина = np остаётся постоянной. Рассмотрим, как ведут себя биномиальные вероятности при n , p 0 , np . Согласно формуле Бернулли и условия p имеем n 39 Pn k C nk p k 1 p nk nk n n 1 ... n k 1 k 1 k! n nk n n n 1 n k 1 k ... 1 1 n n n k! n n Поэтому, lim Pn k k . n n k 1 k 1 k lim 1 1 ...1 lim lim 1 lim 1 n n n n n k! n n n k k 1 e 1 e (здесь был использован k! k! 1 второй замечательный предел lim 1 e ). 0 Итак, при больших n и малых p (обычно p < 0,1; npq < 10) справедливы приближённые равенства (формулы Пуассона) Pn k k e , np . k! k2 k2 k e . k k1 k ! Pn k1 k k2 Pn k k k1 Замечание. Особенностью формул Пуассона является то, что для вычисления вероятности того или иного числа успехов вовсе не требуется отдельно знать n и p. Всё определяется в конечном счёте числом = np (средним числом успехов). Приведём примеры применения рассмотренных приближённых формул. Пример 1.25. Вероятность рождения мальчика равна 0,51. Найти вероятность того, что среди 100 новорождённых окажется ровно 50 мальчиков. Решение. Имеем по условию n = 100, k = 50, p = 0,51, q = 0,49, поэтому npq = 24,99 > 10. Воспользуемся локальной формулой Лапласа: 40 P100 50 50 100 0,51 1 1 1 0,39 0,078 . 24,99 24,99 5 5 5 1 Пример 1.26. Какова вероятность того, что при 200кратном бросании монеты число k появлений герба удовлетворяет неравенству 95 k 105? Решение. Здесь n = 200, p = q = 1/2 , k1 = 95, k2 = 105. 1 1 Так как n велико и npq = 200 50 10 , то можно приме2 2 нить интегральную формулу Лапласа: k np 95 200 0,5 x1 1 0,707 , npq 200 0,5 0,5 x2 k 2 np npq 105 200 0 ,5 200 0 ,5 0 ,5 0 ,707 , P200 95 k 105 Ф 0,707 Ф 0,707 2Ф 0,707 0 ,522 . Значение функции Лапласа взято из таблицы 1 (с. 265). Пример 1.27. Пусть событие А = {выпадение шести очков при одном бросании игральной кости}. Найти вероятность события В = {относительная частота появления события А при 300 бросаниях игральной кости будет отличаться от вероятности события А не более чем на 0,01}. Решение. Пусть k – число появлений события А (число успехов) при n = 300 бросаниях кости, тогда относительная частоk та появления события А будет равна . Вероятность появле300 ния события А при одном бросании (вероятность успеха) оче1 видно равна . Тогда событие В заключается в том, что число k 6 k 1 удовлетворяет неравенству 0 ,01 . Воспользуемся ре300 6 шением задачи 1.4 при 0 ,01 : 41 k 1 300 P 0,01 2 0,01 2 0,46 2 0,177 0,354 . 1 5 300 6 6 6 Пример 1.28. Какова вероятность того, что среди 500 наугад выбранных человек двое родились 18 мая? Решение. Будем считать, что день рождения наугад взятого человека может быть с равной вероятностью любым из 365 дней 1 года. Имеем n = 500, k = 2, p . Так как n велико, а p мало 365 500 1,37 , то воспользуемся формулой Пуассона: np 365 2 1,37 2 1,37 P500 2 e e 0 ,24 . 2! 2 Замечание. От схемы независимых повторных испытаний с двумя исходами (схема Бернулли, или биномиальная схема) можно перейти к полиномиальной схеме, т.е. к схеме повторных независимых испытаний, в каждом из которых возможны m исходов (m > 2) с вероятностями p1 , p2 , ..., pm , при условии, что m 0 pi 1, pi 1 . Тогда вероятность того, что в таких n исi 1 пытаниях 1-й исход появится n1 раз, 2-й исход n2 раз, ..., m-й исход nm раз ( n1 n2 ... nm n ) равна Pn n1 , n2 , ..., nm n! nm p1n1 p2n2 ... pm . n1 ! n2 ! ... nm ! 1.8 Контрольные вопросы 1. Что понимается под множеством элементарных исходов, связанного с данным опытом? Приведите пример. 2. Что называется случайным событием в опыте? Чем характеризуется невозможное и достоверное событие? 3. Что такое сумма, произведение, разность двух событий? 42 Какое событие называется противоположным событию А? Приведите примеры. 4. Что называется относительной частотой события? Как определяется вероятность события статистически? 5. Как определяется вероятность события в опытах с конечным числом одинаково возможных исходов (классическое определение вероятности)? 6. Как определяется вероятность события в опытах с непрерывным множеством исходов (геометрическая вероятность)? Дайте геометрическое определение вероятности события. 7. Как определяется вероятность события аксиоматически? 8. Чему равна вероятность суммы 2-х событий в двух случаях: а) события несовместны; б) события совместны? 9. Как вычисляется число размещений из n элементов по m а) без повторений; б) с повторениями? 10. Как вычисляется число сочетаний из n элементов по m а) без повторений; б) с повторениями? 11. Что называется условной вероятностью события А при выполнении события В? 12. Что означает независимость 2-х случайных событий; независимость в совокупности и попарная независимость для событий A1, ..., An? 13. Чему равна вероятность произведения 2-х событий в двух случаях: а) события независимы; б) события зависимы? 14. Что называется полной группой событий в опыте? 15. В чём состоит формула полной вероятности? 16. В чём состоит формула Байеса? 17. Что понимается под схемой Бернулли независимых повторных испытаний? Запишите формулу Бернулли для вычисления величин Pn(k). 18. Запишите локальную приближённую формулу Лапласа. В каком случае её применяют для вычисления Pn(k)? 19. Запишите интегральную приближённую формулу Лапласа. В каком случае её применяют для вычисления Pn(k1 k k2)? 20. Запишите приближённую формулу Пуассона. В каком случае её применяют для вычисления Pn(k)? 43 1.9 Задачи 1.9.1 Задачи с решениями 1. Три шара а, b, с наугад распределяются по двум ящикам (ящик № 1 и ящик № 2). Наблюдаемый результат – состав шаров в ящиках. Построить множество элементарных исходов и подмножества, соответствующие указанным событиям: А = {существует пустой ящик}; В = {ящик № 1 не пуст}; С = {нет пустых ящиков}; D = {в ящике № 2 только один шар}; Е = {в ящике № 2 не более двух шаров}; F = {шар а не попал в ящик № 1}; G = {шары a и b не попали в один ящик}. Решение. Множество элементарных исходов удобно описать таблицей: Наблюдаемый исход ящик №1 ящик №2 1 2 3 4 5 6 7 8 abc abc ab c c ab ac b b ac bc a a bc Итак, = {1, 2, ..., 8} (общее число исходов равно 8). Тогда А = {1, 2}, B = {1, 3, 4, 5, 6, 7, 8} = – {2}, C = {3, 4, 5, 6, 7, 8}, D = {3, 5, 7}, E = {1, 3, 4, 5, 6, 7, 8} = B, F = {2, 4, 6, 7 }, G = {5, 6, 7, 8 }. 2. Опыт – два человека X и Y одновременно показывают друг другу либо 1, либо 2, либо 3 пальца на руке. Наблюдаемый результат – пара чисел (x, y), где x – количество пальцев, показанных человеком X, а y – количество пальцев, показанных Y. Описать множество элементарных исходов и события: А = {показано одинаковое количество пальцев}, В = {общее число показанных пальцев больше трёх}, С = {у одного человека число показанных пальцев больше на один, чем у другого}. Решение. Множество элементарных исходов = {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3), (3, 1), (3, 2), (3, 3)} состоит из 9 исходов. Все перечисленные события могут быть описаны как подмножества : A = {(1, 1), (2, 2), (3, 3)}; 44 B = {(1, 3), (2, 2), (2, 3), (3, 1), (3, 2), (3, 3)}; C = {(1, 2), (2, 1), (2, 3), (3, 2)}. 3. Из полной колоды карт (52 карты) вынимается наугад одна карта. Рассмотрим события A = {появления туза}, B = {появление карты красной масти}, C = {появление карты чёрной масти}. Указать, в чём состоят события: 1) A + B; 2) A B ; 3) B + C; 4) B C ; 5) A + C; 6) A C . Решение. 1) Из определения суммы событий следует, что A + B = {взятая карта или туз, или красной масти}; 2) событие A B состоит в том, что одновременно происходит и событие A и событие B, т.е. A B = {взятая карта – туз красной масти}; 3) B + C = {появление карты или красной, или чёрной масти} = ; 4) B C = – невозможное событие, так как карта одновременно не может быть красной и чёрной; 5) A + C = {карта или туз, или чёрной масти}; 6) A C = {карта – туз чёрной масти}. 4. На отрезке [a, b] наугад ставится точка. Пусть х – координата этой точки. Затем на отрезке [a, х] наугад ставится ещё одна точка с координатой y. Наблюдаемый результат – пара чисел (x, y). Построить множество элементных исходов и события А = {расстояние между точками x и y меньше половины длины отрезка [a, b]}, В = {1-я точка ближе ко 2-й, чем к правому концу отрезка [a, b]}, С = {2-я точка ближе к правому концу отрезка [a, b], чем к левому}. Решение. Множество x , y a x b, a y x , подмножества, равносильные событиям А, В и С, имеют вид: ba x , y x y , 2 B x , y x y b x y 2 x b , a b C x , y b y y a y . 2 45 Все множества изображены на рисунке. y b b y b A a b b y C B a a y x a x a a ab b a ab b 2 2 x a b 5. Два баскетболиста по очереди бросают мяч в корзину до 1-го попадания (1-й баскетболист бросает первым). Выигрывает тот, кто первым забросит мяч. Рассмотрим события: Ak = {1-й баскетболист попадает при своём k-м броске}, Bk = {2-й баскетболист попадает при своём k-м броске}. Записать множество элементарных исходов и события A = {выигрывает 1-й баскетболист}, В = {выигрывает 2-й баскетболист}, используя события Ak и Bk. Решение. Пусть Х – число бросаний мяча до первого попадания (включительно). Тогда элементарные исходы этой игры i можно записать так: i X i , i . Выразим i через Ak, Bk: 1 A1 , 2 A1 B1 , 3 A1 B1 A2 , 4 A1 B1 A2 B2 , ... . Итак, 1 , 2 ,... – счётное множество элементарных исходов, события A 1 , 3 , 5 , ... , B 2 , 4 , 6 , ... . 6. Оценить вероятности угадать на одну карточку игры «Спортлото 5 из 36» ровно 3, 4, 5 номеров. Решение. Участник лотереи из 36 номеров отмечает 5 номеров. После того как участник сдал карточку, проводится выборка пяти номеров. Множеством элементарных исходов будет множество неупорядоченных выборок 5-ти номеров из 36. Число 5 таких выборок n C 36 . Пусть Ak = {k номеров, отмеченных участником лотереи, попало в выборку}, где k = 3, 4, 5. Число исходов, благоприятствующих событию Ak, подсчитаем так: представим множество 36-ти чисел как сумму двух множеств. Первое состоит из 5-ти выигравших, а второе из 31 не выигравших. Событие Ak можно выполнить так: из первого множества 46 берём k номеров наугад ( C 5k способов), а из второго множества 5k берём (5 – k) оставшихся номеров ( C 31 способов). Поэтому, по 5 k правилу умножения, n Ak C 5k C 31 . Так как все исходы равновозможные, то используем классическое определение вероят5 k n Ak C 5k C 31 ности: P Ak (см. пример 1.9). 5 n C 36 Итак, вероятность выигрыша 3-х номеров 5 4 3 31 30 2 C 53 C 31 1 2 3 1 2 P A3 0 ,012 ; 5 36 35 34 33 32 C 36 1 2 34 5 вероятность выигрыша 4-х номеров 5 31 1 C 54 C 31 1 1 P A4 0 ,0004 ; 5 36 35 34 33 32 C 36 1 2 3 4 5 вероятность выигрыша 5-ти номеров 0 C55C31 1 P A5 5 3 106 . 36 35 34 33 32 C36 1 2 3 4 5 7. Ребёнок играет с 10-ю буквами разрезной азбуки а, а, а, е, и, к, м, м, т, т. Найти вероятность того, что, расположив их в ряд в случайном порядке, он получит слово «математика» (событие А). Решение. Для удобства будем считать все рассматриваемые буквы различимыми, например, занумеровав повторяющиеся буквы: а1, а2, а3, е, и, к, м1, м2, т1, т2. Тогда число всех элементарных исходов n будет равно числу перестановок десяти элементов (букв): n P10 10 ! . Число исходов n A , благоприятствующих появлению события А, можно подсчитать так: слово «математика» не изменяется при возможных перестановках его трёх букв а между собой. Число таких перестановок 47 равно P3 3! . Аналогично и для повторяющихся букв м и т. Поэтому, n A P3 P2 P2 , значит P A n A n 3! 2! 2! 1 . 10 ! 151200 8. Имеем 10 букв разрезной азбуки а, а, а, б, б, б, б, о, о, о. Найти вероятность того, что, вынув наугад последовательно 6 букв, получим слово «баобаб» (событие A). Решение. Как и в предыдущем примере считаем повторяющиеся буквы различимыми. Число всех элементарных исходов n равно числу размещений (важен порядок) из 10 букв по 6, 6 т.е. n A10 (здесь исходами являются 6-ти буквенные сло- ва). Число исходов n A , благоприятствующих появлению события А, можно подсчитать так: слово «баобаб» не изменится, если его три буквы б выбирать из четырёх данных букв б ( A43 способов, так как порядок по-прежнему важен), две буквы а из 3-х данных букв а ( A32 способов), одну букву о из 3-х данных букв о ( A31 способов). Согласно правилу умножения имеем n A A43 A32 A31 . Поэтому, P A n A n A43 A32 A31 6 A10 4 3232 3 1 . 10 9 8 7 6 5 350 9. За круглым столом имеются N мест и случайным образом рассаживаются N человек (N > 2). Найти вероятность того, что два фиксированных лица X и Y окажутся рядом (событие А). Решение. Множеством элементных исходов является множество всех перестановок N человек по N местам, поэтому число исходов n N ! .Определим число перестановок, в которых данные два человека X и Y окажутся рядом. Могут быть следующие случаи: X сидит на 1-м месте, а Y на 2-м; X на 2-м, а Y на 3-м, ... Таких парных мест за круглым столом будет N штук. Кроме того, X и Y можно поменять местами, и, следовательно, существует 2N способов размещения X и Y. Каждому из 48 этих способов соответствуют (N–2)! перестановок других лиц на оставшиеся N–2 мест. Итак, по правилу умножения имеем n A 2 N N 2 ! , поэтому P A n A n 2 N N 2 ! N! 2 N N 2 ! N 2 ! N 1 N 2 . N 1 Замечание. Если стол прямоугольный и N человек рассаживаются случайно по N местам вдоль одной из сторон, то 2 N 1 N 2 ! 2 N 1 ! 2 P A . N! N! N 10. Из последовательности чисел {1, 2, ..., n} наугад берут два числа. Какова вероятность события A = {одно из чисел меньше k, а другое больше k}, где k – натуральное число, такое что 1 < k < n . Решение. Множеством элементарных исходов является множество сочетаний из n чисел по 2 (порядок не важен), поэтому, n C n2 . Подсчитаем число исходов n(A), благоприятствующих событию A. Чисел, меньших k, в данной последовательности (k –1) штук, а чисел, больших k будет (n – k) штук, поэтому, по правилу умножения n(A) = (k – 1)(n – k). Вероятность события A: n A k 1 n k 2 k 1 n k P A . n n n 1 C n2 11. В лифт семиэтажного дома на первом этаже вошли 3 человека. Пусть каждый из них с одинаковой вероятностью выходит на любом из этажей, начиная со второго. Найти вероятности событий: А = {все пассажиры выйдут на седьмом этаже}; B = {все пассажиры выйдут одновременно}; C = {все пассажиры выйдут на разных этажах}. Решение. Наблюдаемый результат – номера этажей выхода для 3-х пассажиров. Число всех элементарных исходов n 6 3 , это есть число размещений с повторениями из 6 49 элементов (этажей) по 3 (для каждого пассажира). Это же число можно получить из правила умножения: у каждого пассажира независимо от других имеется 6 исходов (и у 1-го пассажира 6 этажей выхода, и у 2-го 6 этажей, и у 3-го 6 этажей). Событию А соответствует только один исход, т.е. n(A) = 1, поэтому n A 1 1 P A 3 . n 6 216 Событие B равносильно событию {все вышли на одном и том же этаже}, которому благоприятствует n(B) = 6 исходов. n B 6 1 Поэтому, P B 3 . n 6 36 Чтобы подсчитать число исходов, благоприятствующих событию С, нужно подсчитать число размещений из 6 элементов (этажей) по 3, т. е. n C A63 , поэтому, P C n C n A63 6 3 654 6 3 5 . 9 12. На отрезок BC длины a наугад нанесена точка D. Найти вероятность того, что каждый из отрезков BD и DC имеет длину большую, чем 0,2a (событие A). Решение. Расположим отB M N C D X резок на числовой оси так, как 0,8a a 0 0,2a x это изображено на рисунке. Пусть х – координата случайной точки D. Тогда множество элементарных исходов можно записать так: x 0 x a . Ясно, что исходов опыта (нанесение точки D на отрезок BC) бесконечно много и все они равновозможны. Длина отрезка BD равна х, длина отрезка DC равна a – х, поэтому событие A x x 0,2a и a x 0,2a x 0,2 x 0 ,8a . Таким образом, событию A соответствует отрезок MN, а множеству всех исходов опыта соответствует отрезок BC. Применяя формулу геометрической вероятности, получим 50 P A MN 0 ,8a 0 ,2a 0 ,6 . BС a 13. В круг радиуса R вписан квадрат. Найти вероятность события А = {поставленная наудачу точка в круг окажется внутри квадрата}. Решение. Воспользуемся формулой геометрической вероятS 1 ности P A , где – круг радиуса R, s R 2 – S площадь круга, 1 – вписанный квадрат в , s 1 x 2 – площадь этого квадрата, где х – сторона квадрата (см. рисунок). 2 По теореме Пифагора x 2 x 2 2R , отсюR R . x x да x 2 2R 2 . Итак, s 1 2R 2 , поэтому P A 2R 2 R 2 2 . 14. Из ящика, в котором 6 белых и 4 чёрных шара, наугад три раза извлекают шар. Найти вероятность того, что все три извлечённых шара окажутся белыми (событие А), если: а) извлечённые шары в ящик не возвращают; б) после каждого извлечения шар возвращают в ящик. Решение. Пусть события Ai = {появление белого шара при i-м извлечении, i = 1, 2, 3}. Тогда A A1 A2 A3 . а) События А1, А2, А3 зависимы, так как состав шаров в ящике после каждого извлечения меняется. Это подтверждается и вычислением: 6 5 4 1 P A P A1 A2 A3 P A1 P A2 | A1 P A3 | A1 A2 . 10 9 8 6 б) События А1, А2, А3 независимы, так как состав шаров в ящике после каждого извлечения сохраняется. Имеем 6 6 6 27 P A P A1 A2 A3 P A1 P A2 P A3 . 10 10 10 125 51 15. Из колоды в 36 карт наугад извлекается одна карта. События: A = {вынутая карта – туз}, В = {вынутая карта чёрной масти}, C = {вынутая карта является фигурой (т.е. валетом, дамой, королём или тузом)}. Установить, зависимы или независимы следующие пары событий: A и В, А и С, B и С. Вычислить PA B C . Решение. Вначале вычислим вероятности событий А, В и С, используя классическую схему: 4 1 18 1 16 4 P A , P B , P C . 36 9 36 2 36 9 2 1 1 1 1 Так как P A B P A P B , то со36 18 9 2 18 бытия A и В независимы. Аналогично, из соотношений 8 2 1 4 2 P B C P B P C 36 9 2 9 9 следует независимость и пары событий B и С. 4 1 1 4 Так как P A C P A P C , то делаем 36 9 9 9 вывод, что события A и С зависимые. 2 1 Имеем P A B C . 36 18 16. Из множества чисел {1, 2, 3, ..., N} наугад один за другим выбирают три числа. Найти условную вероятность того, что третье число попадёт в интервал, образованный первыми двумя, если известно, что первое число меньше второго. Решение. Пусть события A = {третье число попадает в интервал, образованный первыми двумя числами}, В = {первое число меньше второго}. Найдём P A | B , используя определение условной вероят1 1 ности: P A | B 3! . 1 3 P B 2 Отметим, что полученный результат не зависит от N. P A B 52 17. Подбрасывают наугад три игральные кости. Рассмотрим случайные события: A = {на трёх костях выпадают разные грани}, B = {хотя бы на одной из костей выпадает шесть очков}. Вычислить P B | A и P A | B . Решение. Рассматриваемые условные вероятности можно вычислять в классической схеме по формулам: n A B n A B P B | A , P A | B , n A n B где n A , n B , n A B – число элементарных исходов рассматриваемого опыта, благоприятствующих появлению событий A, B, A B соответственно. Вычислим эти числа: n A A63 , n B 6 3 5 3 91 (от общего числа 63 исходов в опыте нужно вычесть 53 исходов, в которых нет шестёрок), n A B 3 A52 (на одной из 3-х костей обязательно шестёрка, на остальных 2-х костях разные очки). Поэтому, 3 A2 3 5 4 1 3 A52 3 5 4 60 . P B | A 35 , P A| B 6 5 4 2 91 91 91 A6 18. В семье двое детей. Какова вероятность того, что оба ребёнка мальчики, если известно, что: а) старший ребёнок – мальчик; б) по крайней мере один из детей – мальчик (считать, что рождение мальчика и девочки – независимые и равновероятные события). Решение. Множество элементарных исходов можно описать таким образом: = {MM, MД, ДМ, ДД}, где, например, исход MД означает, что первый (старший) ребёнок – мальчик, а второй (младший) ребёнок – девочка. По условию задачи каждый исход независим и равновозможен. Пусть А = {старший ребёнок – мальчик}, В = {младший ребёнок – мальчик}, тогда A B = {оба ребёнка – мальчики}. В случае а) требуется найти 53 P A B | A P A B A P A P A B P A 1/ 4 1 . 2/ 4 2 В случае б) ищем P A B | A B P A B A B P A B P A B P A B 1/ 4 1 . 3/ 4 3 19. Имеются две урны: в 1-й урне находится 3 белых шара и 2 чёрных; во 2-й – 4 белых и 4 черных. Из 1-й урны во 2-ю перекладывают наугад два шара. После этого из 2-й урны берут один шар. Найти вероятность того, что этот шар будет белым (событие А). Решение. Событие А, очевидно, зависит от того, какие шары были переложены из 1-й урны во 2-ю. Выберем три несовместных события, составляющие полную группу (гипотезы): H1 = {переложены 2 белых шара}, H2 = {переложен 1 белый и 1 чёрный шары}, H3 = {переложены 2 чёрных шара}. Вероятности этих гипотез и условные вероятности вычислим по классической схеме: C2 C 1C 1 C2 P H 1 32 0 ,3, P H 2 3 2 2 0 ,6 , P H 3 22 0,1 , C5 C5 C5 Контроль: P H 1 P H 2 P H 3 1 . 6 5 4 0,6 , P A | H 2 0,5, P A | H 3 0,4 . 10 10 10 Применим формулу полной вероятности для трёх гипотез: P A | H1 P A P H1 P A| H1 P H2 P A | H 2 P H3 P A| H 3 = 0,3 0,6 + 0,6 0,5 + 0,1 0,4 = 0,52. 20. Предположим, что 5% всех мужчин и 0,25% всех женщин дальтоники. Наугад выбранный человек оказался дальтоником. Считая, что мужчин и женщин одинаковое количество, найти вероятность того, что этот человек: а) мужчина; б) женщина? Решение. Пусть событие A = {случайно выбранный человек – дальтоник}. Рассмотрим гипотезы: 54 H1 = {случайно выбранный человек – мужчина}, H2 = {случайно выбранный человек – женщина} = H 1 . Нужно определить P H 1 | A и P H 2 | A . Находим из условия задачи P H 1 P H 2 0 ,5 , P A | H 1 0 ,05 , P A | H 2 0 ,0025 . По формуле полной вероятности определим P A P H1 P A| H1 P H2 P A| H2 0 ,5 0 ,05 0 ,5 0 ,0025 0 ,02625 . По формуле Байеса имеем P H1 P A| H1 0,5 0,05 20 а) P H1 | A , P A 0,02625 21 P H2 P A| H2 0,5 0,0025 1 . P A 0,02625 21 21. Игральную кость подбрасывают 4 раза. Найти вероятность того, что шесть очков выпадет: а) два раза; б) не более двух раз; в) хотя бы один раз. Определить наивероятнейшее число выпадений шести очков в данных испытаниях. Решение. Проводится 4 независимых повторных испытаний. Успехом в каждом испытании будем считать выпадение шести очков. Вероятность успеха в каждом испытании постоян1 на и равна p . Значит, имеем дело со схемой Бернулли. 6 1 1 5 а) Здесь n 4 , k 2 , p , q 1 . По формуле 6 6 6 Бернулли б) P H2 | A 2 42 3 1 2 2 43 1 5 1 5 P4 2 C 42 0 ,116 . 6 6 12 6 6 б) Искомая вероятность равна P4 0 P4 1 P4 2 . Проще найти вероятность противоположного события – шесть очков выпадет более двух раз, т.е. выпадет 3 или 4 раза. Имеем P4 3 P4 4 1 C43 4 0 5 1 5 4 1 5 C4 4 4 4 0,016 . 6 6 6 6 6 6 55 Итак, вероятность того, что шесть очков выпадет не более двух раз, равна 1 P4 3 P4 4 0 ,984 . в) Искомая вероятность равна 4 5 P4 k 1 1 P4 k 1 1 P4 0 1 q 1 0 ,518 . 6 Наивероятнейшее число k выпадений шести очков находим из условия np q k np p . Отсюда следует, что 1 5 1 1 1 5 4 k 4 , т.е. k . Итак, при четырёх 6 6 6 6 6 6 бросаниях игральной кости наиболее вероятно, что шестёрка не 4 4 5 выпадет ( k 0 ) и эта вероятность равна P4 0 0 ,482 . 6 22. Подводная лодка атакует крейсер, выпуская по нему 4 3 торпеды. Вероятность попадания каждой торпедой равна . 4 Любая из торпед с одинаковой вероятностью может пробить один из 10 отсеков крейсера, которые в результате попадания наполняются водой. При заполнении хотя бы двух отсеков крейсер тонет. Найти вероятность гибели крейсера (событие A). Решение. Рассмотрим гипотезы: Hi = {попадание в крейсер i торпед, i = 0, 1, 2, 3, 4}. Вероятности гипотез можно определить по формуле Бернулли: i 3 1 P H i C 4i 4 4 Имеем: P H 0 P 3 H 1 C 41 3 C 4o 4 i o , i 0 , 1, 2, 3, 4 . 4 1 1 , 256 4 4 1 3 2 2 3 1 4 o 3 27 1 3 1 , P H 2 C 42 , 64 128 4 4 4 4 27 81 3 1 3 1 P H 3 C 43 , P H 4 C 44 . 4 4 64 4 4 256 56 Исходя из того, при каких условиях крейсер будет потоплен, имеем: P A | H 0 P A | H 1 0 , P A | H2 1 P A / H2 1 P A | H3 1 1 2 1 0 ,9 , 10 0 ,99 , P A | H 4 1 10 По формуле полной вероятности 1 10 3 0 ,999 . 4 P A P Hi P A| Hi 0,924 . i 0 23. Вероятность того, что при упаковке люстра будет повреждена, равна 0,2. Какова вероятность того, что после упаковки 100 люстр повреждёнными окажутся: а) 15 люстр; б) не более 15 люстр? Решение. По условию задачи число независимых повторных испытаний n = 100 (испытанием является упаковка люстры). Вероятность «успеха» (повреждения люстры при упаковке) равна p = 0,2, а «неуспеха» равна q = 0,8. Так как n велико, а npq = 100 0,2 0,8 = 16 > 10, то можно воспользоваться приближёнными формулами Лапласа. а) Имеем, согласно локальной формуле Лапласа, 15 100 0 ,2 1 P100 15 100 0 ,2 0 ,8 100 0 ,2 0 ,8 1 5 1 0 ,183 0 ,05 . 4 4 4 б) По интегральной формуле Лапласа найдём 15 100 0 ,2 0 100 0 ,2 P100 0 k 15 Ф Ф 100 0 ,2 0 ,8 100 0 ,2 0 ,8 1,25 5 5 1,25 0 ,5 0 ,39 0 ,11 . 24. В голосовании принимают участие 10000 избирателей. Пусть вероятность того, что конкретный избиратель проголосует 57 за кандидата A, равна 0,51. Какова вероятность, что кандидат A получит не меньше половины всех голосов? Решение. Считая, что избиратели голосуют независимо друг от друга, применим схему Бернулли с числом испытаний n = 10000 и вероятностью успеха в одном испытании p = 0,51 и неуспеха q = 0,49. Так как npq = 2499 достаточно большое число, воспользуемся интегральной формулой Лапласа: P10000 5000 k 10000 10000 10000 0 ,51 5000 10000 0 ,51 10000 0 ,51 0 ,49 10000 0 ,51 049 98 2 0 ,5 0 ,477 0 ,977 . 25. Среди 1000 человек приблизительно 8 левшей. Какова вероятность того, что среди ста наугад выбранных человек не окажется ни одного левши? Решение. Имеем число испытаний n = 100, число «успехов» (человек – не левша) k = 0, вероятность «успеха» p = 0,008. Так как n – велико, а p – мало, то применим приближённую формулу Пуассона при = np =100 0,008 = 0,8: 0 ,80 0 ,8 P100 0 e 0 ,45 . 0! 1.9.2 Упражнения для самостоятельного решения 1. Монета подбрасывается три раза. Наблюдаемый результат: появление герба (Г) или цифры (Ц) на верхней стороне упавшей монеты. Описать множество элементарных исходов и подмножества, соответствующие событиям: А = {герб выпал ровно один раз}, B = {ни разу не выпала цифра}, C = {выпало больше гербов, чем цифр}, D={герб выпал не менее, чем 2 раза подряд}. 2. Ящик № 1 содержит три шара с номерами 1, 2, 3, а ящик № 2 – шары с номерами 4, 5. Опыт: наугад из каждого ящика достают по одному шару. Наблюдаемый результат – пара чисел (x, y), соответствующих номерам шаров, вытащенных из ящика № 1 (x) и № 2 (y). Описать множество элементарных исходов и подмножества, соответствующие событиям: A = {сумма 58 номеров равна 7}, B = {среди вынутых шаров есть шар с номером 4}, А+В, A B , A B, A B . 3. Заданы события А, В, С. Составить из них события: а) М = {произошло только одно из заданных событий}; б) N = {произошло хотя бы одно из заданных событий}; в) K = {произошло ровно два из заданных событий}; г) D = {произошло не менее двух из заданных событий}. 4. Назвать противоположные события для следующих событий: а) А = {выпадение 2-х гербов при бросании 2-х монет}; б) B = {три попадания при 3-х выстрелах}; в) C = {хотя бы одно попадание при 4-х выстрелах}; г) D = {выигрыш первого игрока при игре в шахматы}. 5. Производится стрельба по плоской прямоугольной мишени: –2 х 2, –1 y 1. Наблюдаемый результат – координаты точки попадания в декартовой системе координат (по условию стрельбы непопадание в указанный прямоугольник исключено). Описать множество элементарных исходов и подмножества, соответствующие событиям: А = {абсцисса точки попадания не больше ординаты}; В = {произведение координат точки попадания неотрицательно}; C = {сумма абсолютных величин координат точки превышает 1}. Изобразить рисунками данные множества. 6. На телеграфном кабеле длиной L произошло два разрыва (будем считать, что разрывы происходят случайно). Наблюдаемый результат – пара чисел (x1, x2), где x1 и x2 – координаты точек разрыва на отрезке [0, L]. Описать и изобразить множество элементарных исходов и подмножество, соответствующее соL бытию A = {расстояние между разрывами не больше }. 3 7. В ящике содержится 4 белых и 3 чёрных шара, различающихся только цветом. а) Вынимается наугад один шар. Найти вероятность того, что он белый. 59 б) Вынимаются наугад два шара (без возвращения). Найти вероятности событий: А = {оба шара белые}; В = {хотя бы один из них чёрный}; C = {шары одного цвета}. 8. В ящике находятся три шара с номерами 1, 2, 3. Наугад вынимаются два шара. Какова вероятность того, что оба вынутых шара имеют нечётные номера, если выбор осуществляется: а) без возвращения; б) с возвращением? 9. Наугад взято трёхзначное число. Какая вероятность того, что сумма цифр в записи этого числа не больше трёх? 10. Четыре орудия ведут огонь по трём целям. Каждый орудийный расчёт выбирает цель наугад. Какова вероятность того, что все орудия ведут огонь по одной и той же цели? 11. Из разрезной азбуки выкладывается слово «ракета». Затем все буквы этого слова перемешиваются и снова выкладываются в случайном порядке. Какова вероятность того, что получится слово «карета»? 12. Наугад выбирается пятизначное число. Какова вероятность следующих событий: A = {число кратно пяти}; B = {число составлено из нечётных цифр}; С = {число одинаково читается как слева направо, так и справа налево, например, 12321}. 13. Среди кандидатов в студенческий совет факультета 3 первокурсника, 5 второкурсников и 7 третьекурсников. Из этого состава наугад выбирают 5 человек в студенческий совет. Найти вероятности следующих событий: A = {будут выбраны одни третьекурсники}; B = {будет выбран следующий состав: 1 первокурсник, 2 второкурсника и 2 третьекурсника}. 14. Числа 1, 2, ..., 9 записываются в случайном порядке. Найти вероятности следующих событий: A = {числа будут записаны в порядке возрастания}; B = {числа 1 и 2 будут стоять рядом}; C = {на чётных местах будут стоять чётные числа}. 15. Найти вероятности того, что среди трёх наугад выбранных цифр (выбор с повторением) встретится ноль повторений (все цифры различные); одно повторение (две цифры одинаковые); два повторения (все цифры одинаковые). 60 16. Наугад выбирается одна кость домино. Найти вероятности событий: A = {кость является «дублем»}; B = {сумма очков на кости меньше 9}; C = {разность очков равна 1}. 17. Из множества чисел {1, 2, ..., n} выбирается два числа. Какова вероятность, что второе число больше первого, если выбор осуществляется: а) без возвращения; б) с возвращением? 18. Плоскость рассечена параллельными прямыми, находящимися друг от друга на расстоянии a. На плоскость наугад брошена монета радиуса r. Найти вероятность того, что монета пересечёт прямую в предположении, что 2r < a. 19. На отрезке [–1, 2] наугад выбираются два числа. Какова вероятность того, что их сумма больше 1, а произведение меньше 1? 20. В квадрат с вершинами (0, 0), (0, 1), (1, 0), (1, 1) наугад брошена точка М. Пусть (a, b) – её координаты. Найти вероятность того, что корни уравнения x2 + ax + b = 0 – действительные. 21. В шар вписан куб. Найти вероятность того, что выбранная наугад внутри шара точка окажется внутри куба. 22. Опыт: брошены последовательно три симметричные монеты. Рассмотрим события A = {выпадение герба на первой монете}, B = {выпадение хотя бы одной цифры}. Найти вероятности P A , P B , P A B , P A | B , P B | A и сделать вывод о зависимости или независимости событий A и B . 23. В произвольном порядке выписываются две буквы М и две буквы А. Найти вероятность того, что обе буквы М будут стоять рядом, при условии, что последняя по порядку буква А. 24. Вероятность поломки станка № 1 за смену равна 0,1, для станка № 2 вероятность поломки равна p. Определить p, если вероятность поломки хотя бы одного из этих станков равна 0,28. 25. Бросили игральную кость. Какова вероятность того, что выпало простое число очков (2, 3 или 5), если известно, что число выпавших очков нечётно? 61 26. В ящике лежат 12 красных, 8 зелёных и 10 синих шаров. Наугад вынимаются два шара. Какова вероятность, что вынутые шары будут разного цвета, если известно, что не вынут синий шар? 27. Найти вероятность того, что наугад взятое двузначное число окажется кратным 2, либо 5, либо тому и другому одновременно. 28. Студент пришёл на зачёт, зная из 30 вопросов только 24. Какова вероятность, что студент не ответит на первый предложенный вопрос, но ответит на второй? 29. В круг радиуса R вписан квадрат. Чему равна вероятность того, что из трёх точек, поставленных наугад в круг, только одна точка окажется внутри квадрата? 30. Сколько раз надо бросить игральную кость, чтобы с вероятностью, меньшей 0,3, можно было ожидать, что ни на одной из выпавших граней не появится 6 очков? 31. Прибор, установленный на борту самолёта, может работать в двух режимах: в условиях перегрузки при взлёте и посадке и в условиях нормального крейсерского полёта. Условия перегрузки осуществляются в 20% всего времени полёта, а крейсерский режим полёта – в 80%. Вероятность выхода прибора из строя во время полёта в нормальном режиме равна 0,1, в условиях перегрузки равна 0,4. Вычислить надёжность (вероятность безотказной работы) прибора за время полёта. 32. В продажу поступают телевизоры трёх заводов. Продукция первого завода содержит 20% телевизоров со скрытым дефектом, второго – 10% и третьего – 5% . Какова вероятность приобрести исправный телевизор, если в магазин поступило 30% с первого завода, 20% – со второго и 50% – с третьего? 33. В ящике лежат 20 теннисных мячей, в том числе 15 новых и 5 играных. Для игры наугад выбираются два мяча и после игры возвращаются обратно. Затем для второй игры также наугад извлекаются ещё два мяча. Какова вероятность того, что вторая игра будет проводиться новыми мячами? 62 34. Для покупки билета пассажир может обратиться в одну из трёх касс. Вероятность обращения в каждую из них зависит от их местоположения и равна соответственно 0,1; 0,5; 0,4. Вероятности того, что к моменту прихода пассажира билеты на нужный рейс будет распроданы, равны 0,7; 0,8; 0,5 соответственно. Пассажир купил билет. Какова вероятность того, что он обратился в первую кассу? 35. В урне лежит шар неизвестного цвета – с равной вероятностью белый или чёрный. Затем в эту урну опускается один белый шар и после перемешивания наугад извлекается один шар. Он оказался белым. Какова вероятность того, что в урне остался белый шар? 36. Десять человек пришли на избирательный участок и случайным образом отдали свои голоса за одного из пяти кандидатов. Какова вероятность того, что за первого по списку кандидата проголосовало 3 человека? 37. Вероятность того, что в данной местности год будет урожайным равна 0,8. Какова вероятность, что из пяти рассматриваемых лет: а) четыре года будут урожайными; б) более двух лет – неурожайные; в) хотя бы один год неурожайный? 38. Отрезок AB разделён точкой C в отношении 2:1. На этот отрезок наугад брошены 4 точки. Найти вероятность того, что: а) две из них окажутся левее точки C и две – правее; б) хотя бы две точки окажутся на отрезке AС. 39. Из орудия произведено 6 выстрелов по объекту. Вероятность попадания в объект при каждом выстреле равна 0,3. Найти: а) наивероятнейшее число попаданий; б) вероятность наивероятнейшего числа попаданий; в) вероятность того, что объект будет разрушен, если для этого достаточно хотя бы 2-х попаданий. 40. В среднем 40% изготовленных заводом часов спешат. Какова вероятность, что из 600 часов число часов, которые спешат, окажется равным 250? 41. На каждую тысячу букв текста русского языка в среднем приходится 110 букв «о». Какова вероятность того, что в тексте из 2000 букв буква «о» встретится от 200 до 250 раз? 63 42. Вероятность перерасхода отпущенного кредита равна 0,01 для каждого предприятия. Найти вероятность того, что из 400 предприятий: а) у 395 не будет перерасхода; б) перерасход будет не менее чем у трёх предприятий. 43. Вероятность получения по лотерее выигрышного билета равна 0,1. Какова вероятность того, что среди 500 наугад купленных билетов не менее 48 и не более 55 выигрышных? 44. Садоводческий кооператив застраховал на год свои дачные дома от пожара. Каждый из 600 домовладельцев внёс по 150 рублей. Вероятность пожара (в одном доме) в течение года равна 0,005, а страховая сумма, выплачиваемая пострадавшему, составляет 12000 рублей. Какова вероятность того, что страховая компания понесёт убыток? 1.9.3 Ответы к упражнениям 1. = {ГГГ, ЦГГ, ГЦГ, ГГЦ, ГЦЦ, ЦГЦ, ЦЦГ, ЦЦЦ}, A = {ГЦЦ, ЦГЦ, ЦЦГ}, B = {ГГГ}, C = {ГГГ, ЦГГ, ГЦГ, ГГЦ}, D = {ГГГ, ЦГГ, ГГЦ}. 2. = {(1,4), (1,5), (2,4), (2,5), (3,4), (3,5)}, A = {(2,5), (3,4)}, B={(1,4), (2,4), (3,4)}, A+B={(2,5), (3,4), (1,4), (2,4)}, AB 3, 4 , A B ={(1,5), (3,5)}, A B ={(1,4), (1,5), (2,4), (2,5), (3,5)}. 3. а) M ABC ABC ABC ; б) N = A + B + C; в) K ABC ABC ABC ; г) D = K + ABC = AB + BC + AC. 4. а) A = {выпадение хотя бы одной цифры при бросании 2-x монет}; б) B = {не более 2-х промахов при 3-х выстрелах}; в) C = {все промахи при 4-х выстрелах}; г) D = {ничья или выигрыш 2-го игрока при игре в шахматы}. 5. = {(x, y): –2 x 2, –1 y 1}; A = {(x, y): x y}; B={(x, y): xy 0}; C={(x, y): x+y> 1} (см. рисунки). 1 A y 1 y x –2 2 –1 1 B –2 64 C x 2 –1 y –2 x 2 –1 6. x1 , x2 : 0 x1 L, 0 x2 L ; x2 L L A A x1 , x2 : x1 x2 . L 3 3 Ω x1 4 2 5 7. а) ; б) P A ; P B ; L L 3 7 7 7 1 4 1 1 1 3 . 10. . 11. . P C . 8. а) ; б) . 9. 7 3 9 90 27 360 5 ; P C 0 ,01 . 144 1 30 1 2 13. P A ; P B . 14. P A ; P B ; 143 143 9! 9 1 P C . 15. 0,72; 0,27; 0,01. 216 12. P A 0 ,2 ; P B n1 1 11 3 ; P B ; P C . 17. а) 0,5; б) . 2n 4 14 14 2 1 2r 1 3 2 18. . 19. ln 2 . 20. . 21. . 9 6 a 12 2 1 7 3 3 22. P A ; P B ; P A B ; P A | B ; 2 8 8 7 3 2 P B | A ; события A и B зависимы. 23. . 24. 0,2. 25. 4 3 16. P A 2 6 2 2 48 24 . 26. . 27. 0,6. 28. . 29. . 30. n 7. 31. 3 95 145 3 2 0,84. 32. 0,895. 33. 0,445. 34. 0,1045. 35. . 36. 0,2. 3 8 8 37. а) 0,410; б) 0,058; в) 0,672. 38. а) ; б) . 27 9 39. а) 2; б) 0,324; в) 0,58. 40. 0,02. 41. 0,907. 42. а) 0,156; б) 0,762. 43. 0,39. 44. 0,012. 65 2 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 2.1 Понятие случайной величины. Функция распределения В теории вероятностей среди решаемых ею задач много таких, в которых исход опыта выражается некоторым числом X. При этом случайный характер исхода влечёт за собой случайность числа X. Это означает, что при повторении опыта это число меняется непредвиденным образом. Приведём некоторые примеры. 1. Дважды бросается симметричная монета, X1 – число выпадений герба. 2. Производится стрельба по цели до 1-го попадания, X2 – число произведённых выстрелов. 3. В круге радиуса R наугад выбирается точка, X3 – расстояние от этой точки до центра круга. 4. Испытывается прибор на длительность безотказной работы, X4 – время работы этого прибора до его поломки. Случайной величиной X, связанной с данным опытом, называется числовая функция, определённая на множестве элементарных исходов . Каждой случайной величине соответствует некоторое множество её возможных значений. Случайная величина, принимающая конечное или счётное число возможных значений x1, x2, x3, … на числовой прямой, называется дискретной. Если же случайная величина принимает непрерывное множество значений, например, значениями являются все действительные числа или все числа некоторого промежутка, то такая случайная величина называется непрерывной. Так, в первом и во втором приведённых примерах случайные величины X1 = {0, 1, 2} и X2 = {1, 2, 3, …} – дискретные, а в третьем и четвёртом примерах случайные величины X 3 x 0 x R и X 4 x x 0 – непрерывные. Для полного задания случайной величины недостаточно знать, какие значения она принимает. Важно ещё знать, 66 насколько часто они принимаются этой величиной в результате испытаний. Для этой цели используют понятие закона распределения случайной величины. Для дискретной случайной величины X надо знать вероятности того, что X примет отдельные её значения. Для непрерывных случайных величин надо уметь вычислять вероятности всех интервальных событий, связанных со случайной величиной X, т.е. событий вида: X x , X x , x1 X x2 . Так как X x X \ X x , x1 X x2 X x2 \ X x1 , то на самом деле достаточно уметь вычислять вероятность события {X < x}. Важной вероятностной характеристикой случайной величины X служит её функция распределения: FX x P X x , x , т.е. для каждого числа x функция FX x – это вероятность того, что в результате опыта случайная величина X примет значение, меньшее x. Например, FX 0 P X 0 , FX 5 P X 5 . Если речь идёт только об одной случайной величине, то в обозначении функции распределения будем опускать индекс случайной величины, т.е. будем писать F x . Рассмотрим основные свойства функции распределения. 1) 0 F x 1 x , так как F x – вероятность. 2) Предельные значения функции распределения: F 0 , так как { X < – } – невозможное событие; F 1 , так как { X < + } – достоверное событие. 3) P x1 X x2 F x 2 F x1 . Для доказательства запишем событие {X < x2} в виде суммы несовместных событий {X < x1} и {x1 X < x2} и применим формулу сложения вероятностей: 67 P X x 2 P X x1 P x1 X x 2 . Отсюда, используя определение функции распределения, получим равенство . Это равенство играет важную роль, так как позволяет находить вероятность попадания случайной величины на произвольный интервал с помощью функции распределения. 4) F x – неубывающая функция на всей числовой оси, т.е. из условия x2 x1 следует F x2 F x1 . Это следует из формулы , так как в левой части этой формулы стоит неотрицательная величина (вероятность!). 5) F x непрерывна слева, т.е. F x 0 F x x , где F x 0 lim F x – левосторонний предел. Доказатель00 ство этого свойства в данном пособии не приводится. 6) P X x0 lim P x0 X x1 lim F x1 F x0 x1 x0 0 x1 x0 0 0 , если F x0 0 F x0 , F x0 0 F x0 p 0 , если F x0 0 F x0 , т. е. вероятность попадания случайной величины X в точку x0 равна нулю, если функция F x непрерывна в точке x0, и равна скачку p F x0 0 F x0 функции F x , если F x разрывна в точке x0. Пример 2.1. Пусть функция распределения F x имеет вид: Y 2 x 3 при x 1, 1 F x 1 2 x при x 1 0,5 p 0,25 (см. рисунок). X Нетрудно убедиться, что 1 0 функция F x удовлетворяет всем рассмотренным выше свойствам функции распределения. 68 Функция F x имеет единственную точку разрыва x0 = 1, в которой скачок равен p F 1 0 F 1 2 1 2 2 0 ,25 . Имеем P X x 0 при x 1 и P X 1 0 ,25 . Можно найти, например, вероятности: P X 0 F 0 20 3 0 ,125 , P 0 ,5 X 2 F 2 F 0 ,5 2 1 2 20 ,5 3 3 2 . 8 Замечание. Если функция распределения F x непрерывна в точках x1 и x2, то P x1 X x2 P x1 X x2 P x1 X x2 P x1 X x2 . Рассмотрим далее отдельно дискретные случайные величины и непрерывные случайные величины. 2.2 Дискретные случайные величины Уточним определение дискретной случайной величины. Случайная величина X называется дискретной, если множество её возможных значений x1 , x2 , x3 , ... конечно или счётно, причём можно определить вероятности P X xi pi 0 . Здесь pi 1 , так как события X xi , i i = 1, 2, … образуют полную группу. В дальнейшем будем считать, что возможные значения расположены по возрастанию: x1 < x2 < x3 < … Итак, дискретная случайная величина X может быть задана в виде следующей таблицы, называемой рядом распределения: X x1 x2 … xi … P p1 p2 … pi … при этом числа p1, p2, … положительны и их сумма равна 1. Выясним теперь, какой вид имеет функция распределения дискретной случайной величины X, заданной рядом распределения. Для этого возьмём любое число x. Среди чисел x1, x2, … выделим те, которые меньше x. Пусть таких чисел k штук. Событие {X < x} = {X = x1} + … + {X = xk}. Так как события в 69 правой части несовместны, то получим функцию распределения для дискретной случайной величины X в виде: k F x P X x p1 p2 ... pk pi , i 1 где xk < x, а xk+1 x (см. рисунок). x x1 x2 x3 … xk X … xk+1 Сделаем вывод о том, как устроены функции распределения дискретных случайных величин: это монотонные ступенчатые функции, имеющие в точках xi скачки величины pi. На рисунке ниже изображён график такой функции для частного случая, когда X принимает только четыре значения. Левее самого малого возможного знаF(x) чения x1 график совпадает с осью 1 p4 Ox, правее наибольшего значения x4 – с прямой y = 1. p3 Итак, ряд распределения поp2 x p1 зволяет построить функцию расx1 x2 x3 x4 пределения, поэтому его можно считать законом распределения дискретной случайной величины. Пример 2.2. Из урны, в которой лежат 2 белых и 3 чёрных шара, последовательно вынимают шары до тех пор, пока не появится чёрный шар. Для случайной величины X – числа вынутых шаров – найти ряд распределения и составить функцию распределения. Решение. Возможными значениями величины X являются числа 1, 2, 3. Найдём соответствующие вероятности. Событие {X = 1} означает, что уже 1-й вынутый шар будет 3 чёрным, поэтому P X 1 0 ,6 . 5 Событие {X = 2} означает, что приходится вынуть два шара, значит, 1-й шар будет белым, а 2-й – чёрным. По формуле умножения вероятностей зависимых событий получим 2 3 P X 2 0 ,3 . 5 4 70 Наконец, событие {X = 3} означает, что первые два шара оказались белыми, но 3-й шар обязательно будет чёрным, по2 1 3 этому P X 3 0 ,1 . Сумма всех найденных вероят5 4 3 ностей равна единице: 0,6 + 0,3 + 0,1 = 1, что может служить для контроля проведённых вычислений. Итак, ряд распределения X P 1 0,6 2 0,3 3 0,1 Функция распределения F x легко найдётся из определения. В самом деле: если – < x 1, то {X < x} = , поэтому F x 0 ; если 1 < x 2, то {X < x} = {X = 1}, F x 0 ,6 ; если 2 < x 3, то {X < x} = {X = 1} + {X = 2}, F x 0,6 0,3 0,9 ; если x > 3, то {X < x} = {X = 1} + {X = 2} + {X = 3}, F x 0,6 0,3 0,1 1 . Поэтому, x1 0, 0 ,6 , 1 x 2 F x . 0 ,9, 2 x 3 1, x3 2.3 Непрерывные случайные величины В предыдущем пункте было показано, что функция распределения дискретной случайной величины изменяет свои значения только скачками. Рассмотрим случай, когда функция распределения вообще не имеет скачков, т.е. является непрерывной функцией. Уточним определение непрерывной случайной величины X – это такая случайная величина, что её функция распределения F x непрерывна на всей числовой оси. 71 В отличие от дискретных случайных величин вероятность каждого отдельного значения для непрерывной случайной величины равна нулю (см. в предыдущем пункте свойство 6 функции распределения). В дальнейшем будем рассматривать только такие непрерывные случайные величины, для которых существует производная функции распределения всюду, кроме, может быть, конечного числа точек. В этом случае функцию f x F x называют плотностью распределения вероятностей или, короче, – плотностью вероятности. Плотность вероятности служит для другого способа задания непрерывной случайной величины, во многих случаях более удобного. Рассмотрим основные свойства плотности вероятности: 1) f x 0 , так как f x – производная неубывающей функции F x . x2 2) P x1 X x2 f t dt , x1 x2 так как x2 f t dt F t dt F x2 F x1 P x1 X x 2 . x1 x1 Геометрический смысл результата: вероятность попадания значений непрерывной случайной величины X на интервал x1 , x2 равна площади криволинейной трапеции под графиком функции f x (см. заштрихованную область на рисунке). f x x 0 x1 x2 x 3) F x f t dt , так как F x P X x . Полученная формула позволяет находить функцию распределения F x по плотности вероятности f x . 72 Геометрический смысл результата указан на рисунке: площадь заштрихованной области равна F x . f x x 0 x 4) f x dx 1 . Действительно, f x dx F 1 . Функция распределения случайной величины любой точке x p ставит в соответствие вероятность p F x p P X x p . Иногда возникает обратная задача: по заданному значению p найти такое x p , чтобы F x p p . Такая точка x p называется квантилью порядка p. В следующем разделе мы будем использовать это понятие при построении доверительных интервалов и проверке статистических гипотез. Пример 2.3. В круг радиуса R наугад ставится точка. Получить функцию распределения и плотность вероятности случайной величины X – расстояние от этой точки до центра круга. Определить квантили x0 ,01 и x0 ,81 . Решение. Возможные значения величины X заполняют отрезок [0, R]. Получим функцию распределения F x , исходя из её определения. 1) Пусть x 0, тогда событие {X < x} невозможно, поэтому F x 0 . 2) Пусть 0 < x R, тогда событие {X < x} состоит в том, что наугад взятая точка в круге радиуса R должна лежать в круге радиуса x. Для вычисления вероятности этого события воспользуемся геометрической вероятностью: x 2 x2 F x P X x . R2 R2 3) Пусть x > R, тогда событие {X < x} достоверно, значит F x 1 . 73 Итак, функция распределения найдена: 0 , x0 2 x F x 2 , 0 x R . R 1 , x R Найдём функцию плотности вероятности f x : 0 , x0 2x f x F x 2 , 0 x R . R 0 , x R Отметим, что функция F x непрерывна, а плотность вероятностей – разрывная функция при x = R (см. рисунок). 1 F(x) 2 f(x) R 0 R x 0 R x Определим квантили полученного распределения: x02,01 F x0 ,01 0 ,01 2 0 ,01 x0 ,01 0 ,1 R , R F x0 ,81 0 ,81 x02,81 R2 0 ,81 x0 ,81 0 ,9 R . 2.4 Числовые характеристики случайной величины Отыскание закона распределения случайной величины часто связано с большими трудностями. В ряде задач можно обойтись лишь некоторыми числовыми характеристиками, отражающими наиболее важные особенности закона распределения. Достоинством таких характеристик является возможность достаточно точно определить их по статистическим наблюдениям. Важнейшими среди них являются математическое ожидание и дисперсия. 74 2.4.1 Математическое ожидание Математическим ожиданием (средним значением) дискретной случайной величины Х с законом распределения P X xi pi , i 1, 2 , ..., k называется число (не случайное!) k M X xi pi . i 1 Если возможных значений дискретной случайной величины бесконечно много (счётное множество), то M X xi pi , i 1 при этом математическое ожидание существует, если этот ряд абсолютно сходится. Математическое ожидание непрерывной случайной величины Х с плотностью вероятности f x определяется так: M X x f x dx . Математическое ожидание допускает простую механическую интерпретацию: в дискретном случае это абсцисса центра масс pi, сосредоточенных в точках xi оси Ox; в непрерывном случае это центр масс, распределённых на числовой прямой с плотностью f x . Поэтому математическое ожидание ещё называют центром распределения случайной величины. Выпишем основные свойства математического ожидания, которые следуют из его определения. 1) Если постоянную C рассматривать как дискретную случайную величину, которая принимает только одно значение C с вероятностью 1, тогда математическое ожидание постоянной равно этой постоянной: M C C . 2) Постоянный множитель можно выносить за знак математического ожидания: M C X C M X . 3) Математическое ожидание суммы случайных величин равно сумме их математических ожиданий: M X Y M X M Y . 75 2.4.2 Дисперсия Введём ещё одну числовую характеристику случайной величины X – для измерения степени разброса значений, принимаемых случайной величиной X, вокруг её математического ожидания. Для этого вначале рассмотрим новую случайную величину X – M(X), которую называют отклонением (имеется в виду отклонение величины X от её математического ожидания). По определению, степенью разброса случайной величины считают математическое ожидание квадрата отклонения и называют это число дисперсией: D X M X M X 2 . X D X носит название среднего квадратичного отклонения случайной величины X. Если дисперсия характеризует средний размер квадрата отклонения, то число (X) можно рассматривать как некоторую среднюю характеристику самого отклонения, точнее, величины X – M(X) . Расчётные формулы для вычисления дисперсии. 1) Если X – дискретная случайная величина с законом распределения P X xi pi , то Число 2 D X xi m pi . i Здесь и далее вводится обозначение M X m . 2) Если X – непрерывная случайная величина с функцией плотности вероятностей f x , то 2 D X x m f x dx . Укажем весьма важную формулу, вытекающую из определения дисперсии: D X M X 2 M 2 X . 76 Доказательство этой формулы основано на свойствах математического ожидания и того факта, что M X m есть постоянная (неслучайная) величина: D X M X m 2 M X 2mX m 2 2 M X 2 M 2mX M m2 M X 2 2m2 m2 M X 2 m2 . Таким образом, вместо указанных выше формул можно использовать для вычисления дисперсии такие формулы: D X xi2 pi m 2 , D X x 2 f x dx m 2 . i Рассмотрим основные свойства дисперсии. 1) Дисперсия постоянной величины равна нулю: D C 0 . Действительно, D C M C M C 2 M C C M 0 0 . 2 2) Дисперсия любой случайной величины неотрицательна: D X 0 , что следует из неотрицательности значений случайной величи2 ны X M X . 3) Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат: D C X C 2 D X , так как 2 D CX M C 2 X 2 M 2 CX C 2 M X 2 CM X = C 2 D X . 4) D X Y D X D Y , если случайные величины X и Y независимы (закон распределения одной не зависит от значений, которые приняла другая). Понятие независимости случайных величин и обоснование этого свойства будет приведено позже. 77 Пример 2.4. Два стрелка сделали по одному выстрелу в мишень. Пусть вероятности их попадания в цель соответственно равны 0,6 и 0,8. Построить ряд распределения случайной величины X – числа попаданий в мишень. Найти M(X) и D(X). Решение. Возможными значениями величины X являются числа x1 0 , x2 1, x3 2 . Для вычисления соответствующих вероятностей p1 , p2 , p3 рассмотрим случайные события: A1 = {попадёт 1-й стрелок}, A2 = {попадёт 2-й стрелок}. По условию задачи P A1 0 ,6 , P A2 0 ,8 . Тогда p1 P X 0 P A1 A2 1 0 ,6 1 0 ,8 0 ,08 , p2 P X 1 P A1 A2 A1 A2 0,6 1 0,8 1 0,6 0,8 0,44 , p3 P X 2 P A1 A2 0 ,6 0 ,8 0 ,48 . Итак, ряд распределения имеет вид: X 0 1 2 P 0,08 0,44 0,48 Находим математическое ожидание M X 0 0 ,08 1 0 ,44 2 0 ,48 1,4 и дисперсию 2 D X 0 2 0 ,08 12 0 ,44 2 2 0 ,48 1,4 0 ,4 . Пример 2.5. Пусть плотность вероятностей задана в виде (см. пример 2.3): 0 , x0 2x f x 2 , 0 x R . R 0 , x R Найти M(X), D(X) и (X). Решение. Найдём математическое ожидание, используя свойство аддитивности определённого интеграла: 0 R 2x M X x f x dx x 0dx x 2 dx x 0dx R 0 R 78 2 R 2 R. 3 3R 0 Определим дисперсию: x3 2 R D X x 2 f x dx M 2 X x 2 0 2 2x 2 dx R 2 R 3 x4 R 2 R2 0 4 R2 R2 . 9 18 Среднее квадратичное отклонение X D X R 3 2 . 2.5 Примеры распределений случайных величин Приведём некоторые важные примеры распределений случайных величин дискретного и непрерывного типа, а также их математические ожидания и дисперсии. 2.5.1 Биномиальное распределение Пусть проводится определённое число n независимых повторных испытаний и в каждом из них с одной и той же вероятностью p может наступить некоторое событие A (схема Бернулли). Рассматривается случайная величина X – число появлений события A (число успехов) в n испытаниях. Закон распределения такой дискретной случайной величины (согласно формуле Бернулли) имеет вид P X k Pn k Cnk p k 1 p nk , k 0 , 1, 2 , ..., n , и называется биномиальным. Это распределение зависит от двух параметров n и p. Для упрощения вычисления математического ожидания и дисперсии рассматриваемой случайной величины X представим её как сумму случайных величин X i – число успехов в i -м испытании, i = 1, 2, ..., n, т.е. X = X1 + ... + Xn. Ясно, что все величины X i независимые и имеют одинаковые ряды распределения: 79 Xi P 0 1– p 1 p Имеем M X i 0 1 p 1 p p , D Xi M X i2 M 2 X i 02 1 p 12 p p2 p 1 p pq . Поэтому M X M X 1 ... M X n p ... p np , D X D X 1 ... D X n pq ... pq npq . Здесь q 1 p . Пример 2.6. Человек находится в точке х = 0 оси Ох и подбрасывает монету. При появлении герба делает два шага вправо, при появлении цифры – один шаг влево. Пусть Х – абсцисса положения человека после трёх бросаний монеты. Какой вид имеет распределение для Х? Найти M(X) и D(X). Решение. Вначале выпишем множество элементарных исходов в опыте, состоявшем в 3-х кратном бросании монеты: = {ЦЦЦ, ЦЦГ, ЦГЦ, ГЦЦ, ЦГГ, ГЦГ, ГГЦ, ГГГ}. Здесь буква Ц обозначает появление цифры, а буква Г – появление герба. Ясно, что {ЦЦЦ} = {X = – 3}, {ЦЦГ, ЦГЦ, ГЦЦ} = {X = 0}, {ЦГГ, ГЦГ, ГГЦ} = {X = 3}, {ГГГ} = {X = 6}. Для вычисления вероятностей этих событий можно применить формулу Бернулли с вероятностью успеха (появление гер1 1 ба) p и неуспеха (появление цифры) q в n = 3 испыта2 2 ниях: 0 3 1 1 1 1 P X 3 P3 0 C30 C 30 ; 8 8 2 2 1 3 P X 0 P3 1 C31 ; 8 8 1 3 1 1 P X 3 P3 2 C 32 ; P X 6 P3 3 C 33 . 8 8 8 8 80 Закон распределения X P –3 1 8 0 3 8 3 3 8 6 1 8 Математическое ожидание и дисперсию для биномиального распределения можно вычислить так: M X np 3 0 ,5 1,5; D X npq 3 0 ,5 0 ,5 0 ,75 . 2.5.2 Распределение Пуассона Дискретная случайная величина X распределена по закону Пуассона, если закон распределения имеет вид k P X k e , k 0 , 1, 2, ... k! Этот закон называют ещё законом редких явлений, оно зависит от одного параметра . k nk Было показано (см. пункт 1.7.2), что Cnk pk 1 p e , k! если устремить число испытаний n к бесконечности, а вероятность p к нулю, притом так, чтобы их произведение оставалось равным постоянному числу (nр = ). Другими словами, при описанном выше предельном переходе биномиальное распределение переходит в распределение Пуассона, т.е. распределение Пуассона является предельным для биномиального распределения при указанных выше условиях. Поэтому для пуассоновской случайной величины M X D X . Пример 2.7. Из медицинской статистики известно, что на 1000 человек в среднем приходится 8 левшей. Пусть случайная величина Х – число левшей среди 100 наугад взятых людей. Какой вид имеет распределение этой величины Х? Какое число левшей (в среднем) будет среди 100 наугад взятых людей? Решение. Здесь можно применить схему Бернулли, взяв n = 100, p = 0,008 (вероятность того, что наугад взятый человек 81 – левша). Так как n велико, а p – мало, то можно взять вместо биномиального распределения распределение Пуассона для Х: k P X k e , k 0, 1, 2, ... . k! Здесь = np = 0,8. Для распределения Пуассона M(X) = = 0,8. Поэтому можно сказать, что среди 100 наугад взятых людей будет в среднем 0,8 левшей. 2.5.3 Геометрическое распределение Пусть проводятся независимые испытания по схеме Бернулли с вероятностью успеха p в каждом опыте до тех пор, пока не появится успех, после чего опыты прекращаются. Рассмотрим случайную величину X – число проведённых опытов до 1-го успеха (включительно). Закон распределения такой дискретной случайной величины X можно записать в виде k 1 P X k 1 p p, k 1, 2, ... (геометрическое распределение с параметром p). Замечание. У геометрического распределения имеется важное свойство: P X n m , X n P X n m P X n m | X n P X n P X i i n 1 1 p n m 1 1 p p i 1 p n m 1 p 1 p m 1 1 p p P X m , n 1 p i n 1 т. е. вероятность, что 1-й успех появится через m опытов, не зависит от того, сколько безуспешных n опытов было к началу отсчёта (называется условием отсутствия последействия). Вычислим математическое ожидание: M X kpq k 1 p kq k 1 p q k k 1 k 1 k 0 q 1 p 1 p qk p . 2 p 1 q 1 q k 0 q 82 Приведём без вывода значение для дисперсии: 1 p D X 2 . p Пример 2.8. Экзаменатор задаёт студенту дополнительные вопросы. Вероятность того, что студент ответит на любой заданный вопрос, равна 0,9. Преподаватель прекращает экзамен, как только обнаруживает незнание заданного вопроса у студента. Составить закон распределения случайной величины Х – числа дополнительных вопросов, которые задаст преподаватель студенту. Найти математическое ожидание величины Х. Решение. Случайная величина Х имеет следующие возможные значения: x1 = 1, x2 = 2, ..., xi = i, ..., т.е. X = i, где i = 1, 2, ... Событие {X = 1} означает, что экзаменатор задаст только один вопрос; это событие произойдёт, по условию задачи, если студент не ответит на 1-й вопрос. Поэтому, P X 1 1 0 ,9 0 ,1 . Событие {X = 2} (экзаменатор задаст только два вопроса) произойдёт, если студент ответит на 1-й вопрос (вероятность этого события равна 0,9) и не ответит на 2-й вопрос (вероятность этого события равна 0,1). Таким образом, P X 2 0 ,9 0 ,1 0 ,09 . Аналогично P X 3 0 ,9 0 ,9 0 ,1 0 ,081, ..., P X i 0 ,9 i 1 0 ,1, ... Как видим, это геометрическое распределение: P X i q i 1 p , где i = 1, 2, ... при q = 0,9, p = 0,1. Математическое ожидание геометрического распределения: 1 1 M X 10 . p 0,1 Таким образом, среднее число заданных дополнительных вопросов равно 10. 2.5.4 Гипергеометрическое распределение Пусть имеется n элементов, из которых n1 элементов 1-го типа, а n2 элементов 2-го типа (n1 + n2 = n). Из этих элементов 83 наугад выбираются m элементов (m n). Пусть случайная величина X – число элементов 1-го типа среди выбранных m элементов. Закон распределения такой дискретной случайной величины X имеет вид (см. пример 1.9): P X k C nk1 Cnm2 k C nm1 n2 , k1 k k 2 (гипергеометрическое распределение с параметрами n1 , n2 , m ). Здесь k1 = max {0, m – n2}, k2 = min {n1, m}. Математическое ожидание и дисперсия такой случайной величины в общем случае имеют громоздкий вид и в данном пособии не приводятся. Пример 2.9. В ящике 2 белых и 3 чёрных шарика. Извлекают один за другим (без возвращения) 2 шарика. Пусть X – число извлечённых белых шариков. Составить закон распределения и функцию распределения случайной величины X, найти M(X) и D(X). Решение. Случайная величина X принимает следующие возможные значения: x0 = 0, x1 = 1, x2 = 2 и имеет гипергеометC2i C32 i рическое распределение: P X xi i , i 0 , 1, 2 . C52 Отсюда 3 2 1 0 2 C C p0 P X 0 2 2 3 1 2 0,3 ; 54 C5 1 2 1 1 C C 23 p1 P X 1 2 2 3 0,6 ; 10 C5 C22 C30 1 1 0,1 . 10 Составим искомый закон распределения: p2 P X 2 X P C52 0 0,3 1 0,6 84 2 0,1 Зная закон распределения, можно найти функцию распределения: если – < x 0, то {X < x} = F(x) = 0; если 0 < x 1, то {X < x} = {X = 0} F(x) = p0 = 0,3; если 1< x 2, то {X < x}={X = 0}+ {X = 1} F(x) = p0 + p1 = 0,9; если x > 2, то {X < x} = {X = 0} + {X = 1} + {X = 2} F(x) = 1. x0 0 , 0 ,3, 0 x 1 Итак, F x . 0 ,9, 1 x 2 1, x2 Найдём математическое ожидание и дисперсию: M X xi pi 0 0,3 1 0,6 2 0 ,1 0 ,8 ; i 2 D X xi2 pi M 2 X 0 2 0,3 12 0,6 22 0,1 0,8 0,36 . i Рассмотрим три важных примера непрерывных случайных величин. 2.5.5 Равномерное распределение Говорят, что непрерывная случайная величина X равномерно распределена на отрезке [a, b], если её плотность вероятности f x постоянна на этом отрезке, а вне его равна нулю: c, x a , b . f x 0 , x a, b Число c можно определить из условия: a b b 1 f x dx 0 dx cdx 0 dx c dx c b a c a b a 1 . ba Определим функцию F x равномерного распределения: x x 1) если x < a, то f x 0 и F x f t dt 0 dt 0 ; 1 2) если a x b , то f x и ba 85 x a x dt xa ; ba ba a F x f t dt 0 dt 3) если x > b, то f x 0 и x a b dt 0 dt 1 . b a a b F x f t dt 0 dt Итак, для равномерного распределения 0 , x a xa F x , a x b . b a 1 , x b Графики f x и F x равномерной случайной величины приведены на рисунках. F(x) f(x) 1 1 ba 0 a b x 0 a b x Вычислим вероятность попадания в любую часть отрезка [a, b] значений равномерной величины X, например, dx длина , P a X b f x dx . b a b a длина a, b В полученном результате легко узнать формулу геометрических вероятностей. Можно сказать, что геометрические вероятности порождаются равномерным распределением. К равномерным распределениям случайной величины X приводят задачи, в которых по условиям опыта величина X принимает возможные значения в конечном промежутке [a, b], причём все значения из [a, b] равновозможны. Найдём математическое ожидание и дисперсию равномерно распределённой случайной величины: 86 b b x 1 x2 1 b2 a 2 a b ; M X x f x dx dx ba ba 2 b a 2 2 2 a a 2 b a b x2 D X x f x dx M X dx ba 4 a 2 1 x3 ba 3 2 b a a b 2 4 2 2 b a 1 b3 a 3 a b . ba 3 3 4 12 Пример 2.10. Автобус некоторого маршрута идёт строго по расписанию с интервалом 5 мин. В случайный момент времени на остановку пришёл пассажир. Пусть Х – время ожидания автобуса пассажиром. Найти: а) функцию распределения и плотность вероятности для случайной величины Х; б) M(X) и D(X); в) вероятность того, что пассажир, подошедший к остановке, будет ожидать очередной автобус не больше двух минут. Решение. Все значения случайной величины X равновозможно располагаются на отрезке [0, 5]. а) Строим функцию распределения F x P X x : если x < 0 , то {X < x} = F(x) = 0; если 0 x 5, то P 0 X x длина 0 , x длина 0 , 5 x F x ; 5 если x > 5, то {X < x} – достоверное событие F(x) = 1. x0 0 , x 0 0 , x 1 Итак, F x , 0 x 5 , f x F x , 0 x 5 . 5 5 1 , x 5 1, x5 Это равномерное распределение на отрезке [0, 5]. б) Для равномерного распределения на [a, b] ранее было 2 получено, что b a ab M X , D X . 2 12 2 M X 5 0 25 05 2,5 , D X . 2 12 12 87 Поэтому в) P 0 X 2 F 2 F 0 2 2 0 0 ,4 . 5 5 2.5.6 Показательное распределение Непрерывная случайная величина X имеет показательное распределение, если её функция распределения имеет вид , x0 0 F x . x 1 e , x 0 Здесь число > 0 является параметром распределения. Плотность распределения такой случайной величины равна 0 , x 0 f x F x x . , x0 e Приведём графики функций f x и F x показательного распределения: F(x) f(x) 1 0 x 0 x Замечание. Пусть случайная величина X – длительность времени безотказной работы прибора – распределена по показательному закону. Тогда функция распределения F x P X x означает вероятность отказа прибора за время x. Найдём условную вероятность при x0 0 , x 0 : P X x0 x | X x0 P X x0 x P X x0 x, X x0 P X x0 1 F x0 x e x 1 F x P X x . P X x0 1 F x0 Полученное равенство даёт важное свойство показательного распределения, называемое свойством отсутствия последействия. Это свойство присуще только показательному 88 распределению непрерывной случайной величины, т.е. является характеристическим свойством. Напомним, что аналогичным свойством среди распределений дискретных случайных величин обладает геометрическое распределение. Показательное распределение часто встречается в теории массового обслуживания (например, X – время ожидания при техническом обслуживании или X – длительность телефонных разговоров, регистрируемых на телефонной станции) и в теории надёжности (например, X – срок службы радиоэлектронной аппаратуры). Найдём математическое ожидание и дисперсию случайной величины X, распределённой по показательному закону: M X xf x dx x e x dx xe x dx 0 0 u x du dx e x dx dv v e x 1 1 e x x e x dx 0 0 e x dx 0 1 x 1 e ; 0 2 u x du 2 xdx M X 2 x 2 e x 0 e x dx dv v 1 x e 1 2 2 2 x 2 e x xe x dx 2 xe x dx M X 2 . 0 0 0 Итак, 2 1 1 1 2 , X . 2 Пример 2.11. Пусть время ожидания у бензоколонки автозаправочной станции является случайной величиной Х, распределённой по показательному закону со средним временем ожидания 4 минуты. Найти вероятности следующих событий: D X M X 2 M 2 X 89 2 A 2 X 6 ; B X 8 . Решение. Для показательного распределения M X т.е. 1 , 1 . Из условия задачи заключаем, что M(X) = 4, M X 1 0 ,25 . Таким образом, функция показательного 4 x0 0 , распределения имеет вид F x . Находим 0 ,25 x , x0 1 e поэтому P A F 6 F 2 1 e0,256 1 e0,252 e0,5 e1,5 0,383 . P B 1 P B 1 P X 8 1 F 8 1 1 e0,258 e2 0,135 . 2.5.7 Нормальное распределение Непрерывная случайная величина X распределена по нормальному закону с параметрами a и (будем писать X N a , ), если её плотность вероятности имеет вид: f x 1 x a 2 2 2 , x . 2 Тогда функция F x нормального распределения запишется в виде F x e x 1 t a 2 2 e 2 dt . 2 Параметры a и представляют собой соответственно математическое ожидание и среднее квадратическое отклонение случайной величины X, т.е. a M X , X . В данном пособии это утверждение не доказывается. График функции f x (кривая Гаусса) симметричен относительно прямой x a (см. рисунок ниже). 90 Нормальное распределение с параметрами a 0 , = 1, т.е. X N 0 , 1 , называется станf x 1 дартным. Для того, чтобы стан- 2 дартизировать нормальную случайную величину, нужно вычесть из неё математическое ожидание и поделить на среднее квадратичное отклонение. Поx a 0 этому, если X N a , , то U X a N 0 , 1 и для такой случайной величины функция 1 плотности fU u FU u 1 2 u e 2 e u2 2 t2 2 dt 0 ,5 u , а функция распределения 1 u e 2 0 Напомним, что для функции u Лапласа Ф u 1 u e 2 0 t2 2 dt t2 2 dt 0 ,5 Ф 1 2 e u2 2 u . и функции имеются таблицы (см. таблицу 1, с. 264). Там же приведены квантили u p стандартного нормального распределения для некоторых значений p. Итак, для случайной величины X N a , функция распределения может быть записана в виде xa F x 0 ,5 Ф . Учитывая это, легко решить важную задачу. Задача 2.1. Пусть X N a , , найти вероятность попадания случайной величины X на отрезок , . 91 Решение. Имеем a a P X F F . Замечание. Если отрезок , симметричен относительно x = a, т.е. имеет вид a , a , где > 0 – половина длины отрезка, то P a X a P X a a a a a = Ф Ф Ф Ф 2Ф . Таким образом, для случайной величины X N a , : P X a 2Ф . В частности, при 3 имеем 3 P X a 3 2Ф 2Ф 3 2 0 ,4987 0 ,9974 , т. е. практически достоверно, что случайная величина X N a , принимает свои значения в промежутке a 3 , a 3 . Этот факт носит название «правило трёх сигм». Нормальный закон – наиболее часто встречающийся на практике закон распределения. Например, ошибки измерений, разного рода отклонения от номинала являются нормально распределёнными случайными величинами. Пример 2.12. Стрельба ведётся от точки х = 0 вдоль оси Ох. Средняя дальность полёта снаряда равна а м. Пусть случайная величина Х – дальность полёта снаряда – распределена по нормальному закону N(a, ), где = 80 м. Какой процент снарядов даст перелёт от 120 до 160 м? Решение. Случайная величина Х – а означает перелёт снарядов. Найдём P a 120 X a 160 92 a 160 a a 120 a P120 X a 160 Ф Ф 160 120 Ф Ф Ф 2 Ф 1,5 0 ,4772 0 ,4332 0 ,044 . 80 80 Итак, 0,044 100% = 4,4% всех снарядов даст перелёт от 120 до 160 м. 2.6 Функция от случайной величины Пусть с некоторым опытом связана случайная величина X. Рассмотрим числовую функцию y g x . Тогда можно определить новую случайную величину Y g X , связанную с тем же опытом. Величина Y принимает свои значения следующим образом. Пусть произведён опыт, и в результате него величина X приняла значение x. Тогда величина Y g X по определению принимает в том же опыте значение y g x . В этом случае говорят, что случайные величины X и Y связаны функционально. Задача 2.2. Пусть Х – дискретная случайная величина с известным законом распределения: P X xi pi , т.е. имеет ряд распределения: X x1 x2 … xi … P p1 p2 … pi … Найти закон распределения для случайной величины Y g X . Решение. Ясно, что Y будет также дискретной случайной величиной, причём её возможные значения yi g xi . Если при этом все yi различны (например, функция g x строго монотонна), то, очевидно, P X xi P Y yi g xi pi , поэтому Y g X имеет ряд распределения: Y g X y1 g x1 y2 g x2 … P p1 p2 93 … yi g x i … pi … Если g x – немонотонная функция, то среди её значений могут быть равные. В этом случае столбцы с равными значениями yi объединяют в один столбец, а соответствующие вероятности складывают. Пример 2.13. Дискретная случайная величина Х имеет закон распределения X P –2 0,1 –1 0,2 0 0,3 1 0,3 2 0,1 Записать законы распределения случайных величин Y 2 X 1 и Z = X . Решение. В первом случае функция y = 2x + 1 строго монотонна всюду, поэтому разным значениям для Х будут соответствовать разные значения для Y. Имеем закон распределения для Y: Y = 2X+1 –3 –1 1 3 5 P 0,1 0,2 0,3 0,3 0,1 Во втором случае функция z x немонотонная. Имеем P Z 2 P X 2 P X 2 0 ,1 0 ,1 0 ,2 , P Z 1 P X 1 P X 1 0 ,2 0 ,3 0 ,5 , P Z 0 P X 0 0 ,3 . Итак, 0 Z = X P 0,3 1 0,5 2 0,2 Задача 2.3. Пусть X – непрерывная случайная величина с функцией распределения FX x и функцией плотности f X x . Найти функцию распределения FY y и функцию плотности fY y для случайной величины Y g X . Решение. Если y g x монотонно возрастает, то существует обратная функция x g 1 y , которая тоже будет монотонно возрастающей. 94 Имеем по определению функции распределения FY y P Y y P g X y P X g 1 y FX g 1 y . Применяя правило дифференцирования сложной функции, получим: fY y dFY y dy 1 dg y d FX g 1 y f X g 1 y . dy dy Если y g x монотонно убывает, то и обратная функция x g 1 y тоже будет монотонно убывающей. В этом случае FY y P X g 1 y 1 P X g 1 y 1 FX g 1 y 1 dg y d fY y 1 FX g 1 y f X g 1 y . dy dy Оба случая могут быть объединены одной записью функции fY y : fY y f X g 1 y dg 1 y dy fX x dx , dy где y g x или x g 1 y . Если же функция y g x немонотонная, то числовую ось разбивают на интервалы, на каждом из которых эта функция уже будет монотонной. Пример 2.14. Пусть случайная величина Х распределена равномерно на [0, 1]. Найти функцию распределения FY y для величины Y ln X при X 0 . Решение. Так как Х распределена равномерно на [0, 1], то её функция распределения FX x имеет вид 0 , x 0 FX x x , 0 x 1 . 1 , x 1 95 Функция y ln x монотонно убывающая функция, так как ln x монотонно возрастает. Учитывая это, получим при X 0 : 1 FY y PY y Pln y P X ey 1 P X e y 1 FX e y . X Так как e 0 , то при e 1 имеем F e e , а при e 1 функция F e 1 . С учётом этого, получим y y y y X y y X 1 1, если e y 1 0, если y 0 FY y 1 FX e y . y y y 1 e , если e 1 1 e , если y 0 Вывод: случайная величина Y ln X при X > 0 распределена по показательному закону с параметром = 1, если Х распределена равномерно на [0, 1]. Пример 2.15. Пусть для случайной величины Х известна функция распределения FX x . Найти функцию распределения случайной величины Y X 2 . Решение. Функция y = x2 немонотонная, поэтому 2 0 при y 0, так как X y 0 FY y P X y P y X y при y 0 при y 0 0 y FX y при y 0. FX 2 2.7 Система случайных величин На одном и том же множестве элементарных исходов может быть определена не одна, а несколько случайных величин. При этом говорят о системе случайных величин. Систему двух величин (X, Y) (двумерную случайную величину) можно трактовать как случайную точку на плоскости, систему трёх величин (X, Y, Z) (трёхмерную случайную величину) как случайную точку в трёхмерном пространстве. Приведём несколько примеров. 96 1. Дважды бросается игральная кость. Обозначим через Х – сумму выпавших очков, через Y – число появлений шести очков. Пара (X, Y) будет двумерной случайной величиной. 2. Из студенческой группы наугад выбирается один студент: X – его рост (например, в сантиметрах), а Y – его вес (в килограммах). 3. Рассматриваются результаты вступительных экзаменов наугад выбранного абитуриента. Рассмотрим случайные величины: X – число баллов, полученных по математике; Y – число баллов по физике; Z – число баллов по русскому языку. Здесь система (X, Y, Z) представляет собой трёхмерную случайную величину. 4. Отклонение от цели при стрельбе. Просто расстояние плохо характеризует результаты стрельбы. Лучше рассматривать систему двух случайных величин (X, Y), где Х – отклонение по дальности, Y – боковое отклонение. В дальнейшем будем рассматривать только двумерные случайные величины. 2.7.1 Функция распределения Свойства двумерной случайной величины (X, Y) определяются не только свойствами отдельных её составляющих величин Х и Y, но также и возможными связями между ними. Задать величину (X, Y) означает задать её закон распределения. Одним из наиболее универсальных способов задания закона распределения двумерной случайной величины (X, Y) является функция распределения F x , y P X x ,Y y , x , y , т.е. функция F x , y , которая для любых действительных чисел x и y равна вероятности совместного выполнения двух событий {X < x} и {Y < y} (здесь событие {X < x, Y < y} означает произведение событий {X < x} и {Y < y}). y (x, y) Геометрически каждое значение функции F x , y – это вероятность попадания случайной точки (X, Y) в бесконечный квадрант с правой верхней вершиной в точке 0 a x (x, y) (см. рисунок). 97 Функция распределения двумерной случайной величины является функцией от двух аргументов и обладает следующими свойствами. 1) 0 F x , y 1 , так как F x , y есть вероятность. 2) F x , y – неубывающая функция по каждому аргументу, это следует из её определения. 3) F , y F x , F , 0 , F , 1 , X ,Y y , X x ,Y , X ,Y невозможные, а событие X ,Y достоверное. Здесь, например, F , y означает lim F x , y . x 4) F x , FX x , F , y FY y , где FX x и FY y – функции распределения одномерных так как события случайных величин X и Y, составляющих двумерную случайную величину (X, Y). Действительно, F x , P X x ,Y P X x FX x . Аналогично для F , y . Итак, функции распределения отдельных компонент двумерной случайной величины могут быть найдены предельным переходом из функции распределения совместного распределения этих компонент. Если все составляющие случайной величины (X, Y) – дискретны, то (X, Y) называют дискретной. В данной книге рассматривается только такой случай. 2.7.2 Дискретная двумерная случайная величина Пусть дискретная двумерная величина (X, Y) задаётся перечнем её возможных значений xi , yi и соответствующих ка- ждой такой паре вероятностей pij P X xi ,Y y j , удовлетворяющих условию p 1 , где суммирование распроij i j страняется на все возможные значения индексов i и j. Здесь 98 предполагается, что все возможные значения xi для X различные и расположены в порядке возрастания, т.е. xi xi 1 . Аналогично для Y. В этом случае законом распределения дискретной двумерной случайной величины (X, Y) может служить таблица 1: Таблица 1 Y y1 y2 … yj … X x1 p11 p12 … p1j … x2 p21 p22 … p2j … … … … … … … xi pi1 pi2 … pij … … … … … … … Весьма важной задачей является определение законов распределения для каждой из величин X и Y в отдельности из Рассмотренной таблицы. Эта задача решается довольно просто. Заметим, что событие X xi X xi ,Y y1 X xi ,Y y2 ... X xi ,Y yi ..., причём все события в правой части несовместные. Поэтому P X xi pi1 pi 2 ... pij ... pij p x i , i = 1, 2, … j Итак, суммируя вероятности, стоящие в i-й строке, мы получили вероятность того, что случайная величина X примет возможное значение xi (независимо от того, какое при этом возможное значение примет другая величина Y). Таким образом, получили закон распределения величины X, который можно записать в виде таблицы 2: Таблица 2 X x1 x2 … xi … p(x2 ) … p(xi ) … P p(x1 ) Аналогичным образом находится закон распределения величины Y: Таблица 3 Y y1 y2 … yj … p(y2 ) … p(yj ) … P p(y1 ) 99 Здесь p y j P Y y j p1 j p2 j ... pij ... pij , j =1, 2, … i Математическим ожиданием или центром распределения двумерной случайной величины (X, Y) называется упорядоченная пара M X , M Y , где M X и M Y – математические ожидания случайных величин X и Y соответственно. Пример 2.16. В урне лежат пять шаров: 2 белых, 2 чёрных и 1 красный. Из урны наугад извлекаются 2 шара. Пусть X – число белых, Y – число красных шаров в выборке. Составить закон распределения для двумерной случайной величины (X, Y) и законы распределения для X и Y по отдельности. Найти центр распределения для величины (X, Y). Решение. Множество возможных значений X: {0, 1, 2}, а для Y: {0, 1}. Событие {X = 0, Y = 0} означает, что в выборке нет белых и красных шаров, т.е. только чёрные, поэтому 1 1 p00 P X 0 , Y 0 2 0 ,1 . C5 10 Событие {X = 0, Y = 1} означает, что в выборке 1 чёрный и 1 красный шар, поэтому C1 1 2 p01 P X 0 , Y 1 2 2 0 ,2 . 10 C5 Событие {X = 1, Y = 0} произойдёт, если в выборке будет 1 белый и 1 чёрный шар, поэтому C1 C1 4 p10 P X 1, Y 0 2 2 2 0 ,4 . 10 C5 Событие {X = 1, Y = 1} = {в выборке 1 белый и 1 красный шары}, значит C1 1 2 p11 P X 1, Y 1 2 2 0 ,2 . 10 C5 Для события {X = 2, Y = 0} = {в выборке 2 белых шара} имеем 100 C 22 1 0 ,1 . 10 Событие {X = 2, Y = 1} невозможное (среди двух шаров 2 белых и один красный), значит p21 = P{X = 2, Y = 1} = 0. Итак, закон распределения двумерной величины (X, Y): p20 P X 2, Y 0 Y X 0 1 2 0 1 0,1 0,4 0,1 0,2 0,2 0 C 52 Контроль: pij 1 . i j Теперь легко составить законы распределения отдельно для X и Y: X P 0 0,3 1 0,6 2 0,1 Y P 0 0,6 1 0,4 Вычислим M X 0 0,3 1 0,6 2 0,1 0,8, M Y 0 0,6 1 0,4 0,4 . Итак, центр распределения двумерной величины (X, Y) находится в точке (0,8; 0,4) . Замечание. Рассматривая двумерную случайную величину (X, Y), необходимо иметь в виду, что свойства величины (X, Y) не всегда исчерпываются свойствами самих величин X и Y. Иначе говоря, если мы знаем всё о величине X и всё о величине Y, то это ещё не значит, что мы знаем всё о системе (X, Y). Дело в том, что между величинами X и Y может существовать зависимость (связь), и без учёта этой зависимости нельзя построить закон распределения системы (X, Y) по законам распределения отдельных компонент X и Y. Поэтому обратную задачу: из законов распределения величин X и Y составить закон распределения величины (X, Y), в общем случае решить нельзя. Дадим краткое описание условных законов распределения для дискретной двумерной величины (X, Y). 101 Условным законом распределения величины Y при условии X = xi называется совокупность условных вероятностей p y j | xi P Y y j | X xi P X xi ,Y y j pij . P X xi p xi Аналогично определяется условный закон распределения величины X при условии Y = yj . Отсюда следует, что pij p xi p y j | xi или pij p y j p xi | y j . Таким образом, закон распределения величины (X, Y) можно получить, если задан закон распределения одной из компонент и условный закон распределения другой компоненты. 2.7.3 Независимость случайных величин Случайные величины X и Y называются независимыми, если независимыми являются случайные события X x и Y y для любых действительных чисел x и y. Можно показать, что случайные величины X и Y независимы тогда и только тогда, когда F x , y FX x FY y . Если (X, Y) – дискретная величина, то условие независимости величин X и Y можно записать в виде P x xi , y y j P x xi P y y j , т.е. pij p xi p y j , где xi – любое возможное значение X, а yj – любое возможное значение Y. Итак, можно сделать вывод: если случайные величины независимы, то из законов распределения величин X и Y можно составить закон распределения двумерной случайной величины (X, Y). Отметим, что для независимых случайных величин X и Y M X Y M X M Y . Пример 2.17. Пусть случайные величины X и Y независимы и их распределения задаются таблицами 102 X 0 1 2 Y 0 1 P 0,6 0,4 P 0,3 0,6 0,1 Найти распределение двумерной величины (X, Y). Решение. Для независимых величин имеем: p00 P X 0 , Y 0 P X 0 P Y 0 0 ,3 0 ,6 0 ,18 . Аналогично вычисляются другие вероятности: p01 P X 0 , Y 1 0 ,3 0 ,4 0 ,12 ; p10 P X 1, Y 0 0 ,6 0 ,6 0 ,36 ; p11 P X 1, Y 1 0 ,6 0 ,4 0 ,24 ; p20 P X 2, Y 0 0 ,1 0 ,6 0 ,06 ; p21 P X 2, Y 1 0 ,1 0 ,4 0,04 . Итак, закон распределения для (X,Y) характеризуется таблицей: Y X 0 1 2 0 1 0,18 0,36 0,06 0,12 0,24 0,04 Контроль: pij 1 . i j 2.7.4 Корреляционная зависимость Раннее были рассмотрены два случая: X и Y независимые величины (между X и Y нет никакой связи); X и Y функционально связаны, например, y g X (зная X, можно всё узнать о Y). В то же время можно указать и примеры другого рода – когда зависимость между случайными величинами X и Y существует, но не носит строго выраженного функционального характера. В таких случаях между случайными величинами может существовать связь, проявляющаяся в том, что одна из них реагирует на изменение другой изменениями своего закона распределения. Такую связь называют стохастической (вероятностной). Подобные примеры особенно характерны для таких областей науки и практики, как агротехника, биология, медицина, 103 экономика и т.д., где развитие явлений, как правило, зависит от многих трудно поддающихся учёту факторов. Приведём несколько примеров, которые иллюстрируют разные степени зависимости между случайными величинами – от сильной, почти функциональной зависимости до практической независимости. 1) Пусть X – рост наугад выбранного взрослого мужчины (в сантиметрах), а Y – его вес (в килограммах). Зависимость между ростом и весом является весьма сильной, в первом приближении её можно считать даже функциональной: Y(кг) X(см) – 100. 2) Пусть X – количество удобрений, внесённых на гектар, а Y – урожайность с этого гектара. И здесь зависимость Y от X следует считать довольно сильной, хотя и не в такой степени как в предыдущем примере. Внесённые удобрения, конечно, однозначно не определяют урожайность, так как на неё влияет ещё много других факторов (например, количество осадков, тип почвы, глубина заделки семян и т.д.). 3) Пусть X – рост выбранного наугад взрослого человека, Y – его возраст. Наблюдения показывают, что между этими величинами очень слабая зависимость, можно считать, что они практически независимы. Изучение условных законов распределения двумерной величины (X, Y) является довольно сложной задачей. Простейшей характеристикой связи между случайными величинами X и Y служит корреляционный момент K(X, Y) (или ковариация): K X ,Y M X m X Y mY , где для краткости записи обозначили M X m X , M Y mY . Выражение ковариации может быть преобразовано на основании свойств математического ожидания: K X ,Y M XY m X Y mY X m X mY M XY m X mY . Заметим, что 2 K X , X M X 2 mX D X . Если (X, Y) – двумерная дискретная случайная величина, то 104 K X , Y xi y j P X xi , Y y j m X mY . i j Величина K X ,Y зависит от единиц измерения X и Y. Чтобы иметь дело с безразмерным показателем, часто рассматривают ковариацию не для X и Y, а для нормированных отклонений X mX Y mY X0 , Y0 , X Y где X и Y – средние квадратичные отклонения соответственно для X и Y. Легко убедиться, что M X 0 M Y0 0 , X 0 Y0 1 . Коэффициентом корреляции r X ,Y двух случайных величин X и Y называется число, определяемое равенством: r X ,Y K X 0 ,Y0 Отметим, что r X , X K X ,X X2 K X, Y XY D X X2 . 1. Если K X ,Y 0 или, что то же, r X ,Y 0 , то случайные величины X и Y называют некоррелированными. Коэффициент корреляции играет определённую роль при оценке зависимости X и Y. Для этого рассмотрим основные свойства коэффициента корреляции. Свойство 1. Если случайные величины X и Y независимы, то r X ,Y 0 , т.е. X и Y некоррелированны. Действительно, если X и Y независимы, то имеем M X Y M X M Y K X ,Y M X Y M X M Y 0 . Замечания. 1) Из этого свойства следует, что если K X ,Y 0 , то величины X и Y не могут быть независимыми. Таким образом, неравенство нулю корреляционного момента (или коэффициента 105 корреляции) определенно свидетельствует о наличии связи между X и Y. 2) Из условия некоррелированности X и Y, т.е. из условия K X ,Y 0 , нельзя делать вывод о независимости X и Y. Величины X и Y могут быть даже связаны функционально, а корреляционный момент их при этом будет равен нулю. Приведём пример. Пример 2.18. Дискретная случайная величина Х имеет закон распределения X P –1 0,1 0 0,8 1 0,1 Найти корреляционный момент K X ,Y , если Y X 2 . Решение. Имеем K X ,Y K X , X 2 M X 3 M X M X 2 . Так как M X M X 3 0 (распределения величин X и X 3 одинаковы и симметричны относительно 0), то K X ,Y 0 . Итак, X и Y некоррелированные, хотя X и Y функционально связаны. Свойство 2. r a1 X b1 , a2Y b2 r X ,Y . Действительно, r a1 X b1 , a2Y b2 M a1 X b1 a1m X b1 a2Y b2 a2 mY b2 a1 X b1 a2Y b2 a1a 2 M X m X Y mY a1 a 2 X Y r X ,Y . D X Y D X D Y 2K X ,Y . Доказательство следует из определения дисперсии и свойств математического ожидания: Свойство 3. 2 2 D X Y M X Y mX mY M X mX Y mY 106 2 M X m X 2 X m X Y mY Y mY 2 . Отметим, что если X и Y – некоррелированные случайные величины, то D X Y D X D Y , т.е. последнее равенство выполняется для некоррелированных величин (для независимых – тем более). Свойство 4. r X ,Y 1 . Для доказательства применим свойство 3 к нормированным величинам X0 и Y0: D X 0 Y0 1 1 2K X 0 ,Y0 2 2r X ,Y . Так как дисперсия неотрицательна, то 1 r X , Y 0 r X ,Y 1 . r X ,Y 1 Y kX b , где k и b – постоянные числа. Доказательство (). Если r X ,Y 1 , то Свойство 5. D X 0 Y0 0 , X m X Y mY X 0 Y0 0 X Y M X 0 Y0 0 Y kX b , где k Y , b mY Y m X . X X Аналогичное заключение можно сделать при r X ,Y 1 , D X 0 Y0 0 , так как в этом случае M X 0 Y0 0. Доказательство (). Если Y = kX + b, то, используя свойство 2, получим r X , Y r X , kX b r X , X 1 r X ,Y 1 . На основании рассмотренных свойств можно сделать вывод: коэффициент корреляции r X ,Y характеризует близость связи X и Y к линейной функциональной зависимости. Близость 107 r X ,Y к 1 соответствуют «сильной» линейной зависимости, близость r X ,Y к 0 говорит о «слабой» линейной зависимости (или даже её отсутствие), хотя между X и Y может быть какая-то другая (нелинейная) связь. Пример 2.19. Пусть двумерная случайная величина (X, Y) распределена по следующему закону: Y –1 0 1 X 0 0,1 0,15 0,2 1 0,15 0,25 0,15 Найти коэффициент корреляции. Решение. Найдём вначале законы распределения и числовые характеристики случайных величин X и Y. X 0 1 Y –1 0 1 P 0,45 0,55 P 0,25 0,4 0,35 M X 0 0 ,45 1 0 ,55 0 ,55 ; M X 2 0 2 0 ,45 12 0 ,55 0 ,55 ; 2 X D X M X 2 M 2 X 0,55 0,55 0,2475 0,5; M Y 1 0 ,25 0 0 ,4 1 0 ,35 0 ,1 ; 2 M Y 2 1 0 ,25 0 2 0 ,4 12 0 ,35 0 ,6 ; 2 Y D Y M Y 2 M 2 Y 0,6 0,1 0,59 0,77. Используя заданный закон распределения двумерной случайной величины, вычисляем M X Y xi y j pij i j 0 1 0,1 0 0 0,15 0 1 0,2 1 1 0,15 1 0 0,25 1 1 0,15 0; 108 Итак, r X ,Y M X Y M X M Y X Y 0 0 ,55 0 ,1 0 ,14 . 0 ,5 0 ,77 2.8 Предельные теоремы Предельные теоремы теории вероятностей можно разделить на две группы. Теоремы первой группы, объединённые общим названием «закон больших чисел», устанавливают факт приближения (при определённых условиях) среднего арифметического случайных величин к некоторым неслучайным величинам (устойчивость средних значений). Теоремы второй группы, объединённые общим названием «центральная предельная теорема», устанавливают факт приближения (при определённых условиях) закона распределения суммы случайных величин к нормальному закону. 2.8.1 Закон больших чисел В основе доказательства предельных теорем лежит важное неравенство, установленное русским математиком П.Л. Чебышевым. Пусть X – случайная величина с математическим ожиданием M(X) и дисперсией D(X). Рассмотрим событие A X M X , где число > 0. Это событие заключается в том, что абсолютная величина отклонения X от математического ожидания M(X) меньше, чем . Геометрический смысл этого события состоит в том, что значение случайной величины X попадает в интервал x M X , M X на числовой оси (см. рисунок). M X M X M X С уменьшением числа этот интервал сужается, поэтому вероятность попадания величины X в него (т.е. вероятность события A) уменьшается. Неравенство Чебышева замечательно тем, что устанавливает для этой вероятности весьма простую оценку. 109 Неравенство Чебышева. Пусть X – случайная величина. Тогда D X 0 P X M X 1 . 2 Доказательство проведём для дискретной случайной величины X (для непрерывной величины доказательство проводится аналогичным образом). Пусть закон распределения величины X имеет вид: P X xk pk . По определению дисперсии 2 D X xk M X pk . В этой сумме отбросим те слагаеk мые, у которых xk M X , а остальные слагаемые, у которых xk M X , заменим на меньшие величины 2 pk . Сумма в результате этих действий уменьшится, следовательно D X 2 pk . Но k: xk M X pk P X M X , k: xk M X поэтому D X 2P X M X D X или P X M X 2 . Получили неравенство, которое равносильно исходному неравенству. Действительно, D X P X M X 1 P X M X 1 , 2 что и требовалось доказать. Замечания. 1) Положим в неравенстве Чебышева t X , где X D X – среднее квадратичное отклонение, а t 0 – число. Тогда 1 1 P X M X t X 1 2 или P X M X t X 2 . t t Например, при t = 3 имеем 110 89 0 ,889 . P X M X 3 X В действительности для подавляющего большинства встречающихся на практике случайных величин эта вероятность зна8 чительно ближе к единице, чем . Например, для нормального 9 распределения, как было указано в пункте 2.5.7, она равна приблизительно 0,997. Однако, неравенство Чебышева хотя и даёт довольно гру- бую оценку вероятности события A X M X , зато оно универсально, то есть справедливо для случайных величин X с любым распределением. 2) Неравенство Чебышева даёт нетривиальную оценку вероятности события A X M X лишь в случае, если 2 D X . Действительно, левая часть неравенства Чебышева, выражающая вероятность события, неотрицательна. Поэтому оно даёт оценку рассматриваемого события, если правая часть будет положительной: 1 D X 2 0 D X 2 1 D X 2 . Это снижает роль неравенства Чебышева, когда его применяют к практическим задачам. Однако теоретическое значение его огромно. Пусть имеется последовательность случайных величин X 1 , X 2 , ..., X n , ... . Говорят, что эта последовательность сходится по вероятности к величине X (случайной или неслучайной), если 0 lim P X n X 1 , или, что равносильn но, lim P X n X 0 . n Теорема Чебышева (закон больших чисел в форме Чебышева). Пусть X 1 , X 2 , ..., X n , ... – последовательность попарно 111 независимых случайных величин, дисперсии которых ограничены одной и той же постоянной C, т.е. i D X i C . Тогда 0 где X lim P X M X 1 , n 1 n X i – среднее арифметическое случайных величин n i 1 n n1 M X – среднее арифметиче- X 1 , X 2 , ..., X n , а M X i i 1 ское их математических ожиданий. Доказательство. По неравенству Чебышева: D X P X M X 1 . 2 Заметим, что 1 n 1 n 1 C D X D X i 2 D X i 2 nC n n n i 1 n i 1 (использовали свойство дисперсии для суммы независимых величин и условие D(Xi ) < C). С Отсюда P X M X 1 2 . n Переходя к пределу при n и учитывая, что вероятность не больше единицы, получим требуемое. Замечания. 1) Суть теоремы Чебышева и её практическое значение состоит в следующем: среднее арифметическое большого числа случайных величин сколь угодно мало отличается (с вероятностью близкой к 1) от неслучайной величины – среднего арифметического их математических ожиданий. 2) Пусть требуется измерить некоторую физическую величину m. В силу неизбежных при измерении ошибок результат измерения будет случайной величиной X. Её математическое ожидание будет совпадать с измеряемой величиной m (если нет систематических ошибок), а дисперсия равна некоторой величине 2 (характеризующей точность измерительного прибора). 112 Произведём n независимых измерений и обозначим через Xi результат i-го измерения (i = 1, 2, …, n). Совокупность величин Xi представляет собой систему n независимых случайных величин, каждая из которых имеет тот же закон распределения, что и сама величина X. Среднее арифметическое X этих величин тоже является случайной величиной, причём M X m . Однако, согласно теореме Чебышева, с увеличением n эта величина почти перестаёт быть случайной, она всё более приближается к постоянной m. Тем самым оправдывается рекомендуемый на практике способ получения более точных результатов измерений: одна и та же величина измеряется многократно, и в качестве её значения берётся среднее арифметическое полученных результатов измерений. При этом, если D X i 2 , то 1 n 1 n 1 2 , D X D X i 2 D X i 2 n 2 n n n i 1 n i 1 т.е. степень разброса величины X в n раз меньше, чем у величин X i . Задача 2.4. В условиях замечания 2) оценить число измере- ний n, чтобы P X m 1 , где > 0 – малое число. Решение. В силу неравенства Чебышева D X 2 P X m 1 1 . 2 n 2 Чтобы выполнялось требуемое неравенство, положим 2 2 2 1 2 1 2 n 2 . n n Из теоремы Чебышева в качестве следствия можно получить другую важную теорему, которая впервые была доказана учёным Я. Бернулли. Теорема Бернулли (закон больших чисел в форме Бернулли). Пусть случайная величина Yn – число успехов в n испытаниях (в условиях схемы Бернулли с вероятностью успеха p в 113 отдельном испытании). Тогда 0 Y lim P n p 1 . n n Доказательство. В пункте 2.5.1 было показано, что величина Yn имеет биномиальное распределение с математическим ожиданием M Yn np и дисперсией D Yn npq . Эту велиn чину можно представить в виде Yn X i , где Xi – независиi 1 мые случайные величины (число успехов в i-м испытании), при этом P X i 1 p, P X i 0 1 p q, M X i p, D X i pq . Применяя теорему Чебышева, получим Y 1 n 1 1 n lim P X i M X i lim P n np 1 , n n n i 1 i 1 n n n что и требовалось доказать. Вывод: для любого сколь угодно малого > 0 с увеличением числа испытаний n становится сколь угодно достоверным тот факт, что относительная частота наступления события A отличается от вероятности этого события в единичном испытании меньше чем на . Таким образом, обосновано теоретически статистическое определение вероятности или, то же, устойчивость относительных частот. Задача 2.5. Оценить вероятность отклонения относительY ной частоты n события A в серии из n независимых испытаn ний от вероятности p события A в одном испытании. Решение. Имеем 1 1 pq Y 1 Y 1 M n M Yn np p, D n 2 D Yn 2 npq . n n n n n n n Применяя неравенство Чебышева к случайной величине Y Yn pq , получим P n p 1 2 . n n n 114 2.8.2 Центральная предельная теорема До сих пор мы говорили об устойчивости средней 1 X X 1 ... X n . Однако, X всё же случайная величина, n имеющая некоторый закон распределения. В центральной предельной теореме рассматривается вопрос о законе распределения суммы большого числа независимых случайных величин, распределённых по одному закону. Оказывается, распределение такой суммы при весьма общих условиях близко к нормальному распределению. Центральная предельная теорема (в упрощённой формулировке А. М. Ляпунова). Если независимые случайные величины X 1 , X 2 , ..., X n , ... имеют одинаковое распределение (не важно какое) с математическим ожиданием M X i m и дисперсией D X i 2 , то n закон распределения суммы Yn X i приближённо (тем точi 1 нее, чем больше n) равен нормальному закону N nm, n . Доказательство этой теоремы в данном пособии не приводится. Замечания. 1) Для средней величины X Yn 1 n Xi n n i 1 имеем , поэтому, в силу центральной преn 1 n дельной теоремы, закон распределения X X i приблиn i 1 жённо (тем точнее, чем больше n) равен нормальному закону N m, . n M X m, X 115 2) Если от случайной величины Yn перейти к нормированной случайной величине Y M Yn Yn nm X m Zn n Yn n n (здесь M Z n 0 , Z n 1 ), то закон распределения случайной величины Zn с ростом n приближается к нормальному закону N 0 , 1 . Очень многие величины являются суммой большого количества случайных факторов. Значит, согласно центральной предельной теореме, такие величины распределены по нормальному закону (при выполнении условий этой теоремы). Примеров величин такого типа можно привести очень много: рост, вес животных, растений и отдельных их частей, отклонение размера детали от стандартного в массовом производстве, отклонение места разрыва снаряда от цели и тому подобное. В связи с этим, центральная предельная теорема имеет исключительно большое значение, а нормальный закон – один из основных в теории вероятностей. Пример 2.21. Завод производит шарики для подшипников. Каждый шарик должен иметь один и тот же диаметр d. Однако, в силу ряда причин, неизбежных в условиях массового производства, фактический диаметр отличается от d. Пусть X = {разность между фактическим диаметром и числом d}. По соображениям, изложенным выше, можно принять, что X распределена по нормальному закону с математическим ожиданием 0 и некоторым средним квадратичным отклонением (характеризующим среднюю точность изготовления шариков). Каждый шарик, сойдя с конвейера, проходит контроль: шарик пропускается через отверстия диаметром d – и d d + (см. рисунок ). Все шарики, которые проходят через большее отверстие, но не проходят через меньшее, поступают в готовую продукцию; остальные 116 d шарики бракуются. Найти вероятность того, что случайно выбранный с конвейера шарик будет забракован. Решение. Условием успешного прохождения шарика через контроль является наступление случайного события X . Считая, что X N 0 , , имеем: 0 0 P X 2 . Поэтому вероятность того, что шарик будет бракованным, равна 1 2 . 2.9 Однородные цепи Маркова 2.9.1 Определение и способ задания цепи Маркова Изученная ранее схема Бернулли основывалась на понятии независимых испытаний. Однако имеется большое количество задач, в которых последовательно проводимые испытания не являются независимыми, а связаны между собой в определённого рода цепь. Сделаем предположения. 1) В отличие от схемы Бернулли, где рассматривалась последовательность из n испытаний, будем теперь считать, что проводится бесконечная последовательность испытаний. 2) Примем, что имеются m попарно несовместных событий A1 , A2 , ..., Am (m – фиксированное число), таких, что в результате каждого испытания обязательно наступает одно из них (то есть A1 , A2 , ..., Am – полная группа событий для каждого испытания). Это условие обобщает одно из требований к испытаниям в схеме Бернулли (в схеме Бернулли для каждого испытания возможны лишь два исхода: A или A ). 3) Будем считать, что испытания связаны между собой так: вероятность наступления того или иного из событий A1 , A2 , ..., Am при очередном, n-м испытании зависит только от результата предыдущего, (n – 1)-го испытания (т.е. при 117 фиксированном «настоящем» «будущее» не зависит от «прошлого»). Дадим определение: неограниченная последовательность испытаний с возможными исходами A1 , A2 , ..., Am называется цепью Маркова, если вероятность появления любого из этих исходов при очередном испытании однозначно определяется результатом только предыдущего испытания. Для задания цепи Маркова необходимо указать pij n i , j 1, 2, ..., m; n 2, 3, ... – условные вероятности того, что при n-м испытании наступит событие A j , если в предыдущем (n – 1)-м испытании наступило Ai . В дальнейшем ограничимся изучением только однородных цепей Маркова, то есть таких, когда вероятности pij n не зависят от n (будем просто писать pij ). Каждое из чисел pij называют вероятностью перехода Ai A j за один шаг: pij P Ai A j . Таким образом, в обозначении pij первый индекс указывает номер предшествующего, а второй – номер последующего состояния. Например, p11 – вероятность перехода из 1-го состояния A1 в это же 1-е состояние A1, т.е. p11 P A1 A1 ; p23 – вероятность перехода из 2-го состояния A2 в 3-е состояние A3, т.е. p23 P A2 A3 и так далее. Вероятности перехода pij удобно располагать в виде квадратной матрицы (матрицы вероятностей перехода однородной цепи Маркова за один шаг): p11 p12 ... p1m p21 p22 ... p2m P1 , или, более кратко, P1 pij . ... ... ... ... pm1 pm2 ... pmm Для полного описания цепи Маркова недостаточно знать 118 только матрицу P1. Необходимо ещё задать так называемые на0 чальные вероятности p10 , p20 , ..., pm , т.е. вероятности каждого из событий A1 , A2 , ..., Am для 1-го испытания. Итак, однородная цепь Маркова считается заданной, если указаны начальные вероятности pi0 i 1, 2, ..., m и вероятности перехода pij i , j 1, 2, ..., m за один шаг. Отметим обязательные соотношения для этих чисел: 1) pi0 0, pij 0 ; m 2) pi0 1, i 1 m pij 1 . j 1 Обязательность условия 1) очевидна. Соотношения 2) следуют из того факта, что при 1-м испытании обязательно наступает одно из попарно несовместных событий A1 , A2 , ..., Am . Аналогично для любого испытания. Цепи Маркова часто используются для описания различных систем, которые могут находиться в одном из m состояний и в дискретные моменты времени (например, при t 1, t 2, ..., t n, ... ) меняют состояние. В этом случае номер испытания n можно интерпретировать как время, а события A1 , A2 , ..., Am – как возможные состояния системы в момент времени n. С цепью Маркова естественно связать последовательность дискретных случайных величин X 0 , X 1 , ..., X n , ... , где индекс n играет роль времени. Если система в момент времени n находится в состоянии Ai, то будем считать, что Xn = i. Таким образом, введённые случайные величины являются номерами состояний системы. В этом случае pi0 P X 0 i , pij X n j | X n 1 i i , j 1, 2, ..., m , и не зависят от n для однородной цепи Маркова. Замечание. Для описания эволюции цепи можно использовать граф, вершинами которого являются состояния цепи, а 119 стрелка, идущая из состояния Ai в состояние Aj с числом pij над ней, показывает, что из состояния Ai возможен переход в состояние Aj с вероятностью pij. Если pij = 0, то соответствующая стрелка не проводится. Пример 2.22. Пусть A1 , A2 , A3 – возможные состояния системы и P1 – матрица вероятностей перехода однородной цепи Маркова за один шаг: 1 0 0 P1 1 2 0 1 2 . 2 0 1 3 3 Построить граф, соответствующий матрице P1. Решение. Так как p11 = 1, то, если система попала в состояние A1, она в нём и останется (поглощающее состояние). Из состояния A2 система с равными веро1 A1 1 ятностями p21 p23 переходит в 2 1 2 3 2 соседние состояния A1 и A3. Состояние 1 A3 таково, что система остаётся в нём с A3 A2 3 1 1 2 вероятностью p33 и переходит в 3 2 состояние A1 с вероятностью p31 . Граф изображён на ри3 сунке. Пример 2.23. На окружности расположены четыре точки A1 , A2 , A3 , A4 , равноотстоящие друг от друга. Частица движется из точки в точку следующим образом: из данной точки она перемещается в одну из ближайших соседних точек с вероятностью 0,25 или в диаметрально противоположную точку с вероятностью 0,5. Выписать матрицу P1 вероятностей перехода для этого процесса и построить граф, соответствующий этой матрице. Решение. Если частица находилась в точке A1 (в состоянии A1), то, по условию задачи, вероятность p11 остаться частице в этой же точке равна 0, вероятность p12 перехода в точку A2 равна 0,25 (точка A2 ближайшая точка к A1), вероятность p13 = 0,5 120 (точка A3 диаметрально противоположная точка к A1), вероятность p14 = 0,25 (точка A4 ближайшая точка к A1). Аналогично определяются вероятности перехода частицы из положения A2 , A3 , A4 . A1 Записываем матрицу перехода и изображаем соответ0,25 ствующий граф: 0,25 0,5 0,5 0,25 0 ,25 0,5 0 ,25 0 0 ,25 0 0 ,25 0,5 P1 0,5 0 ,25 0 0 ,25 0 ,25 0,5 0 ,25 0 0,25 0,5 A2 A4 0,5 0,25 0,25 0,25 0,25 A3 2.9.2 Нахождение вероятностей перехода за несколько шагов Выше была рассмотрена вероятность pij перехода системы из состояния Ai в состояние Aj за один шаг. Задача 2.6. Пусть система в момент времени n находилась в состоянии Ai, найти вероятность того, что в момент времени n 2 (т.е. через два шага) система окажется в состоянии Aj. Решение. Интересующий нас переход от Ai к Aj за два шага может осуществиться m различными способами: Ai A1 A j Ai A2 A j ................ Ai Am A j Здесь запись Ai Ak A j означает, что в момент времени n 1 произошёл переход n 2 – переход Ak A j . Ai Ak , а в момент времени Вероятность осуществления такого «двойного» перехода можно найти, применяя формулу полной вероятности: 121 m P X n 2 j P X n 1 kP X n 2 j | X n 1 k . k 1 Для однородной цепи Маркова имеем P X n1 k P X n1 k | Xn i pik , P Xn2 j | X n1 k pkj , m следовательно, P X n 2 j pik pkj . k 1 Вспоминая операцию умножения матриц, получим, что матрица P2 вероятностей переходов за два шага системы из состояния Ai в состояние Аj будет равна P2 P1 P1 P12 . Обозначая соответствующие элементы матрицы P2 как m pij 2 , получим pij 2 pik pkj . k 1 Аналогично, повторяя это рассуждение, можно получить матрицу вероятностей перехода системы из состояния Ai в состояние Аj за r шагов (r = 1, 2, ...) Pr pij r P1r , где pij r P X n r j | X n i pij(r) = P{ Xn+r = j / Xn = i }. Итак, задача о нахождении вероятностей переходов за любое число шагов решена. Пример 2.24. На столе лежит стопка из трёх книг. Обозначим эти книги номерами 1, 2, 3. Состояние системы будем определять порядком расположения книг в стопке (пусть сверху вниз). Каждое испытание (переход) заключается в том, что из стопки берётся одна из книг и (после извлечения из неё нужной информации) кладётся наверх. Пусть каждая книга берётся с определённой вероятностью: книга i (i = 1, 2, 3) – с вероятностью pi. Указать матрицы переходов за один и за два шага. Решение. Ясно, что число возможных состояний системы равно числу перестановок трёх элементов (книг) 3! = 6: A1 1, 2, 3 , A2 2, 3, 1 , A3 3, 1, 2 , A4 1, 3, 2 , A5 3, 2 , 1 , A1 2, 1, 3 . 122 Здесь в упорядоченной тройке на 1-м месте указывается номер книги, лежащей сверху, на 2-м месте – номер книги, лежащей под ней, на 3-м месте – номер нижней книги. При очередном шаге состояние i1 , i2 , i3 либо остаётся неизменным (это произойдёт с вероятностью pi1 при выборе лежащей сверху книги с номером i1), либо заменится на одно из двух состояний: i2 , i1 , i3 или i3 , i1 , i2 соответственно с вероятностями pi2 или pi3 . Остальные переходы за один шаг невозможны. Поэтому матрица P1 перехода за один шаг имеет вид: p1 0 p3 0 0 p2 p1 p2 0 0 p3 0 0 p2 p3 p1 0 0 P1 . 0 0 p3 p1 0 p2 0 p 0 p1 p3 0 2 p1 0 0 0 p3 p2 Обратим внимание, что сумма элементов любой строки этой матрицы равна p1 p2 p3 1 (см. обязательные соотношения для вероятностей перехода). Матрицу P2 – матрицу перехода системы за два шага – найдём по формуле P2 P12 P1 P1 , используя известное правило умножения матриц: p12 p1 p2 p2 p3 p32 p3 p1 p1 p3 p2 p3 p22 2 2 p1 p3 p1 p3 p2 p3 p32 p1 p2 p1 p1 p2 p2 p2 p3 pp p22 p2 p3 p32 p1 p3 p1 p3 p12 p2 p3 p1 p2 P2 P1 P1 1 2 . 2 2 p2 p3 p3 p1 p3 p1 p1 p3 p2 p3 p1 p2 p22 p1 p2 pp p22 p2 p3 p1 p3 p12 p1 p3 p2 p3 p32 p1 p2 1 2 p2 p p p2 p3 p1 p3 p1 p3 p2 p3 p32 p22 1 1 2 2.9.3 Предельные вероятности Следующей важной задачей является исследование поведения вероятностей pij n при неограниченном увеличении числа 123 n. Решение этой задачи может быть получено на основе следующей теоремы. Теорема о предельных вероятностях. Пусть при некотором n0 все вероятности pij n0 0 . Тогда для каждого состояния Aj (j = 1, 2, ..., m) существует предельная вероятность его наступления, т.е. такое число pj , что имеет место равенство lim pij n p*j n i , j 1, 2, ..., m . При этом предельные вероятности pj* не зависят от начального состояния Ai и являются единственным решением системы уравнений m * p j 1, j 1 m * * pk pkj p j . k 1 Доказательство этой теоремы довольно сложно и в данном пособии не приводится. Итак, смысл этой теоремы состоит в том, что вероятность нахождения системы в состоянии Aj практически не зависит от того, в каком состоянии она находилась в далёком прошлом. Цепь Маркова, для которой существуют предельные (финальные) вероятности pj*, называется эргодической. Решение ( p1*, p2*, ..., pm* ) системы называется стационарным распределением вероятностей для цепи Маркова с матрицей вероятностей перехода P1 pij . Пример 2.25. Пусть в некоторой местности погода меняется следующим образом: 1) не бывает двух ясных дней подряд; 2) после ясного дня на другой день с равной вероятностью идёт дождь или снег; 3) если сегодня дождь (или снег), то с вероятностью 0,5 завтра погода не изменится; 4) если всё же она изменится, то в половине случаев снег заменяется дождём или наоборот, и лишь в половине случаев на 124 следующий день будет ясная погода. Требуется: а) считая в качестве состояний цепи различные виды погоды A1 = Д(дождь), A2 = Я(ясно), А3 = С (снег), выписать матрицу P1 вероятностей перехода; б) построить граф, соответствующий матрице P1; в) определить вероятность ясной погоды через 2 дня после дождя; г) найти предельные вероятности. Решение. а) Исходя из условий задачи имеем: p11 = P{ДД}= 0,5; p12 = P{ДЯ}= 0,25; p13 = P{ДС}=0,25; p21 = P{ЯД}= 0,5; p22 = P{ЯЯ}= 0; p23 = P{ЯС}= 0,5; p31 = P{СД}= 0,25; p32 = P{СЯ}= 0,25; p33 = P{СС}= 0,5. 0 ,5 0 ,25 0 ,25 Таким образом, P1 0 ,5 0 0 ,5 . 0 ,25 0 ,25 0 ,5 Отметим, что числа в первой строке матрицы P1 – это вероятности трёх видов погоды после дождя; во второй строке – после ясного Я дня, в третьей строке – после снега. 0,5 0,5 б) Изобразим граф, соответст- 0,5 0,25 0,25 0,5 0,25 вующий этой матрице: С Д в) Найдём p12 2 : 0,25 3 p12 2 p1k pk 2 p11 p12 p12 p22 p13 p32 0 ,1875 . k 1 г) Для определения предельных вероятностей p1*, p2*, p3* решаем систему (см. формулу при m = 3): p*1 p*2 p*3 1 * * * * p1 p11 p2 p21 p3 p31 p1 * * * * p1 p12 p2 p22 p3 p32 p2 p* p p* p p* p p* 2 23 3 33 3 1 13 Заменяя pij их значениями, приводя подобные и умножая на 125 число 4 последние три уравнения, получим систему: p *1 p 2* p *3 1 * * * 2 p1 2 p2 p3 0 . * * * p1 4 p2 p3 0 * * * p1 2 p 2 2 p3 0 Эту систему можно решить, например, методом Гаусса: 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 0 0 4 3 2 0 1 3 1 1 4 1 0 0 5 0 1 0 5 0 1 1 2 2 0 0 1 3 1 0 4 3 2 1 0 0 0 1 1 3 1 . 0 15 6 0 15 6 1 1 Итак, рассматриваемая система равносильна системе вида: p *1 p *2 p *3 1 * * p2 3 p 3 1 . * 5 p 3 2 Решая эту систему, получим: p1*= 0,4; p2*= 0,2; p3*= 0,4. 2.10 Контрольные вопросы 1. Что называется случайной величиной? Привести примеры дискретных и непрерывных величин. 2. Что такое функция распределения F(x) случайной величины Х? 3. Какие свойства функции распределения Вы знаете? 4. Как для дискретной случайной величины определяется ряд распределения и функция распределения? 5. Когда распределение дискретной случайной величины называют: биномиальным законом распределения; распределением Пуассона; геометрическим распределением; гипергеометрическим распределением? 126 6. Как определяется функции плотности f(x) непрерывной случайной величины Х? Какие её свойства Вы знаете? 7. Когда распределение непрерывной случайной величины называют: равномерным распределением на отрезке [a, b]; показательным распределением с параметром ; нормальным законом распределения с параметрами a и ? 8. Как вычисляются вероятности P{ X } и P{X a< }, если Х имеет нормальное распределение с параметрами a и ? 9. В чём заключается «правило трёх сигм»? 10. Что называется математическим ожиданием M(X) случайной величины Х в случаях: а) Х дискретная; б) Х – непрерывная случайная величина? 11. Что называется дисперсией D(X) и средним квадратичным отклонением (X) величины Х? 12. Какие основные свойства M(X) и D(X) Вы знаете? 13. Что такое функция распределения двумерной случайной величины? Сформулируйте её основные свойства. 14. Как получить законы распределения для Х и Y по отдельности, если известен закон распределения двумерной дискретной случайной величины (X,Y)? 15. Когда случайные величины Х и Y называются независимыми? 16. Какой вид имеет функция распределения FY y для случайной величины Y = (X), если y = (x) монотонная функция, а FX x функция распределения непрерывной случайной величины Х? 17. Что называется корреляционным моментом K(X,Y) и коэффициентом корреляции r(X,Y) двумерной случайной величины (X,Y)? 18. Какие свойства коэффициента корреляции Вы знаете? 19. Что характеризует коэффициент корреляции? 20. В чём заключается неравенство Чебышева? 21. Что означает сходимость по вероятности последовательности случайных величин X1, ..., Xn к величине Х? 22. В чём состоит закон больших чисел в форме Чебышева? 127 23. В чём состоит закон больших чисел в форме Бернулли? 24. Как формулируется центральная предельная теорема? 25. Как определяется однородная цепь Маркова? 26. Как найти вероятности перехода pij n системы из состояния Ai в состояние Aj за n шагов? 27. Как формулируются теорема о предельных вероятностях для цепи Маркова? 2.11 Задачи 2.11.1 Задачи с решениями 1. Из букв разрезной азбуки, составляющих слово «весна», извлекают одну за другой 2 буквы: 1) без возвращения; 2) с возвращением. Пусть X – число извлечённых согласных букв. Составить закон распределения и функцию распределения случайной величины X, найти M(X) и D(X). Решение. Случайная величина X принимает следующие возможные значения: 0, 1, 2. Определим вероятности возможных значений X, т.е. P{X = i}, i = 0, 1, 2. 1) Если буквы не возвращаются (выборка без повторений), Ci C2i то имеем гипергеометрическое распределение: P X i 3 22 . C5 Отсюда C30 C22 1 1 0,1 ; 54 1 2 1 1 C C 3 2 P X 1 3 2 2 0,6 ; 10 C5 P X 0 P X 2 C52 C32 C20 C52 31 0,3 . 10 Составим искомый ряд распределения: X 0 1 2 P 0,1 0,6 0,3 128 Зная ряд распределения, можно найти функцию распределения: если – < x 0, то {X < x} = , F x P X x P 0 ; если 0 < x 1, то {X < x} = {X = 0}, F x P X 0 0 ,1 ; если 1< x 2, то {X < x} = {X = 0} + {X = 1}, F x P X 0 P X 1 0 ,1 0 ,6 0 ,7 ; если x > 2, то {X < x} = {X = 0} + {X = 1} + {X = 2}, F x P X 0 P X 1 P X 2 0 ,1 0 ,6 0 ,3 1 . x 0, 0 , 0 ,1, 0 x 1, Итак, F x 0 ,7 , 1 x 2, 1, x 2. Найдём математическое ожидание и дисперсию: M X xi pi 0 0,1 1 0 ,6 2 0,3 1,2 ; i D X xi2 pi M 2 2 X 0 2 0,1 12 0,6 22 0,3 1,2 0,36 . i 2) Если буквы возвращаются (выборка с возвращением), то имеем биномиальное распределение: p X i C 2i p i q 2 i . Здесь число испытаний n = 2, вероятность успеха (появления соглас3 ной буквы) в одном испытании p , вероятность неуспеха 5 3 2 q 1 p 1 . Поэтому 5 5 0 2 1 1 3 2 4 p0 P X 0 C20 0,16 ; 5 5 25 3 2 12 p1 P X 1 C21 0,48 ; 5 5 25 p2 P X 2 3 C22 2 0 9 2 0,36 . 25 5 5 129 Ряд распределения: X 0 P 0,16 1 0,48 2 0,36 Функция распределения находится аналогично случаю 1): x 0, 0 , 0 ,16 , 0 x 1, F x 0 ,16 0 ,48 0 ,64 , 1 x 2, 1, x 2. Математическое ожидание и дисперсию можно вычислить непосредственно (как в случае 1)) или используя результаты биномиального распределения: 3 3 2 M X np 2 1,2 ; D X npq 2 0,48 . 5 5 5 Итак, центры распределений в случае 1) и 2) совпали, а степень разброса значений величины X в случае 1) меньше, чем в случае 2). 2. Производится стрельба из орудия по удаляющейся цели. При первом выстреле вероятность попадания равна p = 0,8, при каждом следующем выстреле вероятность попадания уменьшается в 2 раза. Произведено 3 выстрела. Рассматривается случайная величина X – число попаданий. Составить закон распределения для X, найти математическое ожидание и дисперсию. Решение. Возможные значения величины Х: X = i, где i = 0, 1, 2, 3. Для вычисления P{X = i} рассмотрим случайные события Ak = {попадание при k-м выстреле, k = 1, 2, 3}. Имеем P A1 0 ,8; P A2 0 ,5P A1 0,4; P A3 0,5P A2 0,2 ; P X 0 P A1 A2 A3 1 P A1 1 P A2 1 P A3 0,096 ; P X 1 P A1 A2 A3 A1 A2 A3 A1 A2 A3 P A1 1 P A2 1 P A3 1 P A1 P A2 1 P A3 1 P A1 1 P A2 P A3 0 ,472 ; 130 P X 2 P A1 A2 A3 A1 A2 A3 A1 A2 A3 P A1 P A2 1 P A3 P A1 1 P A2 P A3 1 P A1 P A2 P A3 0 ,368 ; P X 3 P A1 A2 A3 P A1 P A2 P A3 0,064 . Итак, ряд распределения X P 0 0,096 1 0,472 2 0,368 3 0,064 Математическое ожидание M X 0 0 ,096 1 0 ,472 2 0 ,368 3 0 ,064 1,4 . Дисперсия D X M X 2 M 2 X 2 0 2 0 ,096 12 0 ,472 2 2 0 ,368 3 2 0 ,064 1,4 0 ,56 . 3. Телевизионный канал рекламирует новую модель автомобиля. Вероятность того, что телезритель увидит эту рекламу, оценивается в 0,3. Случайным образом отобраны четыре телезрителя. Случайная величина Х – количество людей, видевших рекламу, среди отобранных. Какой вид имеет распределение для Х? Найти M(X) и D(X). Решение. Перечислим все возможные значения случайной величины Х: 0, 1, 2, 3, 4. Проведены четыре испытания – опрос 4-х телезрителей о рекламе. Испытания – независимые, людей отбирали случайным образом. Вероятность «успеха» (того, что каждый из отобранных людей видел рекламу) по условию задачи постоянна и равна p 0 ,3 . Вероятность «неуспеха» q 1 p 0 ,7 . Ясно, что случайная величина Х имеет биномиальное распределение с параметрами n 4 , p 0 ,3 . Составим ряд распределения. Для этого по формуле Бернулли вычислим вероятности того, что случайная величина Х примет каждое из своих возможных значений: 131 0 4 1 3 P X 0 P4 0 C40 p0 q4 1 0,3 0,7 0,2401 ; P X 1 P4 1 C41 p1q 3 4 0,3 0,7 0,4116 ; P X 2 P4 2 C42 p2 q2 43 2 2 0,3 0,7 0,2646 ; 1 2 3 1 4 0 P X 3 P4 3 C43 p3q 1 4 0,3 0,7 0,0756 ; P X 4 P4 4 C44 p4 q0 1 0,3 0,7 0,0081 . Таким образом, ряд распределения имеет вид: X P 0 1 2 3 4 0,2401 0,4116 0,2646 0,0756 0,0081 Математическое ожидание и дисперсию для биномиального распределения можно вычислить так: M X np 4 0 ,3 1,2; D X npq 4 0 ,3 0 ,7 0 ,84 . 4. Устройство состоит из 1000 элементов, работающих независимо друг от друга. Вероятность отказа любого элемента в течении времени Т равна 0,002. Пусть случайная величина Х – число отказавших элементов за время Т. Найти M(X) и вероятность того, что будет больше одного отказа. Решение. Здесь можно применить схему Бернулли, взяв n = 1000, p = 0,002. Так как число наблюдений n велико, а вероятность «успеха» p – мала, то можно биномиальное распределение случайной величины Х приближённо заменить распределением Пуассона: k P X k e , k 0, 1, 2, .... k! Здесь np 2 . Для распределения Пуассона M(X) = = 2. Можно сказать, что это устройство имеет за время работы Т в среднем два отказа. Событие А = {будет больше одного отказа} можно записать так: A X 1 0 X 1 . Поэтому P A 1 P 0 X 1 1 P X 0 P X 1 132 1 0 e 1 e 3 1 1 e 1 2 0 ,59 . 0! 1! e 5. Производится стрельба по цели до первого попадания. Вероятность попадания при каждом выстреле равна 0,4. Составить ряд распределения случайной величины Х – числа произведённых выстрелов, считая, что: а) стрелять можно неограниченное число раз; б) в наличии есть всего 5 патронов. В каждом случае найти математическое ожидание величины Х. Решение. а) Случайная величина Х имеет геометрическое распределение P X i q i 1 p , где i = 1, 2, ... при p 0 ,4 , q 1 0 ,4 0 ,6 . Ряд распределения случайной величины Х: X 1 2 3 4 5 … P p qp q2p q3p q4p … Математическое ожидание геометрического распределения 1 1 (см. пункт 2.5.3): M X 2,5 (среднее число провеp 0,4 дённых выстрелов). б) Ряд распределения случайной величины Х в рассматриваемом случае имеет вид: X 1 2 3 4 5 2 3 P p qp q p q p q4 Действительно, событие X 5 произойдёт только при условии, что при первых 4-х выстрелах будет промах. Вычисляем математическое ожидание, используя его определение: M X 1 p 2 qp 3 q 2 p 4 q 3 p 5 q 4 2,3056 . 6. Пусть функция распределения непрерывной случайной величины Х задана формулой F x A B arctg x , x (распределение Коши). Найти: а) постоянные А и В; б) плотность вероятности f(x); 133 в) вероятность того, что величина Х попадёт в отрезок [–1, 1]. Решение. а) Функция F(x) должна удовлетворять условиям: lim F x 0 и lim F x 1 . Поэтому x x A B arctgx A B 0 , xlim 2 lim A B arctgx A B 1. x 2 A 2 B 0 1 1 1 1 Значит, A , B F x arctgx . 2 2 A B 1 2 б) Находим плотность вероятности 1 1 1 1 f x F x arctgx , x . 2 1 x2 1 1 1 1 в) P 1 X 1 F 1 F 1 0 ,5 . 2 4 2 4 7. Пусть время безотказной работы мобильного телефона является случайной величиной Х, распределённой по показательному закону с параметром . Найти вероятность того, что телефон не выйдет из строя в течении времени t M X : Решение. Случайное событие А = {телефон не выйдет из строя в течении времени t M X } можно записать так: A X M X , а A X M X . 1 , а функция показательного распреде x0 0 , ления F x (см. пункт 2.5.6), получим: x , x0 1 e Учитывая, что M X 1 1 1 1 P A 1 P A 1 P X 1 F 1 1 e 0,37 . e 134 8. Пусть рост случайно взятого человека является случайной величиной Х, распределённой по нормальному закону N a , , где a 175 см, 10 см. Определить вероятность того, что рост случайно взятого человека: а) окажется больше 200 см; б) окажется меньше 170 см; в) будет находиться между 160 и 185 см; г) отклонится от математического ожидания менее чем на 5 см. Проиллюстрируйте «правило трёх сигм». Решение. а) Используя результат решения задачи 2.1 в пункте 2.5.7 при 200 , , найдём: 175 200 175 P200 X Ф Ф Ф Ф 2,5 10 10 0 ,5 0 ,4938 0 ,0062 . б) Аналогично, полагая , 170 , получим: 170 175 175 P X 170 Ф Ф Ф 0,5 Ф 10 10 Ф 0,5 Ф 0,1915 0,5 0,3085 . В случае в) 185 175 160 175 P160 X 185 Ф Ф Ф 1 Ф 1,5 10 10 Ф 1 Ф 1,5 0,3413 0,4332 0,7745 . г) Воспользуемся полученной в пункте 2.5.7 формулой P X a 2Ф : 5 P X 175 5 2Ф 2Ф 0 ,5 2 0 ,1915 0 ,383 . 10 Согласно «правилу трёх сигм» P a 3 X a 3 0,9973 P 145 X 205 0,9973 . Другими словами, лишь в 27 случаях из 10000 рост случайно взятого человека будет меньше 145 см или больше 205 см. 135 9. В 1-м ящике 6 шаров (1 шар с № 1, 2 шара с № 2, 3 шара с № 3), во 2-ом ящике 5 шаров (3 шара с № 1, 2 шара с № 2). Из каждого ящика наугад вынули по одному шару. Пусть X – номер шара из 1-го ящика, а Y – номер шара из 2-го ящика. Найти: а) законы распределения для X и Y; б) закон распределения для (X,Y); в) центр распределения для (X,Y). Решение. Из условия задачи следует, что X и Y – независимые случайные величины, поэтому P X i ,Y j P X i P Y j ; i 1, 2, 3; j 1, 2 . 1 2 1 3 1 а) P X 1 , P X 2 , P X 3 ; 6 6 3 6 2 3 2 P Y 1 , P Y 2 . 5 5 Итак, законы распределения для X и Y: 1 2 3 1 1 1 P 6 3 2 б) Закон распределения для (X,Y): X Y Y P 1 2 1 3 1 6 5 10 1 3 1 3 5 5 1 3 3 2 5 10 1 2 1 6 5 15 1 2 2 3 5 15 1 2 1 2 5 5 1 3 5 2 2 5 X 1 2 3 в) Так как 1 1 1 7 3 2 7 M X 1 2 3 , M Y 1 2 , 6 3 2 3 5 5 5 136 7 7 то центр распределения величины (X,Y) – это точка , . 3 5 10. Два раза бросается игральная кость. Пусть X – число появлений шестёрки, Y – число появлений нечётной цифры. Найти: а) законы распределения для X и Y; б) закон распределения двумерной величины (X , Y); в) P{X > Y}, P{X = Y}; г) основные характеристики: M(X), M(Y), D(X), D(Y), K(X,Y), r(X,Y). Решение. а) Множества возможных значений для X и Y совпадают, так как состоят из чисел i = 0, 1, 2. Случайная величина X имеет биномиальное распределение с вероятностью успеха (появление шестёрки в одном опыте) 1 p и числом опытов n = 2. Поэтому закон распределения для 6 X можно записать в виде 2 i i 1 5 P X i C 2i , i 0 , 1, 2 . 6 6 Вычисляя эти вероятности, составим ряд распределения для X: 1 2 X 0 25 10 1 36 36 36 Случайная величина Y также биномиально распределена с вероятностью успеха (появление нечётной цифры в одном опы1 те) p и числом опытов n = 2. Итак, 2 P 2 j j 1 1 1 P Y j C 2j C 2j , 4 2 2 Поэтому 1 2 Y 0 P 1 4 1 2 137 1 4 j 0 , 1, 2 . б) Вычислим вероятность pij P X i ,Y j P X i P Y j | X i . Имеем, j 2 j 25 3 2 C 2j , 36 5 5 так как событие {X = 0} (отсутствие шестёрки) означает, что в схеме Бернулли (n = 2) вероятность успеха (появление нечётной 3 цифры) стала равна p = . Итак, 5 25 4 1 25 6 1 25 9 1 p00 , p01 2 , p02 . 36 25 9 36 25 3 36 25 4 25 Контроль: p00 p01 p02 P X 0 . 36 При вычислении вероятностей p1j нужно учесть, что при двух бросаниях кости один раз появилась шестёрка. Поэтому 10 2 1 p10 P X 1 P Y 0 | X 1 ; 36 5 9 10 3 1 p11 P X 1 P Y 1 | X 1 ; 36 5 6 10 p12 P X 1 P Y 2 | X 1 0 0. 36 При вычислении p2j учтём, что при двух бросаниях кости появились две шестёрки, поэтому 1 1 p20 P X 2 P Y 0 | X 2 1 ; 36 36 p21 = p22 = 0 (так как соответствующие события невозможны). Получили закон распределения для (X, Y): p0 j P X 0 P Y j | X 0 138 Y 0 1 2 0 1 9 1 3 1 4 1 9 1 36 1 6 0 0 1 8 X 1 2 1 1 5 0 ; 9 36 36 1 1 5 P X Y p00 p11 p22 0 . 9 6 18 г) Используя полученные законы распределения для X и Y, получим: 2 25 10 1 1 M X i P X i 0 1 2 ; 36 36 36 3 i 0 в) P X Y p10 p20 p21 2 1 1 1 M Y j P Y j 0 1 2 1; 4 2 4 j 0 2 2 25 10 1 1 5 D X i P X i M X 0 12 22 ; 36 36 36 3 18 i 0 2 2 2 2 1 1 1 1 DY j2 PY j M2 Y 02 12 22 12 . 4 2 4 2 j0 Используя закон распределения для (X, Y), получим 2 2 1 1 1 M X Y i j P X i,Y j 0 0 0 1 0 2 9 3 4 i 0 j 0 1 1 1 1 +1 0 1 1 1 2 0 2 0 2 1 0 2 2 0 9 6 36 6 1 1 1 Итак, K X ,Y M X Y M X M Y 1 ; 6 3 6 139 K X ,Y r X ,Y D X D Y 1 6 5 1 18 2 1 0 ,45 . 5 11. Задано распределение системы случайных величин (X,Y) Y -2 -1 0 1 1 16 2 16 2 16 3 16 3 16 1 16 1 16 0 1 16 0 X -1 0 1 0 2 16 Найти: а) законы распределения для X и Y; б) условный закон распределения случайной величины Y при условии X 0 ; Являются ли независимыми случайные величины X и Y? Решение. а) Случайная величина X принимает значения x1 1, x2 0 , x3 1 . Суммируя вероятности в строках таблицы, находим 7 6 3 P X 1 , P X 0 , P X 1 . 16 16 16 Таким образом, закон распределения (безусловный) для X можно записать в виде ряда распределения X -1 0 1 7 6 3 16 16 16 Аналогично, суммируя вероятности в столбцах, получим P 140 3 6 4 3 . , P Y 1 , P Y 0 , P Y 1 16 16 16 16 Значит, безусловный ряд распределения для Y имеет вид: P Y 2 -2 -1 0 1 3 6 4 3 P 16 16 16 16 б) Найдём условные вероятности: P X 0 ,Y y j . P Y yj X 0 P X 0 Y 2 6 1 Так как P X 0 , то P Y 2 X 0 16 , 6 16 3 16 3 1 1 1 P Y 1 X 0 16 , P Y 0 X 0 16 , 6 6 2 6 16 16 0 P Y 1 X 0 0. 6 16 Таким образом, условный закон распределения случайной величины Y при условии X 0 можно записать в виде Y -2 -1 0 1 1 1 1 0 3 2 6 Так как безусловный и условный законы распределения случайной величины Y не совпадают, то случайные величины X и Y зависимы. P 12. Пусть вероятность всхожести каждого из семян некоторого растения равна p = 0,7. Используя неравенство Чебышева, оценить вероятность того, что при посеве 10 000 семян отклонение относительной частоты взошедших семян к посеянным от 141 вероятности взойти каждому из них, не превзойдёт по абсолютной величине 0,01. Решение. В задаче 2.5 было получено неравенство Чебышева для относительной частоты. При n = 10000, p = 0,7, q = 0,3 и = 0,01 находим Y 0 ,7 0 ,3 P 10000 0 ,7 0 ,01 1 1 0 ,21 0 ,79 . 0 ,012 10000 10000 Следовательно, не меньше 0,79 вероятность того, что при посеве 10 000 семян доля взошедших отклонится от вероятности взойти каждому из них не более чем на 0,01 (по абсолютной величине). 13. Устройство состоит из 10 независимо работающих элементов. Вероятность отказа каждого элемента за время t равна 0,05. Используя неравенство Чебышева, оценить вероятность того, что абсолютная величина разности между числом отказавших элементов и средним числом (математическим ожиданием) отказов за время t окажется меньше двух. Решение. Возьмём в качестве случайной величины Y10 – число отказавших элементов из десяти за время t. Так как Y10 распределена биномиально с параметрами p = 0,05, n = 10, то M Y10 np 10 0,05 0,5, D Y10 npq 10 0,05 0,95 0,475 . Воспользуемся неравенством Чебышева, учитывая, что по условию задачи = 2: 0 ,475 P Y10 0 ,5 2 1 1 0 ,11875 0 ,88125 . 22 14. Пусть Yn – число появлений события А в n = 100 независимых повторных опытах. Известно, что P(A) = 0,2 в каждом из этих опытах. Найти вероятность того, что: а) Yn = 20; б) 20 Yn 30. Решение. а) Имеем n = 100, k = 20, p = 0,2, q = 1 – p = 0,8. Используя приближённую локальную формулу Лапласа, получим k np 20 100 0 ,2 1 x 0 , P Yn 20 x npq 100 0 ,2 0 ,8 npq 142 1 1 0 ,3989 0 ,0997 . 4 100 0 ,2 0 ,8 б) Имеем k1 = 20, k2 = 30, поэтому k1 np k 2 np 0, 2 ,5 . npq npq По интегральной приближённой формуле Лапласа 0 P 20 Yn 30 Ф 2 ,5 Ф 0 0 ,4938 0 0 ,4938 . 15. Определить вероятность того, что средняя продолжительность 100 производственных операций окажется в пределах от 46 до 49 с, если математическое ожидание одной операции равно 47,4 с, а среднее квадратичное отклонение равно 4,9 с. Решение. Рассмотрим случайные величины Хi – продолжительность i-й наугад взятой производственной операции (i = 1, …, n). По условию задачи n 100, m M X i 47 ,4c, D X i 4,9c , X 1 n X i – средняя продолжительность 100 наугад взятых n i 1 производственных операций, X D X 2 / n причём M X m 47 ,4 c , 4 ,9 2 / 100 0 ,49 c . Находим вероятность 46 47 ,4 X 47 ,4 49 47 ,4 P 46 X 49 P 0 ,49 0 ,49 0 ,49 X 47 ,4 P 2,857 3,265 ( 3,265 ) ( 2,857 ) 0,998 . 0,49 16. Сколько необходимо провести независимых испытаний по схеме Бернулли, чтобы с вероятностью, не меньшей 0,975, Y гарантировать выполнение неравенства n p 0 ,1 , где Yn – n число успехов в n испытаниях, p = 0,5 – вероятность успеха в одном испытании. Получить оценку для наименьшего числа 143 испытаний: а) используя неравенство Чебышева; б) считая применимой центральную предельную теорему. Решение. а) Согласно неравенству Чебышева для относительной частоты, имеем Y 0 ,5 0 ,5 0 ,25 P n 0 ,5 0 ,1 1 1 . 2 n 0 ,01 n ( 0 ,1 ) n По условию задачи должно выполняться: 0 ,25 25 1 0 ,975 0,025 n 1000 . n 0 ,01 n б) Перейдём к нормированной случайной величине 1 1 Yn M Yn p np p p n n n : M Zn 0, Zn pq pq pq n n n 1 D Yn 2 npq n D Zn 1. pq 2 pq n n n Заменяя распределение величины Zn на нормальное распределение N(0, 1) (считая применимой центральную предельную теорему), получим n Y 0 ,1 0 ,1 . P n p 0,1 P Z n 2 2 5 pq pq n n n Требуется выполнение условия: n n n 2 2 ,24 n 126 . 0 ,975 0 ,4875 5 5 5 Сравнивая полученные в а) и б) оценки для n, видим, что неравенство Чебышева даёт довольно грубую оценку. 17. В страховой компании застраховано 10000 автомобилей. Вероятность поломки любого автомобиля в результате аварии 144 пусть равна p = 0,006. Каждый владелец застрахованного автомобиля платит страховые взносы 120 руб. в год и в случае поломки автомобиля в результате аварии получает от компании 10000 руб. Найти вероятность события Ak ={по истечению года работы страховая компания получит прибыль не менее чем k руб.}, если k = 400000; 600000; 800000. Решение. Рассмотрим случайную величину Yn – число автомобилей, совершивших поломку в результате аварии, среди n = 10000 застрахованных (считаем, что любой автомобиль за год попадает в аварию не более одного раза). В этой схеме Бернулли имеем M Yn np 10000 0,006 60, D Yn npq 60 0,994 59,64 . Затраты компании будут составлять 10 4 Yn руб., а прибыль 120 10 4 10 4 Yn руб. за год. Требуется определить P k 10 120 Y 120 P 0 Y 120 k 10 . P Ak P k 120 10 4 10 4 Yn 120 10 4 4 4 n n Используя интегральную приближённую формулу Лапласа, получим: P Ak Ф x2 Ф x1 , где 120 k 104 60 60 k 104 0 60 60 , x1 7 ,77 . 7,72 7 ,72 npq npq Итак, 60 40 P A400000 7 ,77 0 ,495 0 ,5 0 ,995 ; 7 ,72 x2 60 60 P A600000 7 ,77 0 0 ,5 0 ,5 ; 7 ,72 60 80 P A800000 7 ,77 0,495 0,5 0,005 . 7 ,72 145 18. В двух отделениях ящика находится два шара. Каждую секунду выбирается случайным образом один из двух шаров и перекладывается из одного отделения в другое. В качестве состояний цепи Маркова рассматриваются Аk – число шаров в первом отделении (k = 0, 1, 2). Выписать матрицы перехода цепи Маркова за один и за два шага. Решение. Отметим сразу, что в результате одного перекладывания состояние обязательно должно измениться, поэтому p00 = P{A0A0} = p11 = P{A1A1} = p22 = P{A2A2} = 0. События {A0A1} и {A2A1} достоверные, так как в первом случае в пустое первое отделение обязательно придёт один шар, а во втором случае обязательно из первого отделения уйдёт шар в пустое второе отделение. Поэтому p01 = p21 = 1. События {A1A0} и {A1A2} равновозможны (или из первого отделения уйдёт шар, или в первое отделение придёт шар, поэтому p10 = p12 = 0,5. И, наконец, события {A0A2} и {A2A0} невозможно осуществить за один шаг, поэтому p02 = p20 = 0. Итак, матрица перехода за один шаг имеет вид 0 1 0 P1 0 ,5 0 0 ,5 0 1 0 Матрицу P2 перехода за два шага найдём по формуле 0 1 0 0 1 0 0 ,5 0 0 ,5 P2 P1 P1 0 ,5 0 0 ,5 0 ,5 0 0 ,5 0 1 0 . 0 1 0 0 1 0 0 ,5 0 0 ,5 19. Из таблицы случайных чисел, содержащей все натуральные числа от 1 до m включительно, выбираются числа наугад. Система находится в состоянии Ai, если наибольшее из выбранных чисел равно i (i = 1, 2, ..., m). Найти матрицу вероятностей перехода P1. 146 Решение. В таблице случайных чисел любое число от 1 до m равновозможно, поэтому переход из состояния A1 (наибольшее выбранное число равно 1) в любое состояние Aj равнове1 роятен, т. е. p1 j j 1, 2, ..., m . m Из состояния A2 в состояние A1 переход по условию задачи невозможен, поэтому p21 = 0. В состоянии A2 можно остаться, когда очередное выбираемое число равно 1 или 2, поэтому 2 1 p22 . Ясно, что p2 j j 3, 4 , ..., m . m m В общем случае получаем i 1 pii ; pij 0 при i j ; pij при i j i , j 1, 2, ..., m . m m Поэтому матрица вероятностей перехода P1 имеет вид 1 m 0 P1 0 ... 0 0 1 m 2 m ... 1 m 1 m 3 m ... ... 0 0 ... 0 0 ... 0 ... ... ... 1 m 1 m 1 m ... m 1 m 0 1 m 1 m 1 . m ... 1 m 1 20. Автомашина используется для перевозки грузов между тремя пунктами, которые расположены на кольцевой трассе. Грузы перевозятся из каждого пункта в следующий с вероятно2 1 стью или в предыдущий с вероятностью . Найти матрицы 3 3 перехода P1, P2 и предельные вероятности. 147 Решение. Из условия pii 0 1, 2, 3 ; p12 p23 p31 задачи следует, что 2 (перевозка груза в сле3 дующий пункт); p13 p21 p32 1 (перевозка груза в предыдущий пункт). 3 0 Поэтому матрица перехода P1 за один шаг: P1 1 3 2 3 2 3 0 1 3 1 3 2. 3 0 Найдём матрицу перехода P2 за два шага: 0 1 P2 P1 P1 3 2 3 2 3 0 1 3 1 0 3 2 1 3 3 2 0 3 2 3 0 1 3 1 4 3 9 2 4 3 9 1 0 9 1 9 4 9 4 9 4 9 1 . 9 4 9 Предельные вероятности p1*, p2*, p3* являются решением системы (см. формулу ( ) при m = 3 в пункте 9.3): p*1 p*2 p*3 1 1 p* 2 p* p* 1 3 2 3 3 2 * 1 * * p1 p 3 p 2 3 3 1 * 2 * * 3 p1 3 p 2 p3 После приведения подобных и умножая на число 3 последние три уравнения, получим 148 p*1 p*2 p*3 1 * * * 3 p1 p2 2 p3 0 * * * 2 p1 3 p2 p3 0 p*1 2 p*2 3 p*3 0 Решим эту систему методом Гаусса: 1 1 1 1 1 1 1 1 1 1 2 2 0 4 5 3 0 1 3 1 2 3 1 1 0 5 1 2 0 5 2 3 3 0 1 4 1 0 4 1 1 1 1 1 0 1 4 1 . 0 0 21 7 0 0 21 7 1 1 4 1 1 2 5 3 Данная система равносильна системе p*1 p*2 p*3 1 * * p2 4 p3 1 . * 3 p3 1 Решение этой системы p1 p2 p3 1 определяет предель3 ные вероятности. 2.11.2 Упражнения для самостоятельного решения 1. Производится испытание трёх изделий на надёжность. Вероятность выдержать испытания для каждого соответственно равна 0,7; 0,8 и 0,9. Составить ряд распределения случайной величины Х – числа изделий, выдержавших испытания. 2. Составить ряд распределения случайной величины Х – числа попаданий мячом в корзину при двух бросках, если вероятность попадания при каждом броске равна 0,4. Составить ряд распределения. Найти математическое ожидание M(X) и 149 дисперсию D(X). Определить функцию распределения и нарисовать её график. 3. У охотника только 4 патрона. Вероятность попадания в зверя при каждом выстреле равна 0,25. Увидев зверя, охотник стреляет по нему, пока не попадёт или пока не кончатся патроны. Найти математическое ожидание и дисперсию величины Х – числа проведённых выстрелов. 4. Дискретная случайная величина Х имеет только два возможных значения: x1 и x2, причём x1 < x2. Вероятность того, что Х примет значение x1, равна 0,2. Составить ряд распределения Х, зная математическое ожидание M(X) = 2,6 и среднее квадратичное отклонение (X) = 0,8. 5. Два раза бросается симметричная монета. Случайная величина Х – модуль разности числа появлений герба и числа появлений цифры в данном опыте. Составить закон распределения для Х. Определить функцию распределения. Вычислить среднее квадратичное отклонение (X). 6. Из 28 костей домино наугад выбирается одна. Найти ряд распределения случайной величины Х – суммы очков на её половинках. 7. На пустую шахматную доску ставится случайно слон (вероятности поставить слона на каждую из клеток будем считать одинаковыми). Найти закон распределения Х – числа битых полей. Вычислить M(X). 8. Посетитель тира покупает 30 пуль и решает стрелять по десяти фигурам, расходуя на каждую не более 3-х пуль. Предполагая, что вероятность попадания при каждом выстреле равна 0,5 (и не зависит от результатов предыдущих выстрелов), найти математическое ожидание числа израсходованных пуль, т. е. среднее число пуль, израсходованных на десять фигур. 9. Случайная величина Х задана функцией распределения 150 x 2 0 , x 1 1 F x arcsin , 2 x 2 2 2 1, x2 Найти функцию плотности вероятности f(x). Определить вероятность того, что в результате испытания Х примет значение, заключённое в интервале (–1, 1). 10. Дана плотность вероятности непрерывной случайной величины Х: 0 , f x Acos x , 0 , x0 0x . 2 2 Определить параметр А и найти функцию распределения F(x). x 11. Случайная величина Х задана функцией распределения 0 , x x0 x0 0 F x x03 1 , x x0 x3 Найти математическое ожидание и дисперсию для Х. 12. Случайная величина Х, распределённая равномерно, имеет математическое ожидание M(X)= 2 и дисперсию D(X)= 3. Найти: а) функцию плотности f(x), б) функцию распределения F(x); в) вероятность P{0 X 2}. 13. Некто ожидает телефонный звонок между 13.00 и 14.00. Пусть время ожидания звонка есть непрерывная случайная величина Х, имеющая равномерное распределение на отрезке 13, 14 . Найти вероятность того, что звонок поступит в промежутке от 13 час 35 минут до 13 час 50 минут. 151 14. Случайная величина Х – время безотказной работы трансформатора (измеряется в годах). Пусть величина Х имеет показательное распределение с параметром = 0,5. Найти вероятность того, что трансформатор безотказно проработает не менее двух лет. 15. Плотность вероятности непрерывной случайной величины Х равна x0 0 , f x 1 x / T . e , x 0 T Найти: а) математическое ожидание; б) P{Х < }. 16. Случайная величина Х имеет нормальное распределение с параметрами a = 0, = 1. Что больше: p1 = P{– 0,5 X – 0,1} или p2 = P{1 X 2}? 17. Деталь, изготовленная автоматом, считается годной, если отклонение её контролируемого размера от номинала не превышает 10 мм. Пусть Х – случайное отклонение контролируемого размера от номинала – имеет нормальное распределение с параметрами а = 0 , = 5 мм. Определить: а) сколько процентов годных деталей изготавливает автомат; б) сколько нужно изготовить деталей, чтобы с вероятностью не менее 0,95 среди них оказалась хотя бы одна бракованная деталь. 18. В нормально распределённой совокупности 15% значений Х меньше 12 и 40% значений Х больше 16,2. Найти математическое ожидание и среднее квадратичное отклонение данного распределения. 19. Двумерная случайная величина (X,Y) распределена по закону, определяемому таблицей Y –1 0 1 X 0 0,1 0,2 0,1 1 0,2 0,3 0,1 152 Найти: а) законы распределения для X и Y; б) центр распределения для (X, Y); в) закон распределения для Z = X Y. 20. Производится два выстрела по мишени в неизменных условиях. Вероятность попадания в мишень при одном выстреле равна p, промаха q. Случайные величины: X = {число выстрелов до первого попадания (включительно)}, Y = {число промахов}. Требуется: а) записать законы распределения для X и Y; б) записать закон распределения для (X, Y); в) вычислить вероятность P{X = Y}; г) определить, зависимы или независимы X и Y. 21. Бросаются две игральные кости. Случайные величины: 1 , если сумма выпавших очков чётная X 0 , в других случаях (индикатор чётности суммы очков), 1 , если произведение очков чётно Y 0 , в других случаях (индикатор чётности произведения очков). Требуется: а) описать закон распределения случайной величины (X, Y); б) вычислить функцию распределения F(x, y) для (X, Y); в) найти вероятности P{X + Y = 2} и P{XY = 0}. 22. Среди 10 лотерейных билетов есть 2 выигрышных. Сначала женщина вытягивает один билет, затем один билет вытягивает мужчина. Определить: а) закон распределения системы случайных величин (X,Y), где X – число выигрышных билетов у женщины, Y – у мужчины; б) P X Y ; в) P Y yi X 1 ; г) коэффициент корреляции r X ,Y . 153 23. Дискретная случайная величина X задана законом распределения X 0,3 0,6 P 0,2 0,8 Используя неравенство Чебышева, оценить вероятность события A X M X 0 ,2 . 24. Длина изготовляемых изделий представляет случайную величину, среднее значение которой (математическое ожидание) равно 90 см. Дисперсия этой величины равна 0,0225. Используя неравенство Чебышева, оценить вероятность того, что: а) отклонение длины изготовленного изделия от её среднего значения по абсолютной величине не превзойдёт 0,4 см; б) длина изделия выразится числом, заключённым между 89,7 и 90,3 см. 25. Вероятность попадания в цель при каждом выстреле равна 0,1. Сколько выстрелов надо произвести, чтобы с вероятностью 0,9 быть уверенным, что число попаданий окажется не менее 10? 26. Вероятность появления события А в одном опыте равна 0,5. Можно ли с вероятностью, большей 0,97, утверждать, что число появлений события А в 1000 независимых опытах будет в пределах от 400 до 600? 27. Сколько нужно произвести независимых испытаний, чтобы с вероятностью 0,8 событие А, вероятность которого при одном опыте равна P(A) = 0,05, наблюдалось бы не менее 5 раз? 28. Сколько нужно произвести опытов, чтобы с вероятностью 0,9 утверждать, что частота интересующего нас события будет отличаться от вероятности появления этого события, равной 0,4, не более чем на 0,1? 29. Вероятность появления некоторого события в одном опыте равна 0,6. Какова вероятность того, что это событие появится в большинстве из 60 опытов? 154 30. Проводятся n независимых испытаний по схеме 1 6 Бернулли (n = 600, p ). Пусть Yn – число успехов в n испытаниях. Найти: а) P{950 Yn 1070}; б) число из условия P{Yn –1000 < } = 0,975; в) число испытаний k из условия 1 P Yk p 0 ,05 0 ,95 . k 31. Французский учёный Бюффон бросил монету 4040 раз, причём герб появился 2048 раз. Найти вероятность того, что при повторении опыта Бюффона относительная частота появления герба отклонится от вероятности появления герба по абсолютной величине не более, чем в опыте Бюффона. 32. Два стрелка А и В поочерёдно стреляют по мишени, причём после каждого попадания стреляет А, а после каждого промаха стреляет В. Право первого выстрела стрелкам предоставляется на тех же условиях по результату предварительного выстрела, которые производит наудачу выбранный стрелок. Вероятность поражения мишени при каждом выстреле для стрелков А и В равны соответственно и . Найти матрицу P1 перехода за 1 шаг, взяв два состояния: А1 – попадание в мишень, А2 – промах. Указать начальные вероятности p10 и p20 . 33. Пусть в некотором городе каждый взрослый житель имеет одну из трёх групп профессий А1 , А2 , А3 (в каждой группе объединены родственные или близкие профессии). Пусть дети отцов, имеющих профессии А1 , А2 , А3 сохраняют их с вероятностью 0,8, 0,7 и 0,6 соответственно, а если не сохраняют, то одинаково часто выбирают любую из двух других профессий. При сделанных предположениях изменение профессионального состава населения города при смене поколения будет описываться однородной цепью Маркова (А1, А2, А3 – её состояния). Найти: а) матрицу перехода P1 за один шаг; б) матрицу перехода P2 за два шага. 155 34. При повышении напряжения в сети электрического тока с вероятностью 0,2 выходит из строя блокирующее устройство прибора, а с вероятностью 0,1 прекращается работа этого прибора. Если блокирующее устройство вышло из строя, то последующее повышение напряжения приводит к прекращению работы прибора с вероятностью 0,3. Пусть состояния работы прибора следующие: А1 – прибор исправен, А2 – вышло из строя блокирующее устройство, А3 – прибор не работает. Найти матрицу перехода P1 за один шаг. Указать вероятность перехода А1 в А2 за два шага. 35. Пусть в некотором городе 1% жителей ежегодно переселяется в пригород, а 2% жителей пригородов переезжает в город. Если предположить, что общее число жителей города и его пригородов на какой-то период стабилизировалось, то миграционный процесс можно рассматривать как марковский (А1 – случайно выбранный человек – городской, А2 – из пригорода). Найти: а) матрицу перехода P1 за один шаг; б) предельные вероятности. 2.11.3 Ответы к упражнениям 1. 2. X P 0 0,006 X 0 1 2 P 0,36 0,48 0,16 1 0,092 X P 1 0,2 3 0,8 5. X P 0 0,5 2 0,5 3 0,504 M(X) = 2,4; D(X) = 0,46. M(X) = 0,8; D(X) = 0,48. x0 0 , 0 ,36 , 0 x 1 F x . 0 ,84 , 1 x 2 1, x2 4. 2 0,398 3. M(X) = 2,734; D(X) = 1,57. x0 0 , X 1 ; F x 0 ,5 , 0 x 2 . 1, x2 156 1 1 при k = 0, 1, 11, 12; P X k при 28 14 1 3 k = 2, 3, 9, 10; P X 6 ; P X k при k = 4, 5, 7, 8. 7 28 1 7 9 11 13 X 7. 8. 17,5. 9. 3 7 5 3 1 P 16 16 16 16 6. P X k x0 0 , 10 . А = 1 , F x sin x , 0 x 2 . 1, x 2 11. M(X) = 1,5x0; D(X) = 0,75x02. x 1 0 , 1 , x 1,5 x1 12. a) f x 6 ; б) F x , 1 x 5 ; 6 0 , x 1,5 1, x 5 1 1 1 в) . 13. 0,25. 14. . 15. а) T; б) 1 ; 3 e e 16. p1 0 ,1516 , p2 0 ,1359 . 17. а) 95,4%; б) n 59. 18. а = 15,39; = 3,26. 19. а) в) X P 0 1 0,4 0,6 Y P X Y – 1 0 1 0,2 0,7 0,1 P –1 0 1 0,3 0,5 0,2 20. а) X P 1 2 p q б) точка (0,6;–0,1); Y P 0 1 2 2 p 2pq q2 Y б) 0 1 2 1 p2 pq 0 2 0 pq q2 в) P{X = Y} = q; г) зависимы. X 157 21. а) б) Y Y y 0 0 y1 y 1 0 1 0 0 0,5 x0 0 0 0 1 0,25 0,25 0 x1 0 0 0,5 x1 0 0,25 1 X X в) P{X + Y = 2} = 0,25; P{XY = 0} = 0,75. 22. а) б) P X Y Y 0 1 X 8 ; 45 8 ; 9 в) P Y 0 | X 1 0 1 28 45 8 45 8 45 1 45 P Y 1 | X 1 1 1 ; г) . 9 9 23. P(A) 0,64. 24. а) P 0,86; б) P 0,75. 25. 146. 26. Да. 27. n 144. 28. n 65. 29. P = 0,943. 30. а) 0,951; б) 64,67; в) k 213. 31. p 0 ,62 . 32. P1 1 0 , p20 1 . ; p1 1 2 2 0 ,8 0 ,1 0 ,2 0 ,7 0 ,2 33. а) P1 0 ,15 34. 0,28. 0 ,1 0 ,675 0 ,15 ; б) P2 0 , 255 0 , 31 0 ,6 0 ,17 0 ,535 0 , 28 0 ,155 0 , 21 . 0 ,41 0 ,99 0 ,01 2 1 35. а) P1 ; б) p1 , p2 . 3 3 0 ,02 0 ,98 158 3 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА В данном разделе излагаются основы математической статистики раздела математики, посвященного анализу статистических данных. 3.1 Выборка и способы её записи 3.1.1 Генеральная и выборочная совокупности В различных областях знаний большое значение имеют статистические методы изучения случайных явлений. Обычно к ним обращаются в тех случаях, когда требуется обследовать большую совокупность однородных объектов, называемую в дальнейшем генеральной совокупностью. Изучение проводится с целью исследования некоторого признака, количественного или качественного. Например, можно интересоваться распределением людей по росту, по среднегодовому доходу, по образованию; распределением массово изготавливаемого изделия по продолжительности безотказной работы; распределением пахотных земель по урожайности, по виду почвы и т. д. Часто под генеральной совокупностью понимают множество значений наблюдаемых характеристик. Например, пусть проводится обследование рабочих некоторого завода по пяти признакам: возраст, стаж, образование, квалификация, зарплата. Генеральной совокупностью можно назвать множество рабочих, а можно множество записей вида (32 года, 13 лет, среднее, 5-й разряд, 25000 руб.) для всех рабочих. Понятно, что исчерпывающее описание генеральной совокупности можно получить, выяснив значение интересующего нас признака для всех без исключения объектов данной совокупности. В отдельных случаях так и поступают: например, данные о распределении жителей той или иной страны по полу, возрасту и т.д. получают при всеобщих переписях населения, проводимых раз в несколько десятилетий. Однако, обследование всей генеральной совокупности (сплошной метод обследования) связано с рядом трудностей. Основная трудность – большой объём (число объектов) генеральной совокупности, требуются 159 большие затраты средств и времени. В ряде случаев исследование всех объектов генеральной совокупности привело бы к их порче – например, исследование на всхожесть всего семенного материала. Чтобы обойти указанные трудности обследование всей генеральной совокупности заменяют обследованием её части. Множество из n объектов, отобранных некоторым образом из генеральной совокупности, называется выборочной совокупностью или просто выборкой, а число n объёмом выборки. Метод, основанный на том, что по данным обследования выборки, выделенной из рассматриваемой генеральной совокупности, делается заключение о всей генеральной совокупности, называется выборочным методом. Выборка должна быть репрезентативной (представительной), т.е. должна достаточно хорошо отражать свойства, присущие генеральной совокупности. Этого можно добиться, если выборка формируется случайно: стараются отбор выборочных данных организовать так, чтобы дать равную возможность любому объекту генеральной совокупности попасть в выборку. Практически любой признак допускает количественную оценку, поэтому математической моделью для изучения генеральной совокупности является случайная величина. Пусть опыт состоит в том, что мы выбрали один из объектов и определили числовое значение интересующего нас признака. Заранее предсказать это значение невозможно, мы имеем дело со случайной величиной. Изучение генеральной совокупности (с точки зрения некоторого признака) равносильно изучению генеральной случайной величины Х количественной характеристики данного признака. Это изучение включает получение информации о функции распределения случайной величины Х, о её числовых характеристиках. Уточним понятие выборки. Пусть при 1-м наблюдении случайной величины Х получено значение x1, при 2-м наблюдении получено значение x2 и т.д. Сформирована последовательность чисел x1, x2, ..., xn – конкретная выборка. 160 Однако для изучения генеральной случайной величины Х полезно рассмотреть случайную величину Хi – число, попавшее в выборку при i-ом наблюдении. Тогда X1, X2, ..., Xn – независимые случайные величины, каждая из них распределена так же, как генеральная случайная величина Х. Совокупность случайных величин X1, X2, ..., Xn также называется выборкой. Тогда конкретную выборку x1, x2, ..., xn можно рассматривать как один из возможных наборов её значений. Для изучения свойств генеральной совокупности рассматривают различные функции от случайных величин X1, X2, ..., Xn – они называются статистиками. Конечно, статистики тоже являются случайными величинами. Например, можно рассмат1 n ривать статистику X X i – среднее арифметическое. А для n i 1 каждой конкретной выборки мы получим число x 1 n xi . n i 1 3.1.2 Способы записи и графическое представление выборки Пусть выборка объёма n содержит k различных элементов. Расположим их в порядке возрастания и обозначим z1, z2, ..., zk . Пусть элемент zi встречается ni раз. Число ni называют частоn той элемента zi, а отношение i – относительной частотой. n k k n Очевидно, что ni n , i 1 . i 1 i 1 n Разность между максимальным и минимальным элементами выборки zk – z1 = R называется размахом выборки. Статистическим рядом называется последовательность пар zi , ni . Обычно статистический ряд записывается в виде таблицы, первая строка которой содержит элементы zi, а вторая их частоты ni: zi ni z1 n1 z2 n2 161 ... ... zk nk Иногда пишут во второй строке таблицы не частоты ni, а отноn сительные частоты i . n Пример 3.1. Для исследования посещаемости занятий по математике студентами 1-го курса АлтГТУ случайным образом выбрали на 1-м курсе одну учебную группу, в которой 25 студентов. С помощью журнала посещаемости собраны данные (выборка) о числе пропущенных занятий по математике в этой группе (за один семестр согласно списку студентов в журнале): 2, 0, 3, 1, 6, 4, 4, 2, 5, 2, 5, 0, 1, 1, 2, 1, 0, 3, 2, 4, 3, 2, 1, 2, 3. Записать эту выборку в виде статистического ряда. Определить размах выборки. Решение. Объём выборки n = 25. Располагая семь различных выборочных элементов 0, 1, 2, 3, 4, 5, 6 в порядке возрастания и определяя число их повторений, записываем статистический ряд: zi ni 0 3 1 5 2 7 3 4 4 3 5 2 6 1 ni Так как минимальный элемент 7 выборки z1 0 , а максимальный 5 z7 6 , то размах выборки: 4 3 2 1 R z7 z1 6 . Для графической иллюстрации zi статистического ряда строят поли0 1 2 3 4 5 6 гон частот ломаную с вершинами в точках zi , ni . Полигон частот для выборки, рассмотренной в примере 3.1, изображён на рисунке. Аналогично можно строить полигон относительных n частот, т.е. ломаную с вершинами в точках zi , i . n Часто возникает задача: имеется выборка и отсутствует информация о виде функции F x распределения генеральной 162 величины Х. Требуется по выборке найти оценку (приближение) для неизвестной функции F x . Для этого рассматривают эмпирическую функцию распределения n Fn x x , n где n x – число выборочных значений меньших х ( x ). Для статистического ряда можно записать nx ni . i: zi x Из определения следует, что функция Fn x определяет для каждого значения х относительную частоту события {X < x}. Напомним, что функция распределения F x генеральной случайной величины Х определяет для каждого значения х вероятность события {X < x}. По закону больших чисел Fn x F x с увеличением объёма выборки n, т.е. Fn x и F x мало отличаются друг от друга при больших n. Это и позволяет считать эмпирическую функцию Fn x выборочной оценкой неизвестной в общем случае функции F x распределения генеральной величины Х. Пример 3.2. Построить полигон относительных частот и эмпирическую функцию распределения для выборки, представленной статистическим рядом: zi ni 2 1 5 3 7 2 8 4 Решение. Объём выборки n ni 1 3 2 4 10 . Выi n числения относительных частот i , а также накопленных отn i n j носительных частот удобно свести в таблицу: j 1 n 163 zi ni 2 5 7 8 1 3 2 4 i ni nj n n 0,1 0,3 0,2 0,4 0,1 0,4 0,6 1 j 1 Эмпирическую функцию Fn x можно записать, используя результаты 4-го столбца в полученной таблице: 0 , 0 ,1, Fn x 0 ,4 , 0 ,6 , 1, x2 2 x5 5 x 7 . 7 x8 x8 Изобразим полигон относительных частот и график эмпирической функции Fn x . ni 0,4 n Fn x 1,0 0,8 0,6 0,4 0,2 0,3 0,2 0,1 0 2 5 7 8 zi 0 2 5 7 8 x При большом числе различных элементов выборки рекомендуется производить группировку данных, представляя результаты наблюдений в виде группированного статистического ряда. Для этого промежуток z1 , zk , содержащий все элементы выборки, разбивается на r непересекающихся интервалов ai 1 , ai , i = 1, 2, ..., r. Вычисления упрощаются, если интервалы имеют одинаковую длину (шаг разбиения) 164 z k z1 R , тогда a0 = z1, ai a0 i h i 1, 2 , ..., r . В r r дальнейшем рассматривается именно этот случай. Рекомендуемое число r интервалов зависит от объёма выборки n и может быть определено по формуле Стерджеса h r 1 3,3 lg n , где запись [a] означает целую часть числа а. Замечание. Для того, чтобы шаг разбиения был более удобным, допускается его небольшое увеличение. Например, пусть R 15 ,1 z1 = 3,3, R = 15,1, r = 8. Тогда h 1,8875 . Если r 8 взять более удобное значение h = 2, то расширение промежутка разбиения составит hr R 2 8 15 ,1 0 ,9 . При определении границ интервалов ai 1 , ai сдвинем левую границу a0 первого интервала влево от z1 на часть этого расширения, например, на величину 0,3. Тогда величина a0 будет целым числом (для удобства): a0 z1 0 ,3 3 . В данном примере получаются следующие интервалы: 3, 5 , 5 ,7 , 7 , 9 , 9, 11 , 11, 13 , 13, 15 , 15, 17 , 17 , 19 . После того как интервалы ai 1 , ai выбраны, определяют частоты ni – количество элементов выборки, попавших в i-й интервал (элемент выборки, совпадающий с правой границей интервала, относится к последующему интервалу). Очевидно, r что ni n . На каждом интервале ai 1 , ai выбирается сереi 1 ai 1 ai , которая играет роль представителя всех 2 элементов, попавших в данный интервал. В итоге получается статистический ряд, содержащий последовательность пар zi , ni , i = 1, 2, ..., r. Рассмотренные выше дина z*i полигон и эмпирическая функция распределения аналогичным 165 образом определяются и в этом случае (вместо zi рассматриваются zi , а ni заменяются на ni ). Для группированной выборки рассматриваются гистограммы частот или относительных частот. Гистограммой частот называются фигура, составленная из прямоугольников, основаниями которых служат интервалы n* ai 1 , ai длины h, а высоты равны отношению hi (плотность n* частоты). Площадь i-го прямоугольника будет равна h i n*i h сумме частот выборочных значений, попавших в i -й интерr вал, поэтому площадь гистограммы частот равна n*i n i 1 объёму выборки. Аналогично определяется гистограмма относительных n* частот (высоты прямоугольников равны i , площадь гистоnh граммы равна единице). Пример 3.3. Приводится время (в минутах) выполнения некоторого контрольного задания по математике случайно выбранными студентами (50 человек): 38 68 77 61 67 60 52 47 35 65 41 47 28 47 39 51 46 48 72 48 33 49 58 41 43 42 49 32 45 60 45 14 42 44 54 21 57 58 55 42 53 54 61 30 59 60 59 30 40 50 Построить полигон и гистограмму относительных частот по этой выборке, эмпирическую функцию распределения, предварительно проведя группировку. Решение. Объём выборки n = 50, размах R = 77 14 = 63. Следуя рекомендации, возьмём число интервалов r = 7. Тогда R 63 шаг разбиения h 9 . r 7 166 Результат группировки удобно свести в таблицу: [14, 23) [23, 32) [32, 41) [41, 50) [50, 59) [59, 68) [68, 77] 1 2 3 4 5 6 7 ni n n nj n* i nh 0,04 0,06 0,12 0,34 0,20 0,18 0,06 0,04 0,10 0,22 0,56 0,76 0,94 1,00 0,0044 0,0067 0,0133 0,0378 0,0222 0,0200 0,0067 ni* zi* [ai–1, ai) i 18,5 27,5 36,5 45,5 54,5 63,5 72,5 2 3 6 17 10 9 3 i j 1 ni (столбец 3-й n и 5-й), строим полигон относительных частот; используя столбец 3-й и 6-й, строим график эмпирической функции распределения; используя столбец 2-й и 7-й, строим гистограмму относительных частот. Используя полученные результаты для zi и Fn x ni 0,4 1,0 n 0,8 0,3 0,6 0,2 0,4 0,1 0,2 0 x zi 18,5 45,5 0,04 4 0,03 0 18,5 36,5 54,5 72,5 72,5 ni nh 0,02 0,01 zi 0 14 23 32 41 50 59 68 77 167 3.1.3 Распределение 2 k и распределение Стъюдента При статистическом оценивании и проверке гипотез (о чём речь пойдёт в следующих пунктах) будем пользоваться случайной величиной, имеющей распределение 2 k (хи-квадрат) и случайной величиной, имеющей распределение Стъюдента. Приведём определения и некоторые свойства этих распределений. Распределение 2 k . Рассмотрим случайную величину Z 2 k , равную сумме квадратов k независимых случайных величин U1, ..., Uk , каждая из которых имеет нормальное распределение N 0 , 1 , т.е. k 2 k U i2 , U i N 0 , 1 . i 1 0,2 Распределение этой случайной величины называется распределением 2 с k степенями свободы. Функция плотности f 2 x этого распреде- f 2 x k=4 0,1 k=10 ления здесь не приводится. На рисунке показаны графики этой функции при некоторых степеx 0 15 5 10 нях свободы. Отметим без доказательства некоторые свойства: 1) M 2 k k , D 2 k 2k . 2 2) Распределение k при больших k (k > 30) с достаточной для практических расчётов точностью можно заменить нормальным распределением N k , 2k . При решении задач математической статистики будут использоваться квантили 2p k , зависящие от данной вероятности p и числа степеней свободы k (см. таблицу 2 на с. 265). 168 Пример 3.4. Найти квантили 10 , 02,99 10 , 02,05 3 , 02,95 3 , 02,01 100 , 02,99 100 . 02,01 Решение. По таблице 2 определяем: 02,01 10 2,56; 02,99 10 23,2; 02,05 3 0,352; 02,95 3 7 ,81; 02,01 100 70,1; 02,99 100 135,6. Распределение Стьюдента. Рассмотрим случайную величину Z t k , равную отношению двух независимых случайных величин U и где U N 0 , 1 , т.е. t k U 2 k k , . 2 k / k Распределение такой слуft x чайной величины называется 0,4 k распределением Стьюдента с k степенями свободы. Функция плотности ft x 0,2 k=3 этого распределения здесь также не приводится. На рисунке изображены графики -3 -2 -1 0 1 2 3 x плотности распределения Стьюдента (при k = 3) и нормального распределения (при k ). Основные свойства: 1) Распределение симметрично относительно x = 0, и, знаk чит, M t k 0 . Дисперсия D t k . k2 2) При k распределение Стьюдента переходит в нормальное распределение N 0 , 1 . Поэтому при больших k (практически при k > 30) можно вместо распределения Стьюдента пользоваться нормальным распределением (в частности, определять квантили tp по соответствующей таблице). Пример 3.5. Найти квантили t0 ,9 6 , t0 ,95 10 , t0 ,99 50 , t0 ,01 10 , t0 ,05 40 . 169 Решение. По таблице 3, расположенной на с. 266 данного пособия, определяем: t0 ,9 6 1,44; t0 ,95 10 1,812; t0 ,99 50 u0 ,99 2 ,326 ; t0 ,01 10 t0 ,99 10 2,764; t0 ,05 40 t0 ,95 40 1,684. 3.2 Статистическое оценивание Распределение случайной величины X характеризуется некоторыми параметрами (параметры генеральной совокупности). Например, в нормальном законе распределения N(a, ) параметрами служат а – математическое ожидание и – среднее квадратичное отклонение. В распределении Пуассона параметром является число np, в показательном – параметр и т.д. Имеются два подхода к оцениванию неизвестных параметров распределений по выборке: точечный и интервальный. 3.2.1 Точечные оценки Пусть мы изучаем генеральную случайную величину X. Пусть – некоторый параметр генеральной совокупности Х, его численное значение неизвестно. Применим выборочный метод: сформируем конкретную выборку x1, ..., xn и по выборочным данным найдём приближённое значение величины : x1 , ..., xn . Такая функция называется точечной оценкой величины . Отметим, для конкретной выборки будет равна определённому числу. Качество оценки определяется не по одной конкретной выборке, а по выборке X 1 , ..., X n . В этом случае оценка X ,..., X – случайная величина. Напомним, здесь Xi – 1 n независимые случайные величины, распределённые так же, как и генеральная случайная величина Х. К оценке предъявляют ряд требований. 1. Отсутствие систематической ошибки (несмещённость). Оценка называется несмещённой, если её математическое 170 ожидание равно значению оцениваемого параметра : M . 2. Улучшение оценки с увеличением объёма выборки n (состоятельность). Оценка называется состоятельной, если 0 lim P 1 , n т.е. оценка сходится по вероятности к . 3. Оценка должна быть эффективной в определённом классе оценок, т.е. при заданном объёме выборки n она имеет наименьшую дисперсию среди оценок этого класса. На практике не всегда удаётся удовлетворить всем перечисленным требованиям, так как при этом желательно, чтобы выражение для функции X 1 ,..., X n было не слишком сложным. Оценка для математического ожидания Рассмотрение конкретных оценок начнём с наиболее важного случая – оценки для математического ожидания генеральной случайной величины Х, т.е. для = M(X) = m. В качестве такой оценки (имеется традиционное обозначение X ) принимают так называемое выборочное среднее, т.е. среднее арифметическое независимых случайных величин Xi: 1 n X Xi . n i 1 Замечание. Для конкретной выборки x1, ..., xn выборочное среднее обозначим x , оно вычисляется по аналогичной формуле 1 n x xi . n i 1 Если выборка задана статистическим рядом, то 1 k x zi ni . n i 1 Для группированного статистического ряда 171 1 r * * zi ni . n i 1 Выборочное среднее X является несмещённой, состоятельной и эффективной (в классе линейных оценок) оценкой математического ожидания генеральной случайной величины X. x Оценка для дисперсии Так как по самому определению дисперсия D(X) есть мате2 матическое ожидание случайной величины X m , то естественной оценкой для дисперсии является выражение 2 1 n Dв X i X n i 1 – среднее арифметическое квадратов отклонений от выборочного среднего X . Эта оценка называется выборочной дисперсией. Соответственно в Dв называется выборочным средним квадратичным отклонением и является оценкой среднего квадратичного отклонения D X величины Х. Вычисление Dв с чисто технической точки зрения удобнее производить с помощью формулы 2 Dв X 2 X , 1 n 2 X i – выборочное среднее величины X 2 (среднее n i 1 квадратов). Полученная формула является аналогом формулы D X M X 2 M 2 X . где X 2 Можно показать, что выборочная дисперсия Dв является смещённой оценкой. Несмещённой и состоятельной оценкой дисперсии D(X) является исправленная выборочная дисперсия 2 n n 2 S2 Dв X X . n1 n 1 172 Для конкретной выборки x1, ..., xn имеем s2 n 1 n 2 2 xi x . n 1 n i 1 Если выборка задана статистическим рядом, то n 1 k 2 2 s2 zi ni x . n 1 n i 1 Для группированной выборки используется формула: n 1 r * 2 * 2 s2 zi ni x . n 1 n i 1 Замечание. Если математическое ожидание M X m генеральной случайной величины Х известно, то оценка дисперсии обозначается S02 и вычисляется по формуле 1 n X i m 2 X 2 m 2 . n i 1 Отметим, что эта оценка является несмещённой. S02 Пример 3.6. Составлена таблица результатов сессии для 100 студентов, успешно сдавших 4 экзамена: Сумма баллов zi 12 13 14 15 16 17 18 19 20 Число студентов 1 3 7 15 21 30 12 8 3 ni Найти выборочное среднее x , выборочную дисперсию Dв и исправленную выборочную дисперсию s2 для величины Х – суммы баллов. Решение. Выборка записана в виде статистического ряда (k = 9), объём выборки n = 1 + 3 + 7 + 15 + 21 + 30 + 12 + 8 + 3 = 100. Вычисляем выборочное среднее: 1 k 1 x zi ni 12 1 13 3 14 7 15 15 16 21 n i 1 100 173 Для вычисления выборочной дисперсии найдём вначале 1 k 1 x 2 zi2 ni 12 2 1 13 2 3 14 2 7 15 2 15 n i 1 100 27420 16 2 21 17 2 30 18 2 12 19 2 8 20 2 3 274 ,2 . 100 2 2 Тогда Dв x 2 x 274 ,2 16 ,48 2 ,6096 2,61 . Исправленная выборочная дисперсия n 100 s2 Dв 2,6096 2,64 . n1 100 1 Замечание. Если варианты zi (или zi , если речь идёт о группированной выборке) – большие числа, то для упрощения расчёта выборочного среднего x и исправленной выборочной дисперсии s2 целесообразно перейти к так называемым условz c ным вариантам ui i , где в качестве с обычно берут ваh рианту с наибольшей частотой, а h – некая масштабная величина. Например, если варианты zi равноотстоящие, то удобно взять h zi zi 1 . Тогда, легко проверить, x c uh , s 2x h2 su2 . Так в рассмотренном примере 3.6 можно было рассмотреть условные варианты ui = zi – 17. Для вычисления удобно составить таблицу: i 1 2 3 4 5 6 7 8 9 zi 12 13 14 15 16 17 18 19 20 – ui –5 –4 –3 –2 –1 0 1 2 3 – ni 1 3 7 15 21 30 12 8 3 100 174 ui ni –5 –12 –21 –30 –21 0 12 16 9 –52 ui2ni 25 48 63 60 21 0 12 32 27 288 Итак, 1 52 1 288 u ni ui 0 ,52 , u 2 ni ui2 2,88 , n 100 n 100 n 100 2 2 su2 u2 u 2,88 0 ,52 2,64 . n1 99 Окончательно, x 17 0 ,52 16 ,48 , s x2 su2 2 ,64 , что совпадает с полученными результатами в примере 3.6. Пример 3.7. Вычислить среднее x и исправленную выборочную дисперсию s x2 группированной выборки Интервалы [134, 138) [138, 142) [142, 146) [146, 150) [150, 154) [154, 158] Частоты 1 3 14 18 12 2 Решение. Здесь шаг разбиения h = 4, объём выборки n = 50, значение середины интервала, встречающегося с наибольшей частотой, c = 148. Таким образом, преобразование последовательности середин интервалов выполняется по формуле z* 148 ui i , i 1, 2, ..., 6 . 4 Вычисления удобно свести в таблицу: zi* 136 140 144 148 152 156 – i 1 2 3 4 5 6 ui –3 –2 –1 0 1 2 – ni* 1 3 14 18 12 2 50 Проводим вычисления: u su2 ui ni* –3 –6 –14 0 12 4 –7 ui2ni* 9 12 14 0 12 8 55 1 6 7 ui n*i 0 ,14 ; 50 i 1 50 50 1 6 2 * 50 55 2 2 ui ni u 50 0 ,14 1,10 ; 49 50 i 1 49 x c uh 148 0,14 4 147 ,44 ; s2x h2 su2 42 1,10 17 ,63 . 175 3.2.2 Интервальные оценки До сих пор мы ставили своей задачей оценить неизвестный параметр одним числом . Вычисленная на основе выборки точечная оценка является лишь приближением к неизвестному значению параметра . При большом объёме выборки оценка, как правило, близка к оцениваемому параметру. Однако, если число наблюдений мало, то случайный характер величины может привести к значительному расхождению между и . В связи с этим возникает задача о приближении параметра не одним числом, а целым интервалом. Дадим определения. Доверительным интервалом для параметра называется интервал , , который «накрывает» 1 2 истинное значение параметра с заданной вероятностью 1 , т.е. выполняется равенство P 1 . 1 2 Число 1 называется доверительной вероятностью, а значение уровнем значимости. При этом левая 1 и правая 2 границы доверительного интервала определяются по выборке и, значит, являются случайными величинами. Выбор доверительной вероятности (или, что тоже, уровня значимости) определяется конкретными условиями. Обычно используемые значения для равны 0,1; 0,05; 0,01, а, значит, значения 1– равны соответственно 0,9; 0,95; 0,99. Отметим, что длина доверительного интервала существенно зависит от объёма выборки n (уменьшается с ростом n) и от величины доверительной вероятности (увеличивается с приближением к 1). Ясно, что чем уже доверительный интервал, тем он лучше оценивает параметр. Задача 3.1 (доверительный интервал для математического ожидания). Пусть выборка объёма n извлечена из нормальной генеральной совокупности X N a , с неизвестным 176 математическим ожиданием а и известным средним квадратичным отклонением . Найти доверительный интервал для математического ожидания с уровнем значимости . Решение. По случайной выборке определим выборочное 1 n среднее X X i . Ранее было показано, что X N a , , n i 1 n а X a / n U N 0 , 1 . Следовательно, можно записать: где u , u1 2 X a P u u1 1 , 2 2 n – квантили стандартного нормального распреде2 ления порядка , 1 соответственно. Решая неравенство 2 2 относительно а с учётом, что u u1 , получим довери2 2 тельный интервал для математического ожидания генеральной совокупности: u1 , X u1 . X 2 2 n n Величину u1 называют точностью оценки. 2 n Графическая иллюстрация решения задачи 3.1 приведена на рисунке. fU x X u1 2 u1 x 2 X X доверительный интервал Замечания. 1) Если n велико, то полученный доверительный интервал можно использовать и в случае, когда распределение величины X не является нормальным, так как в силу 177 центральной предельной теоремы при случайной выборке большого объёма n статистика X m U N 0 , 1 . / n 2) Если в условии задачи 3.1 значение неизвестно, то доверительный интервал для математического ожидания генеральной совокупности имеет вид: S S t1 n 1 , X t1 n 1 , X 2 2 n n 2 1 где S X i X – исправленное выборочное среднее n1 i квадратичное отклонение, а t1 n 1 – квантиль порядка 2 1 2 распределения Стьюдента с n 1 степенями свободы. Здесь точность оценки S n t1 n 1 . 2 Пример 3.8. Произведено 5 независимых наблюдений над случайной величиной Х, распределённой по нормальному закону N a , 4 . Результаты наблюдений: – 10, 15, 5, 20, – 8. Найти точечную оценку x и доверительный интервал для параметра а, взяв уровень значимости = 0,1. Решение. Исходя из конкретной выборки, находим: 1 x 10 15 5 20 8 4 ,4 . 5 Определим по таблице (с. 264) квантиль u1 u0 ,95 1,645 . Учитывая, что n = 5, = 4, получим точ2 ность оценки 4 1,645 2,94 , поэтому доверительный 5 интервал для а имеет вид: 4 ,4 2,94, 4 ,4 2,94 1,46; 7 ,34 . Итак, P 1,46 a 7 ,34 0 ,9 . 178 Пример 3.9. Выборка из большой партии электроламп содержит 20 ламп. Средняя продолжительность горения лампы из выборки оказалась равной x = 1000 ч., а среднее квадратичное отклонение продолжительности горения лампы s = 40 ч. Найти доверительные интервалы с уровнем значимости = 0,1 и = 0,01 для средней продолжительности горения лампы всей партии (считать, что продолжительность горения лампы Х подчиняется нормальному закону). Решение. По таблице 3 квантилей распределения Стьюдента находим t 0,1 20 1 t0,95 19 1,729 , t 0 ,01 20 1 t0 ,995 19 2,861 . 1 1 2 2 s t n 1 : n 1 2 40 при = 0,1 имеем 1,729 15 ,46 ; 20 40 при = 0,01 имеем 2 ,861 25 ,59 . 20 Итак, доверительные интервалы для a M X : Определяем величину 1000 15,46, 1000 15,46 984,54, 1015,46 ; при = 0,01: 1000 25,59, 1000 25,59 974,41, 1025,59 . при = 0,1: Задача 3.2 (доверительный интервал для дисперсии). Пусть выборка объёма n извлечена из нормальной генеральной совокупности X N a , с известным математическим ожиданием а и неизвестным средним квадратичным отклонением . Найти доверительный интервал для дисперсии с уровнем значимости . Решение. Напомним, точечной оценкой дисперсии D X 2 в этом случае является величина S02 1 n X i a 2 . Основу построения доверительного n i 1 179 интервала для 2 составляет статистика 2 n nS02 , которая 2 имеет распределение 2 с n степенями свободы независимо от значения параметра 2 при условии, что случайная выборка взята из генеральной величины X N a , . Следовательно, можно записать P 2 n 2 n 12 n 1 , где 2 n и 12 2 2 2 2 n квантили распределения 2 с n степе- нями свободы порядка и 1 соответственно. 2 2 Решая неравенство относительно 2, получим доверительный интервал для дисперсии 2 при известном а: 2 nS02 nS0 , . 2 n 2 n 1 2 2 Замечание. Если в условии задачи 3.2 значение а неизвестно, то доверительный интервал для дисперсии генеральной со n 1 S2 n 1 S 2 вокупности имеет вид: , , 2 n 1 2 n 1 1 2 2 где S 2 2 1 X i X – исправленная выборочная диспер n1 i сия, а 2 n 1 и 12 2 2 n 1 квантили распределения 2 с n 1 степенями свободы порядка 2 и 1 2 соответственно. Доверительные интервалы для дисперсии в обоих случаях несимметричны относительно точечных оценок S02 или S2. Пример 3.10. Из генеральной совокупности извлечена выборка объёма n = 10: xi 2 1 2 3 4 5 ni 2 1 2 2 2 1 180 Найти доверительный интервал для дисперсии 2 нормально распределённого признака X генеральной совокупности, взяв доверительную вероятность равной 0,95. Решение. По выборке найдём точечные оценки: 1 6 1 x xi ni 2 2 1 1 2 2 3 2 4 2 5 1 2 , n i 1 10 1 6 2 1 xi ni 4 2 1 1 4 2 9 2 16 2 25 1 9,2 , n i 1 10 n 10 s2 x2 x 2 9,2 2 2 5,78 . n1 9 По таблице 2 находим квантили (1 = 0,95 = 0,05): x2 12 2 n 1 02,975 9 19,0 , 2 n 1 02,025 9 2,7 . 2 Записываем доверительный интервал для 2: 10 1 5 ,78 10 1 5 ,78 ; 2,74; 19,27 . 19 ,0 2,7 3.3 Проверка статистических гипотез Во многих случаях приходится на основе выборочных наблюдений проверять различные предположения (гипотезы) относительно тех или иных свойств распределения генеральной совокупности. Процедура сопоставления выдвинутых гипотез с выборкой и вынесения решения относительно приемлемости этих гипотез получила название проверки гипотез. 3.3.1 Основные понятия Пусть Х наблюдаемая дискретная или непрерывная случайная величина. Статистической гипотезой Н называется некоторое предположение относительно параметров или вида распределения случайной величины Х, проверяемое по выборочным данным. Примеры гипотез: 181 1) генеральная случайная величина Х имеет математическое ожидание M X m0 и дисперсию D X 02 ; 2) случайная величина Х, распределённая по показательному закону, имеет параметр = 1; 3) случайная величина Х распределена по нормальному закону N 0 , 1 ; 4) случайная величина Х распределена по закону Пуассона. Статистическая гипотеза Н называется простой, если она однозначно определяет распределение случайной величины Х (примеры 2) и 3)); в ином случае гипотеза Н называется сложной (примеры 1) и 4)). Часто распределение случайной величины Х известно и по выборке наблюдений необходимо проверить предложение о значении параметров этого распределения. Такие гипотезы называются параметрическими (пример 2)). Проверяемая гипотеза называется основной, или нулевой гипотезой и обозначается Н0. Наряду с гипотезой Н0 рассматривают одну из конкурирующих (альтернативных) гипотез Н1. Например, если проверяется гипотеза о равенстве параметра некоторому заданному значению 0, т.е. Н0: = 0, то в качестве конкурирующей гипотезы можно рассмотреть одну из следующих гипотез: H 1 : 0 , H 1 : 0 , H 1 : 0 , H 1 : 1 , 1 2 3 4 где число 1 0. Выбор гипотезы Н1 обычно определяется конкретной формулировкой задачи. Правило, по которому решают: принять или отклонить Н0 (соответственно отклонить или принять Н1), называют критерием K. Так как решение принимается на основе выборки наблюдений случайной величины Х, необходимо выбрать подходящую статистику, называемую в этом случае статистикой Z критерия K. Так при проверке простой параметрической 182 гипотезы H 0 : 0 в качестве статистики Z критерия выбирают точечную оценку параметра , т.е. Z = . Проверка статистической гипотезы основывается на принципе, согласно которому маловероятные события считаются практически невозможными, а события, вероятность которых близка к единице, принимаются за достоверные. Этот принцип можно реализовать следующим образом. Вначале задаётся некоторая малая вероятность , называемая уровнем значимости (обычно берут = 0,001 0,05). События, которые происходят с такой вероятностью, считают практически невозможными. Пусть V множество возможных значений статистики Z, а Vкр V такое подмножество, что при условии истинности гипотезы H0 вероятность попадания значений статистики критерия в Vкр равна , т.е. P Z Vкр | H 0 . Обозначим zв выборочное значение статистики Z, вычисленное по конкретной выборке (zв конкретное число, а Z случайная величина!). Критерий можно сформулировать так: если zв Vкр , то гипотеза Н0 отклоняется; если zв Vкр , т.е. zв V \ Vкр , то гипотеза Н0 принимается. Множество Vкр называется критической областью, а V \ Vкр областью принятия гипотезы Н0. Положение критической области на множестве значений статистики Z зависит от конкурирующей гипотезы Н1. На рисунке ниже показано расположение критической области Vкр при проверке гипотезы Н0: = 0 для указанных различных конкурирующих гипотез Н1. Здесь f z | H 0 плотность распределения статистики Z при условии, что верна гипотеза Н0 , а z , z1 , z , z1 – квантили этой статистики. 2 2 183 f z | H0 H 1 : 0 z 1 Vкр правосторонняя критическая область f z | H0 f z | H0 H 1 : 0 H 1 : 0 z Vкр Vкр левосторонняя критическая область двусторонняя критическая область z 2 z 1 2 Vкр Из изложенного выше вытекает следующая схема проверки статистической гипотезы: 1) сформулировать проверяемую Н0 и конкурирующую Н1 гипотезы; 2) задать уровень значимости ; 3) выбрать статистику Z критерия для проверки гипотезы Н0 и определить распределение статистики Z при условии, что верна гипотеза Н0; 4) в зависимости от формулировки конкурирующей гипотезы Н1 определить критическую область Vкр одним из условий: z z (левосторонняя критическая область), z z1 (правосторонняя критическая область), z z z z (двусторонняя критическая область); 1 2 2 5) по выборке вычислить выборочное значение zв статистики критерия; 6) принять решение: если zв Vкр , то гипотезу H0 отклонить как не согласующуюся с выборочными данными; если zв Vкр , то гипотеза H0 не противоречит выборочным данным и её можно принять. 184 Замечание. Принятие гипотезы H0 вовсе не означает, что H0 является абсолютно верной, просто предположение H0 не противоречит выборке. При этом принятое решение может быть ошибочным. Пусть выборочное значение статистики попадает в критическую область и гипотеза H0 отклоняется в соответствии с критерием (значит, принимается H1). Если, тем не менее, гипотеза H0 верна, то принимаемое решение неверно. Ошибка, когда принимается конкурирующая гипотеза H1, а на самом деле верной является нулевая гипотеза H0, называется ошибкой 1-го рода. Вероятность ошибки 1-го рода равна уровню значимости: P H 1 | H 0 P Z Vкр | H 0 . Ошибка 2-го рода произойдёт в том случае, если будет принята гипотеза H0, тогда как на самом деле верной является конкурирующая гипотеза H1. Вероятность ошибки 2-го рода обозначают : P H 0 | H 1 P Z V \ Vкр | H 1 . 3.3.2 Проверка некоторых параметрических гипотез При проверке гипотез используют статистики, распределения которых известны в предположении, что проверяемая гипотеза Н0 верна (по крайней мере, должна быть возможность вычислить квантили рассмотренной статистики, которые определяют критическую область). Обычно применяются статистика U с нормальным распределением N 0 , 1 , статистика 2, статистика Стьюдента t. Приведём критерии проверки некоторых наиболее часто встречающихся гипотез: о значениях параметров нормального распределения N a , , о параметре p биномиального распределения, о равенстве нулю коэффициента корреляции r. Результаты запишем в виде таблицы. 185 Н0 Предположения 2 известно a a0 2 02 2 неизвестно 2 S2 ) ( t n 1 а известно 2 n а неизвестно ( a X ) p p0 r 0 Статистика критерия X a0 U / n 2 n 1 5, n > 50, np n(1 p ) > 5, p = k/n относит. частота U (X, Y) распред. нормально t n 2 Н1 a a0 a a0 X a0 a a0 S/ n nS 02 2 02 02 n 1 S 2 02 p p0 p0 1 p0 / n rв n 2 1 rв2 2 02 2 02 p p0 p p0 p p0 r 0 r 0 r 0 Рассмотрим примеры. Пример 3.11. По паспортным данным автомобильного двигателя расход топлива на 100 км пробега составляет 10 л. В результате изменения конструкции двигателя ожидается, что расход топлива уменьшится. Для проверки проводятся испытания 25 случайно отобранных автомобилей с модернизированным двигателем, причём выборочное среднее расходов топлива составило x 9,3 . Предположим, что выборка получена из нормально распределённой генеральной совокупности с математическим ожиданием а и дисперсией 2 = 4. Проверить гипотезу, утверждающую о том, что изменение конструкции двигателя не повлияло на расход топлива. Решение. Проведём проверку гипотезы по предложенной выше схеме. 1) Проверяемая гипотеза H0: а = 10, конкурирующая гипотеза H1: а < 10. 186 2) Выберем уровень значимости = 0,05. 3) В качестве статистики критерия возьмём величину (см. X a таблицу выше): U N 0 , 1 . / n 4) Конкурирующая гипотеза H1: а < 10 предполагает уменьшение расхода топлива, поэтому будем использовать левостороннюю критическую область: Vкр U : U u . По таблице квантилей находим: u u1 u10,05 u0 ,95 1,645 . 5) Выборочное значение нормированной статистики равно x 10 9,3 10 uв 1,75 . 0 ,4 0 ,4 6) Так как uв < u (т.е. uв Vкр ), то принимаем решение: гипотеза Н0 отвергается, поэтому следует считать верной гипотезу Н1, т.е. изменение конструкции двигателя привело к уменьшению расхода топлива. Заметим, что граница xкp критической области для исходной статистики X может быть определена из соотношения xкp 10 u 1,645 и будет равна xкp 9,342 , т.е. критиче0 ,4 ская область для статистики X определяется неравенством X 9,342 (литров). Пример 3.12. Точность работы станка-автомата проверяется по дисперсии контролируемого размера изделий (величина X), которая не должна превышать 02 0 ,1 . Взята проба из случайно отобранных изделий, причём получены следующие результаты измерений: xi 3,0 3,5 3,8 4,4 4,5 ni 2 6 9 7 1 Требуется при уровне значимости = 0,05 проверить, обеспечивает ли станок требуемую точность (считать, что Х нормально распределена). Решение. Проверяется гипотеза о дисперсии 2 нормально распределённой генеральной совокупности Х. 187 1) Проверяемая гипотеза H0: 2 02 0 ,1 . Примем в качестве конкурирующей гипотезы H1: 2 0 ,1 . 2) Из условия задачи берём = 0,05. 3) В качестве статистики используем (см. таблицу на с. 185) случайную величину n 1 S 2 . 2 n 1 02 4) При выбранной гипотезе Н1 критическая область будет двусторонней: Vкр 2 n 1 : 2 n 1 2 n 1 2 n 1 12 n 1 . 2 2 Так как n ni 25 , а = 0,05, то по таблице 2 (с. 265) определим квантили 20,025(24) = 12,4, 20,975(24) = 39,4, которые являются границами критической области Vкр 0; 12,4 39,4; + . 5) Чтобы определить значение в2 2 4 2 4 s 2 0 ,1 240 s 2 , нужно вначале вычислить исправленную выборочную дисперсию s 2 по заданному статистическому ряду. Имеем 1 5 1 x xi ni 3 2 3,5 6 3,8 9 4 ,4 7 4 ,5 1 3,86 , n i 1 25 1 5 2 1 2 xi ni 3 2 3,52 6 3,82 9 4,42 7 4,52 1 15,10 , n i 1 25 n 25 s2 x2 x 2 15,10 3,86 2 0,2 . n1 24 24 0 ,2 Итак, в2 24 48 . 0 ,1 6) Поскольку в2 24 48 Vкр , то гипотезу H0 отвергаем, x2 т.е. станок не обеспечивает необходимую точность и требует наладки. 188 Пример 3.13. Количество бракованных деталей в партии не должно превышать 5%. В результате контроля 100 деталей из этой большой партии обнаружено 6 бракованных. Можно ли считать, что процент брака превосходит допустимый при уровне значимости = 0,01? Решение. Здесь рассматривается случайная величина X – число бракованных деталей в выборке объёма n 100 . Как известно, она распределена по биномиальному закону: nk P X k Pn k C nk pk 1 p . 1) Проверяемая гипотеза H0: p = p0 = 0,05. Согласно условию задачи конкурирующая гипотеза H1: p > 0,05. 2) По условию задачи = 0,01. 3) Здесь n 100 50 , p 0 ,06 , np 6 5 , n 1 p 94 5 , поэтому можно использовать для проверки гипотезы Н0 статиp p0 стику (см. таблицу) U , которая имеет распредеp0 1 p0 / n ление, близкое к нормальному N 0 , 1 . 4) При выбранной гипотезе H1 критическая область будет правосторонней: Vкр u1 ; + u0 ,99 ; + 2 ,326 ; + . 5) Выборочное значение статистики: 0 ,06 0 ,05 uв 0 ,46 . 0 ,05 0 ,95 100 Так как uв Vкр , то гипотеза H0 согласуется с выборочными значениями, и нет оснований считать, что процент брака превосходит допустимый. Пример 3.14. Из генеральной совокупности, имеющей двумерное нормальное распределение, получена выборка объёма n = 66. Выборочный коэффициент корреляции оказался равным rв = – 0,159. Можно ли считать, что наблюдаемые переменные отрицательно коррелированны, если уровень значимости = 0,05? 189 Решение. Проверяется гипотеза о равенстве нулю коэффициента корреляции r. 1) Проверим гипотезу H0: r = 0 при конкурирующей гипотезе H1: r < 0. 2) По условию задачи = 0,05. 3) В качестве статистики возьмём величину (см. таблицу) r n2 t n 2 в . 1 rв2 4) При рассматриваемой гипотезе H1 критическая область будет левосторонней: Vкр ; t1 n 2 ; t0 ,95 64 ; 1,67 . 5) Выборочное значение статистики 0 ,159 64 tв 64 1,29 . 2 1 0 ,159 6) Имеем tв 64 1,29 Vкр , поэтому гипотезу Н0 принимаем, т.е. следует считать, что наблюдаемые переменные некоррелированные. 3.3.3 Критерий согласия 2 (критерий Пирсона) Рассмотренные в предыдущем пункте примеры проверки параметрических гипотез предполагали известным закон распределения и касались лишь числовых характеристик этого закона. Однако в других случаях сам вид закона распределения является гипотетическим и нуждающимся в статистической проверке. Рассмотрим кратко применение одного из наиболее употребительных критериев критерия 2 (критерия Пирсона) к проверке гипотезы о виде распределения генеральной совокупности. Пусть X1, ..., Xn – случайная выборка наблюдений объёма n случайной величины Х. Проверяется гипотеза H0: выборка извлечена из генеральной совокупности Х, имеющей закон распределения F0 x . В качестве конкурирующей гипотезы H1 предполагается невыполнение основной гипотезы H0. 190 Процедура применения критерия 2 для проверки гипотезы H0 состоит из следующих этапов: 1) Если предполагаемое распределение F0 x содержит k неизвестных параметров, то по выборке определяются их точечные оценки и ими заменяются соответствующие неизвестные параметры. 2) Вся область возможных значений величины Х разбивается на m непересекающихся интервалов 1, ..., m и определяются выборочные частоты ni – число элементов выборки, попавших m в каждый из интервалов i . Ясно, что ni n . i 1 3) Вычисляются вероятности pi попадания значений величины Х в каждый интервал i в предположении справедливости гипотезы Н0 (т.е. используя предполагаемый закон распределеm ния F0 x ): pi P X i | H 0 , где pi 1 . i 1 4) Вычисляются так называемые теоретические частоты npi. Если при этом для некоторых интервалов окажется npi < 5, то их нужно объединить с соседними интервалами так, чтобы в итоге для каждого интервала теоретическая частота была не менее 5. 5) За меру расхождения выборки с предполагаемым распреm 2 делением F0 x принимают статистику ni npi 2 . npi При выполнении гипотезы Н0 рассмотренная статистика имеет 2 распределение с (m k 1) степенями свободы. Это утверждение в пособии не доказывается. 6) Задаётся уровень значимости и определяется правосторонняя критическая область Vкр 12 , . i 1 7) По конкретной выборке вычисляется выборочное значение в2 рассматриваемой статистики. 8) Принимается решение: если в2 Vкр , то гипотеза Н0 не противоречит выборке наблюдений на заданном уровне значимости ; 191 если в2 Vкр , то гипотеза Н0 отклоняется. Рассмотрим применение критерия 2 на примерах проверки гипотез о нормальном распределении и распределении Пуассона. Пример 3.15. Приведены данные о заработной плате случайно отобранных 100 работников определённой отрасли: интервалы зарплаты (в тыс. руб.), [9,10) [10,11) [11,12) [12,13) [13,14) [14,15) [15,16] [ai1, ai) число 6 9 19 28 20 11 7 человек, ni Выяснить, можно ли на уровне значимости = 0,01 считать нормальным распределение заработной платы Х. Решение. Проверим гипотезу H0: распределение генеральной совокупности Х имеет нормальный закон N a , . Нормальное распределение N a , имеет k = 2 неизвестных параметров а и (математическое ожидание и среднее квадратичное отклонение), их соответствующие точечные оценки x и s. Найдём их. Для удобства вычислений перейдём к усx* 12,5 ловным вариантам ui i x*i 12,5 , где xi середиh ны интервалов зарплаты, имеющих длину h = 1, и составим таблицу: xi* ui ni ni ui ni ui2 9,5 3 6 18 54 10,5 2 9 18 36 11,5 1 19 19 19 12,5 0 28 0 0 13,5 1 20 20 20 14,5 2 11 22 44 15,5 3 7 21 63 100 8 236 Определим величины: 1 8 1 236 ni ui 0 ,08 ; u 2 ni ui2 2,36 ; n 100 n 100 n 100 2 su2 u2 u 2 2,36 0 ,08 2,38 . n1 99 Поэтому u 192 x h u 12,5 1 0 ,08 12 ,5 12,58 ; s 2 h 2 su2 12 2,38 2 ,38 ; s 1,54 . В качестве интервалов i возьмём исходные интервалы [ai–1, ai), i = 1, ...,7, взяв за a0 = – , a7 = +, так как нормально распределённая величина X , . Вероятности pi попадания нормально распределённой величины Х в интервалы [ai–1, ai) будем вычислять известным образом: p i F a i F a i 1 Ф z i Ф zi 1 , ai x нормированные варианты, а Ф x функция s Лапласа. Результаты расчётов выборочной величины в2 приво- где zi дятся в таблице ниже. При этом следует учесть, что z0 Ф z0 0 ,5 . i [ai1, ai) ni 1 2 3 4 5 6 7 (, 10) 6 [10, 11) 9 [11, 12) 19 [12, 13) 28 [13, 14) 20 [14, 15) 11 [15, +) 7 100 zi ai x s 1,68 1,03 0,38 0,27 0,92 1,57 + pi= (zi) (zi1) npi 0,454 0,454(–0,5)=0,046 4,6 10,5 20,1 25,4 21,5 12,1 5,8 100 (zi) 0,349 0,148 0,106 0,321 0,442 0,5 0,105 0,201 0,254 0,215 0,121 0,058 1 ni npi 2 npi 0,001 0,060 0,266 0,105 0,100 0,248 в2 =0,78 В 1-м интервале оказалась малочисленная теоретическая частота np1 = 4,5, поэтому пришлось объединить первые два интервала. В итоге число интервалов m = 6, поэтому число степеней свободы для 2 распределения m k1=621=3. По таблице 2 находим квантиль 02,99 3 11,3 . Так как в2 0 ,78 Vкр 11,3; , то гипотеза о нормальном распределении зарплаты не противоречит результатам наблюдений. 193 Пример 3.16. Во время второй мировой войны на Лондон упало 537 самолётов-снарядов. Вся территория Лондона была разделена на 576 участков площадью по 0,25 км2. Ниже приведены числа участков ni, на которые упало {X = i} снарядов (число попаданий): X=i 0 1 2 3 4 7 ni 229 211 93 35 7 1 Согласуются ли эти данные с гипотезой о том, что число снарядов, упавших на каждый из участков, имеет распределение Пуассона? Принять = 0,05. Решение. Здесь общее число наблюдений n ni 576 , при этом наблюдалось за время войны 537 попаданий снарядов. Проверяется гипотеза Н0: распределение генеральной совокупности Х (числа попаданий) имеет распределение Пуассона: i pi P X i e , i 0, 1,... i! при уровне значимости = 0,05. Оценка параметра равна среднему числу попаданий сна537 рядов на один участок: 0 ,9 . 576 Результаты удобно свести в таблицу: i ni 0 1 2 3 4 5 229 211 93 35 7 1 576 pi 0 , 9 i 0 ,9 e i! теоретическая частота, npi n i np i 2 234,18 210,76 94,84 28,45 6,41 1,35 576 0,1146 0,0003 0,0367 1,5080 0,40657 0,36591 0,16466 0,04940 0,01112 0,00234 1 np i 0,0074 в2 =1,666 Для i =7 значение npi = 1,35 < 5, поэтому объединили соответствующую строку в таблице с предыдущей и получилось 194 число m = 5. Так как по выборке оценивался один параметр , то k = 1, поэтому число степеней свободы m k 1 = 3. По таблице 2 находим квантиль 02,95 3 7 ,81 . Имеем в2 1,666 Vкр 7 ,81; , поэтому гипотеза о распределении числа снарядов на каждом из участков по закону Пуассона принимается при уровне значимости = 0,05. 3.4 Статистическое описание результатов наблюдения двумерной случайной величины Пусть при проведении некоторого опыта наблюдаются две случайные величины Х и Y. Проведя n независимых наблюдений, мы получим конкретную выборку объёма n – множество пар чисел (xi , yi). Предварительное представление о зависимости между Х и Y можно получить, нанося элементы выборки (xi, yi) в виде точек на плоскость с выбранной системой координат. Такое представление выборки двумерной случайной величины называется диаграммой рассеивания. Напомним, что распределение двумерной случайной величины (X, Y) характеризуется следующими параметрами: математическими ожиданиями a x и a y случайных величин Х и Y, которые определяют положение центра a x , a y распределения; дисперсиями x2 и 2y , которые определяют рассеивание распределения относительно центра; коэффициентом корреляции r, который определяет степень линейной зависимости между случайными величинами Х и Y. Ставится задача по вычислению оценок этих параметров, исходя из выборочных данных (xi , yi), i = 1, ..., n. В предыдущем пункте было показано, как определяются для случайной величины Х точечные оценки x и s x2 195 математического ожидания a x и дисперсии x2 соответственно. Аналогично определяются оценки y и s 2y математического ожидания a y и дисперсии 2y для случайной величины Y. Для коэффициента корреляции r двумерной случайной величины (X, Y) точечной оценкой является выборочный коэффициент корреляции n x y x y rв , n1 sx s y где x y 1 n xi yi – среднее произведений. n i 1 Пример 3.17. Вычислить средние x и y , исправленные выборочные дисперсии s x2 и s 2y , выборочный коэффициент корреляции rв, построить диаграмму рассеивания для выборки xi yi 8 1 10 3 5 1 8 2 9 3 Решение. Объём выборки n = 5. Вычислим суммы: xi 8 10 5 8 9 40 ; yi 1 3 1 2 3 10 ; xi2 82 102 52 82 92 334 ; yi2 12 32 12 22 32 24 ; xi yi 8 1 10 3 5 1 8 2 9 3 86 . Затем находим средние величины: 1 1 1 1 x xi 40 8 ; y yi 10 2; n 5 n 5 1 1 1 1 x 2 xi2 334 66 ,8; y 2 yi2 24 4 ,8; n 5 n 5 1 1 x y xi yi 86 17 ,2. n 5 Теперь можно найти n 5 2 s x2 x 2 x 66 ,8 8 2 3,5 ; n1 4 196 n 5 2 y 2 y 4 ,8 2 2 1 ; n1 4 n x y x y 5 17 ,2 8 2 rв 0 ,8 . n1 sx s y 4 3,5 1 s 2y Диаграмма рассеивания приведена на рисунке: y 3 2 1 x 0 5 8 9 10 Для вычисления оценок выборки большого объёма нужно составить так называемую корреляционную таблицу. С этой целью группируют результаты наблюдений случайной величины Х по интервалам [ai–1, ai), i = 1, ..., k, длины hx, а результаты наблюдений величины Y по интервалам [bj–1, bj), j = 1, ..., m, длины hy. Обозначим середины интервалов [ai–1, ai) через xi , а середины интервалов [bj–1, bj) через y j . Пусть nij – число наблюдаемых пар (x, y) исходной выборки (т.е. частоты), для которых выполняется условие: x[ai–1, ai) и y[bj–1, bj). Очевидно, k m что nij n . Процедуру вычисления частот nij можно выi 1 j 1 полнить по исходной выборке или по диаграмме рассеивания, нанося на неё сетку горизонтальных и вертикальных прямых, взятых с постоянными шагами hx и hy. Точки, которые попали на верхнюю и правую границы рассматриваемого прямоугольника, относят к соседним верхнему и правому прямоугольникам. Суммируя число наблюдений по строкам, найдём частоту m ni . nij – число выборочных значений величины X, попавj 1 ших в интервал [ai–1, ai) (при любом значении величины Y). 197 k Аналогично, сумма по столбцам даст частоту n.j nij – i 1 число выборочных значений величины Y, попавших в интервал [bj–1, bj) (при любом значении Х). Столбцы 1 и 3 дают группированный ряд для величины Х, а строки 1 и 3 – группированный ряд для величины Y. Для определения оценок по корреляционной таблице рассматривается столбец 4 (для вычисления ni .x*i ), столбец 5 (для вычисления i *2 ni xi ), строка 4 (для вычисления . n j y*j ) и i j строка 5 (для вычисления n j y*2 j ). j Корреляционная таблица 1 1 Y X 2 [b , b [bm–1, bm] [b0, b1) j–1 j) ... ... yj ym y1 3 4 5 ni ni xi ni xi2 [a0, a1) x1 ... 2 [ai–1, ai) xi n11 ... n1j ... n1m n1 ... ni1 ... ... ... nij ... ... ... nim ... ni ... ... ... [ak–1, ak] xk ... nk1 ... ... ... nkj ... ... ... nkm ... nk ... ... 3 n j n 1 ... n j ... n m 4 n j yj ... ... n n j yj ni xi ni xi2 5 n j y j 2 ... ... j i i n j yj2 j По этим результатам вычисляются средние: 1 1 1 1 2 *2 x ni .x*i , y n.j y*j , x 2 ni .x*2 i , y n.j y j , n n n n 198 x y 1 k m nij x*i y*j , а затем оценки s x2 , s 2y , rв . n i 1 j 1 Замечание. Для упрощения вычислений вместо середин интервалов xi и y j можно ввести условные варианты ui y *j c y x *i c x , где cx , cy – середины наиболее часто , vj hx hy встречающихся интервалов (если nij – наибольшая частота, то с x xi , с y y j ). Для условных вариант легко вычислить u , v , u 2 , v 2 , u v (заменив в соответствующих формулах xi на ui , а y j на vj), а затем su2 и sv2 . После этого нужные нам оценки определяются так: x hx u c x , y h y v c y , s x2 hx2 su2 , s 2y h 2y sv2 , n u v u v . n1 su sv Пример 3.18. В таблице приводятся результаты лабораторного анализа 50 образцов горных пород на содержание кремния (величина X) и алюминия (величина Y) в некоторых единицах. rв X Y X Y X Y X Y X Y 56,2 55,2 53,3 57,9 54,0 52,6 53,8 53,6 51,5 54,0 17,0 17,8 19,9 17,1 15,5 17,6 16,3 17,2 15,8 15,0 57,8 54,6 54,8 51,7 61,1 62,0 52,2 49,2 53,9 59,0 17,2 17,9 18,8 19,9 16,0 17,8 18,8 19,3 16,1 14,8 50,4 53,0 53,3 51,6 50,9 49,6 52,2 50,5 51,1 52,2 14,4 15,3 16,6 14,9 14,7 16,1 19,5 15,6 18,1 19,5 49,2 49,3 48,8 53,5 52,8 52,9 52,1 47,3 49,8 49,2 15,7 13,2 16,4 15,9 15,9 14,8 19,8 18,7 20,2 17,6 50,1 54,4 49,0 48,9 51,3 51,6 46,2 50,4 50,7 53,1 19,2 18,2 16,8 18,2 19,7 19,6 19,1 20,2 21,0 20,1 Построить диаграмму рассеивания. Проведя группировку этой выборки, вычислить выборочные средние, исправленные выборочные дисперсии, выборочный коэффициент корреляции. 199 Решение. Объём выборки n = 50. Наносим элементы выборки (xi , yi), i = 1, ..., 50 в виде точек на плоскость, получаем диаграмму рассеивания. Здесь hx 2, hy 1 . По диаграмме строим корреляционную таблицу: Y [13;14) [14;15) [15;16) [16;17) [17;18) [18;19) [19;20) [20;21] 13,5 14,5 15,5 16,5 17,5 18,5 19,5 20,5 –4 –3 –2 –1 0 1 2 3 X [46;48) 0 47 –3 [48;50) 1 49 –2 [50;52) 0 51 –1 [52;54) 0 53 0 [54;56) 0 55 1 [56;58) 0 57 2 [58;60) 0 59 3 [60;62] 0 61 4 n.j 1 n.jvj –4 n.j vj2 16 ni. ni.ui ni.ui2 0 0 0 0 1 1 0 2 –6 18 0 1 3 1 1 1 1 9 –18 36 3 2 0 0 1 4 2 12 –12 12 1 3 3 1 2 4 1 15 0 0 0 2 0 2 2 0 0 6 6 6 0 0 0 3 0 0 0 3 6 12 1 0 0 0 0 0 0 1 3 9 0 0 1 1 0 0 0 2 8 32 5 –15 45 8 –16 32 7 –7 7 8 0 0 7 7 7 10 20 40 4 12 36 200 =50 =–13 =125 = –3 =183 Для упрощения дальнейших вычислений перейдём к условным вариантам y*j 17 ,5 x*i 53 ui , vj i 1, ..., 8 , j 1, ..., 8 . 2 1 В таблице значения этих величин указаны в угловых скобках ... рядом с соответствующими значениями xi*, yj*. Вычислены следующие суммы: ni ui 13, n j v j 3, ni ui2 125 , n j v 2j 183 . 8 8 По таблице вычислим nij ui v j 20 . i 1 j1 Находим u 1 13 ni .ui 0,26 ; n 50 v 1 3 n.j v j 0,06 ; n 50 u2 1 125 ni .ui2 2,5 ; n 50 v2 1 183 n.j v 2j 3,66 ; n 50 uv 1 8 8 20 nij ui v j 0 ,4 ; n i 1 j 1 50 50 2 2,5 0 ,26 2,48; su 2,48 1,57 ; 49 50 s 3,66 0 ,06 3,73; ; s 3,73 1,93 . 49 su2 2 v 2 v Определим оценки: x hx u c x 2 0 ,26 53 52,48 ; y hy v c y 1 0 ,06 17 ,5 17 ,44 ; s x2 hx2 su2 2 2 2,48 9,92 ; s 2y hy2 sv2 1 2 3,73 3,73 ; rв n u v u v 50 0 ,4 0 ,26 0 ,06 0 ,14 . n1 su sv 49 1,57 1,93 201 3.5 Понятие регрессии 3.5.1 Определение регрессии Во многих случаях между случайными величинами X и Y , не связанными функциональной зависимостью, может существовать менее тесная, вероятностная связь. Например, если X – стаж работы, а Y – заработная плата рабочего, то между X и Y функциональной зависимости нет, но средний заработок рабочих с определённым стажем, очевидно, зависит от этого стажа. Для изучения зависимостей такого рода вводится понятие регрессии. Дадим ряд определений. Математическое ожидание (среднее значение) случайной величины Y, вычисленное при условии, что случайная величина X приняла значение х, называется регрессией Y на X и обозначается y x , т.е. y x M Y | X x . Таким образом, функция регрессии Y на X позволяет определить, каким в среднем будет значение Y при том или ином значении величины X. Аналогично определяется регрессия X на Y : x y M X |Y y . Графики этих функций называются линиями регрессии. Нашей задачей является построение регрессии по выборке xi , yi , i 1, ..., n из генеральной случайной двумерной величины X ,Y . В этом случае речь может идти о статистическом приближении неизвестных нам функций регрессии – выборочных функциях регрессии. Их графики будем называть выборочными линиями регрессии. Вид функции обычно определяют по диаграмме рассеивания, подбирая линию регрессии таким образом, чтобы она располагалась как можно «ближе» к выборочным точкам. Наиболее простой и важный случай – прямой линии регрессии. Он и рассматривается далее. 202 3.5.2 Метод наименьших квадратов. Линейная регрессия Пусть выбрана линейная функция регрессии Y на X: y y x ax b . Задача 3.3. Определить оценки (приближённые значения) параметров а и b по выборке xi , yi , i 1, ..., n . Решение. Оценки можно получить из условия минимума n 2 функции z a , b yi axi b . Функция z представляет i 1 собой сумму квадратов отклонений выборочных значений yi величины Y от значений функции регрессии ax b при x xi . Поэтому метод, основанный на минимизации такой функции, называется методом наименьших квадратов (МНК). Для отыскания минимума выпишем систему, вычисляя частные производные функции z a , b по а и b, и приравнивая их n z 2 yi axi b xi 0, a i 1 нулю: n z 2 yi axi b 0. b i 1 Преобразуем эту систему: n n n n 2 yi axi b xi 0, x i yi a x i b x i 0 , i 1 i 1 i 1 i 1 n n n y a x nb 0. i yi axi b 0. i i 1 i 1 i 1 Разделив обе части каждого уравнения на n, получаем: x y a x 2 bx 0 , y ax b 0. Здесь, как и ранее, c означает усреднение величины с. Решив последнюю линейную систему, находим оценки 203 a x y x y x2 x 2 , b y a x . Заметим, что параметр а можно представить в виде: a 2 x2 x y2 y 2 2 r s , y2 y x y x y x2 x y 2 в sx где rв выборочный коэффициент корреляции, а sx , sy выборочные средние квадратичные отклонения для X и Y. Итак, выборочная линейная регрессия Y на X sy sy sy y rв x y rв x или y y rв x x . sx sx sx Аналогично предыдущим рассуждениям, можно найти оценки параметров с и d линейной регрессии X на Y: x x y cy d n 2 по выборке из условия минимума суммы xi cyi d . i 1 Выборочная линейная регрессия X на Y будет иметь вид: s x x rв x y y . sy Замечание. Обе прямые линии регрессии проходят через точку x , y . Угол между ними будет определяться соотношением tg sx s y 2 s x2 s y 1 rв2 . Отсюда следует, что при увеличеrв нии коэффициента rв угол между прямыми линиями регрессии уменьшается и при rв = 1 обе прямые совпадают (точки распределения лежат на одной прямой). При уменьшении коэффициента корреляции к нулю угол увеличивается и стремится к 90 (прямые регрессии y y , x x ). Пример 3.19. Определить и нанести на диаграмму рассеивания прямые регрессии Y на X и X на Y по выборке: 204 xi yi 9 6 10 4 12 7 5 3 Решение. Вычислим x , y , sx, sy, rв (объём выборки n = 4): xi 9 10 12 5 36 ; yi 6 4 7 3 20 ; xi2 9 2 10 2 12 2 5 2 350 ; yi2 6 2 4 2 7 2 3 2 110 ; xi yi 9 6 10 4 12 7 5 3 193 ; 1 1 1 1 xi 4 36 9 ; y n yi 4 20 5 ; n 1 1 1 1 x 2 xi2 350 87 ,5 ; y 2 yi2 110 27 ,5 ; n 4 n 4 1 1 x y xi yi 193 48,25 ; n 4 n 4 2 s x2 x 2 x 87 ,5 9 2 8,67 ; s x 2,94; n1 3 n 4 2 s 2y y 2 y 27 ,5 5 2 3,33; s y 1,83; n1 3 n xy x y 4 48,25 9 5 rв 0 ,805 . n 1 sx s y 3 2,94 1,83 x Выборочная прямая регрессии Y на X: sy 1,83 y y rв x x y 5 0,805 x 9 y 0,5 x 0,5 . sx 2,94 Выборочная прямая регрессии X на Y: s y x 1,3y 2,5 x x rв x y y x, y sy 7 2,94 x 9 0 ,805 y 5 5 1,83 3 x 1,3 y 2,5 . 1 На рисунке изображена диа0 грамма рассеивания и выборочные прямые линии регрессии. 205 y 0,5x0,5 x 5 9 12 3.6 Контрольные вопросы 1. Что означает выборочный метод обследования генеральной совокупности? 2. Что такое вариационный и статистический ряд? 3. В каких случаях группируют выборочные данные? 4. Какие способы графического изображения выборочных данных Вы знаете? Какую информацию о генеральной совокупности несут эти изображения? 5. Какие требования предъявляют к точечным оценкам неизвестного параметра генеральной совокупности? 6. Что является точечной оценкой для математического ожидания? 7. Что является точечной оценкой для дисперсии? 8. Что такое корреляционная таблица? 9. Как определяется точечная оценка для коэффициента корреляции двумерной генеральной величины (X,Y)? 10. Охарактеризовать распределение 2(k) (хиквадрат) и распределение Стьюдента. 11. Что такое доверительный интервал, доверительная вероятность, уровень значимости? 12. Как находится доверительный интервал для математического ожидания? 13. Как находится доверительный интервал для дисперсии? 14. Что такое статистическая гипотеза? В чём заключается основная идея проверки статистической гипотезы? 15. Что такое ошибки первого и второго рода? 16. Как проверяется гипотеза о виде распределения генеральной совокупности (критерий согласия Пирсона)? 17. Что называется регрессией Y на Х и Х на Y? В чём их смысл? 18. В чём состоит метод наименьших квадратов (МНК)? 19. Как получить уравнения линейной регрессии Y на Х и Х на Y с помощью МНК? 206 3.7 Задачи 3.7.1 Задачи с решением 1. Для выборки 17, 18, 16, 16, 17, 18, 19, 17, 15, 17, 19, 18, 16, 16, 18, 18 построить вариационный и статистический ряд; определить размах выборки. Решение. Объём выборки n = 16. Упорядочив элементы выборки по величине, получим вариационный ряд: 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19. Статистический ряд можно записать в виде таблицы варианты zi 15 16 17 18 19 частоты ni 1 4 4 5 2 Контроль: ni n 16 . Размах выборки R = 19 – 15 = 4. i 2. Выборка задана в виде статистического ряда zi 2 3 4 5 6 7 8 ni 1 3 4 8 6 2 1 Построить полигон частот и график эмпирической функции ni распределения. 8 Решение. Объём выборки 7 n 1 3 4 8 6 2 1 25 . 6 Отложим на оси абсцисс варианты 05 0 zi, а на оси ординат – соответствую- 4 3 щие им частоты ni. Соединив полу- 2 ченные точки (zi, ni) отрезками пря- 1 zi мых, получаем полигон частот. 0 1 2 3 4 5 6 7 8 Вычисления относительных часi n ni тот и накопленных относительных частот j : n j 1 n zi ni ni n i n j n 2 1 3 3 4 4 5 8 6 6 7 2 8 1 0,04 0,12 0,16 0,32 0,24 0,08 0,04 0,04 0,16 0,32 0,64 0,88 0,96 1 j 1 207 1 Используя результаты 4-й стро- 0,8 Fn x ки в таблице, строим график эмпи- 0,6 рической функции распределения 0,4 Fn x . 0,2 3. Построить гистограмму частот для группированной выборки 0 x 1 2 3 4 5 6 7 8 номер 1 2 3 4 5 6 7 интервала i интервалы [ai–1, ai) [10,20) [20,30) [30,40) [40,50) [50,60) [60,70) [70,80] частоты 1 2 7 18 12 8 2 ni 2 Решение. Здесь объём выборки ni n 50 , число ин- 1,75 ni h 1,5 1,25 i тервалов k = 7, длина интерва1 лов (шаг разбиения) h 10 . Для 0,75 построения гистограммы строим 0,5 на оси абсцисс данные интерва- 0,25 x лы [ai–1, ai), а затем прямоуголь0 10 20 30 40 50 60 70 80 ники с основаниями, совпадающими с этими интервалами и высотами . 4. Приведены выборочные данные продолжительности работы электронных ламп определённого типа (в часах): 13,4 14,2 18,0 11,3 10,1 14,7 16,3 12,4 10,7 15,8 15,2 14,6 17,2 16,9 18,3 15,1 11,7 14,5 15,8 17,5 13,0 16,4 16,3 16,1 12,7 8,8 15,1 13,7 12,3 20,7 14,0 17,6 15,5 14,0 13,5 17,9 14,1 16,2 17,7 14,0 15,1 18,8 8,4 14,7 15,7 16,5 11,6 14,7 16,2 21,9 Получить группированный статистический ряд, используя 7 интервалов группировки. Построить полигон и гистограмму относительных частот, график эмпирической функции распределения. Решение. Объём выборки n = 50, число интервалов k = 7, размах выборки R 21,9 8,4 13,5 . Шаг разбиения 208 R 13,5 1,93 изменим на h = 2 для удобства дальнейшей k 7 работы. Пусть 1-й интервал будет [8, 10). Результаты группировки сведём в таблицу h i ai 1 , ai 1 2 3 4 5 6 7 [8; 10) [10; 12) [12; 14) [14; 16) [16; 18) [18; 20) [20; 22] zi ni 9 11 13 15 17 19 21 2 5 7 18 13 3 2 i ni n n nj j 1 ni nh 0,04 0,10 0,14 0,36 0,26 0,06 0,04 0,04 0,14 0,28 0,64 0,90 0,96 1,00 0,02 0,05 0,07 0,18 0,13 0,03 0,02 Используя zi и ni (столбец 3-й и 5-й), строим полигон отn носительных частот; используя столбец 2-й и 7-й, строим гистограмму относительных частот; используя столбец 3-й и 6-й, строим график эмпирической функции распределения Fn x . 0,42 ni 0,2 0,31 0,15 0,21 0,1 0,12 0,05 n ni nh x x 0 0 9 11 13 15 17 19 21 8 10 12 14 16 18 20 22 Fn x 1 0,8 0,6 0,4 0,2 0 x 9 11 13 15 17 19 21 209 5. В итоге пяти измерений некоторой физической величины одним прибором (без систематических ошибок) получены результаты: 10, 12, 13, 15, 16. Найти: 1) выборочное среднее результатов измерений; 2) выборочную и исправленную выборочную дисперсии. Решение. Объём выборки равен n = 5. 1) Выборочное среднее: 1 1 x xi 10 12 13 15 16 13,2 . n 5 2) Выборочная дисперсия: 1 1 2 2 Dв xi2 x 10 2 122 132 15 2 16 2 13,2 4,56 . n 5 Исправленная выборочная дисперсия: n 5 s2 Dв 4 ,56 5 ,7 . n1 4 6. Вычислить выборочное среднее x и исправленную выборочную дисперсию s x2 группированной выборки интервалы частоты ni [34, 36) 2 [36, 38) 3 [38, 40) 30 [40, 42) 40 [42, 44) 20 [44, 46] 5 Решение. Объём выборки n ni 100 . Шаг разбиения i h 2 . Для упрощения вычислений x и s x2 преобразуем середи- ны интервалов zi по формуле ui z*i c z*i 41 . Вычисления h 2 сведём в таблицу i z i ui ni ni ui ni ui2 1 2 3 4 5 6 35 37 39 41 43 45 – –3 –2 –1 0 1 2 2 3 30 40 20 5 100 –6 –6 –30 0 20 10 –12 18 12 30 0 20 20 100 Находим вначале 210 1 6 12 1 6 1 ni ui 0 ,12 , u 2 ni ui2 100 1 , n i 1 100 n i 1 100 n 100 2 2 su2 u2 u 1 0 ,12 1 . n1 99 Окончательно получаем x hu c 2 0 ,12 41 40 ,76 ; s 2x h2 su2 2 2 1 4 . u 7. Дана таблица результатов наблюдений за двумерной случайной величиной (X, Y): xi yi 0,5 0,4 1,0 0,3 1,5 1,0 2,0 1,7 2,5 2,1 3,0 3,4 3,5 4,1 4,0 5,8 Найти выборочные средние x и y , исправленные выборочные дисперсии s x2 и s 2y , выборочный коэффициент корреляции rв. Решение. Объём выборки n = 8. Вычислим суммы: xi 18 ; yi 18,8 ; xi2 51 ; yi2 70,56 ; i i i i xi yi 58,4 . Находим нужные величины: i 1 1 xi 18 2,25; n i 8 y 1 1 xi2 51 6 ,375; n i 8 y2 x x2 x y 1 1 yi 18,8 2,35; n i 8 1 1 xi2 70 ,56 8,82; n i 8 1 1 xi yi 58,4 7 ,3 ; n i 8 n 8 2 x 2 x 2 6,375 2,25 1,5; sx 1,5 1,22 ; n 1 7 n 8 2 s2y y2 y 2 8,82 2,35 3,77 ; s y 3,77 1,94 ; n1 7 sx2 rв n x y x y 8 7 ,3 2,25 2,35 0 ,97 . n1 sx s y 7 1,22 1,94 211 8. Найти выборочный коэффициент корреляции по корреляционной таблице: Y X [40, 50) [50, 60) [60, 70) [70, 80] [10, 11) [11, 12) [12, 13) [13, 14] 2 11 3 2 1 19 2 4 3 6 27 6 2 3 3 8 Решение. Перейдём к условным вариантам y*j 12,5 x*i 65 ui , vj . 10 1 Здесь xi и y j – середины соответствующих интервалов. Вычисления сведём в таблицу V –2 –1 0 1 ni ni ui ni ui2 –2 –1 0 1 2 11 3 2 1 19 2 4 3 6 27 6 2 3 3 8 8 39 35 20 –16 –39 0 20 32 39 0 20 n j 18 26 42 16 =n=102 = – 35 =91 n j v j –36 –26 0 16 = – 46 n j v 2j 72 26 0 16 =114 U Итак, вычислены следующие суммы: 2 2 ni ui 35 , n j v j 46 , ni ui 91 , n j v j 114 . i i j 4 j 4 По таблице вычисляем nij ui v j 44 . i 1 j 1 Находим 1 1 1 1 u ni ui 35 0,34, v n j v j 46 0,45 ; n i 102 n j 102 212 1 1 1 1 ni ui2 91 0,89, v 2 n j v 2j 114 1,12 ; n i 102 n j 102 u2 n 102 2 u2 u2 0,89 0,34 0,78; su 0,78 0,88 ; n 1 101 n 102 2 sv2 v2 v 2 1,12 0,45 0,93; sv 0,93 0,96 ; n 1 101 1 1 u v nij ui v j 44 0 ,43 . n i j 102 su2 Значит, n u v u v 102 0,43 0,34 0,45 rв 0,33 . n 1 su sv 101 0,88 0,96 9. Одним и тем же прибором со средним квадратичным отклонением случайных ошибок измерений = 40 м произведено 5 равноточных измерений расстояния от орудия до цели. Найти доверительный интервал для оценки истинного расстояния m до цели с надёжностью = 0,95, зная среднее арифметическое результатов измерений x = 2000 м. Решение. Требуется найти доверительный интервал для математического ожидания m случайной величины Х расстояния от орудия до цели. Так как среднее квадратичное отклонение (X) известно, то, напоминаем, доверительный интервал имеет вид: u1 , x u1 . x 2 2 n n Здесь объём выборки n = 5, = 1– = 0,05. По таблице определяем квантиль нормального распределения: u1 u10 ,025 u0 ,975 1,96 . 2 Итак, искомый доверительный интервал: 40 40 1,96, 2000 1,96 1965, 2035 . 2000 5 5 10. Найти минимальный объём выборки, при котором с надёжностью = 0,9 ошибка оценки x для математического 213 ожидания m генеральной совокупности будет равна = 0,3, если известно среднее квадратичное отклонение = 1,2 нормально распределённой генеральной совокупности. Решение. Ошибка оценки x с надёжностью = 1 – имеет 2 u12 2 вид: u1 . Отсюда n . 2 2 n По условию задачи 1 0 ,9 , поэтому = 0,1. Находим по таблице квантиль u1 u10 ,05 u0 ,95 1,645 . 2 2 1,2 1,645 27 . 0 ,3 2 11. По данным выборки объёма n = 16 из нормально распределённой генеральной совокупности найдена исправленная выборочная дисперсия s2 = 4. Найти доверительный интервал, накрывающий дисперсию 2 генеральной совокупности с уровнем значимости = 0,01. Решение. Так как математическое ожидание m неизвестно, то, напоминаем, доверительный интервал для 2 определяется n 1 s2 n 1 s 2 по формуле: 2 , 2 . n 1 n 1 1 2 2 Здесь n = 16, s2 = 4, = 0,01. По таблице находим квантили: 2 n 1 02,005 15 4 ,6 ; 12 n 1 02,995 15 32 ,8 . Итак, n 2 2 Искомый доверительный интервал для 2: 15 4 15 4 32 ,8 ; 4 ,6 1,83; 13,04 . 12. Результаты 10 измерений емкости конденсатора прибором, не имеющим систематической ошибки, дали такие отклонения xi – m от номинала m (здесь xi результаты измерений): 5,4; –13,9; –11; 7,2; –15,6; 29,2; 1,4; –0,3; 6,6; –9,9. Найти доверительный интервал для дисперсии при доверительной вероятности 0 ,9 . 214 Решение. Так как даны выборочные отклонения xi – m, то есть возможность определить точечную оценку s02 для дисперсии: 1 n 1 2 2 2 s02 xi m 5 ,4 2 13,9 11 7 ,2 2 n i 1 10 2 2 15 ,6 29,2 2 1,4 2 0 ,3 6 ,6 2 9 ,9 2 163,5 . Доверительный интервал для дисперсии определяется так: 2 ns02 ns0 . ; 2 n 2 n 2 1 2 По условию доверительная вероятность 1 0 ,9 , значит = 0,1. По таблице находим квантили: 2 n 02,05 10 3,94 , 12 n 02,95 10 18,3 . 2 2 Искомый доверительный интервал 10 16 , 3483 ; 18 , 3 10 163 ,483 89 ,3; 414 ,9 . 3 ,94 13. Крупная торговая фирма желает открыть в новом районе города филиал. Известно, что фирма будет работать прибыльно, если ежемесячный средний доход жителей района превышает 10 тысяч руб. Также известно, что среднее квадратичное отклонение дохода = 1000 руб. Определить правило принятия решения, с помощью которого, основываясь на опросе 100 жителей района об их доходах и уровне значимости = 0,05, можно установить, что филиал будет работать прибыльно. Решение. Фирма не откроет филиал, если средний доход жителей m не превысит 10000 руб. Будем считать, что гипотеза H0: m = m0 = 10000, а конкурирующая гипотеза H1: m > 10000. Так как значение дисперсии 2 известно, то в качестве статистики (см. таблицу на с. 185) возьмём величину U Гипотезу Н1 примем, если 215 X m . / n uв x 10000 1000 100 x 10000 u1 u0 ,95 1,65 . 100 x 10000 1,65 или x 10165 . 100 Итак, правило принятия решения: филиал открывать, если месячный среднедушевой доход x опрошенных 100 жителей района будет больше 10165 руб. 14. В результате длительного хронометража времени сборки узла различными сборщиками установлено, что дисперсия этого времени 02 2 (мин.)2. Результаты 20 наблюдений за работой Отсюда следует, что новичка таковы: время сборки узла, xi (в мин.) частота, ni 56 58 60 62 64 1 4 10 3 2 Можно ли при уровне значимости = 0,05 считать, что новичок работает ритмично (в том смысле, что дисперсия затрачиваемого им времени существенно не отличается от дисперсии времени остальных сборщиков)? Решение. 1) Проверяемая гипотеза H 0 : 2 02 2 , конкурирующая гипотеза H 1 : 2 02 . 2) = 0,05. 3) Статистика 2 n 1 n 1 s 2 . 02 4) Критическая область для выбранной гипотезы Н1 будет двусторонней: Vкр ; 2 n 1 12 n 1 ; 2 2 2 2 ; 0 ,025 19 0 ,975 19 ; ; 8,91 32,9; . 19 s 2 2 нужно определить исправленную выборочную дисперсию s2 по 216 5) Для вычисления выборочного значения в2 19 заданному статистическому ряду. Для удобства вычислений x 60 перейдём к условным вариантам ui i : 2 ui 2 1 0 1 2 ni 1 4 10 3 2 Имеем u 1 1 1 1 ni ui 1 0 ,05 ; u 2 ni ui2 19 0 ,95 ; n i 20 n i 20 n 2 20 u u2 0 ,95 0 ,05 2 1 . n1 19 19 4 2 2 2 2 Поэтому s h su 2 1 4 , в2 19 38 . 2 6) Так как в2 38 Vкр , то гипотезу Н0 отвергаем, поэтому su2 делаем вывод, что новичок работает неритмично. 15. Приведены выборочные данные распределения 200 погибших от несчастных случаев по возрасту: возраст X [16, 21) число 133 погибших, ni [21, 26) [26, 31) [31, 36) [36, 41) [41; 46] 45 15 4 2 1 Можно ли считать, что возраст погибших имеет показательный закон распределения при уровне значимости = 0,01? Решение. Проверяется гипотеза Н0: возраст погибших имеет показательный закон распределения x 16 0 , . FX x x 16 , x 16 1 e Пусть конкурирующая гипотеза Н1: возраст погибших имеет другой закон распределения (не показательный). Удобнее перейти к новой случайной величине Y = X 16, для которой функция распределения имеет вид y 0 0 , FY y . y , y0 1 e 217 Выборочные данные для Y: возраст Y число погибших, ni [0, 5) [5, 10) [10, 15) [15, 20) 133 45 15 4 [20, 25) [25, 30] 2 1 Математическое ожидание показательного распределения 1 для Y равно , поэтому в качестве точечной оценки для 1 1 6 возьмём , где y ni y*i выборочное среднее для Y, y n i 1 yi середины интервалов для Y, n 200 – объём выборки. Вычислим 1 y 133 2,5 45 7 ,5 15 12,5 4 17 ,5 2 22,5 1 27 ,5 5 . 200 Итак, 0 ,2 . За меру расхождения выборки с предполагаемым показательным распределением статистику (см. критерий Пирсона): m 2 ni npi 2 npi i 1 Для проверки гипотезы составим таблицу, учитывая, что FY y 1 e 0 ,2 y при y 0: n i np i 2 i [ai–1, ai) ni FY(ai) pi FY ai FY ai 1 npi 1 2 3 4 5 6 [0, 5) [5, 10) [10, 15) [15, 20) [20, 25) [25, +) 133 45 15 4 2 1 0,632 0,865 0,950 0,982 0,993 1 0,632 0,233 0,085 0,032 0,011 0,007 126,4 46,6 17 6,4 2,2 1,4 0,345 0,055 0,235 200 в2 1,535 200 1 np i 0,900 Пришлось объединить 4-й, 5-й и 6-й интервалы из-за малочисленности теоретических частот npi . Выборочное значение 2 критерия оказалось равным в2 1,535 . 218 Так как m = 4 (число интервалов после объединения), k = 1 (один оцениваемый параметр ), то число степеней свободы равно m k 1 4 1 1 2 . По таблице П2 определяем 12 m k 1 02,99 2 9,21 . Имеем в2 02,99 2 , поэтому гипотеза Н0 согласуется с выборочными данными. 3.7.2 Упражнения для самостоятельного решения 1. Записать выборку 5, 5, 3, 7, 8, 5, 2, 8, 7, 2, 7, 7, 4, 2, 4, 5 в виде: а) вариационного ряда; б) статистического ряда; в) построить полигон частот. 2. Приведены результаты опроса 20-ти случайно выбранных студентов об их возрасте (величина Х): 18, 21, 17, 18, 19, 19, 20, 21, 19, 20, 23, 22, 21, 18, 18, 19, 19, 18, 20, 21. Требуется: а) записать статистический ряд; б) указать относительную частоту события {X < 20}. 3. Найти эмпирическую функцию распределения Fn x и построить её график для выборки, представленной статистическим рядом: zi –2 –1 0 1 2 ni 2 3 8 4 3 4. Построить гистограмму частот выборки, представленной в виде группированного статистического ряда: номер интервала, i интервалы [ai–1, ai) частоты, ni 1 2 3 4 [2, 4) 6 [4, 6) 10 [6, 8) 4 [8, 10] 5 5. В итоге 50-ти измерений некоторой физической величины одним прибором (без систематических ошибок) получены следующие результаты: 69 66 72 72 66 73 70 70 72 75 70 76 70 72 76 68 68 69 68 69 64 71 66 70 71 73 71 70 67 67 219 70 68 76 71 70 72 70 69 67 73 67 64 71 72 71 70 65 74 69 74 Записать группированный статистический ряд, взяв шаг разбиения h = 2. 6. Положительные отклонения от номинального размера у партии деталей (в мм): 17 20 17 13 21 11 22 21 8 9 22 21 20 19 10 9 23 20 20 14 18 9 20 11 22 19 15 19 20 17 19 18 17 21 20 23 12 13 20 19 Найти выборочное среднее x и исправленную выборочную дисперсию s2: а) предварительно проведя группировку выборки с шагом разбиения h = 2; б) используя данную не группированную выборку. Сравнить результаты. 7. Найти выборочное среднее x , выборочную дисперсию Dв и исправленную выборочную дисперсию s2 по данному статистическому ряду: а) zi ni 102 2 104 3 б) zi 108 5 1250 20 ni 1275 25 1280 50 1300 5 Указание: перейти к условным вариантам. 8. Приведены результаты роста (в см) случайно отобранных 100 студентов: рост число студ. [154, 158) 10 [158, 162) [162, 166) [166, 170) [170, 174) [174, 178) 14 26 28 12 8 [178, 182] 2 Найти выборочное среднее x и исправленную выборочную дисперсию s2 роста обследованных студентов. 9. На телефонной станции проводились наблюдения за числом неправильных соединений в минуту (случайная величина Х). Наблюдения в течение часа дали следующие наблюдения: 3 1 3 4 2 1 1 3 2 7 2 0 2 4 0 3 0 2 0 1 3 3 1 2 2 0 2 1 4 3 4 2 0 2 3 1 3 1 4 2 2 1 2 5 1 1 0 1 1 2 1 0 3 4 1 2 2 1 1 5 220 а) Найти выборочное среднее x и исправленную выборочную дисперсию s2. б) Сравнить относительную частоту события {X = 0} в 0 наблюдениях с вероятностью p P X 0 e , взяв 0! x (по распределению Пуассона). 10. Вычислить выборочный коэффициент корреляции rв для выборки а) б) xi xi 9 10 12 5 10 2 7 5 yi 6 4 7 yi 3 8 2 6 4 11. По выборке объёма n = 100, извлечённой из двумерной генеральной случайной величины (X, Y), составлена корреляционная таблица Y X 10 15 20 25 30 35 35 45 55 65 75 5 1 0 0 0 0 0 6 2 0 0 0 0 0 5 40 5 0 0 0 2 8 7 0 0 0 0 4 7 8 Найти выборочный коэффициент корреляции. 12. Станок автомат штампует валики. По выборке объёма n = 100 вычислено выборочное среднее диаметров изготовленных валиков x = 10 мм. Найти с доверительной вероятностью ошибку , с которой выборочное среднее x оценивает математическое ожидание m диаметров изготовляемых валиков, зная, что их среднее квадратичное отклонение = 2 мм. Указать доверительный интервал для m. Считать, что выборка взята из нормально распределённой генеральной совокупности. Взять а) = 0,95; б) = 0,99. 13. Проведено 5 независимых измерений толщины пластины. Получены следующие результаты: 2,15; 2,18; 2,14; 2,16; 2,17. Оценить истинное значение толщины пластины m с 221 помощью доверительного интервала с доверительной вероятностью 0 ,9 . Считать, что измеряемая величина имеет нормальное распределение. 14. Из генеральной нормально распределённой совокупности извлечена выборка: xi ni 0,5 1 0,4 2 0,2 1 0 1 0,2 1 0,6 1 0,8 1 1 1 1,2 2 1,5 1 Оценить с надёжностью = 0,95 математическое ожидание m и дисперсию 2 генеральной совокупности при помощи доверительных интервалов. 15. В выборке из 25 зёрен пшеницы средняя масса зерна составила x = 0,5 г, а исправленное выборочное среднее квадратичное отклонение s = 0,05 г. Предполагая, что случайная величина X (масса зерна) имеет нормальное распределение, с надёжностью = 0,99 найти: а) доверительный интервал для m M X ; б) доверительный интервал для D X ; в) доверительный интервал для m, если объём выборки равен 50. 16. По данным выборки объёма n из нормально распределённой генеральной совокупности найдено исправленное среднее квадратичное отклонение s. Найти доверительный интервал для генерального среднего квадратичного отклонения с надёжностью = 0,99, если: а) n = 10, s = 5,1; б) n = 50, s = 14. 17. Пусть высота стебля кукурузы Х случайная величина, имеющая нормальное распределение. Какое минимальное количество растений нужно отобрать, чтобы выборочное среднее x отличалось от M(X) меньше, чем на 2 см, если известно, что по многочисленным результатам измерений (X) = 6 см. Результат найти с надёжностью = 0,95. 18. Поставщик осветительных электроламп утверждает, что средний срок службы лампы равен m = 2500 ч. Для выборки из 37 ламп средний срок службы оказался равным x = 2325 ч при 222 среднем квадратичном отклонении s = 600 ч. Проверьте справедливость утверждения поставщика при уровне значимости = 0,05. 19. Из нормальной генеральной совокупности взята выборка объёма n = 31: xi ni 10,1 1 10,3 3 10,6 7 11,2 10 11,5 6 11,8 3 12,0 1 Требуется при уровне значимости = 0,05 проверить нулевую гипотезу H0: 2 02 0 ,18 , приняв в качестве конкурирующей гипотезы H1: 2 > 0,18. 20. Завод рассылает рекламные каталоги возможным заказчикам. Как показал опыт, вероятность того, что организация, получившая каталог, закажет рекламируемое изделие, равна 0,08. Завод разослал 1000 каталогов новой улучшенной формы и получил 100 заказов. Можно ли считать, что новая форма рекламы оказалась эффективней первой при уровне значимости = 0,05? 21. Установлено, что средний вес таблетки лекарства сильного токсического действия должен быть равен m0 = 0,50 мг. Выборочная проверка 121 таблетки полученной партии лекарства показала, что средний вес таблетки этой партии x = 0,53 мг. Требуется при уровне значимости = 0,01 проверить нулевую гипотезу H0: m = m0 = 0,50 при конкурирующей гипотезе H1: m 0,50. Многократными предварительными опытами по взвешиванию таблеток, поставляемых фармацевтическим заводом, было найдено, что вес таблеток распределён нормально со средним квадратичным отклонением = 0,11мг. 22. Торговец утверждает, что он получает заказы в среднем от 30% предполагаемых клиентов. Можно ли при 5%-м уровне значимости считать утверждение верным, если торговец получил заказы от 20 из 100 случайно отобранных потенциальных клиентов? Указание: взять H0: p = p0 = 0,3; H1: p < 0,3. 223 23. При 600 подбрасываниях кости шестёрка появилась 75 раз. а) Можно ли утверждать, что кость симметрична? Принять = 0,05. б) Верна ли гипотеза о том, что вероятность появления 1 шестёрки меньше, чем , если = 0,01? 6 24. По данным обследования 20 однотипных фермерских хозяйств вычислен коэффициент корреляции rв= – 0,47 между средней урожайностью со средней себестоимостью моркови. Можно ли при 5%-м уровне значимости считать, что средняя урожайность и средняя себестоимость отрицательно коррелированны? 25. Выборочный коэффициент корреляции rв, вычисленный по выборке объёма n = 38, равен 0,25. Проверить гипотезу Н0: генеральный коэффициент корреляции r = 0 при конкурирующих гипотезах: а) H1: r 0; б) H1: r > 0. Принять = 0,05. 26. Проверьте гипотезу о законе распределения, который определяется двумя параметрами, причём значение одного из них известно, по следующим данным выборочные частоты, ni теоретические частоты, npi 2 5 15 14 15 21 1 3 11 15 18 24 Взять уровень значимости = 0,01. 27. Фирма с целью установления известности её продукции опросила в каждом из 100 населённых пунктах по 20 человек. Распределение числа xi незнакомых людей с продукцией фирмы такое: xi число пунктов, ni 0 1 2 3 4 5 65 20 10 3 1 1 Можно ли считать при 5%-м уровне значимости, что число незнакомых с продукцией фирмы подчиняется закону Пуассона? 224 28. При испытании радиоэлектронной аппаратуры фиксировалось число отказов. Результаты 59 испытаний: число отказов число испытаний 0 42 1 10 2 4 3 3 Проверить гипотезу Н0: число отказов имеет распределение Пуассона при = 0,1. 29. Используя критерий 2, при уровне значимости = 0,01 проверить гипотезу H0 о нормальном распределении генеральной совокупности Х, если известны выборочные частоты ni и теоретические частоты npi: ni npi 8 6 16 18 40 36 72 76 36 39 18 18 1.а) 2, 2, 2, 3, 4, 4, 5, 5, 5, 5, 7, 7, 7, 7, 8, 8; 4 ni 3 2 1 б) в) 0 3.7.3 Ответы к упражнениям 2. а) zi 2 3 i zi ni 3 1 2 3 4 2 3 1 5 4 4 2 7 4 5 4 8 2 7 4 10 2 zi 1 2 3 4 5 6 7 8 б) 0,55. 1 x 2 0 , 0 ,1, 2 x 1 0 ,25 , 1 x 0 3. Fn x 0 ,65 , 0 x 1 0 ,85 , 1 x 2 x2 1, 10 7 Fn x 0,8 0,6 0,4 0,2 –2 –1 0 1 225 x 2 4. 5 4 3 2 1 0 ni h 5. x 2 4 6 8 10 1 2 3 4 5 6 [ai–1, ai) [64, 66) [66, 68) [68, 70) [70, 72) [72, 74) [74, 76] ni 3 7 9 16 9 6 6. а) x = 17,7, s2 20,6; б) x 17,2, s2 19,7. 7. а) x = 105,6, Dв = 8,541, s2 = 9,49; б) x = 1273,75, Dв 168,72, s2=170,42. 8. x = 166; s2 33,78. 9. а) x = 2, s2 2,14; б) 0,1333, p 0,1353. 10. а) rв 0,806; б) rв 0,997. 11. rв 0,817. 12. а) = 0,392 мм; (9,608; 10,392); б) = 0,515; (9,485; 10,515). 13. 2,14 < m < 2,18. 14. – 0,025 < m < 0,815; 0,194 < 2 < 1,114. 15. а) (0,47; 0,53); б) (0,0361; 0,0779); в) (0,48; 0,52). 16. а) (1,485; 5,484); б) (11,026; 18,520). 17. n = 35. 18. tв= – 0,05; t0,05(36) = – 1,69; нет оснований отвергнуть утверждение поставщика. 19. s2 = 0,27; в2 45 ,0 ; 02,95 30 43,8 ; Н0 отвергается. 20. Да. 21. uв = 3; u0,995 = 2,58; H0 отвергается, давать лекарство больным нельзя. 22. uв = – 2,18; u0,05 = – 1,65; H0 отклоняем, с утверждением торговца не согласимся. 23. uв = – 2,8; а) нет; б) да. 24. tв= – 2,27; t0,05(18)= – 1,734; да. 25. tв(36) = 1,55; а) t0,975(36) = 2,03, H0 принять; б) t0,95(36) = 1,69, H0 принять. 26. в2 5 ,51 ; гипотеза принимается. 27. в2 7 ,7 ; нет. 28. в2 4,9 (последние 2 интервала объединяются), Н0 отклоняется. 29. в2 3,07 , 02,99 4 13,3 ; H0 принимается. 226 4 ПРИЛОЖЕНИЯ 4.1 Контрольная работа по теме «Теория вероятностей» Контрольная работа состоит из шести задач. В первых 4-х задачах нужно найти вероятности случайных событий. В 5-й задаче рассматривается дискретная случайная величина, а в 6-й – непрерывная случайная величина. Приведены 25 вариантов задания. Задача 1. Решить задачи, используя классическое определение вероятности случайного события. 1.1. На шести карточках выписаны по одной из цифр: 1, 2, 3, 4, 5, 6. Три из них произвольно вынимаются и укладываются на стол в порядке появления. Какая вероятность того, что полученное число будет кратно трём? 1.2. В урне 8 шаров, среди которых 3 белых и 5 чёрных. Наудачу извлекают 3 шара. Определить вероятность того, что среди них будет 1 шар белый, а остальные чёрные. 1.3. Из шести карточек, образующих слово «мастер», наугад выбирают четыре и выкладывают слева направо. Найти вероятность того, что в результате получится слово «тема». 1.4. Задумано трёхзначное число. Найти вероятность того, что оно кратно 5. 1.5. Из пяти первых букв русского алфавита выбираются наугад четыре буквы и записываются в порядке поступления слева направо. Какова вероятность того, что составленное слово будет оканчиваться на букву «а»? 1.6. На пяти карточках написано по одной из цифр: 1, 3, 4, 6, 7. Какова вероятность, что наугад составленное при помощи этих карточек четырёхзначное число будет меньше 4000? 1.7. Из колоды в 36 игральных карт случайным образом одна за другой вынимаются две. Какова вероятность, что вынутыми окажутся «туз» и «десятка»? 227 1.8. Найти вероятность того, что наугад взятое трёхзначное число оканчивается на две разные цифры. 1.9. Имеется 3 ячейки и 3 частицы. Частицы наугад размещаются по ячейкам. Чему равна вероятность того, что все частицы попадут в одну ячейку? 1.10. При наборе телефонного номера абонент забыл две последние цифры и набрал их наугад, помня, что они нечётные и разные. Какова вероятность, что номер будет набран правильно? 1.11. Два знакомых человека оказались в очереди из пяти человек. Найти вероятность того, что они будут отдалены друг от друга одним человеком. 1.12. В ящике находятся карточки с цифрами: 1, 2, 3, 4, которые вынимаются наугад и располагаются в порядке появления. Какова вероятность, что цифра 1 появится первой, а цифра 4 последней? 1.13. Три студента договорились о поездке за город на определённой электричке, но не договорились о вагоне. Любой студент может наугад сесть в любой из десяти вагонов. Какова вероятность, что они все попадут в разные вагоны? 1.14. В ящике находятся 10 лампочек, среди которых 3 перегоревшие. Найти вероятность того, что 5 лампочек, взятых наугад из ящика, будут гореть. 1.15. Два приятеля А и В решили, что в магазин пойдёт тот, у кого выпадет меньшее число очков при бросании игральной кости. Найти вероятность того, что в магазин пойдёт А. 1.16. Из колоды в 36 игральных карт случайным образом одна за другой вынимаются три. Найти вероятность, что они одной масти. 1.17. Из десяти билетов выигрышными являются три. Наугад выбираются пять билетов. Найти вероятность того, что только один из них выигрышный. 228 1.18. Имеются пять карточек с номерами от 1 до 5. Одна за другой выбирают наугад две карточки. Какова вероятность, что число на второй карточке больше на 1, чем на первой? 1.19. В конверте среди десяти фотографий находится одна разыскиваемая. Из конверта наугад извлечены 4 фотографии. Найти вероятность того, что среди них окажется нужная. 1.20. Восемь пронумерованных томов расставлены на полке в произвольном порядке. Найти вероятность того, что 3-й, 4-й и 5-й тома окажутся рядом. 1.21. Чему равна вероятность того, что дни рождения трёх человек придутся на разные месяцы: май, июнь и июль? Считать вероятности попадания дня рождения на данный месяц равными для всех месяцев года. 1.22. В группе 15 студентов. Из них отлично успевают по математике 4 человека, хорошо – 3 человек, удовлетворительно – 8 человек. Наугад выбираются 4 студента. Найти вероятность того, что среди них 2 «отличника» и 2 «хорошиста». 1.23. Из колоды в 36 карт наугад выбирают 4 карты. Какова вероятность того, что все они разной масти? 1.24. В ящике находятся карточки с цифрами: 1, 2, 3, 4, 5, которые вынимаются наугад и располагаются в порядке появления. Какова вероятность, что первые три цифры будут нечётными? 1.25. Четыре человека наугад размещаются в восьми вагонах электрички. Какова вероятность, что они зайдут в один вагон? Задача 2. Решить задачи, применяя операции над случайными событиями. 2.1. Вероятность попадания стрелком при каждом выстреле в 1-ю мишень равна 0,7, а во 2-ю – 0,6. По 1-й мишени произведено 2 выстрела, а по 2-й –1 выстрел. Определить вероятность того, что при этом будет попадание только во 2-ю мишень. 2.2. Два баскетболиста А и В делают по 2 броска мячом в корзину. Вероятность попадания в корзину при каждом броске 229 для баскетболиста А равна 0,6, для баскетболиста В равна 0,8. Найти вероятность того, что хотя бы один из них попадёт. 2.3. Разрыв электрической цепи может произойти вследствие выхода из строя хотя бы одного из элементов a, b, c, которые выходят из строя независимо друг от друга с вероятностями 0,3; 0,2 и 0,1. Найти вероятность разрыва цепи. 2.4. Вероятность наступления события А в каждом опыте одинакова и равна 0,2. Опыты производятся последовательно до 1-го наступления события A. Определить вероятность того, что придётся производить не более 2-х опытов. 2.5. В одном ящике 3 белых и 5 чёрных шаров, а в другом ящике 5 белых и 3 чёрных шара. Найти вероятность того, что хотя бы из одного ящика будет вынут белый шар, если из каждого ящика вынуто по одному шару. 2.6. Вероятность того, что изготовленная на 1-м станке деталь будет первосортной, равна 0,6. При изготовлении такой же детали на втором станке эта вероятность равна 0,8. На 1-м станке изготовлены две детали, а на 2-м - три. Найти вероятность того, что хотя бы одна деталь будет первосортной. 2.7. Вероятность того, что нужная информация находится в 1-й, 2-й, 3-й книгах, равна соответственно 0,6, 0,5, 0,8. Найти вероятность того, что нужная информация найдётся не менее, чем в двух книгах. 2.8. Вероятность того, что потребитель увидит рекламу определённого продукта по телевидению, равна 0,05, а на рекламном стенде – 0,02. Найти вероятность того, что потребитель увидит хотя бы одну рекламу. 2.9. Данное предприятие в среднем даёт 20 % продукции высшего сорта, 60 % – 1-го сорта и 20 % – 2-го сорта. Найти вероятность того, что среди двух случайно взятых изделий этого предприятия не окажется изделия 2-го сорта. 2.10. На участке АВ для мотоциклиста-гонщика имеются 3 препятствия, вероятность остановки на каждом из которых равна 0,1. Вероятность того, что от пункта В до конечного пункта С 230 мотоциклист проедет без остановки, равна 0,9. Определить вероятность того, что на участке АС не будет ни одной остановки. 2.11. Покупатель может приобрести акции двух компаний А и В. Надёжность компании А оценивается экспертами с вероятностью 0,8, надёжность компании В – 0,6. Определить вероятность того, что наступит хотя бы одно банкротство. 2.12. Инвестор предполагает, что в следующем периоде вероятность роста цены акций компании А будет равна 0,7, а компании В – 0,4. Вероятность того, что цены поднимутся на те и другие акции, равна 0,28. Найти вероятность того, что хотя бы одной компании акции поднимутся в цене. 2.13. Вероятность улучшения спортсменом личного достижения по прыжку в высоту равна 0,6 при каждой попытке. Чему равна вероятность того, что он улучшит свой результат, если ему представлена возможность прыгать 2 раза? 2.14. Вероятность хотя бы одного появления события А при трёх опытах равна 0,784. Какова вероятность появления события А при одном опыте, если при каждом опыте эта вероятность одинакова? 2.15. Пусть события А и В независимы и совместны. Вычислить Р(А+В), если Р(А) = 0,4, Р(АВ) = 0,2. 2.16. Вероятность того, что покупатель купит компьютер, равна 0,2, а что купит принтер – 0,1. Вероятность того, что будет куплен и компьютер, и принтер, равна 0,02. Найти вероятность того, что покупателем будет сделана хотя бы одна покупка. 2.17. Вероятность попадания в цель при каждом выстреле 1м стрелком равна 0,6, а 2-м стрелком равна 0,7. Стрелки выстрелили в цель по два раза. Какая вероятность того, что 1-й стрелок попадёт только один раз, а 2-й оба раза промахнётся? 2.18. В городе три независимо работающих коммерческих банка, оценка надёжности которых – 0,95, 0,8 и 0,9. Найти вероятность того, что окажутся надёжными не менее 2-х банков. 231 2.19. Вероятность попадания в цель 1-м стрелком равна 0,6, 2-м стрелком 0,5, а 3-м стрелком 0,7. Стрелки произвели по одному выстрелу. Какова вероятность того, что будет более одного попадания в цель? 2.20. Производится стрельба по цели тремя снарядами. Вероятность попадания при первом выстреле равна 0,8, а при каждом последующем выстреле уменьшается в два раза по сравнению с предыдущим. Найти вероятность того, что будет только один промах. 2.21. Достаточным условием сдачи коллоквиума является ответ хотя бы на один из двух вопросов, предлагаемых преподавателем студенту. Студент не знает ответов на 8 вопросов из тех 40, которые могут быть предложены. Какова вероятность сдачи коллоквиума? 2.22. В фирме 50 работников, 36 из них имеют высшее образование, 28 – среднее специальное образование, у 24 – высшее и среднее специальное образование. Найти вероятность того, что, случайно выбранный работник не имеет ни высшего, ни среднего специального образования. 2.23. Вероятность поражения цели при одном выстреле 1-м стрелком равна 0,6, а для 2-го равна 0,8. Первый сделал 3 выстрела, а второй 2 выстрела. Определить вероятность того, что цель не будет поражена. 2.24. Студент может сдать зачёт по английскому языку с вероятностью 0,7, а по математике с вероятностью P. Определить P, если вероятность того, что студент получит зачёт хотя бы по одному из названных предметов, равна 0,85. 2.25. Компания, занимающаяся строительством электростанций, надеется получить контракт в стране А с вероятностью 0,6, вероятность заключить контракт в стране В равен 0,4. Вероятность, что контракты будут заключены и в стране А, и в стране В, равна 0,24. Найти вероятность того, что компания получит контракт хотя бы в одной из этих стран. 232 Задача 3. Решить задачи, применяя формулу полной вероятности. 3.1. В отборочных соревнованиях участвуют 3 студента из 1-й группы, 2 – из 2-й группы и 5 – из 3-й группы. Вероятности попадания в сборную команду института для студентов этих групп соответственно равны 0,7; 0,8 и 0,6. Какая вероятность, что наудачу выбранный студент вошёл в сборную команду? 3.2. Директор компании имеет 2 списка с фамилиями претендентов на работу. В 1-м списке – фамилии 6-ти женщин и 4-х мужчин. Во 2-м списке оказалось 4 женщины и 7 мужчин. Фамилия одного из претендентов случайно переносится из 2-го списка в 1-й. Затем из 1-го списка случайно выбирается одна фамилия. Какова вероятность того, что эта фамилия мужчины?. 3.3. В ящик, содержащий 2 одинаковые детали, брошена стандартная деталь того же вида, а затем наудачу взята одна деталь. Найти вероятность того, что эта деталь будет стандартной, если все предположения о начальном количестве стандартных деталей в ящике равновозможны. 3.4. На одном заводе на каждые 100 лампочек приходится в среднем 5 нестандартных, на втором – 8, на третьем – 10. Продукция этих заводов составляет соответственно 40%, 50% и 10% всех лампочек, приобретаемых жителями района. Найти вероятность того, что приобретённая лампочка будет стандартной. 3.5. Имеется три партии деталей по 20 штук в каждой. Число стандартных деталей в 1-й, 2-й и 3-й партиях соответственно равно 20, 15, 10. Из наугад взятой партии наугад извлечена деталь. Какова вероятность, что деталь окажется нестандартной? 3.6. В первом ящике шары с номерами от 1 до 10, а во втором – с номерами от 11 до 15. Из второго ящика в первый переложили один шар, а затем из первого ящика вынули наугад шар. Какова вероятность того, что он имеет чётный номер? 3.7. Имеются две партии изделий по 12 и 10 штук, причём в каждой партии одно изделие бракованное. Изделие, взятое наугад из 1-й партии, переложено во 2-ю. Найти вероятность того, 233 что после этого взятое наугад изделие из 2-й партии будет бракованным. 3.8. В первой урне находятся 1 белый и 9 чёрных шаров, а во второй – 1 чёрный и 4 белых шаров. Из каждой урны удалили случайным образом по одному шару, а оставшиеся шары положили в третью урну. Найти вероятность того, что шар, вынутый из третьей урны, окажется чёрным. 3.9. В пункте проката имеется 10 автомобилей, для которых вероятность исправной работы в течение месяца равна 0,8, и 5 автомобилей с аналогичной вероятностью, равной 0,9. Найти вероятность того, что два автомобиля, взятые наудачу в пункте проката, будут работать исправно в течение месяца. 3.10. Перед посевом 80% всех семян было обработано ядохимикатами. Вероятность поражения растений, проросших из этих семян, вредителями равна 0,05, а растений, проросших из необработанных семян – 0,2. Найти вероятность того, что взятое наугад растение окажется поражённым. 3.11. В ящике находится 8 новых теннисных мячей и 4 не новых. Для первой игры наудачу берут один мяч, который после игры возвращают в ящик. Для второй игры берут снова мяч. Какова вероятность, что он будет новым? 3.12. В правом кармане находятся 2 монеты по 2 рубля и 4 по 1 рублю, в левом кармане находятся 5 монет по 2 рубля и 3 по 1 рублю. Из правого кармана в левый случайным образом перекладывают одну монету, а затем из левого достают одну монету. Найти вероятность того, что из левого кармана взята монета в 2 рубля. 3.13. В магазин поступают часы с 3-х заводов, соответственно 50%, 30% и 20%. В продукции 1-го завода точно идут 70% часов, 2-го – 80% и 3-го – 90%. Какова вероятность, что купленные часы идут точно? 3.14. Вероятность получить прибыль у хозяйства в урожайный год равна 0,6, а в неурожайный год – 0,2. В данной 234 местности вероятность урожайного года равна 0,7. Какова вероятность получить прибыль в будущем году? 3.15. В цехе работают два станка. Производительность 1-го станка в 3 раза больше производительности 2-го. Вероятность брака для 1-го станка равна 3%, для 2-го – 2%. Какова вероятность, что наугад взятая деталь оказалась бракованной? 3.16. Из 10 стрелков пять попадают в мишень с вероятностью 0,8, три – с вероятностью 0,6, два – с вероятностью 0,7. Найти вероятность того, что наудачу выбранный стрелок в мишень не попал. 3.17. Производится стрельба по цели двумя снарядами. Вероятность попадания при каждом выстреле равна 0,6. При одном попадании цель поражается с вероятностью 0,2, при двух попаданиях с вероятностью 0,5. Найти вероятность поражения цели. 3.18. В 1-й урне находится 5 белых и 3 чёрных шара, во 2-й урне 6 белых и 2 чёрных шара. Из 1-й урны во 2-ю наудачу переложим 1 шар, затем из 2-й урны в 1-ю наудачу переложим 1 шар. После этого из 2-й урны взяли 1 шар. Найти вероятность того, что этот шар белый. 3.19. В белом ящике лежат 6 красных и 4 синих шара. В чёрном – 3 красных и 2 синих. Бросается игральная кость. Если число выпавших очков кратно 3, то вынимают наугад шар из белого ящика, иначе – из чёрного. Какова вероятность того, что будет вынут красный шар? 3.20. Вероятности попаданий при каждом выстреле для 3-х стрелков равны соответственно 1/3, 3/4, 2/3. Какая вероятность, что наугад выбранный стрелок при одном выстреле промахнётся? 3.21. Три автомата штампуют одинаковые детали, которые поступают на общий конвейер. Производительности 1, 2, 3-го автоматов относятся как 2 : 3 : 5. Вероятности изготовления бракованной детали 1, 2, 3 - м автоматами соответственно равны 0,05; 0,1; 0,2. Найти вероятность того, что наугад взятая с конвейера деталь окажется не бракованной. 235 3.22. Имеется два ящика: в первом 4 белых шара и 2 чёрных, а во втором 3 белых и 3 чёрных. Из первого ящика во второй перекладывают, не глядя, 2 шара. После этого из второго ящика берут наугад один шар. Найти вероятность того, что этот шар будет белым. 3.23. На заводе, изготовляющем болты, первая машина производит 20 %, вторая – 30%, третья – 50% всех изделий. В их продукции брак составляет соответственно 3%, 4% и 2%. Какова вероятность того, что случайно выбранный болт окажется дефектным? 3.24. В цехе работает 15 станков. Из них 8 марки А, 4 марки В и 3 марки С. Вероятность того, что качество детали окажется отличным, для этих станков соответственно равна 0,8; 0,9 и 0,7. Какой процент отличных деталей выпускает цех в целом? 3.25. Из урны, содержащей 2 белых и 3 чёрных шара, наугад извлекают 2 шара, а затем добавляют в урну один белый шар. Найти вероятность того, что после этого наудачу выбранный из урны шар окажется белым. Задача 4. Решить задачи о независимых повторных испытаниях, применяя формулу Бернулли или приближённые формулы. 4.1. Найти вероятность того, что при 180 бросаниях игральной кости «шестёрка» выпадет 30 раз. 4.2. Производство даёт 1% брака. Какова вероятность, что из взятых 2000 изделий будет не более 17 бракованных? 4.3. Футболист забивает мяч с пенальти в каждой попытке с вероятностью 0,7. Какова вероятность забить ровно два мяча в трёх попытках? 4.4. Коммутатор учреждения обслуживает 100 абонентов. Вероятность того, что в течение одной минуты абонент позвонит на коммутатор, равна 0,02. Какова вероятность того, что в течение минуты позвонят 4 абонента? 236 4.5. С какой вероятностью, бросая 720 раз пару игральных костей, можно ожидать выпадения 12 очков менее 11 раз? 4.6. Изделия некоторого производства содержат 5% брака. Найти вероятность того, что среди четырёх наугад взятых изделий будет менее половины бракованных. 4.7. Вероятность опечатки на странице равна 0,0025. В книге 800 страниц. Какова вероятность того, что с опечатками будут не более 2-х страниц? 4.8. Вероятность наступления события в каждом из одинаковых и независимых испытаний равна 0,02. Найти вероятность того, что в 150 испытаниях событие наступит 5 раз. 4.9. Зачёт состоит из 4-х вопросов. На каждый вопрос дано 3 возможных ответа, среди которых нужно выбрать один правильный. Какова вероятность того, что методом простого угадывания удастся правильно ответить больше, чем на 2 вопроса? 4.10. Вероятность перерасхода отпущенного кредита равна 0,01 для каждого предприятия. Найти вероятность того, что из 400 предприятий перерасход будет не более чем у двух предприятий. 4.11. На каждую 100 букв текста русского языка в среднем приходится 11 букв «о». Какова вероятность, что в тексте из 2000 букв буква «о» встретится от 200 до 250 раз? 4.12. В магазин вошло 3 покупателя. Найти вероятность того, что хотя бы один из них совершат покупку, если вероятность совершить покупку для каждого из них одинакова и равна 0,3. 4.13. Вероятность отказа элемента равна 0,001 и не зависит от состояния других элементов. Найти вероятность того, что из 1000 таких элементов откажут менее двух элементов. 4.14. Статистические данные говорят о том, что 0,3% пассажиров опаздывают к отправлению поезда. Найти вероятность того, что из 840 пассажиров опоздают двое. 237 4.15. Чему равна вероятность того, что при трёхкратном бросании игральной кости ни разу не выпадет 3 очка? 4.16. Вероятность появления события А в каждом из 100 независимых испытаний равна 0,8. Определить вероятность того, что число m появлений события А удовлетворяет неравенству 80 m 90. 4.17. Вероятность выздоровления больного в результате применения нового способа лечения равна 0,8. Сколько вылечившихся из 100 больных можно ожидать с вероятностью 0,75? 4.18. Что вероятнее: выпадет 3 раза «герб» при 4-х бросаниях монеты или выпадет 5 раз «герб» при 8-ми бросаниях? 4.19. Вероятность пробоя конденсатора во время испытаний равна 0,01. Какова вероятность того, что из 100 конденсаторов не выдержат испытания более двух? 4.20. Чему равна вероятность того, что среди 100 случайных прохожих окажутся 40 женщин (предполагается, что число мужчин и женщин в городе одинаково). 4.21. Вероятность выигрыша по одному билету лотереи равна 0,1. Какова вероятность того, что из 6-ти билетов выиграет хотя бы один? 4.22. Каждый из пяти станков цеха может быть выключен с вероятностью 0,6. Определить вероятность того, что в цехе работают не менее четырёх станков. 4.23. Игральную кость подбрасывают 320 раз. Какова вероятность того, что цифра 5 при этом выпадет не менее 70 и не более 80 раз? 4.24. Имеется общество из 400 человек. Найти вероятность того, что у двух человек день рождения придётся на 1 января. Считать, что вероятность рождения в фиксированный день равна 1/365. 4.25. В некоторой лотерее выигрывает в среднем каждый пятый билет. Какова вероятность, что из 4-х приобретённых билетов выиграет хотя бы один? 238 Задача 5. Для указанной дискретной случайной величины X построить ряд распределения, определить математическое ожидание M(X) и дисперсию D(X). 5.1. В ящике лежат 4 шара с номерами: 0, 1, 2, 3. Наугад выбираются 2 шара (без возвращения). Случайная величина X – произведение номеров у выбранных шаров. 5.2. Из букв разрезной азбуки, составляющих слово «студент», наугад берутся 3 буквы (без возвращения). Случайная величина X – число взятых согласных букв среди выбранных. 5.3. В лаборатории независимо друг от друга работают 3 прибора. Пусть вероятность того, что в данный момент прибор работает, равна 0,8. Случайная величина X – число работающих в данный момент приборов. 5.4. Из группы в 12 студентов, среди которых 4 отличника, выбрали случайным образом 3-х человек. Случайная величина X – число отличников в выборке. 5.5. Производится стрельба по удаляющейся цели. При первом выстреле вероятность попадания 0,9, а при каждом следующем выстреле вероятность попадания уменьшается в 3 раза. Случайная величина X – число попаданий при 3-х выстрелах. 5.6. В группе 8 мужчин и 4 женщины. Наугад выбираются 3 человека. Случайная величина X – число женщин в выборке. 5.7. В ящике 3 шара с одинаковыми номерами 1 и два шара с номерами 2 и 3. Случайная величина X – сумма номеров у двух случайно вынутых (без возвращения) шаров. 5.8. Из букв разрезной азбуки, составляющих слово «встреча», наугад берутся (с возвращением) 3 буквы. Случайная величина X – число взятых гласных букв. 5.9. Три стрелка делают по одному выстрелу в мишень. Вероятности попадания равны 0,9; 0,7; 0,8 соответственно. Случайная величина X – число попаданий в мишень. 239 5.10. Из 28 костей домино наугад взяты (без возвращения) 3 кости. Случайная величина X – число костей, на которых имеется «шестёрка». 5.11. В кошельке 4 монеты по 1 рублю, 2 монеты по 2 рубля и 1 монета в 5 рублей. Наугад берутся 2 монеты. Случайная величина X – сумма (в рублях). 5.12. В осветительную сеть включено 3 новые лампочки, каждая из которых в течение года перегорает с вероятностью 0,6. Случайная величина X – число ламп, заменённых в течение года из этих трёх. 5.13. В мастерской испытывают 3 мотора. При данном режиме работы вероятность того, что моторы работают с полной нагрузкой, равна 0,8. Случайная величина X – число работающих с полной нагрузкой моторов в мастерской. 5.14. В денежной лотерее выпущено 100 билетов. Разыгрывается 1 выигрыш в 500 рублей, 2 выигрыша по 100 рублей и 10 выигрышей по 10 рублей. Случайная величина X – величина выигрыша (в рублях) для владельца одного лотерейного билета. 5.15. Один за другим послано 3 радиосигнала. Вероятности приёма каждого из них не зависят от того, приняты ли остальные сигналы, и равны 0,8. Случайная величина X – число принятых сигналов. 5.16. Два раза бросают одновременно 2 игральные кости. Случайная величина X – число выпадений чётного числа очков одновременно на 2-х игральных костях. 5.17. При установившемся технологическом процессе станок 1 3 - автомат производит изделий 1-го сорта и изделий – 2-го 4 4 сорта. Случайная величина X – число первосортных изделий среди 3-х случайно отобранных. 5.18. Спортсмен выполняет норматив в каждой попытке с вероятностью 0,8. Случайная величина X – число успехов в 3-х попытках. 240 5.19. Среди поступивших в ремонт четырёх часов двое часов нуждаются в чистке механизма. Мастер, желая найти такие часы, рассматривает их поочерёдно и, найдя их, прекращает просмотр. Случайная величина X – число просматриваемых часов. 5.20. В хозяйстве 3 автомобиля. Вероятность поломки за день каждого автомобиля равна 0,1. Случайная величина X – число автомобилей данного хозяйства, отработавших день без поломок. 5.21. Считаем, что день рождения незнакомого человека может быть с равной вероятностью любым днём недели. Случайная величина X – число людей, родившихся в субботу или воскресенье, среди трёх случайно встретившихся прохожих. 5.22. Имеется 3 изделия, из которых одно бракованное. Поочерёдно проверяют изделия до тех пор, пока проверяемое изделие не окажется бракованным. Случайная величина X – число проверенных изделий. 5.23. Случайная величина X – число оставшихся изделий в эксплуатации после года работы, если вероятность выхода из строя каждого изделия в течение года равна 0,3, а всего было 4 изделия. 5.24. Из 28 костей домино наугад выбирается одна. Случайная величина X – сумма очков на её половинках. 5.25. Производятся последовательные испытания 3-х приборов на надёжность. Каждый следующий прибор испытывается только в том случае, если предыдущий оказался надёжным. Случайная величина X – число испытанных приборов, если вероятность выдержать испытание для каждого прибора равна 0,8. Задача 6. Непрерывная случайная величина X задана функцией распределения F(x) или функцией плотности f(x). Найти: а) соответственно функцию f(x) или F(x); б) математическое ожидание M(X) и дисперсию D(X); в) вероятность указанного события. 241 x4 0, 6.1. F x 0,25 4 x 2 , 4 x 6 , x 6 1, P 3 X 5 . 3 1 5 x 2 , x 1, 0 , 6.2. f x 43 0 , x 1, 0 P X 0 ,5 . x 3 0 , 1 6.3. F x 3 x 2 , 3 x 5 , 64 1, x5 P X 0 . 2 1 5 x , x 1, 0 , 6.4. f x 7 0 , x 1, 0 x1 0 , 6.5. F x 1 x 2 , 1 x 2 , x2 1, P 1 X 0 ,5 . P 1 X 1,5 . 3 x 3 2 , x 1, 2 , 6.6. f x 117 0 , x 1, 2 x 8 0 , 6.7. F x 0,1 x 8 , 8 x 2 , x2 1, 2 6.8. f x 33 3 x 1 , x 0 , 3 , 0, x 0 , 3 x 2 0 , 6.9. F x 0 ,25 x 2 , 2 x 2 , x2 1, 242 P X 0 . P X 0 . P X 1 . P 0 X 3 . 1 6.10. f x 2 2 x 1 , x 1, 2 , P X 1,5 . 0 , x 1, 2 x2 0 , 1 6.11. F x x 2 2 , 2 x 4 , P 1 X 3 . 4 x4 1, 0 ,1 x 4 , x 0, 2 6.12. f x , P 0 X 1 . x 0 , 2 0 , x 1 0 , 2 x 1 , 1 x 3 , P X 2 . 6.13. F x 16 1, x3 3 x 1 2 , x 0 , 1 , P 0 ,5 X 2 . 6.14. f x 7 0 , x 0 , 1 x1 0 , 3 6.15. F x x 1 , 1 x 2 , P 1 X 1,5 . x2 1, 0 ,5 x 1 , x 1, 1 6.16. f x , P 0 X 3 . x 1, 1 0 , x0 0 , 3 x 6.17. F x , 0 x 3 , P 1 X 2 . 27 1, x3 1 x 1 , x 2, 4 6.18. f x 4 , P X 3 . 0 , x 1, 1 243 x0 0 , 2 6.19. F x 0 ,25 x , 0 x 2 , 1, x2 P 1 X 4 . 2 x 3 , x 1, 2 6.20. f x 9 , 0 , x 1, 2 P 0 X 2 . x 1 0 , 6.21. F x 0 ,5 1 x , 1 x 1 , x1 1, P X 0 . 1 3 x , x 0 , 2 6.22. f x 4 , 0, x 0 , 2 P X 1 . x 0,5 0 , 6.23. F x 0 ,2 2 x 1 , 0 ,5 x 3 , P 1 X 2 . x3 1, 0 ,5 x 2 , x 2 , 4 6.24. f x , P 3 X 4 . x 2 , 4 0 , x 1 0 , 2 6.25. F x 1 x , 1 x 0 , P X 0 ,5 . 1, x0 4.2 Контрольная работа по теме «Математическая статистика» 4.2.1 Содержание и варианты задания Пусть двумерная случайная величина (X, Y) – генеральная совокупность, где Х – вес (в килограммах), а Y – рост (в сантиметрах) случайно взятого человека. В качестве исходных 244 данных студенту предлагается выборка xi , yi , i 1, 2, ..., n объёмом n = 50 из генеральной совокупности (X, Y). Для статистической обработки этих данных в контрольной работе требуется выполнить следующее задание: 1. Для величин Х и Y составить группированные ряды. Построить полигоны, гистограммы относительных частот. 2. Вычислить точечные оценки: выборочные средние x и y ; несмещённые выборочные средние квадратичные отклонения sx и sy. 3. Проверить гипотезы о нормальном законе распределения случайных величин Х и Y при уровне значимости = 0,05. 4. Найти доверительные интервалы для M(X), M(Y), D(X), D(Y) с доверительной вероятностью = 0,95. 5. Составить корреляционную таблицу. Вычислить выборочный коэффициент корреляции rв. 6. Найти выборочные уравнения прямых линий регрессии Y на Х и Х на Y. Построить графики этих прямых на одном рисунке с наблюдаемыми точками (xi, yi), i = 1, ..., n. Вариант № 1 xi 66,6 92,0 77,0 88,7 78,0 82,0 56,6 70,6 71,6 86,5 yi 166 194 181 190 175 175 158 178 165 191 xi 83,4 81,9 54,0 88,5 83,2 79,1 56,6 83,3 70,6 80,3 yi 178 190 157 193 196 173 158 180 178 172 xi 78,7 76,5 75,5 69,6 70,8 76,2 86,5 73,3 56,6 77,8 yi 190 174 177 168 164 170 179 160 158 180 245 xi 88,7 68,2 54,0 83,4 64,0 87,9 77,6 70,8 72,1 76,6 yi 190 167 157 178 173 185 174 164 171 178 xi 67,3 82,6 67,3 76,0 75,9 77,3 88,7 76,2 82,0 71,6 yi 162 193 162 179 182 174 190 170 175 174 Вариант № 2 xi 79,0 60,1 60,1 70,4 62,7 63,4 70,3 65,9 62,5 54,7 yi 184 159 159 173 163 170 169 169 163 156 xi 56,9 50,3 69,2 59,5 58,5 64,9 57,0 67,1 55,5 62,8 yi 154 145 176 164 151 159 157 164 147 166 xi 73,1 69,4 62,6 55,2 51,5 62,2 60,2 66,3 52,6 72,4 yi 177 177 172 156 147 163 168 170 145 182 xi 69,4 71,0 59,3 68,4 53,1 70,7 51,4 49,6 66,9 59,7 yi 168 171 155 167 154 172 148 144 175 155 xi 55,2 60,9 67,3 58,8 47,5 68,1 56,8 64,9 68,1 59,1 yi 151 167 171 158 149 166 161 162 165 165 xi 75,1 64,8 71,3 58,1 62,4 62,2 65,5 56,4 57,0 72,0 yi 180 162 174 161 166 165 165 154 157 177 xi 68,0 60,9 68,8 70,4 55,6 63,6 77,1 63,8 65,7 65,6 yi 167 159 167 172 161 163 180 164 162 161 xi 72,1 68,9 84,7 73,9 68,6 67,2 73,9 81,9 63,8 78,3 yi 176 171 194 183 174 169 176 191 162 186 xi 74,7 66,9 64,5 56,4 75,7 65,7 67,5 72,4 78,7 64,2 yi 185 167 165 154 178 165 164 182 181 169 Вариант № 3 xi 58,0 70,2 69,8 61,9 65,0 68,4 72,6 76,8 67,1 65,0 yi 163 176 162 161 167 168 174 178 170 163 xi 63,8 65,2 67,8 62,1 67,9 60,1 74,4 59,5 75,8 63,9 yi 168 170 168 158 170 157 179 159 180 163 xi 64,8 62,0 76,3 62,5 62,5 68,5 63,1 72,7 63,2 61,4 yi 170 164 175 160 167 167 161 180 170 164 Вариант № 4 xi 76,0 69,7 70,7 77,0 72,7 66,8 69,5 91,8 71,6 76,9 yi 181 168 173 190 168 168 166 207 176 179 xi 66,3 67,7 68,3 71,1 76,6 68,7 67,4 80,1 69,7 69,9 yi 169 168 176 177 181 169 174 179 174 168 xi 67,9 79,6 73,9 71,4 74,2 55,3 66,8 65,0 72,4 77,2 246 yi 174 178 181 177 178 155 164 168 170 184 Вариант № 5 xi 64,4 72,3 79,8 76,6 81,4 74,8 71,8 64,8 70,9 70,5 yi 160 187 171 164 195 171 176 178 173 175 xi 70,9 64,3 62,0 84,3 63,4 61,6 73,7 94,4 80,4 68,7 yi 160 170 172 197 173 166 174 201 189 169 xi 71,5 53,2 71,7 76,7 79,0 70,6 70,2 72,7 78,0 69,6 yi 183 157 172 184 195 174 175 176 190 179 xi 79,2 70,6 74,9 66,3 82,4 72,4 84,3 68,3 69,7 64,5 yi 179 160 188 171 179 175 192 166 167 170 xi 63,3 77,1 71,4 76,6 78,7 75,1 73,4 77,3 64,4 61,8 yi 154 184 171 180 185 178 183 173 168 166 xi 77,2 73,1 87,5 76,1 81,8 66,7 68,0 73,9 92,5 78,9 yi 179 179 207 178 179 184 186 177 207 188 xi 69,4 69,4 81,5 71,5 79,2 75,2 69,6 73,9 80,9 76,0 yi 173 166 186 172 178 183 173 187 196 175 xi 74,2 76,7 73,3 63,3 68,1 55,1 73,8 61,6 60,6 56,0 yi 177 168 164 167 155 152 177 160 161 156 xi 69,7 76,5 70,3 71,9 57,7 72,7 65,3 68,5 68,9 80,5 yi 163 174 173 170 158 163 166 172 159 177 Вариант № 6 xi 56,7 82,0 67,5 68,4 77,8 71,5 74,4 77,9 74,5 70,0 yi 148 190 165 174 188 174 179 181 176 182 xi 82,2 69,9 86,4 72,2 77,2 71,7 73,4 78,5 80,6 88,9 yi 183 181 206 189 185 183 179 191 193 193 xi 90,2 87,1 77,0 78,2 70,7 82,7 76,8 74,3 80,3 82,7 yi 195 190 188 180 179 188 182 182 180 189 Вариант № 7 xi 60,2 53,9 72,5 77,6 61,6 65,6 54,1 59,2 60,6 52,8 yi 158 151 179 178 169 165 148 153 157 158 xi 59,5 80,7 64,0 64,7 78,6 62,0 57,2 69,6 71,8 61,8 yi 156 181 158 161 175 168 149 171 164 157 xi 62,0 77,9 73,7 58,9 69,2 75,3 61,0 55,7 68,1 70,7 247 yi 159 174 176 156 154 172 160 157 167 171 Вариант № 8 xi 76,1 74,1 69,2 73,3 78,2 79,4 69,4 66,3 64,5 79,4 yi 175 170 168 162 179 186 168 158 160 183 xi 53,8 84,1 76,9 85,3 67,5 85,5 70,5 76,4 78,0 70,9 yi 162 186 173 195 171 185 169 181 168 169 xi 78,3 62,8 59,2 67,9 71,5 67,1 60,1 74,1 58,1 65,5 yi 177 170 152 170 167 167 163 172 149 162 xi 74,4 75,9 69,1 72,7 69,1 70,8 76,5 80,7 64,3 67,8 yi 177 168 168 163 172 174 179 192 163 171 xi 61,7 81,7 67,8 65,9 79,0 63,0 81,6 74,0 66,1 78,9 yi 165 183 166 164 187 168 177 172 165 177 xi 69,3 69,0 78,5 70,7 56,8 62,5 74,3 73,1 72,9 76,8 yi 170 175 182 174 159 163 176 179 163 177 xi 72,9 55,9 76,7 69,9 72,1 76,5 81,2 79,1 66,3 79,0 yi 177 147 188 171 174 174 188 174 162 184 xi 67,3 74,9 78,5 68,8 62,4 87,5 78,6 56,7 73,0 75,8 yi 170 177 179 169 167 181 177 162 174 177 xi 85,1 62,5 68,4 71,0 66,2 58,6 100,7 82,3 76,5 80,4 yi 185 167 169 174 169 160 198 186 178 178 Вариант № 9 xi 74,1 78,8 73,3 78,9 78,8 61,5 75,1 62,1 85,8 76,2 yi 173 182 173 180 187 163 174 163 190 174 xi 75,1 85,7 80,7 75,1 68,4 64,9 70,3 54,0 73,6 81,4 yi 169 193 186 167 166 161 163 154 179 188 xi 70,7 79,3 70,5 68,6 66,3 72,9 73,2 69,2 73,3 82,8 yi 170 177 165 170 155 182 171 167 175 190 Вариант № 10 xi 95,0 81,5 76,8 79,6 84,0 68,9 81,3 78,0 79,2 77,8 yi 193 177 179 183 185 170 177 177 179 176 xi 81,2 87,1 71,5 57,6 70,8 82,7 73,1 73,3 75,7 88,2 yi 180 186 171 160 173 180 173 178 176 184 xi 74,4 74,4 65,2 75,5 86,5 57,9 85,3 80,6 62,4 73,3 yi 174 174 165 179 187 164 184 185 168 172 248 Вариант № 11 xi 69,3 62,1 76,3 77,7 67,2 82,7 64,3 84,2 76,2 65,6 yi 172 172 184 186 183 194 164 194 183 172 xi 77,7 79,2 68,4 81,9 75,4 59,7 73,1 72,8 80,6 84,4 yi 188 183 177 185 185 172 173 176 182 186 xi 69,7 72,8 71,5 78,0 72,3 68,1 72,1 93,2 71,5 84,7 yi 145 159 151 165 153 152 156 179 154 170 xi 66,5 78,6 67,6 80,4 84,3 75,5 75,1 76,9 85,6 90,2 yi 152 158 154 165 174 161 165 160 170 176 xi 71,7 68,7 84,0 69,8 69,6 73,4 67,8 67,9 77,9 78,0 yi 173 177 186 169 185 180 173 176 183 189 xi 71,0 76,8 82,9 73,0 72,2 76,1 54,2 62,6 59,7 78,7 yi 180 183 191 184 182 186 170 172 166 194 xi 68,6 82,9 75,2 59,0 70,4 73,0 73,4 74,1 72,6 68,3 yi 176 188 181 168 175 176 181 178 178 176 xi 73,6 82,3 78,5 69,8 79,5 72,4 64,4 77,6 70,5 62,7 yi 157 166 163 153 161 159 149 155 159 154 xi 71,0 80,6 75,5 73,4 62,0 80,0 62,8 70,0 84,2 79,1 yi 153 167 157 160 148 172 144 155 168 156 xi 70,4 68,4 74,1 74,5 45,7 49,2 70,2 74,5 70,1 63,6 yi 168 162 174 170 143 150 163 172 164 161 xi 60,6 67,8 80,5 57,7 71,5 68,4 75,2 76,5 66,3 60,3 yi 164 163 179 161 175 167 170 170 167 161 Вариант № 12 xi 79,4 66,2 84,2 76,0 72,9 64,6 68,2 65,3 84,0 67,0 yi 173 154 162 157 161 153 152 149 177 158 Вариант № 13 xi 78,9 80,5 60,0 66,1 78,2 83,9 71,5 58,6 72,1 50,6 yi 174 180 159 165 173 183 170 160 170 152 xi 50,4 63,4 64,4 60,8 70,8 59,9 56,9 58,5 69,1 66,2 yi 158 158 162 156 167 153 159 159 167 164 xi 68,2 66,4 49,3 64,4 63,8 63,4 61,3 72,8 51,9 74,0 249 yi 171 164 152 155 159 165 164 174 150 174 Вариант № 14 xi 69,5 75,4 64,5 74,1 62,6 71,1 51,7 73,5 69,5 65,8 yi 170 173 164 169 165 170 152 179 168 160 xi 82,0 58,8 82,7 70,4 76,4 58,6 67,7 79,1 53,6 53,6 yi 183 157 179 176 179 157 170 165 153 159 xi 74,9 81,2 63,6 66,3 60,9 78,8 69,2 67,7 80,0 60,4 yi 172 178 168 162 156 179 168 171 181 157 xi 60,8 66,2 72,6 56,7 72,2 82,1 76,7 77,0 79,2 64,6 yi 160 173 165 151 175 188 181 176 177 168 xi 71,8 66,9 56,2 62,8 69,8 60,7 68,7 68,1 72,9 58,6 yi 172 168 151 159 171 156 176 167 172 159 xi 70,0 77,5 70,8 76,7 62,3 70,3 69,6 73,4 59,9 67,8 yi 169 183 175 172 163 169 166 173 150 163 xi 67,2 71,1 69,8 59,8 91,5 89,0 71,1 70,4 70,0 72,1 yi 164 166 164 156 199 198 168 168 162 172 xi 77,6 67,9 75,2 76,5 68,8 60,7 69,8 81,9 73,0 81,4 yi 178 168 177 182 178 167 172 181 170 182 xi 78,9 71,6 86,7 75,4 72,8 63,3 68,0 81,0 83,8 73,0 yi 175 173 183 172 175 166 166 178 182 174 Вариант № 15 xi 75,2 70,0 70,5 61,3 55,3 75,8 75,9 74,2 75,1 62,4 yi 176 169 173 160 151 173 179 170 181 155 xi 76,2 71,0 70,7 70,7 71,6 78,3 78,8 63,7 78,7 77,0 yi 179 170 170 175 169 178 182 158 180 178 xi 76,6 66,4 76,2 68,6 67,8 62,2 65,7 64,8 69,6 85,5 yi 180 164 176 172 164 165 165 163 165 193 Вариант № 16 xi 68,0 67,0 71,8 72,6 74,4 61,1 75,5 71,3 71,5 74,3 yi 171 173 174 172 178 164 174 174 172 178 xi 86,2 77,8 86,2 75,7 80,5 66,6 67,1 84,6 61,0 64,1 yi 183 174 197 182 174 173 172 185 161 170 xi 79,6 77,4 62,6 66,3 75,0 73,0 71,9 79,2 68,4 81,9 250 yi 181 177 168 169 172 171 174 180 167 180 Вариант № 17 xi 57,3 79,0 81,7 83,9 68,7 60,7 74,3 56,8 70,1 87,8 yi 165 186 184 195 177 172 182 160 177 193 xi 86,3 79,2 71,4 79,7 79,8 67,3 67,4 67,2 75,8 75,6 yi 191 184 179 185 184 181 176 179 184 181 xi 67,4 69,7 73,4 71,0 72,9 60,7 69,6 64,8 66,1 78,0 yi 173 175 184 180 186 172 180 178 178 184 xi 70,0 80,8 74,6 83,7 82,6 77,1 67,3 77,8 67,5 61,5 yi 178 190 182 195 186 190 175 183 173 173 xi 71,3 72,4 76,7 49,2 74,1 80,4 76,9 79,0 87,1 74,4 yi 180 182 180 155 179 190 190 194 194 183 xi 69,9 73,9 76,9 64,2 74,7 83,8 75,9 79,4 74,0 75,7 yi 158 155 166 153 163 162 162 161 153 153 xi 66,7 82,1 65,1 80,0 80,3 73,5 82,1 79,6 56,6 72,3 yi 148 159 152 159 163 159 165 160 150 157 xi 69,8 66,5 58,4 59,9 60,5 63,7 62,5 77,6 64,4 52,1 yi 166 166 163 165 171 171 167 172 166 153 xi 77,2 77,6 75,8 77,7 51,1 67,8 61,2 50,9 70,0 65,5 yi 177 172 171 175 166 158 165 151 162 160 Вариант № 18 xi 70,4 79,8 60,7 70,8 70,9 82,7 76,0 69,0 86,1 79,2 yi 159 169 159 154 164 165 156 159 166 152 xi 81,3 81,9 97,3 73,8 64,5 76,7 85,4 82,8 67,9 70,7 yi 162 161 179 150 157 168 163 168 158 156 xi 77,0 70,2 73,3 66,6 70,2 75,8 84,2 81,2 83,7 77,9 yi 158 166 155 152 157 154 161 160 169 167 Вариант № 19 xi 64,4 69,1 81,7 70,2 68,8 63,6 60,6 55,6 55,1 64,2 yi 158 165 173 166 165 139 161 150 156 159 xi 66,5 55,9 71,0 54,3 52,4 60,0 78,5 82,6 69,8 60,8 yi 163 151 164 156 146 163 173 174 169 167 xi 69,2 60,8 66,6 54,8 69,7 47,8 59,3 61,8 50,2 85,9 yi 172 164 154 158 163 148 156 154 159 186 251 Вариант № 20 xi 74,7 79,6 82,9 68,6 58,3 52,5 59,2 67,2 66,9 63,3 yi 174 180 184 173 160 164 154 163 154 162 xi 79,9 67,0 64,5 69,6 58,4 65,2 72,3 65,9 62,4 58,5 yi 191 174 165 172 162 159 173 163 162 160 xi 64,0 71,2 54,4 65,8 58,1 71,7 81,9 70,0 67,6 67,7 yi 159 164 158 172 155 174 191 159 170 171 xi 73,4 64,2 76,6 59,3 69,8 83,1 64,1 60,2 75,7 71,9 yi 173 169 188 160 169 179 165 150 173 165 xi 55,1 73,9 74,6 71,5 74,0 76,8 63,3 65,2 58,2 63,2 yi 160 172 181 178 163 170 159 164 157 167 xi 80,1 73,0 85,3 61,0 69,9 65,6 77,9 55,6 70,5 74,7 yi 182 169 198 155 167 168 183 155 163 176 xi 81,9 83,8 68,2 75,8 74,9 71,0 74,0 69,9 76,4 78,1 yi 188 186 170 170 166 178 176 164 175 176 xi 66,6 73,6 83,9 86,7 86,9 70,3 79,4 72,6 57,4 76,9 yi 170 175 181 186 185 169 174 174 167 175 xi 80,4 80,5 72,8 66,1 83,4 82,0 61,7 65,4 76,5 83,6 yi 178 182 171 163 178 181 162 165 176 183 Вариант № 21 xi 69,6 66,0 80,7 82,2 68,2 67,7 60,7 68,8 71,5 73,0 yi 173 165 184 178 176 171 161 171 171 169 xi 72,1 74,2 64,1 69,6 70,1 68,2 80,9 62,6 72,8 83,8 yi 172 174 171 166 169 184 177 161 175 189 xi 74,4 66,7 73,3 70,9 65,7 61,2 70,2 72,4 72,1 66,2 yi 177 164 173 169 163 157 178 166 179 162 Вариант № 22 xi 85,8 57,7 76,0 68,9 75,7 72,1 76,4 71,0 74,7 75,4 yi 186 159 177 174 179 178 180 172 176 180 xi 67,7 76,1 70,3 55,4 92,5 71,8 82,5 69,4 54,0 63,9 yi 177 179 178 156 194 177 183 176 160 170 xi 67,9 78,8 77,7 70,0 85,7 63,2 65,6 76,7 62,5 76,7 yi 167 175 184 174 181 161 167 184 169 175 252 Вариант № 23 xi 66,9 74,7 70,7 58,0 73,4 71,8 69,2 79,3 66,9 75,6 yi 190 178 172 174 186 179 171 179 171 185 xi 78,4 68,9 77,6 67,1 80,6 63,0 71,3 62,5 82,8 75,4 yi 188 174 182 183 193 164 178 173 190 190 xi 46,0 76,8 75,7 71,0 88,3 77,0 78,2 62,8 71,8 64,3 yi 162 191 185 180 191 187 183 173 181 173 xi 66,2 70,7 69,6 68,5 77,2 62,3 65,2 85,3 60,9 69,2 yi 174 176 178 169 188 173 176 189 175 178 xi 65,6 77,6 75,2 70,0 62,3 80,8 70,4 66,0 76,1 67,0 yi 178 183 186 163 176 192 179 173 188 169 xi 71,2 70,3 79,5 78,6 77,3 83,5 75,5 69,6 76,1 67,1 yi 159 162 159 161 157 167 163 151 154 159 xi 82,5 77,3 71,3 73,6 71,4 78,2 75,4 83,6 72,2 82,7 yi 164 156 150 154 150 168 163 180 165 166 xi 70,1 50,5 86,6 77,1 67,7 54,9 53,1 70,4 64,0 66,1 yi 176 147 185 175 159 157 155 165 161 167 xi 82,7 72,8 68,9 77,1 76,0 70,6 71,0 70,8 64,3 57,1 yi 179 164 164 177 166 167 174 170 155 143 Вариант № 24 xi 75,8 69,5 67,3 66,0 72,2 74,1 73,8 80,6 77,2 75,2 yi 155 152 159 149 157 157 167 171 156 171 xi 79,7 85,3 71,7 69,6 85,5 87,6 70,3 73,6 71,9 84,2 yi 168 171 161 165 171 172 157 169 152 165 xi 69,4 63,7 64,0 70,5 67,6 69,4 62,6 65,7 72,2 79,7 yi 155 143 155 160 164 152 148 143 154 160 Вариант № 25 xi 81,1 75,0 67,8 67,5 47,0 73,8 54,2 73,0 66,6 62,5 yi 181 176 168 167 143 165 141 172 169 159 xi 66,9 69,0 63,5 53,8 70,8 66,6 49,5 47,2 66,4 79,1 yi 162 154 166 168 167 164 153 149 168 177 xi 53,5 70,4 65,9 66,5 63,0 63,3 57,1 57,5 58,6 70,9 253 yi 152 171 165 170 162 168 152 162 166 169 4.2.2 Образец выполнения контрольной работы 1. Пусть выборочная совокупность приводится в таблице 1. Таблица 1 – Выборочная совокупность xi yi xi yi xi yi xi yi xi yi 62,7 91,4 77,3 70,5 78,7 71,6 67,4 76,8 96,5 91,4 168 197 174 169 190 165 162 177 194 197 86,5 81,7 62,7 82,6 76,6 72,7 75,6 75,9 75,3 70,1 179 185 168 193 178 174 168 169 177 183 85,6 77,0 87,9 87,4 73,3 87,4 76,5 76,7 77,0 73,2 188 181 185 184 160 184 177 179 181 178 75,6 63,6 80,5 68,2 74,4 79,4 85,7 81,9 75,5 76,6 168 164 175 167 166 176 185 190 177 178 84,5 79,9 86,5 72,7 78,1 71,6 74,7 71,6 75,9 88,7 188 183 191 174 172 165 170 174 182 190 Напомним, что величина xi – вес (в килограммах), а yi – рост (в сантиметрах) i-го человека. Составим группированный ряд для величины X. Для этого найдём наибольшее xmax= 96,5 и наименьшее xmin= 62,7 значения величины X, встречающиеся в выборке. Вычислим размах Rx= xmax – xmin = 96,5 – 62,7 = 33,8. Промежуток [62,7; 96,5] изменения выборочных данных величины X разобьём на r = 7 интервалов (следуя рекомендации в пункте 3.1.2, при n = 50). R 33,8 Тогда шаг разбиения hx x 4 ,829 . Для удобства r 7 возьмём hx 5 . Тогда расширение промежутка разбиения 5 4 ,829 7 1,2 . Для определения границ интервалов ai 1 , ai можно для удобства (чтобы границы составит интервалов стали целыми числами) сдвинуть начало 1-го интервала, например, в точку a0 xmin 0 ,7 62,7 0 ,7 62 . Ясно, что остальные границы вычисляются так: ai ai 1 hx . Затем для каждого i-го интервала ai 1 , ai определяется его 254 1 ai 1 ai и с помощью 2 таблицы 1 находятся частоты ni – количество выборочных значений X , попавших в i-й интервал. Результаты группировки выборочных значений для X сведём в таблицу 2. xi по формуле середина xi Таблица 2 – Группированный ряд для X i ai 1 , ai x i ni 1 2 3 4 5 6 7 [ 62, 67 ) [ 67, 72 ) [ 72, 77 ) [ 77, 82 ) [ 82, 87 ) [ 87, 92 ) [ 92, 97 ] 64,5 69,5 74,5 79,5 84,5 89,5 94,5 3 7 17 10 6 6 1 ni n 0,06 0,14 0,34 0,20 0,12 0,12 0,02 ni nhx 0,012 0,028 0,068 0,040 0,024 0,024 0,004 ni (столбцы n 3-й и 5-й), строим полигон относительных частот; используя столбцы 2-й и 6-й, строим гистограмму относительных частот. Используя полученные результаты для xi и 0,4 ni n 0,08 0,3 0,06 0,2 0,04 0,1 0,02 x 0 64,5 69,5 74,5 79,5 84,5 89,5 94,5 ni nhx x 0 62 67 72 77 82 87 92 97 Для величины Y аналогичные результаты укажем в окончательном виде. Имеем: 255 ymin 160 , ymax 197 R y 37 , hy Ry 7 5 ,3 . Возьмём для удобства hy 6 . Результаты группировки выборочных значений для Y сведём в таблицу 3: Таблица 3 – Группированный ряд для Y i bi 1 , bi y i mi mi n mi nhy 1 2 3 4 5 6 7 [158, 164) [164, 170) [170, 176) [176, 182) [182, 188) [188, 194) [194, 200] 161 167 2 11 7 12 8 7 3 0,04 0,22 0,14 0,24 0,16 0,14 0,06 0,007 0,037 0,023 0,040 0,027 0,023 0,010 173 179 185 191 197 На рисунках ниже изображены полигон и гистограмма относительных частот для Y: 0,04 0,3 mi n mi nhy 0,03 0,2 0,02 0,1 0,01 y 0 161 167 173 179 185 191 197 y 0 158 164 170 176 182 185 194 200 2. Точечные оценки x , y , s x2 , s y2 вычислим по группированным данным (см. таблицы 2 и 3). Для удобства вычислений xi 79,5 yi 179 перейдём к условным вариантам: ui , vi . 5 6 256 Составим таблицу 4: Таблица 4 – Группированные данные для условных вариант i ui ni uini u i2 ni vi mi vi mi v i2 mi 1 2 3 4 5 6 7 –3 –2 –1 0 1 2 3 – 3 7 17 10 6 6 1 50 –9 – 14 – 17 0 6 12 3 – 19 27 28 17 0 6 24 9 111 –3 –2 –1 0 1 2 3 – 2 11 7 12 8 7 3 50 –6 – 22 –7 0 8 14 9 –4 18 44 7 0 8 28 27 132 Вначале вычислим u 1 7 19 1 7 4 ui ni 0 ,38; v vi mi 0,08 ; n i 1 50 n i 1 50 u2 1 7 2 111 1 7 132 ui ni 2 ,22 ; v 2 vi2 mi 2 ,64 ; n i 1 50 n i 1 50 n 50 2 u2 u 2 2,22 0 ,38 2,12 ; su 1,46 ; n1 49 n 50 2 sv2 v2 v 2 2 ,64 0 ,08 2 ,69 ; sv 1,64 . n1 49 Искомые оценки: x 5u 79,5 77 ,6 ; y 6v 179 178,5 ; su2 s x2 25 su2 53 ; s 2y 36 sv2 96 ,84 ; s x 7 ,28 ; s y 9,84 . 3. Проверим с помощью критерия 2 гипотезу H0: распределение генеральной совокупности X имеет нормальный закон N m x , x . Здесь k = 2 неизвестных параметра mx и x (математическое ожидание и среднее квадратичное отклонение) заменяются соответствующими оценками x 77 ,6 и s x 7 ,28 . 257 Возьмём интервалы [ai–1, ai), i = 1, … ,7 (см. таблицу 2), приняв a0 = – , a7 = + . Результаты расчётов выборочной величины в2 приведём в таблице 5: Таблица 5 – Расчёт в2 для признака X i 1 [ai–1, ai) ni (–, 67) 3 zi ai x sx – 1,46 (zi) pi= (zi) (zi1) npi – 0,428 – 0,428 – (– 0,5) 3,6 = 0,072 ni npi 2 npi 0,03 2 [67, 72 ) 7 – 0,77 – 0,289 0,139 7,0 3 [72,77 ) 17 – 0,08 – 0,032 0,257 12,9 1,3 4 [77, 82 ) 10 0,60 0,226 0,258 12,9 0,65 5 [82, 87) 6 1,29 0,402 0,176 8,8 6 [87, 92) 6 1,98 0,476 0,074 3,7 7 [92, + ) 1 + 0,500 0,024 1,21 50 – – 1 50 – 0,04 в2 =2,02 Пришлось произвести объединение первых двух интервалов и последних трёх из-за малости теоретических частот. В итоге число интервалов m = 4, поэтому число степеней свободы для 2- распределения равно m – k – 1 = 4 – 2 – 1 = 1. По таблице находим квантиль 02,95 1 3,84 . Вывод: так как в2 2 ,02 02,95 1 3,84 , то гипотеза H0 о нормальном распределении величины X не противоречит выборочным данным. Аналогично проверяем гипотезу H0: распределение гене- ральной совокупности Y имеет нормальный закон N m y , y . 258 Параметры m y и y заменяем соответственно оценками y 178 ,5 и s y 9,84 . Используя интервалы [bi–1, bi) и частоты mi , i = 1,…,7 из таблицы 3, проведём вычисление в2 , оформив таблицу 6: Таблица 6 – Расчёт в2 для признака Y [ bi–1 , bi ) mi i 1 (–, 164) zi bi y sy m i npi 2 (zi) pi = (zi)– (zi–1) – 0,429 – (–0,5) = 3,55 = 0,071 npi np i 2 – 1,47 – 0,429 2 [164, 170) 11 – 0,86 – 0,305 0,124 6,2 3 [170, 176) 7 – 0,25 – 0,099 0,206 10,3 1,06 4 [176, 182) 2 0,36 0,141 0,240 12,0 0,00 5 [182, 188) 8 0,97 0,334 0,193 9,65 0,28 6 [188, 194) 7 1,58 0,443 0,109 5,45 7 [194, +) 3 + 0,500 0,057 2,85 0,35 50 – – 1 50 в2 =2,77 – 1,08 Здесь объединены первые два и последние два интервалы, чтобы выполнялось условие npi > 5. В итоге получили m = 5 интервалов, поэтому число степеней свободы для 2 распределения равно m – k – 1 = 5 – 2 – 1 = 2. По таблице определяем квантиль 02,95 2 5 ,99 . Вывод: так как в2 2 ,77 02,95 2 5 ,99 , то гипотеза H0 о нормальном распределении величины выборочным данным. Y не противоречит 4. Доверительный интервал для математического ожидания M(X) при неизвестном имеет вид (см. пункт 3.2.2): 259 sx s t n 1 , x x t n 1 . x n 1 2 n 1 2 Учитывая, что x = 77,6, sx = 7,28, n = 50, = 1 – = 0,05, t n 1 t0 ,975 49 2,01 , получим с надёжностью =0,95: 1 2 75,53 < M(X) < 79,67. Аналогично получим доверительный интервал для математического ожидания M(Y) (учитывая, что y 178 ,5 , sy = 9,84): 175,70 < M(Y) < 181,30. Доверительный интервал для дисперсии D(X), как было ранее показано, имеет вид: 2 n 1 s 2x n 1 sx , 2 . 2 n 1 n 1 1 2 2 2 2 2 Так как s x 53 ; n 1 0 ,975 49 71,4 ; 1 2 2 n 1 02,025 2 49 32 ,4 , то с надёжностью = 0,95: 36,37 < D(X) < 80,15. Аналогично определяется доверительный интервал для дисперсии D(Y) с учётом, что s 2y = 96,84: 66,46 < D(Y) < 146,46. 5. Построим корреляционную таблицу 7 – таблицу с двумя входами. По вертикали расположим интервалы ai 1 , ai для величины X, а по горизонтали интервалы b j 1 , b j для вели- чины Y. Каждую пару выборочных значений xk , yk разнесём по полученным клеткам, в результате получим частоты nij – количество пар xk , yk таких, что xk ai 1 , ai и yk b j 1 , b j . 260 В угловых скобках <…> указаны значения условных вариxi 79,5 y 179 , vi i . 5 6 Таблица 7 – Корреляционная таблица ант ui Y [158;164) [164;170) [170;176) [176;182) [182;188) [188;194) [194;200] y1 161 y2 167 y 3 173 y 4 179 <– 3> <– 2> <– 1> <0> y 5 185 y6 191 <1> <2> y7 197 ni <3> X [62; 67) ••• x1 64,5 3 3 <– 3> [67; 72) • •••• • • x 2 69 ,5 1 4 1 1 <– 2> [72; 77) x3 74,5 <– 1> [77; 82) • •••• ••• •••••••• • 1 4 3 8 1 ••• ••• •• •• 3 3 2 2 • • •••• 1 1 4 ••• • •• 3 1 2 x4 79,5 <0> [82; 87) x5 84,5 <1> [87; 92) x6 89 ,5 <2> [92; 97] x7 94,5 < 3> n j 7 17 10 6 • 6 1 1 2 11 7 12 8 7 3 =50 Вычислим выборочный коэффициент rв , используя условные варианты: rв n uv uv . n1 su sv 261 Находим 1 7 7 1 3 2 3 2 3 1 u v ui v j nij n i 1 j 1 50 2 2 4 2 2 4 2 1 1 2 1 1 1 3 1 1 2 4 1 1 3 1 1 1 1 1 1 1 2 4 2 1 3 2 2 1 2 3 2 3 3 1 93 1,86 . 50 Ранее, в пункте 2, было вычислено: u 0 ,38; v 0 ,08 ; su 1,46; sv 1,64 . Итак, 50 1,86 0 ,38 0 ,08 rв 0 ,78 . 49 1,46 1,64 6. Выборочное уравнение прямой линии регрессии Y на X: sy x x . sx Подставляя в это уравнение ранее вычисленные значения x , y , s x , s y , rв , получаем y y rв 9,84 x 77 ,6 или y 1,05 x 96 ,69 . 7 ,28 Выборочное уравнение прямой линии регрессии X на Y: s x x rв x y y . sy y 178,5 0 ,78 Отсюда 7 ,28 y 178,5 или x 0 ,58 y 25 ,41 . 9,84 Изобразим на рисунке прямые линии регрессии Y на X (сплошной линией) и X на Y (пунктирной линией). На этом же рисунке отметим выборочные точки xi , yi , i 1, ..., 50 (диаx 77 ,6 0 ,78 грамма рассеивания). 262 y 200 X на Y 195 190 Y на X 185 180 y 175 170 165 160 155 x 60 65 70 75 x 80 263 85 90 95 100 4.3 Таблицы Таблица 1. Значения функции x 1 2 e x x 2 и функции Лапласа 2 1 x e 2 t 2 (x) 2 dt . x (x) (x) x (x) (x) x 0 (x) x (x) 0,00 01 02 03 04 05 06 07 08 09 0,10 11 12 13 14 15 16 17 18 19 0,20 21 22 23 24 25 26 27 28 29 0,30 31 32 33 34 35 36 37 38 39 0,3989 3989 3989 3988 3986 3984 3982 3980 3977 3973 0,3970 3965 3961 3956 3951 3945 3939 3932 3925 3918 0,3910 3902 3894 3885 3876 3867 3857 3847 3836 3825 0,3814 3802 3790 3778 3765 3752 3739 3726 3712 3697 0,0000 0040 0080 0120 0160 0199 0239 0279 0319 0359 0,0398 0438 0478 0517 0557 0596 0636 0675 0714 0753 0,0793 0832 0871 0910 0948 0987 1026 1064 1103 1141 0,1179 1217 1255 1293 1331 1368 1406 1443 1480 1517 0,40 41 42 43 44 45 46 47 48 49 0,50 51 52 53 54 55 56 57 58 59 0,60 61 62 63 64 65 66 67 68 69 0,70 71 72 73 74 75 76 77 78 79 0,3683 3668 3653 3637 3621 3605 3589 3572 3555 3538 0,3521 3503 3485 3467 3448 3429 3410 3391 3372 3352 0,3332 3312 3292 3271 3251 3230 3209 3187 3166 3144 0,3123 3101 3079 3056 3034 3011 2989 2966 2943 2920 0,1554 1591 1628 1664 1700 1736 1772 1808 1844 1879 0,1915 1950 1985 2019 2054 2088 2123 2157 2190 2224 0,2257 2291 2324 2357 2389 2422 2454 2486 2517 2549 0,2580 2611 2642 2673 2703 2734 2764 2794 2823 2852 0,80 81 82 83 84 85 86 87 88 89 0,90 91 92 93 94 95 96 97 98 99 1,00 01 02 03 04 05 06 07 08 09 1,10 11 12 13 14 15 16 17 18 19 0,2897 2874 2850 2827 2803 2780 2756 2732 2709 2685 0,2661 2637 2613 2589 2565 2541 2516 2492 2468 2444 0,2420 2396 2371 2347 2323 2299 2275 2251 2227 2203 0,2179 2155 2131 2107 2083 2059 2036 2012 1989 1965 0,2881 2910 2939 2967 2995 3023 3051 3078 3106 3133 0,3159 3186 3212 3238 3264 3289 3315 3340 3365 3389 0,3413 3438 3461 3485 3508 3531 3554 3577 3599 3621 0,3643 3665 3686 3708 3729 3749 3770 3790 3810 3830 0 264 x (x) (x) x (x) (x) x (x) (x) 1,20 21 22 23 24 25 26 27 28 29 1,30 31 32 33 34 35 36 37 38 39 1,40 41 42 43 44 45 46 47 48 49 1,50 51 52 53 54 55 56 57 58 59 0,1942 1919 1895 1872 1849 1826 1804 1781 1758 1736 0,1714 1691 1669 1647 1626 1604 1582 1561 1539 1518 0,1497 1476 1456 1435 1415 1394 1374 1354 1334 1315 0,1295 1276 1257 1238 1219 1200 1182 1163 1145 1127 0,3849 3869 3888 3907 3925 3944 3962 3980 3997 4015 0,4032 4049 4066 4082 4099 4115 4131 4147 4162 4177 0,4192 4207 4222 4236 4251 4265 4279 4292 4306 4319 0,4332 4345 4357 4370 4382 4394 4406 4418 4429 4441 1,60 62 64 66 68 1,70 72 74 76 78 1,80 82 84 86 88 1,90 92 94 96 98 2,00 02 04 06 08 2,10 12 14 16 18 2,20 22 24 26 28 2,30 32 34 36 38 0,1109 1074 1040 1006 0973 0,0940 0909 0878 0848 0818 0,0790 0761 0734 0707 0681 0,0656 0632 0608 0584 0562 0,0540 0519 0498 0478 0459 0440 0422 0404 0387 0371 0,0355 0339 0325 0310 0297 0283 0270 0258 0246 0235 0,4452 4474 4495 4515 4535 0,4554 4573 4591 4608 4625 0,4641 4656 4671 4686 4699 0,4713 4726 4738 4750 4761 0,4772 4783 4793 4803 4812 4821 4830 4838 4846 4854 0,4861 4868 4875 4881 4887 4893 4898 4904 4909 4913 2,40 42 44 46 48 2,50 52 54 56 58 2,60 62 64 66 68 2,70 72 74 76 78 2,80 82 84 86 88 2,90 92 94 96 98 3,00 20 40 60 80 4,00 4,50 5,00 0,0224 0213 0203 0194 0184 0175 0167 0158 0151 0143 0,0136 0129 0122 0116 0110 0104 0099 0093 0088 0084 0,0079 0075 0071 0067 0063 0060 0056 0053 0050 0047 0,00443 00238 00132 00061 00029 0,00013 0,000016 0,000002 0,4918 4922 4927 4931 4934 4938 4941 4945 4948 4951 0,4953 4956 4959 4961 4963 4965 4967 4969 4971 4973 0,4974 4976 4977 4979 4980 4981 4982 4984 4985 4986 0,49865 49931 49966 49984 49993 0,499968 0,499997 0,499999 Квантили up нормального распределения N(0, 1) p up 0,90 1,282 0,95 1,645 0,975 1,960 265 0,99 2,326 0,995 2,576 0,999 3,090 f 2 x Таблица 2. Квантили 2p k p 2p k p k 0,005 0,010 0,025 x распределения 2 k . 0,050 0,100 0,90 0,95 0,975 0,990 1 0,0439 0,0315 0,0398 0,0239 0,015 2,71 3,84 5,02 2 0,0100 0,0201 0,0506 0,103 0,211 4,61 5,99 7,38 3 0,0717 0,115 0,216 0,352 0,584 6,25 7,81 9,35 4 0,207 0,297 0,484 0,711 1,06 7,78 9,49 11,1 5 0,412 0,554 0,831 1,15 1,61 9,24 11,1 12,8 6 0,676 0,872 1,24 1,64 2,20 10,6 12,6 14,4 7 0,989 1,24 1,69 2,17 2,83 12,0 14,1 16,0 8 1,34 1,65 2,18 2,73 3,49 13,4 15,5 17,5 9 1,73 2,09 2,70 3,33 4,17 14,7 16,9 19,0 10 2,16 2,56 3,25 3,94 4,87 16,0 18,3 20,5 11 2,60 3,05 3,82 4,57 5,58 17,3 19,7 21,9 12 3,07 3,57 4,40 5,23 6,30 18,5 21,0 23,3 13 3,57 4,11 5,01 5,89 7,04 19,8 22,4 24,7 14 4,07 4,66 5,63 6,57 7,79 21,1 23,7 26,1 15 4,60 6,23 6,26 7,26 8,55 22,3 25,0 27,5 16 5,14 5,81 6,91 7,96 9,31 23,5 26,3 28,8 17 5,70 6,41 7,56 8,67 10,1 24,6 27,6 30,2 18 6,26 7,01 8,23 9,39 10,9 26,0 28,9 31,5 19 6,84 7,63 8,91 10,1 11,7 27,2 30,1 32,9 20 7,43 8,26 9,59 10,9 12,4 28,4 31,4 34,2 21 8,03 8,90 10,3 11,6 13,2 29,6 32,7 35,5 22 8,64 9,54 11,0 12,3 14,0 30,8 33,9 36,8 23 9,26 10,2 11,7 13,1 14,8 32,0 35,2 38,1 24 9,89 10,9 12,4 13,8 15,7 33,2 36,4 39,4 25 10,5 11,5 13,1 14,6 16,5 34,4 37,7 40,6 26 11,2 12,2 13,8 15,4 17,3 35,6 38,9 41,9 27 11,8 12,9 14,6 16,2 18,1 36,7 40,1 43,2 28 12,5 13,6 15,3 16,9 18,9 37,9 41,3 44,5 29 13,1 14,3 16,0 17,7 19,8 39,1 42,6 45,7 30 13,8 15,0 16,8 18,5 20,6 40,3 43,8 47,0 35 17,2 18,5 20,6 22,5 24,8 46,1 49,8 53,2 40 20,7 22,2 24,4 26,5 29,1 51,8 55,8 59,3 45 24.3 25,9 28,4 30,6 33,4 57,5 61,7 65,4 50 28,0 29,7 32,4 34,8 37,7 63,2 67,5 71,4 75 47,2 49,5 52,9 56,1 59,8 91,1 96,2 100,8 100 67,3 70,1 74,2 77,9 82,4 118,5 124,3 129,6 266 6,63 9,21 11,3 13,3 15,1 16,8 18,5 20,1 21,7 23,2 24,7 26,2 27,7 29,1 30,6 32,0 33,4 34,8 36,2 37,6 38,9 40,3 41,6 43,0 44,3 45,6 47,0 48,3 49,6 50,9 57,3 63,7 70,0 76,2 106,4 135,6 0,995 7,88 10,6 12,8 14,9 16,7 18,5 20,3 22,0 23,6 25,2 26,8 28,3 29,8 31,3 32,8 34,3 35,7 37,2 38,6 40,0 41,4 42,8 44,2 45,6 46,9 48,3 49,6 51,0 52,3 53,7 60,3 66,8 73,2 79,5 110,3 140,2 Таблица 3. Квантили t p k ft k x распределения Стьюдента t k . p tp(k) x 0,750 0,900 0,950 0,975 0,990 0,995 0,999 1,000 0,816 0,765 0,741 0,727 0,718 0,711 0,706 0,703 0,700 0,697 0,695 0,694 0,692 0,691 0,690 0,689 0,688 0,688 0,687 0,686 0,686 0,685 0,685 0,684 0,684 0,684 0,683 0,683 0,683 0,681 0,679 0,677 0,674 3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311 1,310 1,303 1,296 1,289 1,282 6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,671 1,658 1,645 12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,000 1,980 1,960 31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,390 2,358 2,326 63,657 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,974 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 2,576 318 22,3 10,2 7,173 5,893 5,208 4,785 4,501 4,297 4,144 4,025 3,930 3,852 3,787 3,733 3,686 3,646 3,610 3,579 3,552 3,527 3,505 3,485 3,467 3,450 3,435 3,421 3,408 3,396 3,385 3,307 3,232 3,160 3,090 0 p k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 80 267 CПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ Учебники и учебные пособия 1. Гмурман, В. Е. Теория вероятностей и математическая статистика / В. Е. Гмурман. М. : Высш. шк., 1977. 2. Гнеденко, Б. В. Курс теории вероятностей / Б. В. Гнеденко. М. : Наука, 1988. 3. Вингисаар, Э. И. Теория вероятностей : методическая разработка / Э. И. Вингисаар, Г. Ш. Лев. Барнаул : Изд-во АлтГТУ, 1977. 54 с. 4. Солодовников, А. С. Теория вероятностей : учеб. пособие. 2-е изд., испр. и доп. / А. С. Солодовников. М. : ВербумМ, 1999. 208 с. 5. Колемаев, В. А. Теория вероятностей и математическая статистика : учебник / В. А. Колемаев, В. Н. Калинина. М. : ИнфраМ, 1997. 302 с. 6. Чистяков, В. П. Курс теории вероятностей / В. П. Чистяков. М. : Наука, 1982. Задачники 1. Агапов, Г. И. Задачник по теории вероятностей : учеб. пособие для вузов / Г. И. Агапов. 2-е изд., доп. М. : Высш. шк., 1994. 112 с. 2. Гмурман, В. Е. Руководство к решению задач по теории вероятностей и математической статистике / В. Е. Гмурман. М. : Высш. шк., 1979. 333 с. 3. Сборник задач по математике. Специальные курсы / под ред. А. В. Ефимова, Б. П. Демидовича : в 3 т. Т. 3. М. : Наука, 1984. 608 с. 268 Владимир Петрович Зайцев ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Учебное пособие Издано в авторской редакции Подписано в печать 06.05.2014. Формат 60х84 1/16. Печать − цифровая. Усл. п. л. 15,64. Тираж 300 экз. Заказ 2014 − Издательство Алтайского государственного технического университета им. И. И. Ползунова, 656038, г. Барнаул, пр. Ленина, 46. http://izdat.secna.ru Лицензия на издательскую деятельность ЛР № 020822 от 21.09.1998 г. Отпечатано в типографии АлтГТУ, 656038, г. Барнаул, пр. Ленина, 46. тел.: (8-3852) 29-09-48 Лицензия на полиграфическую деятельность ПЛД № 28-35 от 15.07.1997 г.