КОНСПЕКТ ЛЕКЦИЙ по курсу "Теория вероятностей и математическая статистика" автор Василевич Л.Ф. I. ТЕОРИЯ ВЕРОЯТНОСТЕЙ Теория вероятностей - это математическая наука, изучающая закономерности в случайных событиях. 1. Основные понятия теории вероятностей. Алгебра случайных событий. Случайное явление - это такое явление, которое при неоднократном воспроизведении одного и такого же опыта (испытания, эксперимента) протекает каждый раз несколько по иному. Примеры случайных явлений: стрельба по цели; погода; продажа акций и др. Случайным событием (далее просто событием) называется всякий факт, который в результате опыта может произойти или не произойти. Примеры случайных событий: 1) опыт - бросание монеты; событие А - появление герба; 2) опыт - выстрел по мишени; событие B - попадание; 3) опыт - выявление спроса покупателей на какой-то товар; событие D - не менее 25% покупателей этот товар оценивают положительно. Несколько событий в данном опыте образуют полную группу событий результате опыта должно появиться хотя бы одно из них. , если в Примеры событий, образующих полную группу: 1) курс акций на следующей неделе "упадет", "возрастет", "останется прежним"; 2) появление "1", "2", "3", "4", "5", "6" при бросании игральной кости; Несколько событий в данном опыте называются несовместными, если никакие из них не могут появиться вместе. Примеры несовместных событий: 1) "появление туза" и "появление десятки" при вынимании одной карты из колоды; 2) "покупательный спрос на ый товар" уменьшится. -ый товар" возрастает и "покупательский спрос на N- Изображая случайное событие геометрическим множеством точек области , то несовместные события A и B изобразятся непересекающимися подмножествами ( рис.1 ) Несколько событий в данном опыте называются совместными, если хотя бы два из них могут произойти одновременно (рис. 2) Событие А называют следствием события В (В А), если из появления события В следует появления события А (рис.3) Рис.3 Каждый из возможных взаимоисключающих исходов опыта называют элементарным (неразложимым) событием. Из элементарных событий можно образовать составные (разложимые) события. Событие С называется составным, если можно указать по крайней мере два таких элементарных события и , что из осуществления каждого из них в отдельности следует факт осуществления события С. Пример: событие С "выпадение четного числа очков при однократном бросании игральной кости" - состоит из трех элементарных событий: "выпало 2", "выпало 4", "выпало 6". Элементарные события, входящие в состав составного события, называются благоприятствующими. Равновозможными событиями в данном опыте являются такие события, что по условиям симметрии есть основания считать, что ни одно из них не является объективно более возможным, чем другое. Пример: выпадение каждой грани игральной кости. Достоверное событие определяется как событие, состоящее из всех возможных элементарных событий, т.е. в результате анализируемого случайного эксперимента обязательно произойдет одно из элементарных событий , I=1,2, ... , а следовательно, тот факт, что событие произойдет, достоверно. Невозможное (пустое) событие - это событие, не содержащее ни одного элементарного события и, следовательно, при реализации исследуемого случайного эксперимента его осуществление невозможно. В теории вероятностей над событиями производят различные операции, тесно связанные с алгеброй логики. Основными операциями являются сумма (объединение), произведение (пересечение), разность и взятие дополнения. Суммой или объединением событий А1, А2, ... Аn называется такое событие С ( С= или С= ), которое состоит в осуществлении хотя бы одного из этих событий. Геометрическая интерпретация суммы событий показано на рис.4 Рис.4 Пример: если опыт состоит из трех выстрелов по мишени, и даны события: "А0 ни одного попадания", "А1 - ровно одно попадание", "А2 - ровно два попадания", "А3 - ровно три попадания", то С=А0+А1+А2 - есть событие "не более двух попаданий"; В=А2+А3 - "не менее двух попаданий". Произведением или пересечением событий А1, А2, ... , Аn называется такое событие С ( С= ), которое состоит в обязательном совместном наступлении всех событий А1, А2, ... Аn. Геометрическая интерпретация произведения событий показано на рис.5. Рис.5 На языке элементарных событий произведение событий А1, А2, ... , Аn определяется как событие С , состоящее только из тех элементарных событий, которые одновременно входят во все рассматриваемые события. Пример: покупается три лотерейных билета и рассматриваются события "В1 первый билет без выигрыша", "В2 - второй билет без выигрыша", "В3 - третий билет без выигрыша", то событие В=В1В2В3 состоит в том, все три билета окажутся без выигрыша. Операции сложения и произведения над событиями обладают рядом свойств, аналогичных свойствам обычных сложения и умножения чисел: 1. Переместительное свойство: А+В=В+А; А*В=В*А. 2. Сочетательное свойство: (А+В)+С=А+(В+С); (А*В)*С=А*(В*С). 3. Распределительное свойство: А*(В+С)=А*В+А*С. Однако некоторые операции над событиями не равнозначны операциям над числами, в частности, для событий А+А=А; А*А=А. Разностью событий А и В называется событие С (С=А-В), состоящие в том что событие В не происходит. Геометрическая интерпретация разности событий показано на рис.6 рис.6 Событие = называется дополнением к А или противоположным А (рис.7). рис.7 Очевидно, что - это невозможное событие, а противоположные события А и представляют собой простейший случай полной группы событий. Составные события можно представить в виде комбинаций элементарных или более простых событий, применяя рассмотренные выше операции. Пример: при вытягивании трех лотерейных билетов возможны следующие элементарные события: А1, А2, А3 - выигрыш первого, второго, третьего билета, соответственно; , - проигрыш первого, второго, третьего билета, соответственно. Рассмотрим составное событие В, состоящие в том, что из трех билетов только один может оказаться выигрышным. Очевидно, что событие В можно представить в следующей комбинации: В= Из определения суммы, произведения, разности, дополнения событий и их свойств вытекают следующие формулы: Используя эти формулы, которые легко проверяются самостоятельно, можно представлять составные события в более простом аналитическом виде. Выводы: 1. Понятиями теории вероятностей являются случайное явление; случайное событие, полная группа событий, элементарное событие, составное событие, несовместимые события, совместимые события, достоверное событие, невозможное событие, противоположное событие, равновозможные события. 2. Основными операциями над случайными событиями являются (объединение), произведение (пересечение), разность и дополнение. 3. Любое составное событие можно представить элементарных событий или более простых событий. в виде сумма комбинаций 2. Вероятность случайного события. Основные теоремы теории вероятностей Одной из важнейших характеристик случайного события является его вероятность, которую в большинстве практических задач связывают с эмпирическим понятием частоты события. Частотой Р события А в данной серии испытаний называется отношение числа испытаний m, в которых появилось данное событие, к общему числу испытаний n: Частота событий обладает следующими свойствами: 1. Частота случайного события А есть неотрицательное число, заключенное между нулем и единицей: 2. Частота достоверного события равна единице. 3. Частота невозможного события равна нулю. 4. Частота суммы двух несовместных событий А и В равна сумме частот этих событий: 5. Частота произведения двух событий равна произведению частоты одного из них на условную частоту другого. Условной частотой называют частоту одного события, вычисленную при условии наступления другого события, обозначают Следовательно, Вероятностью события А называется постоянное число, около которого группируются частоты этого события по мере увеличения количества опытов (статистическое определение вероятности события). При небольшом числе опытов, частота события носит в значительной мере случайный характер. Пусть, например, опыт - бросание монеты, событие А "появление герба". На рис.8 изображена зависимость числа опытов n (логарифмическая шкала по оси абсцисс). появление герба от рис.8 Из рис.8 видно, что по мере увеличения n частота проявляет тенденцию стабилизироваться, приближаясь сквозь ряд случайных отклонений к постоянной величине, равной 0,5 (это и есть вероятность появление герба в одном опыте). Хотя вероятность события в самой своей основе связана с опытным, практическим понятием частоты события, однако для ее определения не всегда есть возможность провести большое число опытов. Если пространство , связанное с опытом, состоит из конечного числа равновозможных элементарных событий то вероятность любого случайного события А в таком опыте равна отношению числа m благоприятствующих ему элементарных событий к их общему числу n (классическое определение вероятности событий): Если пространство содержит бесконечное множество элементарных событий, то может быть использовано геометрическое определение вероятности, когда вероятность попадания точки в любую область пропорциональна мере этой части (длине, площади, объему) и не зависит от ее расположения и формы. Если геометрическая мера всей области S, а геометрическая мера части этой области, попадание в которую благоприятствует данному событию А, есть , , то вероятность события В общем случае, когда множество элементарных событий является непрерывным, строится аксиоматическая теория вероятностей. При этом для того, чтобы теория вероятностей хорошо согласовалась с опытом, аксиомы теории вероятностей вводятся таким образом, чтобы вероятность события обладала основными свойствами частоты события. Вероятностью события Р(А) события А называется определенная на действительная функция, удовлетворяющая трем аксиомам: Аксиома 1. Вероятность события А есть неотрицательное число: Аксиома 2. Вероятность достоверного события равна единице: Аксиома 3. Вероятность суммы попарно несовместных событий равна сумме вероятностей этих событий: Из аксиом 1, 2, 3 следует, что в частности, вероятность невозможного события равно нулю. Важно отметить, что непрерывном вероятном пространстве из равенств Р(А)=1 или Р(А)=0 не следует, что А является достоверным или соответственно невозможным событием. Из аксиомы 3 следует связь между вероятностями прямого или противоположного событий: Вводимая далее аксиома 4 определяет условную вероятность. Аксиома 4. Условная вероятность Р(А/В) события А при условии, что уже имеет место событие В, определяется с помощью формулы: Р(АВ)=Р(В)*Р(А/В)=Р(А)*Р(В/А). Два события А и В называются зависимыми, если вероятность каждого из них меняется в связи с наступлением или не наступлением другого. В противном случае события А и В называются независимыми. Вероятность произведения двух независимых событий равна произведению этих событий: Р(АВ)=Р(А)*Р(В). Задачи на вычисление частоты событий и их вероятностей. Задача 1. Среди 250 изготовленных деталей оказалось пять, не отвечающих стандарту. Определить частоту появления деталей, не отвечающих стандарту. РЕШЕНИЕ: Из определения частоты получаем, что Задача 2. Среди 25 студентов группы, в которой десять девушек, разыгрывается пять билетов . Определить вероятность того, что среди обладателей окажутся две девушки. РЕШЕНИЕ: Число всех равновозможных случаев распределить пять билетов среди 25 студентов равно числу сочетаний Число групп по трое юношей из 15, которые могут получить билеты, равно С . Каждая такая тройка может сочетаться с любой парой из десяти девушек, а число таких пар равно С . Таким образом, число групп по пять студентов, в каждую из которых будут входить трое юношей и две девушки, равно произведению Это произведение равно числу благоприятствующих рассматриваемому событию случаев. Из классического определения вероятности события, получаем: Задача 3. В любые моменты интервала времени Т равновозможны поступления двух телефонных звонков. Абонент не сумеет ответить на оба звонка, если разность между моментами поступления сигналов будет меньше . Определить вероятность Р(А) того, что абонент не сумеет ответить на оба звонка. РЕШЕНИЕ: Изобразим случайные моменты поступления звонков в виде декартовых координатах на плоскости. Областью возможных значений является квадрат площадью (рис.9). Абонент не сумеет ответить на два звонка, если Рис. 9 Данная область лежит между прямыми Площадь этой области получаем: Используя геометрическое определение вероятности, При определении вероятности составных событий используют основные теоремы теории вероятностей, являющиеся следствием приведенных выше аксиом и определений. 3. Основные теории вероятностей. Теорема сложения вероятностей Вероятность появления какого-либо одного из нескольких несовместных событий равна сумме вероятностей этих событий: P(A+B+...+L)=P(A)+P(B)+...+P(L). Следствие 1. Сумма вероятностей событий, образующих полную группу, равна единице. Следствие 2. Вероятность события, противоположного данному, равна разности между единицей и вероятностью данного события, т.е. Теорема сложения вероятностей справедлива только для несовместных событий. В случае, когда события А и в совместны, вероятность суммы этих событий выражается формулой Р(А+В)=Р(А)+Р(В)-Р(АВ). Теорема умножения вероятностей. Вероятность произведения событий ABC...KL равна произведению вероятностей этих событий, причем вероятность каждого последующего события вычисляется при условии, что все предыдущие имели место, т.е. P(ABC...KL)=P(A)*P(B/A)*P(C/AB)*...*P(L/ABC...K). В частности, вероятность произведения двух событий А и В Р(АВ)=Р(А)*Р(В/А)=Р(В)*Р(А/В). Следствие. Вероятность произведения произведению их вероятностей: P(ABC...KL)=P(A)*P(B)*P(C)*...*P(L). независимых событий равна Отметим, что вероятность появления хотя бы одного события из совокупности любого числа совместных событий легче производить, если перейти к противоположным событиям. Тогда вероятность появления хотя бы одного из совместных событий А, В, С,...,L равна разности между единицей и вероятностью произведения противоположных событий Рассмотрим типовые задачи на применение теорем сложения и умножения вероятностей. Задача 1. Мишень состоит из трех зон. Вероятность попадания в первую зону при одном выстреле равна 0,15; во вторую - 0,23; в третью - 0,17. Найти вероятность промаха. РЕШЕНИЕ: Обозначим событие - промах, А - попадание в мишень. Тогда где - попадание соответственно в первую, вторую и третью зоны. По теореме сложения вероятностей: ) откуда . Задача 2. В урне 2 белых и три черных шара. Из урны вынимают подряд два шара. Найти вероятность того, что оба шара белые. РЕШЕНИЕ: Обозначим: событие А - появление двух белых шаров. Событие А представляет собой произведение двух событий: А= где - появление белого шара при первом вытаскивании; - появление белого шара при втором вытаскивании. По теореме умножения вероятностей На практике редко встречаются задачи, в которых нужно применять только теорему умножения или сложения вероятностей. Обычно обе теоремы приходится применять совместно. Задача 3. В урне 5 белых шаров и 2 черных. Из нее вынимаются один за другим два шара. Найти вероятность того, что они будут разных цветов. РЕШЕНИЕ: Событие С= шары разных цветов распадается на сумму двух несовместных событий: где первый шар белый, второй черный , первый шар черный, второй белый . Вероятности событий где найдем по теореме умножения вероятностей. шар белый , шар черный . По теореме сложения вероятностей . Следствием обеих основных теорем - теоремы сложения вероятностей и теоремы умножения вероятностей - является так называемая формула полной вероятности. Формула полной вероятности. Если событие А может произойти только совместно с одним из событий образующих полную группу несовместных событий (гипотез), то вероятность Р(А) появления события определяется по формуле полной вероятности: где - вероятность гипотезы при этой гипотезе. - условная вероятность события А Задача: Имеются три одинаковые на вид урны: в первой урне 2 белых шара и 1 черный шар; во второй - 3 белых и один черный; в третьей - 2 белых и 2 черных шара. Некто выбирает наугад одну из урн и вынимает из нее шар. Найти вероятность того, что этот шар белый. РЕШЕНИЕ: Рассмотрим три гипотезы: Н - выбор первой урны; Н - выбор второй урны; Н - выбор третьей урны, и событие А - появление белого шара. Так как гипотезы, по условию задачи, равновозможны, то Условные вероятности события А при этих гипотезах соответственно равны: По формуле полной вероятности: Теорема гипотез (формула Байеса). Следствием теоремы умножения и формулы полной вероятности является теорема гипотез или формула Байеса. Если вероятности несовместных гипотез событий, до опыта были событие А, то условная вероятность вычисляется по формуле Байеса: образующих полную группу а в результате опыта появилось с учетом появления события А В частном случае, если все гипотезы до опыта имеют одинаковую вероятность формула Байеса принимает вид: Задача. Два стрелка независимо один от другого стреляют по одной мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка 0,8, для второго - 0,4. После стрельбы в мишени обнаружена одна пробоина. Найти вероятность того, что эта пробоина принадлежит первому стрелку. РЕШЕНИЕ: До опыта возможны следующие гипотезы: Н - ни первый, ни второй стрелок не попадет; Н - оба стрелка попадут; Н - первый попадет, а второй нет; Н - первый стрелок не попадет, а второй попадет. Вероятности этих гипотез: Условные вероятности наблюденного события А при этих гипотезах равны: Вероятность того, что пробоина принадлежит первому стрелку в соответствии с теоремой гипотез равна: 2. Теорема сложения справедлива только для несовместимых. 3. Последовательность испытаний. ВЫВОДЫ: Основные правила вычисления вероятностей составных событий задаются теоремами сложения, умножения формулой полной вероятности и формулой Байеса. Теорема о повторении опытов При практическом применении теории вероятностей часто приходится встречаться с задачами, в которых один и тот же опыт или аналогичные опыты повторяются неоднократно. Причем интерес представляет не событие А в каждом опыте, а общее число появления события А в серии опытов. Опыты называются независимыми, если вероятность исхода каждого опыта не зависит от исходов других опытов. Если опыты производятся в одинаковых условиях, то вероятность события А во всех опытах одинакова. Если условия различны, то вероятность меняется от опыта к опыту. Частная теорема о повторении опытов формулируется следующим образом. Если вероятность p наступления события А в каждом из n независимых опытов постоянна, то вероятность того, что в n опытах событие А наступит m раз определяется формулой Бернулли: где - число сочетаний из n элементов по m, q=1-p. Это формула выражает биномиальное распределение вероятностей, так как все вероятности Р являются членами разложения бинома Определение вероятностей по формуле Бернулли усложняется при больших значениях n и при малых p или q. В этом случае удобнее использовать приближенные асимптотические формулы. Если этом случае , а , но , то в Эта формула определяется теоремой Пуассона. Если в схеме Бернулли количество опытов n достаточно велико , а вероятность р события А в каждом опыте постоянно, то вероятность приближенной формуле Муавра-Лапласа: может , определяться по где ; - локальная функция Лапласа, которая табулирована и приводится в справочниках. Данная формула отражает, так называемую, локальную теорему Муавра-Лапласа. , Вероятность появления события А не менее m раз при n опытах вычисляется по формуле: Вероятность появления события А хотя бы один раз при n опытах Наивероятнейшее число наступление события А в n опытах, в каждом из которых оно может наступить с вероятностью p (и не наступить с вероятностью q=1-p), определяется из двойного неравенства Если событие А в каждом опыте может наступить с вероятностью p, то количество n опытов, которое необходимо произвести для того, чтобы с заданной вероятностью Рзад. можно было утверждать, что данное событие А произойдет по крайней мере один раз, находится по формуле: Частная теорема о повторении опытов касается того случая, когда вероятность события А во всех опытах одна и та же. На практике часто приходится встречаться с более сложным случаем, когда опыты производится в неодинаковых условиях, и вероятность события от опыта к опыту меняется. Способ вычисления вероятности заданного числа появлений события в таких условиях даст общая теорема о повторении опытов. Если производятся n независимых опытов в различных условиях, причем вероятность появления события А в i-м опыте равна то вероятность Р того, что событие А в n опытах появится m раз, равна коэффициенту при Z разложении по степеням Z производящей функции в где Задача 1. Вероятность изготовления стандартного изделия равна 0,95. Какова вероятность того, что среди десяти изделий не более одного нестандартного? РЕШЕНИЕ: Пусть событие А состоит в том, что среди десяти изделий нет ни одного нестандартного изделия, а событие В - в том, что среди десяти изделий только одно нестандартное. Тогда искомая вероятность p=P(A+B). События А и В несовместны, поэтому p=P(A)+P(B). Применяя частную теорему о повторении опытов, найдем: Задача 2. При установившемся технологическом процессе 80% всей произведенной продукции оказывается продукцией высшего сорта. Найти наивероятнейшее число изделий высшего сорта в партии из 250 изделий. РЕШЕНИЕ: Подставляя соответствующие числа в неравенство получаем Поскольку может быть только целым числом, то Выводы: 1. Современная аксиоматическая концепция теории противоречит предложенным ранее статистическому, геометрическому определениям вероятности события. вероятностей не классическому и 2. В общем (непрерывном) вероятностном пространстве в отличие от дискретного могут существовать возможные события, обладающие нулевой вероятностью появления. Соответственно противоположные к ним события (их дополнения) хотя и не могут быть названы достоверными, но имеют вероятность осуществления, равную единице. 3. Основные правила вычисления вероятности составных событий задаются теоремами сложения, умножения, Байесса и формулой полной вероятности. 4. Частная и общая теоремы о повторении опытов позволяют определить вероятность того, что в n опытах событие наступит m раз для случая независимых и зависимых опытов, соответственно. 4. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Случайной величиной называется величина Х, которая в результате опыта может принимать то или иное значение (но только одно), причем, до опыта, не известно, какое именно. Случайные величины могут быть дискретными или непрерывными. Дискретная случайная величина может принимать конечное или бесконечное счетное множество различных значений. Пример дискретной случайной величины: Х – число появлений герба при четырех бросаниях монеты (возможные значения 0, 1, 2, 3, 4). Множество значений непрерывной случайной величины занимает какой-то участок числовой оси, границы которого могут быть как зафиксированными, так и неопределенными. Пример непрерывной случайной величины: У – время ожидания автобуса на остановке. Случайная величина считается полностью заданной, если задан ее закон распределения, который может иметь разные формы. Законом распределения дискретной случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Законами распределения дискретной случайной величины являются: 1) ряд распределения; 2) многоугольник распределения; 3) функция распределения. Законами распределения непрерывной случайной величины являются: 1) функции распределения; 2) плотность распределения случайной величины. Дискретная случайная величина Рядом распределения случайной величины Х называется таблица, в которой перечислены возможные значения х1, х2, …, хn случайной величины Х и соответствующие им вероятности р1, р2, …, рn, где рі=Р(Х=хі), а . хі х1 х2 … хn рі р1 р2 … Рn Графическое изображение распределения. ряда распределения называется многоугольником Функцией распределения случайной величины Х называется функция F(x), равна вероятности Р(Х<х) того, что случайная величина Х будет меньше произвольно выбранного значения х. Функция распределена F(x) для дискретной случайной величины Х вычисляется по формуле , где суммирование ведется по всем значениям і, для которых . ПРИМЕР. Проводится три независимых опыта (например, бросание монеты), в каждом из которых событие А появляется с вероятностью р=0,5. Пусть случайная величина Х – это чисто появлений события А в трех опытах. Определить законы распределения случайной величины Х. РЕШЕНИЕ. Случайная величина Х может принимать следующие значения: х1=0; х2=1; х3=2; х4=3. Вероятность Р(Х=хі)=рі определяются по формуле Бернулли (частная теорема повторения опытов): ; ; ; Таким образом, ряд распределения случайной величины Х имеет вид: хі 0 1 2 3 рі 1/8 3/8 3/8 1/8 Очевидно, что . Многоугольник распределения показан ниже на рисунке 1. Рис. 4.1. Многоугольник распределения Построим функцию распределения случайной величины Х: при х 0, ; при 0<х 1, при 1<х 2, при 2<х 3, ; ; ; при x>3, ; График функции распределения представлен ниже. Рис. 4.2. Функции распределения Функции распределения как для дискретных, так и для непрерывных случайных величин, имеет следующие свойства, которые наглядно следуют из следующей ее геометрической интерпретации. Так как , то ее можно интерпретировать как вероятность того, что случайная точка Х попадет левее заданной точки Х. Из этой геометрической интерпретации получаем свойства: 1. F(x) – неубывающая функция своего аргумента, т.е. если x2>x1, то F(x2) 2. F =0. 3. F + =1. 4. 0 F(x) F(x1). 1. 5. Вероятность появления случайной величины в интервале [ , ), полузамкнутом слева, равна приращению функции распределения на этом интервале: . 6. Величина скачка функции распределения в точке разрыва равна вероятности появления случайной величины в этой точке. Для непрерывной случайно величины функция F х везде непрерывна, а следовательно, величина скачка в любой точке и вероятность каждого отдельного значения случайной величины Х равны нулю. С первого взгляда этот вывод может показаться парадоксальным. Но теорема сложения для несчетного количества событий несправедлива. Поэтому вероятность попадания случайной величины на участок от до равна сумме вероятностей попадания на элементарные участки, образующие его, как бы малы этим участки ни были, но не равны сумме вероятностей попадания в отдельные точки. Аналогия: фигура состоит из точек с нулевой площадью, но ее площадь не равна сумме их площадей. Для непрерывных случайных величин наиболее часто используется такой закон распределения, как плотность распределения. Плотность распределения случайной величины Плотностью распределения (или плотностью вероятности, иногда просто плотностью) случайной величины Х в точке х называется производная ее функции распределения в этой точке. Будем обозначать ее f(x). Тогда . Очевидно также, что функции распределения выражается через плотность распределения следующим образом: . Поэтому функцию распределения называют интегральным законом распределения, а плотность распределения – дифференциальным законом распределения. График плотности f(x) называют кривой распределения. Из свойств функции распределения распределения случайной величины: вытекают основные свойства плотности 1. Плотность распределения неотрицательна: f(x) 2. 0. . 3. Вероятность того, что непрерывная случайная величина примет какое-нибудь значение их промежутка , ), равна . Законы распределения являются исчерпывающими характеристиками случайных величин. Однако в практике не всегда требуется такое полное описание случайной величины; зачастую достаточно бывает указать лишь отдельные числовые параметры случайной величины (числовые характеристики), среди которых наибольшую роль играют такие числовые характеристики, как математическое ожидания и дисперсия случайной величины. Числовые характеристики случайной величины 1. Математическим ожиданием случайной величины Х называется ее среднее значение, вычисляемое по формуле: - для дискретной случайной величины; - для непрерывной случайной величины. ПРИМЕР. Дискретная случайная величина Х имеет следующие распределения: хі 1 3 8 рі 0,6 0,3 0,1 Найти математическое ожидание mx. РЕШЕНИЕ. . ПРИМЕР. Непрерывная случайная величина Х имеет плотность распределения вида: . Найти математическое ожидание случайной величины Х. . Математическое ожидание случайной величины связано со средним арифметическим ее наблюденных значений при большом числе опытов. При достаточно большом числе опытов среднее арифметическое наблюденных значений случайной величины приближенно равно ее математическому ожиданию. Кроме математического ожидания характеристиками положения случайной величины являются такие ее характеристики, как мода и медиана. Модой М0 случайной величины называется ее наиболее вероятное значение (то значение х, для которого вероятность Р(Х=х) или плотность распределения f(x) достигают максимума). Если вероятность или плотность распределения достигают максимума не в одной, а в нескольких точках, распределение называется полимодальным; а если в одной точке – то унимодальным. Медианой Ме непрерывной случайной величины Х называется такое ее значение, для которого . Геометрически медиана – это абсцисса той точки на оси х, для которой площади по f(x), лежащие слева и справа от нее, одинаковы и равны ?. Рис. 4.3. Определение моды и медианы случайной величины Дисперсией случайной величины Х называется математическое ожидание от квадрата разности между случайной величиной и ее математическим ожиданием. Дисперсия обозначает D[X] или . Для дискретной случайной величины . Для непрерывной случайной величины . Для вычисления дисперсии удобно использовать также следующую формулу, которая легко получается из первой: ; . Дисперсия случайной величины характеризует рассеивание, разбросанность случайной величины около ее математического ожидания. Само слово “дисперсия” означает “рассеивание”. Дисперсия имеет размеренность квадрата случайной величины, что не всегда удобно. Поэтому из дисперсии извлекают квадратный корень. Полученная величина называется среднеквадратичным отклонением (или “стандартом”, “стандартным отклонением”) случайной величины. . Зная mx и случайной величины Х, можно составить себе приближенное представление о диапазоне ее возможных значений. А именно, значения случайной величины Х только изредка выходят за пределы интервала m±3 . Это правило носит название “правила трех сигма”. ПРИМЕР. Найти распределения: дисперсию хі 0 2 5 рі 0,3 0,5 0,2 случайной величины, имеющей следующий ряд РЕШЕНИЕ. Вначале находим математические ожидания. . Для вычисления дисперсии воспользуемся второй формулой: . Из определения математического ожидания и дисперсии следуют некоторые простейшие и достаточно очевидные свойства этих числовых характеристик. 1. Математическое ожидание неслучайной величины с равно самой величине С: M[C]=C. 2. Дисперсия неслучайной величины С равна нулю: D[C]=0. 3. M[X+C]=M[X]+C. 4. D[X+C]=D[X]. 5. M[cX]=cM[X]. 6. D[cX]=c2D[X], и, следовательно, . Кроме рассмотренных выше числовых характеристик применяют характеристики, называемые начальными и центральными моментами случайной величины Х. Начальным моментом S-го порядка случайной величины Х называется математическое ожидание S-й степени этой величины: . Для дискретной случайной величины начальный момент S-го порядка определяется суммой: , а для непрерывной – интегралом: . Как видно, математическое ожидание – это первый начальный момент случайной величины. Перед тем как дать определение центральных моментов введем понятие “центрированной случайной величины”, как ее отклонения от математического ожидания: , где - центрированная случайная величина. Центральным моментом порядка S случайной величины Х называется математическое ожидание S-й степени центрированной случайной величины: . Для дискретной случайной величины центральный момент выражается суммой: ; для непрерывной – интегралом: . Очевидно, что . . Таким образом, второй центральный момент случайной величины – это ее дисперсия, характеризующий, как уже указывалось, рассеивание случайной величины около ее математического ожидания. Третий центральный момент служит для характеристики асимметрии (“скошенности”) распределения. Если распределение симметрично относительно mx то все центральные моменты нечетного порядка, если они существуют, равны нулю. Разделив третий центральный момент безразмерный коэффициент на куб ее среднеквадратичного отклонения, получают , который называется коэффициентом асимметрии: . Ниже на рисунке изображены три распределения случайных величин; одна из них имеет положительную асимметрию, у второй ( =0, а третья имеет отрицательную асимметрию <0). Рис. 4.4. Коэффициент асимметрии для различных случайных величин Четвертый центральный момент служит для характеристики островершинности (“крутости”) распределения. Он входит в выражение для коэффициента Ех, называемого эксцессом: Для очень островершинных плотностей распределения Ех>0, а для плосковершинных Ех<0. Рис. 4.5. Плотности распределения с различным коэффициентом Ех. Для нормального закона распределения, который будет рассмотрен ниже, Ех=0. 5. РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН, ВАЖНЫЕ ДЛЯ ПРАКТИКИ Биномиальное распределение имеет место в том случае, когда случайная величина Х выражает число появлений некоторого события А при n независимых испытаниях, проводимых в одинаковых условиях. Вероятность появления события А в каждом опыте постоянна и равна р. Возможными значениями биномиально распределенной случайной величины Х являются 0, 1, 2, …, n, а вероятность того, что Х=m, выражается формулой Бернулли: , где q=1-p Математическое ожидание случайной величины Х, распределенной по биномиальному закону, , а дисперсия . Закон Пуассона (закон редких явлений) являющийся предельным для биномиального закона, когда число опытов неограниченно увеличивается ( ) и одновременно параметр р неограниченно уменьшается ( сохраняется в пределе постоянным ( ). ), но так, что их произведение np Возможными значениями случайной величины Х, распределенной по закону Пуассона, являются числа 0, 1, 2, …, а вероятность того, что X=m, выражается формулой Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, равны между собой и равны параметру , т.е. Непрерывная случайная величина Х имеет равномерное распределение на отрезке если ее плотность распределения , Математическое ожидание равномерного распределения находится посредине отрезка его распределения, т.е. . а дисперсия . Вероятность попадания равномерно распределенной случайной величины Х на интервал , вычисляется по формуле: . Непрерывная случайная величина Х имеет показательное (или “экспоненциальное”) распределение, если плотность распределения Функции распределения для показательного закона имеет вид Плотность распределения показательного закона Функция распределения показательного закона Для случайной величины, распределенной по показательному закону, математическое ожидание и среднеквадратическое отклонение равны между собой и равны , т.е. . В некоторых случаях используют коэффициент вариации, среднеквадратичного отклонения к математическому ожиданию: , равный отношению . Для показательного закона распределения коэффициент вариации . Для показательного распределения вероятность того, что случайная величина Х примет значение в интервале , определяется формулой . Замечательным свойством показательного распределения является то, что при наступлении события случайная величина имеет такой же закон распределения, как и величина Х. Это свойство объясняет, почему показательное распределение имеют такие случайные величины, как время обслуживания клиента, длительность телефонного разговора, время безотказной работы прибора и т.д. Непрерывная случайная величина Х называется распределенной по гауссовому закону (закону Гаусса или по нормальному закону), если ее плотность распределения вероятности имеет вид , где и - соответственно математическое ожидание и среднеквадратичное отклонение случайной величины Х. Закон Гаусса играет исключительно важную роль в теорию вероятностей и занимает среди других законов распределения особое положение. Кривая нормального распределения имеет симметричный вид. Гауссов закон распределения Вероятность попадания случайной величины, распределенной по закону Гаусса (нормально распределенной) в интервале вычисляется по формуле где - табулированная функция Лапласа (интеграл вероятностей). Для функции Лапласа в книгах по теории вероятностей приведены таблицы. Функция Лапласа обладает следующими свойствами: 1. Ф(0)=0; 2. Ф(-х)=-Ф(х); 3. Ф(+ )=0,5. (Ф(- )=-0,5). Закон Гаусса широко распространен в случайных явлениях природы. Он возникает в тех случаях, когда складывается много независимых (или слабо зависимых) случайных величин Х1, Х2, … Хn: , причем эти величины сравнимы по порядку своего влияния на рассеивание суммы. Тогда, каковы бы ни были законы распределения отдельных величин Х1, Х2, … Хn, закон распределения их суммы Х будет близок к закону Гаусса (причем тем ближе, чем больше число слагаемых n). ПРИМЕР. Случайная величина распределена по закону Гаусса и имеет параметры и . Найти вероятность того, что случайная величина Х отклонится от своего математического ожидания на величину больше, чем 3 . РЕШЕНИЕ. По таблицам функции Лапласа находим . Тогда . Это – действительно малая вероятность. Заметим, что само “правило трех сигма” ведет свое начало именно от нормального распределения. Для нормального закона это правило выполняется с очень высокой точностью; применяя его, мы будем ошибаться приблизительно в трех случаях из 1000. 6. СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН Совокупность n случайных величин (Х1, Х2, … Хn), рассматриваемых совместно, называется системой n случайных величин или n-мерной случайной величиной. В частном случае при n=2 имеем систему случайных величин (X, Y), которая геометрически интерпретируется как случайная точка с координатами (x, y) на плоскости x0y (рис. 6.1.) или как случайный вектор, направленный из начала координат в точку (x, y). Рис. 6.1 Законами распределения системы двух дискретных случайных величин с конечным числом возможных значений являются таблица распределения и функция распределения, а для системы непрерывных случайных величин – функция распределения и плотность распределения. В таблице распределения указываются вероятности того, что случайная величина Х примет значение и одновременно с этим случайная величина Y примет значение (рис.6.2). … … … , , … … … … … … Рис. 6.2. Все возможные события событий, поэтому , образуют полную группу , . При этом . Наиболее общей формой закона распределения системы случайных величин является функция распределения. Функцией распределения системы n случайных величин (Х1, Х2, … Хn) называется вероятность совместного выполнения n неравенств , : . Для системы двух случайных величин (X, Y) функция распределения вероятностью выполнения двух неравенств: является . Геометрически функция распределения интепретируется как вероятность попадания случайной точки (X, Y) в левую нижнюю часть квадрата плоскости с вершиной в точке (рис. 6.3). Рис. 6.3 Основные свойства функции распределения для системы случайных величин очевидны из данной геометрической интепретации: 1. 2. 3. 4. 5. Функция распределения является неубывающей функцией по каждому аргументу: , если , если 6. Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям (рис. 6.4) вычисляется по формуле . Рис. 6.4 При изучении непрерывных систем случайных величин (каждая случайная величина, входящая в систему, непрерывна) чаще всего используют плотность распределения. Если функция распределения плотность вероятности дифференцируема по каждой переменной, то Аналогично для системы двух случайных величин (X, Y) ,а Поверхность, изображающая функцию . , называется поверхностью распределения. Плотность вероятности системы двух случайных величин имеет следующие свойства, которые легко обобщаются на систему случайных величин большей размерности: 1. . 2. . 3. Плотности распределения отдельных величин, входящих в систему (X, Y), выражаются через плотность вероятности системы формулами: ; . 4. Условные плотности вероятности выражаются через безусловные по формуле: при . при 5. Вероятность попадания случайной точки в область D плоскости x0y определяется по формуле . Случайные величины Х и Y называются независимыми, если условный закон распределения одной из них не зависит от того, какое значение примет другая: и . Для независимых случайных величин . Основными числовыми характеристиками системы двух случайных величин (Х, Y) являются следующие. 1. Математические ожидания и . Для системы дискретных случайных величин . . Для системы непрерывных случайных величин . . 2. Дисперсии и . Для системы дискретных случайных величин . . Для системы непрерывных случайных величин . . 3. Корреляционный момент , характеризующий линейную связь между случайными величинами Х и Y, а также их разброс вокруг точки Для системы дискретных случайных величин корреляционный момент равен: Для системы непрерывных случайных величин Для независимых случайных величин корреляционный момент равен нулю. Однако случайные величины могут быть зависимыми, но некоррелированными Корреляционный момент удобно вычислять по формуле . Размерность корреляционного момента равна произведению размерностей случайных величин X и Y. Чтобы получить безразмерную величину к тому же характеризующую только степень линейной зависимости между случайными величинами X и Y, а не их разброс относительно точки , вводят коэффициент корреляции: . Еще раз подчеркнем, что коэффициент корреляции характеризует степень линейной зависимости между случайными величинами. Если линейной зависимости нет, то . Если между случайными величинами существует жесткая функциональная зависимость: то коэффициент корреляции , где знак плюс берется в случае, когда а>0, а знак минус, когда а<0. В случае, когда , говорят, что X и Y связаны положительной корреляцией, а когда - отрицательной корреляцией. При возрастании одной случайной величины в случае положительной корреляции другая проявляет тенденцию также возрастать, а при отрицательной корреляции - убывать. Как уже отмечалось, из независимости случайных некоррелированность, но их некоррелированности ( величин следует их ) еще не вытекает из независимость. Если , это означает только отсутствие линейной связи между случайными величинами; любой другой вид связи может при этом присутствовать. Для системы n случайных величин (Х1, Х2, … Хn) корреляционный момент записывается следующим образом: , если случайные величины непрерывны, а для дискретных случайных величин интегрирование заменяется суммированием по всем возможным значениям случайных величин. Свойства корреляционного момента следующие: , т.е. при перемене индексов местами корреляционный момент не 1. меняется. , если случайные величины X и Y независимы. 2. 3. . 4. Если , то . 5. Корреляционной матрицей системы n случайных величин (Х1, Х2, … Хn) называется матрица, составленная из корреляционных моментов всех этих величин взятых попарно: , где . Так как , то элементы корреляционной матрицы, расположенные симметрично главной диагонали, равны. Поэтому обычно заполняется только половина корреляционной матрицы: . По главной диагонали корреляционной матрицы стоят дисперсии случайных величин системы: ; ; …; . Нормированной корреляционной матрицей системы n случайных величин называется матрица, составленная из коэффициентов корреляции всех этих величин, взятых попарно: , где - коэффициент корреляции между случайными величинами и . В заключение отметим, что для случайных величин распределенных по закону Гаусса термины “независимость” и “некоррелированность” эквиваленты, т.е. если две нормально распределенные случайные величины Х и Y некоррелированны, то они и независимы. ПРИМЕР. Два стрелка, независимо друг от друга, делают по одному одиночному выстрелу каждый по своей мишени. Пусть случайная величина Х – число попаданий первого стрелка, Y – число попаданий второго стрелка. Вероятность попадания для первого стрелка р=0,8, для второго р=0,6. Построить матрицу распределения системы случайных величин (Х, Y). РЕШЕНИЕ. Возможные значения случайных величин Х и Y: ; ; ; . Возможные пары значений системы случайных величин: (0, 0), (0, 1), (1, 0), (1, 1). Соответствующие этим парам вероятность вычисляем пользуясь теоремой умножения для независимых событий. Имеем: . . . . Матрица распределения системы случайных величин имеет вид 0 1 0 0,08 0,12 1 0,32 0,48 . . . Это следует и из условия задачи, в котором сказано, что стрелки стреляют независимо друг от друга. Следовательно, случайные величины Х и Y независимы, а из этого следует их некоррелированность. ПРИМЕР. Дана корреляционная матрица системы случайных величин (Х1, Х2, Х3) вида . Найти нормированную корреляционную матрицу. РЕШЕНИЕ. Т.к. ; , то ; ; ; ; . ; ; ; . . . . 7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНОГО АРГУМЕНТА Во многих случаях необходимо рассматривать две случайные величины Х и Y, причем каждому значению случайной величины Х ставится в соответствие определенное значение случайной величины Y. В этом случае говорят, что Y является функцией от Х: Примеры случайных функций: ; ; . Возникает задача: зная закон распределения случайной величины Х, а в некоторых случаях только ее отдельные числовые характеристики, найти числовые характеристики случайной величины Y. Если известен закон распределения случайной величины Х, то характеристики случайной величины определяются по формулам: - для дискретной случайной величины Х; - для непрерывной случайной величины. - для дискретной случайной величины; - для непрерывной случайной величины. Аналогично определяются начальные и центральные моменты любых порядков случайной величины Y: , - для дискретной случайной величины, а для непрерывной , . Итак, для нахождения числовых характеристик функции случайных величин вовсе не нужно знать ее закон распределения, а достаточно знать закон распределения аргумента. Числовые характеристики функции нескольких случайных аргументов , если известна совместная плотность распределения системы аргументов определяются аналогичными формулами. Например, для непрерывной системы аргументов математическое ожидание и дисперсия функции равны: , . Во многих задачах финансово-экономической практики числовые характеристики случайной величины могут быть определены как некоторые функции числовых характеристик системы случайных величин . В этом случае не требуется знать закон распределения системы аргументов, а достаточно знать лишь числовые характеристики этой системы. Приведем ряд теорем о числовых характеристиках функций случайных величин, которые могут быть использованы в практике (некоторые из них уже были приведены ранее). 1. 2. . . 3. . 4. . 5. 6. . . 7. . 8. . 9. . Как видно из теоремы 9 дисперсия суммы случайных величин равна сумме всех элементов корреляционной матрицы 10. Если случайные величины этих случайных величин. некоррелированы, то Теорема сложения дисперсий справедлива и для случая, когда случайные величины независимы, так как из независимости случайных величин следует их некоррелированность. 11. 12. . . Эту теорему часто используют для вычисления корреляционного момента: . 13. Если случайные величины некоррелированы, то . 14. Последняя теорема обобщается и на произвольное число независимых сомножителей: . 15. Дисперсия произведения независимых случайных величин формулой выражается . И, наконец, приведем основные теоремы для корреляционного момента: 16. . 17. . 18. При сложении некоррелированных случайных векторов их корреляционные моменты складываются, т.е. если , , , то . 19. Для любых случайных величин Х и У . 8. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Опыт учит, что при очень большом числе случайных явлений средний их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности. Это положение, по существу, представляет собой физическое содержание закона больших чисел. В узком смысле слова под "законом больших чисел" понимается ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа опытов к определенным постоянным, неслучайным величинам. Доказательство этих теорем опираются на неравенство Чебышева, которое является для них леммой. Неравенство Чебышева. математическое ожидание Для любой и дисперсию случайной величины Х, имеющей , справедливо неравенство: ; где 0 - любое положительное число. Данное неравенство ограничивает сверху вероятности больших отклонений случайной величины от ее математического ожидания. Вторая форма неравенства Чебышева имеет вид: . Как следствие, из неравенства Чебышева можно получить неравенство Маркова: если, среди значений случайной величины Х нет отрицательных, то , где . ПРИМЕР. Вероятность некоторого события А в каждом из 1000 опытов равна 0,4. Используя неравенство Чебышева, оценить вероятность того, что отклонение числа наступлений события А от математического ожидания будет не более 40. РЕШЕНИЕ. Случайная величина Х - число свершения события А в n=1000 опытах, подчинена биномиальному закону распределения. Поэтому , а . Неравенство Чебышева дает следующую оценку: . ПРИМЕР. Математическое ожидание количества осадков в течение года в данной местности составляет 100 см. Определить вероятность того, что в следующем году в этой местности осадков выпадет не менее 200 см. РЕШЕНИЕ. Используя неравенство Маркова, получаем . Используя неравенство Чебышева, оценим сверху вероятность того, что случайная величина Х с любым законом распределения отклонится от своего математического ожидания не больше, чем на : . В действительности, для большинства случайных величин, встречающихся на практике, эта вероятность существенно больше, т.е. неравенство Чебышева дает нам оценку в первом, грубом приближении. Перейдем к рассмотрению различных форм закона больших чисел. Во всех этих формах утверждается устойчивость средних: при неограниченном увеличении числа опытов n их средний результат приближается (сходится по вероятности) к некоторому постоянному, неслучайному числу. Теорема Чебышева (устанавливает свойство устойчивости среднеарифметического). При неограниченном увеличении числа независимых опытов среднеарифметическое наблюденных значений случайной величины, имеющей ограниченную дисперсию математическому ожиданию: , сходится по вероятности к ее , где - сколь угодно малое положительное число. При доказательстве теоремы Чебышева получаем такую оценку . Данная теорема относится и к случаю, когда все случайные величины независимы и имеют одно и то же распределение, а значит одно и то же и ту же дисперсию и одну . Теорема Чебышева распространяется и на более сложный случай, когда закон распределения случайной величины Х от опыта к опыту изменяется. В этом случае имеет место обобщенная теорема Чебышева. Если …последовательность независимых случайных величин с математическими ожиданиями , … и дисперсиями одной и той же постоянной положительного числа , , , …, ограниченными , то для любого сколь угодно малого . При доказательстве этого предельного равенства получаем следующую оценку: . Частным случаем теоремы Чебышева являются теоремы Бернулли и Пуассона. Теорема Бернулли (устанавливает связь между частотой события и его вероятностью). При неограниченном увеличении числа независимых опытов частота некоторого события А сходится по вероятности к его вероятности : . где - сколь угодно малое положительное число. При доказательстве теоремы Бернулли получаем оценку , которая применяется на практике. ПРИМЕР. Сколько следует проверить приборов, чтобы с вероятностью, не меньшей 0,9, можно было утверждать, что абсолютная величина отклонения частоты годных приборов от вероятности прибора быть исправным, равной 0,8, не превысит 0,01? РЕШЕНИЕ. В соответствии с оценкой из теоремы Бернулли имеем . Решая это неравенство относительно n, получаем , т.е. наименьшее число приборов, которые следует проверить, равно 16000. Теорема Пуассона (устанавливает устойчивость частоты при переменных условиях опыта). Если производится n независимых опытов и вероятность появления события А в k–м опыте равна , то при увеличении n частота события А сходится по вероятности к среднеарифметическому вероятностей : где - сколь угодно малое положительное число. Одно из важнейших положений теории вероятностей – так называемая центральная предельная теорема. Как и закон больших чисел, она имеет ряд форм. Эти теоремы определяют условия возникновения нормального закона распределения (закона Гаусса). Такие условия часто встречаются на практике, что и объясняет широкую распространенность нормального закона в случайных явлениях природы. Различные формы центральной предельной теоремы различаются между собой условиями, накладываемые на распределения образующих сумму случайных слагаемых . Центральная предельная теорема для одинаково распределенных слагаемых Если независимые случайные величины, имеющие один и тот же закон распределения с математическим ожиданием и дисперсией неограниченном увеличении n закон распределения суммы , то при неограниченно приближается к нормальному. И тогда вероятность того, что случайная величина Y попадет в промежуток выражается формулой , , где - функция Лапласа; ; . Более общей является следующая теорема Ляпунова. Пусть ожиданиями - независимые случайные величины с математическими и дисперсиями , причем в сумме нет слагаемых, влияние которых на рассеивание суммы подавляюще велико по сравнению с влиянием всех остальных, а также нет большого числа слагаемых, влияние которых на рассеивание суммы исчезающе мало по сравнению с суммарным влиянием остальных, то при закон распределения случайной величины Y неограниченно приближается к нормальному. ПРИМЕР. Суммируется 24 независимых случайных величин, каждая из которых подчинена закону равномерной плотности распределения на интервале . Написать приближенное выражение для плотности распределения суммы этих случайных величин. РЕШЕНИЕ. Математическое ожидание суммы . Дисперсия суммы Среднеквадратичное отклонение суммы . В соответствии с центральной предельной теоремой можно считать, что случайная величина подчинена нормальному закону. Следовательно, . 9. ОСНОВНЫЕ ПОНЯТИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ Очень важным с практической точки зрения является опыт в котором каждому элементарному событию пространства соответствует не определенное числовое значение, а определенная числовая функция который чаще всего интерпретируется как время. некоторого неслучайного аргумента t, Совокупность всех функций , получаемых при различных исходах образует случайный процесс испытания, и . Для каждого значения t функция является функцией только и, следовательно, представляет собой случайную величину. Для каждого фиксированного значения аргумента функция зависит только от t и является функцией вещественного аргумента. Каждая такая функция называется реализацией случайного процесса. Одномерной плотностью вероятности случайного процесса вероятности случайной величины называется плотность , являющейся значением случайного процесса при фиксированном значении аргумента . Двумерной плотностью вероятности случайного процесса вероятности называется плотность системы двух случайных величин и , которые являются значениями случайного процесса для различных значений аргументов и . Основные свойства двумерных плотностей вероятности: 1. . 2. . Двумерных плотностей вероятностей достаточно для так называемой корреляционной теории случайных процессов. Однако для получения исчерпывающей характеристики случайного процесса надо увеличивать число аргументов плотности вероятности. Математическим ожиданием случайного процесса называется неслучайная функция . Дисперсией случайного процесса называется неслучайная функция . Корреляционной функцией случайного процесса двух аргументов , которая при называется неслучайная функция каждой паре значений и равна корреляционному моменту соответствующих значений случайного процесса: . Корреляционная функция имеет следующие свойства: 1. При корреляционная функция случайного процесса превращается в дисперсию : 2. Корреляционная функция симметрична относительно своих аргументов 3. . 4. Если к случайному процессу прибавить неслучайную функцию корреляционная функция не изменится. 5. Если умножить случайный процесс на неслучайную функцию корреляционная функция умножится на , то его , то его . Нормированной корреляционной функцией случайного процесса называется функция . Корреляционной функцией связи корреляционный момент случайных величин случайных процессов и и называется , т.е. выражение . Если =0, то случайные процессы называются некоррелированными. Стационарным случайным процессом в широком смысле называется такой случайный процесс , математическое ожидание которого постоянно, а корреляционная функция зависит только от разности аргументов, т.е. б где . Случайный процесс называют стационарным в узком смысле, если все его многомерные плотности вероятности от интервалов , …, изменения аргумента t. при любом n зависят только и не зависят от положения этих интервалов в области Корреляционная функция стационарного процесса обладает следующими свойствами: 1. 2. . . 3. . Случайный процесс называется марковским процессом, если для любого момента времени t0 при фиксированном (каково бы ни было х) случайные величины при не зависят от случайных величин при . Если условиться считать состоянием некоторой физической системы S в момент времени t, то случайный процесс называется марковским, если для каждого момента времени вероятность любого состояния системы в будущем (при ) зависит только от состояния в настоящем (при ) и не зависит от ее поведения до этого момента. Марковские процессы могут быть с дискретными и непрерывными состояниями. При анализе марковских процессов с дискретными состояниями удобно пользоваться так называемым графом состояний. Граф состояний изображает различные состояния системы и возможные переходы из состояния в состояние (рис. 9.1) Рис. 9.1 Марковский случайный процесс с дискретными состояниями называется процессом с дискретным временем, если переходы системы из состояния в состояние возможны только в строго определенные заранее фиксированные моменты времени времени между этими моментами система S сохраняет свое состояние. . В промежутке Марковский случайный процесс c дискретными состояниями называется процессом с непрерывным временем, если переходы системы из состояния в состояние возможны в любые случайные моменты времени t. Марковский процесс с дискретным временем можно рассматривать как функцию целочисленного аргумента: Тогда (номер шага перехода). означает состояние системы через k шагов. Последовательность переходов (событий) …, … называется марковской цепью. Вероятности , определяющие возможные переходы системы S на -м шаге из состояния (независимо от предшествующих обстоятельств) в состояние переходными вероятностями. , называются Если переходные вероятности не зависят от номера шага, марковская цепь называется однородной, в противном случае – неоднородной. Матрица , элементами которой являются вероятности перехода для каждого состояния за один шаг, называется матрицей перехода. Очевидно, что эти переходы образуют полную группу событий, так что для каждой строки имеет место равенство , Следовательно, вероятность равенством . того, что система не выйдет из состояния , определяется . Для описания марковского процесса, протекающего в системе с дискретными состояния и дискретным временем, пользуются вероятностями состояний того, что система через шагов находится в состоянии Вероятности удовлетворяют условию , . Вероятности состояний после -го шага определяются рекуррентной формулой , Для определения вероятностей состояний . после 1-го шага по данной рекуррентной формуле необходимо знать начальные условия, т.е. вероятность состояния системы . Для марковского процесса, протекающего в системе , начального с дискретными состояниями и непрерывным временем, вероятности состояний ( ) в любой момент времени определяются из системы дифференциальных уравнений Колмогорова: , где , обозначают плотность потока событий, переводящих систему из состояния состояние в (для марковского процесса все потоки событий, переводящие систему из состояния в состояние, являются пуассоновскими). При интегрировании системы дифференциальных уравнений Колмогорова должны быть указаны начальные условия, характеризующие состояние системы в начальный момент времени (при ). ПРИМЕР. Случайный процесс задан в виде , где нормальному закону случайная величина с параметрами одномерную плотность распределения вероятности , дисперсию и корреляционную функцию - распределенная по ; , . Найти , математическое ожидание . РЕШЕНИЕ. . . Так как центрированный случайный процесс , то . Значение случайного процесса является нормально случайная величина, поэтому одномерная плотность вероятности имеет распределенная . ПРИМЕР. Акции некоторой компании были выброшены для продажи на рынок в моменты времени , , . Возможные состояние компании: состояние компании немного ухудшилось; - состояние компании устойчивое; - - состояние компании существенно ухудшилось; - компания обанкротилась. Соответствующий граф состояния компании показан на рис. 9.2. Рис. 9.2 Определить вероятность состояния компании после трех продаж акций на рынке. РЕШЕНИЕ. Из графа состояния имеем Аналогично находим , , , , , и , , , , , , , , . Таким образом, матрица переходных вероятностей имеет вид Так как в начальный момент компания находилась в состоянии , то вероятности всех состояний компании для начального момента равны нулю, кроме вероятности начального состояния , которая равна единице, т.е. , . Вероятности состояний компании после первой распродажи акций берутся из первой строки матрицы перехода: , , , . Вероятности состояний компании после второй распродажи акций вычисляем по рекуррентной формуле при : Вновь применяя рекуррентную формулу при компании после третьей распродажи акции: , определяем вероятности состояний Итак, после трех распродаж акций 1. компания находится в устойчивом состоянии с вероятностью 2. состояние компании немного ухудшится (вероятность 3. состояние компании существенно ухудшится (вероятность ; ); ); 4. компания обанкротится с вероятностью МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Математическая статистика - это наука, занимающаяся методами обработки результатов опытов или наблюдений над случайными явлениями. Хотя аппарат математической статистики связан со случайными явлениями, но в отличие от теории вероятностей методы математической статистики позволяют охарактеризовать случайное явление по его ограниченной выборке. Имея статистический материал n измерений какой-либо случайной величины (выборку), необходимо решить следующие основные задачи: 1) представить статистический материал в наиболее удобном виде; 2) оценить неизвестные характеристики исследуемой случайной величины; 3) проверить статистические гипотезы о параметрах или природе анализируемой модели. Таким образом, математическая статистика помогает исследователю лучше разобраться в опытных данных, полученных в результате наблюдений над случайными явлениями: оценить значимы или не значимы наблюдаемые факты; принять или отбросить те или иные гипотезы о природе явления. Вместе с тем методы математической статистики широко применяются для обработки статистических данных, не имеющих вероятностной природы, поэтому они широко применяются во многих областях человеческой деятельности: политике, экономике, финансах, медицине, военном деле и др. 10. Основные понятия математической статистики и статистическое распределение выборки Результат n независимых измерений случайной величины X представляет собой выборку (x1, x2, ... , xn) из теоретически бесконечной генеральной совокупности, распределение признака в которой совпадает с теоретическим распределением ввероятностей величины Х. Последняя называется распределением генеральной совокупности, а его параметры - параметрами генеральной совокупности. В большинстве приложений теоретическая генеральная совокупность есть идеализация действительной совокупности, из которой получена выборка. Если эксперимент охватывает генеральную совокупность объектов, то полученный набор экспериментальных данных назывется генеральной выборкой. Первое, что попадает в руки аналитика - это протокол в котором зарегистрированы: номер опыта i и значение хi, которое приняла в этом опыте случайная величина Х. Такой протокол, представленный в виде таблицы или виде вектора, называют первичной статистической совокупностью. При большом числе опытов n рассмотрение и осмысливание таблиц или векторов первичной статистической совокупности затруднительно, поэтому производят ее упорядочение. Например, размещают результаты опыта в порядке возрастания случайной величины. Таким образом получают упорядоченную статистическую совокупность. Размах выборки есть разность между наибольшим и наименьшим значением хi. По упорядоченной статистической совокупности статистическую функцию распределения: уже можно построить Функция - разрывная ступенчатая функция, равная нулю левее наименьшего наблюденного значения случайной величины Х и единице, правее наибольшего. Теоретически она должна иметь n скачков, где n - число опытов (размер выборки), а величина каждого скачка должна быть равной - частоте наблюдаемого значения случайной величины n. Практически, если одно и то же значение наблюдалось несколько раз, соответствующие скачки сливаются в один, так что общее число скачков равно числу различных наблюденных значений случайной величины. Величина скачка в каждой точке равна , где - число повторений значения в полученной выборке. Рис. 1-ст. Очевидно, что другие n опытов дали бы несколько иной график функции , но общая тенденция сохранилась бы. При неограниченном увеличении n кривая будет приближаться (сходиться по вероятности) к функции распределения cлучайной величины Х. На практике применяются другие, более простые способы построения законов распределения случайной величины по опытным данным. Для того, чтобы составить себе общее представление о законе распределения случайной величины X, незачем фиксировать каждое наблюденное значение и строить статистическую функцию распределения. Этим целям лучше служат группированный статистический ряд и гистограмма. Для построения группированного статистического ряда весь участок оси абсцисс, на котором расположены значения случайной величины X, наблюдавшиеся в опыте, делятся на участки или “разряды”. Длины разрядов необязательно брать равными друг другу: бывают случаи, когда на участках оси абсцисс, где наблюденные значения X располагаются гуще, удобнее брать разряды более мелкими, а там где реже - более крупными (или объединять два или более равных по длине разрядов в один). Границы разрядов удобно брать “круглыми” числами. Группированным статистическим рядом называется таблица, где в верхней строке указаны разряды: от и до, в нижней - соответствующие им частоты: причем Частота события которых случайная величина проведенных опытов: вычисляется как отношение числа попала в -й разряд опытов, в к общему числу . Если значение случайной величины попало в точности на границу между разрядами, то её можно отнести либо к левому разряду, либо к правому (ведь вероятность того, что непрерывная случайная величина примет заранее заданное значение, равна нулю). Можно использовать и “симметричное правило”: если значение случайной величины попало в точности на границу разрядов, то разделить его поровну между соседними разрядами и прибавить по для обоих разрядов. к числам Число разрядов, на которые следует группировать статистические данные, не должно быть слишком большим ( тогда ряд распределения становится слишком невыразительным, и частоты в нем обнаруживают незакономерные колебания); с другой стороны оно не должно быть слишком малым (при этом свойства распределения описываются слишком грубо). Практика показывает, что в большинстве случаев рационально выбирать число разрядов порядка . Группированный статистический ряд часто оформляется графически в виде так называемой гистограммы - статистического аналога кривой распределения. Гистограмма строится следующим образом. По оси абсцисс откладываются разряды и на каждом разряде как его основание строится прямоугольник, площадь которого равна частоте данного разряда (высота прямоугольника равна частоте данного разряда , разделенной на его длину ). Из способа построения гистограммы следует, что полная площадь ее равна единице. Очевидно, что при увеличении числа опытов можно выбирать все более и более мелкие разряды, при этом гистограмма будет все более приближаться к некоторой кривой ограничивающей площадь, равную единице. Эта кривая представляет собой график статистической плотности распределения величины Х. Имея в своем распоряжении группированный статистический ряд, можно приближенно величины Х. построить и статистическую функцию распределения В качестве тех значений х, для которых вычисляется границы разрядов. Тогда, очевидно: , естественно, взять Соединяя полученные точки плавной кривой, получим приближенный график статистической функции распределения. Пример. Измерено n=100 сопротивлений определенного вида. В таблице приведены номер опыта i и соответствующие значения сопротивления (в омах). i xi i xi i xi i xi i xi 1 87 21 82 41 88 61 108 81 84 2 85 22 111 42 90 62 95 82 105 3 91 23 115 43 101 63 99 83 110 4 102 24 99 44 95 64 92 84 102 5 80 25 96 45 93 65 100 85 104 6 75 26 101 46 32 66 118 86 107 7 94 27 115 47 88 67 103 87 120 8 102 28 100 48 94 68 102 88 108 9 99 29 97 49 98 69 89 89 107 10 101 30 91 50 99 70 90 90 98 11 100 31 87 51 102 71 94 91 96 12 120 32 116 52 101 72 106 92 106 13 122 33 121 53 122 73 112 93 110 14 101 34 101 54 99 74 122 94 115 15 88 35 123 55 97 75 100 95 95 16 80 36 97 56 95 76 92 96 109 17 97 37 95 57 105 77 83 97 111 18 92 38 88 58 112 78 82 98 103 19 91 39 104 59 116 79 111 99 88 20 94 40 111 60 118 80 102 100 108 Имея первичную статистическую совокупность, получить упорядоченную статистическую совокупность; построить группированный статистический ряд с шестью равномерными разрядами; гистограмму и статистическую функцию распределения. Решение: Упорядоченная статистическая совокупность имеет вид: i xi i xi i xi i xi i xi 1 75 21 92 41 97 61 102 81 111 2 80 22 92 42 98 62 102 82 111 3 80 23 92 43 98 63 102 83 111 4 82 24 92 44 99 64 102 84 111 5 82 25 93 45 99 65 103 85 112 6 84 26 93 46 99 66 103 86 112 7 85 27 94 47 99 67 104 87 115 8 87 28 94 48 99 68 104 88 115 9 87 29 94 49 100 69 105 89 115 10 88 30 95 50 100 70 105 90 116 11 88 31 95 51 100 71 106 91 116 12 88 32 95 52 100 72 106 92 118 13 88 33 95 53 101 73 107 93 118 14 88 34 95 54 101 74 107 94 120 15 89 35 95 55 101 75 108 95 120 16 90 36 96 56 101 76 108 96 121 17 90 37 96 57 101 77 108 97 122 18 91 38 97 58 101 78 109 98 122 19 91 39 97 59 102 79 110 99 122 20 91 40 97 60 102 80 110 100 123 Если в таблице первичной статистической совокупности одно и то же значение встречается несколько раз, то и в таблице упорядоченной статистической совокупности его надо писать столько же раз. Для группированного статистического ряда выберем “круглые” границы разрядов: (70-80); (80-90); (90-100); (100-110); (110-120); (120-130). Подсчитывая количество значений случайной величины, попавших в каждый разряд (считая половинки от попавших в границу между разрядами) и деля это значение на число опытов n=100, получим группированный статистический ряд: Разряды 70:80 80:90 90:100 Частоты 0,02 0,14 0,34 Разряды 100:110 110:120 120:130 Частоты 0,29 0,15 0,06 Откладывая по оси абсцисс разряды и строя на каждом разряде как на основании прямоугольник с площадью , получим гистограмму (рис. 2). Рис. 2-ст. Пользуясь группированным статистическим рядом, находим: F*(70) = 0; F*(80) = 0,02; F*(90) = 0,02 + 0,14 = 0,16; F*(100) = 0,02 + 0,14 + 0,34 = 0,5; F*(110) = 0,5 + 0,29 = 0,79; F*(120) = 0,79 + 0,15 = 0,94; F*(130) = 0,94 + 0,06 = 1. График статистической функции распределения показан на рис. 3. Рис. 3-ст. Для нахождения законов распределения случайной величины по результатам опытов нужно располагать достаточно обширным статистическим материалом, порядка нескольких сотен опытов (наблюдений). Однако на практике нередко приходится иметь дело со статистическим материалом весьма ограниченного объема - с двумя-тремя десятками наблюдений, часто даже меньше. Такого ограниченного материала недостаточно, чтобы найти заранее неизвестный закон распределения случайной величины, но все же он может быть использован для оценок важнейших числовых характеристик случайной величины: математического ожидания, дисперсии, иногда - высших моментов. На практике нередко бывает что вид закона распределения заранее известен, а требуется найти только параметры, от которых он зависит (например m и для Гауссового закона). Наконец в некоторых задачах закон распределения случайной величины вообще несущественен, а требуется знать только ее числовые характеристики. Выводы 1. Математическая статистика - это наука, занимающаяся методами обработки результатов опытов или наблюдений над случайными явлениями. Вместе с тем математический аппарат математической статистики используется для различных задач прикладной статистики, в которых необязательны допущения о вероятностной природе обрабатываемых данных. 2. Математическая статистика решает три основные задачи: - представление статистического материала в наиболее удобном для анализа виде; - оценка неизвестных характеристик исследуемой случайной величины по ее ограниченной выборке; - проверка статистических гипотез о параметрах и законах распределения случайных величин. 3. Основными понятиями математической статистики являются: выборка, первичная статистическая совокупность, упорядоченная статистическая совокупность, группированный статистический ряд, гистограмма, а также статистические характеристики результатов опыта - аналоги характеристик случайной величины, определенные в теории вероятностей. 11. Статистические оценки параметров распределения Численные значения ( ....) характеристик ( ....) случайных величин, получаемых в результате обработки результатов эксперимента (опыта), называются оценками указанных характеристик. Так как результат эксперимента случаен, то и любая оценка является случайной величиной. Чтобы случайная оценка наилучшим образом оценивала исходную характеристику случайной величины, она должна быть несмещенной, состоятельной и эффективной. Несмещенной называется такая оценка равно оцениваемой характеристике : , математическое ожидание которой . Состоятельной называется такая оценка , которая при увеличении числа опытов (объема выборки) n приближаеться (сходится по вероятности) к исходному значению : . Эффективной называется такая несмещенная оценка сравнению с другими минимальной дисперсией: , которая обладает по . На практике не всегда удается удовлетворить всем этим требованиям. Например, иногда формулы для вычисления эффективной оценки очень сложны, и приходится удовлетворяться другой оценкой, дисперсия которой несколько больше. Естественной оценкой для математического ожидания случайной величины Х является среднее арифметическое элементов выборки (статистическое среднее): где - новое начало отсчета, вводимое для удобства расчетов. Можно показать, что эта оценка является несмещенной, состоятельной, а для гауссового закона распределения и эффективной. В случае неравноточных измерений оценкой математического ожидания случайной величины служит средневзвешенное результатов n опытов: , где - числа, обратнопропорциональные отклонений -го опыта (gi = квадратам среднеквадратичных , i= 1, 2,....., n) Несмещенная оценка дисперсии при неизвестном математическом ожидании: . Иногда удобно использовать выражение для оценки дисперсии следующего вида: При большом значении n поправочный множитель единице и его применение теряет смысл. становится близким к Несмещенная, состоятельная оценка корреляционного момента случайных величин имеет вид: Корреляционный момент можно вычислить и по равносильной формуле: Оценка коэффициент корреляции: При известных математических ожиданиях корреляционного момента являются: оценками дисперсии и Пример. Произведено 10 фиксаций курса валюты Х и валюты У. Результаты (в условных единицах) сведены в таблицу: i xi 1.8 1.85 1.85 1.7 1.72 1.77 1.8 1.83 1.89 1.89 yi 1.5 1.5 1.45 1.5 1.6 1.6 1.55 1.5 1.55 1.55 Найти оценки для числовых характеристик системы случайных величин (Х,У). Решение: Мы видим, что между курсами валют Х и У существует корреляционная связь (причем отрицательная: при увеличении курса одной валюты уменьшает и курс другой). Часто на практике возникает задача не только определения оценок числовых характеристик случайных величин по их ограниченной выборке но и ориентировочная оценка их точности и надежности. Нас интересует, с какой вероятностью можно утверждать, что допущенная при оценке ошибка не превзойдет некоторой величины ? Обозначим эту вероятность Вероятность называется доверительной вероятностью; границы - доверительными границами; интервал - доверительным интервалом. Вероятность характеризует надежность оценки, а величина - ее точность. Может быть поставлена и другая задача, а именно: каков должен быть доверительный интервал, для того, чтобы с заданной вероятностью можно было утверждать, что истинное значение искомой характеристики не выйдет за пределы этого интервала? Чтобы оценить точность и надежность оценки, нужно знать ее закон распределения. Согласно центральной предельной теоремы теории вероятностей, он во многих случаях оказывается близким к гауссовому. Допуская, что оценка математического ожидания гауссовым распределением и с есть случайная величина с параметрами приближенно вероятность того, что оценка математического ожидания меньше, чем на : находим отклоняются от своего где Ф(х) - функция Лапласа. Пример. При обработке результатов n=20 независимых опытов получены оценки Найти вероятность того, что , полагая мы не совершим ошибки, большей, чем Решение: Находим Тогда Итак, вероятность того, что ошибка от замены на не превзойдет 0,3, не настолько велика, чтобы считать это событие практически достоверным. Если задана доверительная вероятность то из уравнения (на практике ее берут от 0,8 до 0,999), находим где значение t удовлетворяет равенству Пример. Произведено 16 измерений случайной величины Х. Вычисленные по результатам измерений оценки характеристик случайной величины Х следующие: Определить доверительный надежностью 0,9. интервал для математического ожидания Решение: Из таблицы функции Лапласа, определяем, что если с , то Тогда Таким образом, интервал накрывает точку с вероятностью 0,9. Для дисперсии гауссовой случайной величины Х приближенное значение быть вычислено по формуле: может а для корреляционного момента: Приведенные формулы для определения доверительного интервала дают хорошие результаты для оценки математического ожидания при а для дисперсии и корреляционного момента - при n>20...30. При меньшем числе опытов результаты получаются приближенными. В заключение приведем оценку вероятности события. Пусть произведено n независимых опытов, в которых событие А появилось m раз. Требуется оценить вероятность этого события p. Несмещенной и состоятельной оценкой вероятности события является его частота Вероятность того, что ошибка оценки вероятности события не превысит где В большинстве практических задач вероятность p заранее неизвестна, поэтому ее заменяют приближенным значением . Тогда получаем приближенную формулу для определения доверительной вероятности: Необходимое число опытов для получения оценки вероятности события с доверительной вероятностью формулы: где и доверительным интервалом определяется из определяется исходя из равенства частота событий в первой серии опытов; Здесь, как видим, вместо используется Это обусловлено тем, что вопрос о необходимом числе опытов поставлен до их проведения. Пример. При 600 бросаниях монеты герб выпал 312 раз. Найти вероятность того, что ошибка от замены вероятности частотой не превысит Решение: Оценка вероятности Тогда Искомая вероятность Итак, с довольно высокой вероятностью 0,986 можно утверждать, что при n=600 бросаниях монеты ошибка от замены вероятности частотой не превысит 0,05. Выводы 1. Одна из центральных задач математической статистики заключается в вычислении на основе имеющихся статистических данных (ограниченной выборки) как можно более точных приближенных значений (статистических оценок) одной или нескольких числовых характеристик исследуемой случайной величины. Принципиальная возможность получения работоспособных приближений такого рода на основании статистического обследования лишь части анализируемой генеральной совокупности (т.е. на основании ограниченного ряда наблюдений, или выборки) обеспечивается замечательным свойством статистической устойчивости оценок числовых характеристик. 2. Свойство состоятельности оценки обеспечивает ее статистическую устойчивость, т.е. сходимость (по вероятности) к истинному значению оцениваемого параметра по мере роста объема выборки, на основании которой эта оценка строится. Свойство несмещенности оценки заключается в том, что результат усреднения всевозможных значений этой оценки, полученных по различным выборкам заданного объема, даст в точности истинное значение оцениваемого параметра. 3. С учетом случайной природы каждого конкретного оценочного значения числовой характеристики случайной величины представляет интерес определения доверительных интервалов, которые с наперед заданной (и близкой к единице) вероятностью накрывали бы истинное значение оцениваемого параметра. Обработка результатов наблюдений по методу наименьших квадратов Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с тем, что число опытов ограничено. Только при очень большом числе опытов эти случайности сглаживаются, и явление обнаруживает в полной мере присущие ему закономерности. Случаен ступенчатый вид статистической функции распределения непрерывной случайной величины; случайна форма гистограммы, ограниченной тоже ступенчатой линией. Поэтому на практике часто приходится решать вопрос о том, как подобрать для данного статистического распределения аналитическую формулу, выражающую лишь существенные черты статистического материала. Такая задача называется задачей выравнивания статистических распределений. Обычно выравниванию подвергаются гистограммы. Задача сводится к тому, чтобы заменить гистограмму плавной кривой, имеющей достаточно простое аналитическое выражение, и в дальнейшем пользоваться ею в качестве плотности распределения (рис.4). Рис. 4-ст. Для нахождения оценок параметров функциональной зависимости применяется метод наименьших квадратов. При этом метод наименьших квадратов не решает вопроса вида аналитической функции, а дает возможность при заданном типе аналитической функции y=f(x) подобрать наиболее вероятные значения для параметров этой функции. Например, если несколько полученных в опыте точек на плоскости, ход расположены приблизительно прямой (рис.5), Рис. 5-ст. то естественно возникает идея заменить эту зависимость линейной функцией y=kx+a, для которой требуется определить лишь параметры а и k. Если зависимость явно нелинейная (рис.6), в качестве аппроксимирующей кривой выбирают многочлен (в частном случае, параболу). Рис. 6-ст. При этом необходимо иметь в виду, что если производится выравнивание гистограмм, то соответствующая функция должна обладать основными свойствами плотности: Сущность метода наименьших квадратов заключается в следующем. Пусть зависимость у от х выражается формулой где - подлежащие определению параметры. В результате n независимых опытов были получены следующие данные, оформленные в виде статистической таблицы: Номер опыта 1 2 ... k ... n xi x1 x2 ... xk ... xn yi y1 y2 ... yk ... yn Согласно методу наименьших квадратов, наивероятнейшие значения параметров дают минимум функции Если имеет непрерывные частные производные по всем неизвестным параметрам то необходимое условие минимума функции S представляет систему уравнений с m+1 неизвестными: Если в качестве аппроксимирующей функции взят многочлен, т.е. то оценка его коэффициентов линейных уравнений: определяются из системы m+1 Если значения хi известны без ошибок, а значения yi независимы и равноточны, то оценка дисперсии величины yi определяется формулой где - значение, вычисленное в предположении, что коэффициенты поли....... заменены их полученными оценками. При гауссовом законе распределения величин yi изложенный метод дает минимальную ошибку. Пример 1. Найти оценки параметров линейной функции Решение. Для определения квадратов составляем систему коэффициентов и методом наименьших Решая систему получаем где Пример 2. С помощью прибора измеряется какой-то параметр . Случайная величина Х - ошибка измерения параметра . С целью исследования точности прибора произведено n=500 измерений этой ошибки. Результаты измерений сведены в группированный статистический ряд: Разряды Частоты Число попаданий в i-й разряд -4 -3 -3 -2 -2 -1 -1 0 0 1 1 2 2 3 3 4 0,012 0,05 0,144 0,266 0,240 0,176 0,092 0,20 6 25 72 133 120 88 46 10 Определить аналитический вид плотности распределения f(x). Решение. Вначале построим гистограмму распределения случайной величины Х. Как видно из гистограммы, подходящей для аппроксимации является гауссова функция: Таким образом, необходимо определить лишь два параметра, математическое ожидание и дисперсию . Поскольку мы не располагаем всеми наблюденными n=500 значениями случайной величины, оценим и по группированному статистическому ряду. Делается это так: выбирается в качестве "представителя" i-го разряда его середина и этому значению хi приписывается частота . Тогда =-3,5*0,012-2,5*0,05-1,5*0,1440,5*0,266+0,5*0,240+1,5*0,176+2,5*0,092+3,5*0,02=0,162. Среднее квадратическое отклонение Таким образом оценку для плотности распределения случайной величины Х можно записать в виде . Для решения задач обоснованного прогноза, т.е. для определения пределов, в которых с наперед заданной надежностью будет содержаться интересующая нас величина, если другие связанные с ней величины получат определенные значения, необходимо определить их функциональную зависимость. Функция представляющая собой статистическую зависимость одной случайной величины от другой называется регрессией. Для гауссового распределения системы случайных величин (X, Y) связь между ними выражается уравнениями линейной регрессии: где и - коэффициенты линейной регрессии y на х и х на y, соответственно. Коэффициенты линейной регрессии выражаются через характеристики системы (X,Y) следующим образом: или, учитывая, что коэффициент корреляции имеем: Перемножив левые и правые части этих равенств, после извлечения корня получаем т. е. коэффициент корреляции есть среднее геометрическое коэффициентов линейной регрессии. Он характеризует насколько близко связь между случайными величинами Х и Y к линейной зависимости. Выборочные уравнения прямых регрессий имеют вид: В тех случаях, когда линейное приближение является явно недостаточным, можно рассматривать в качестве приближенных уравнений регрессий более сложные функции, неизвестные параметры которой определяются методом наименьших квадратов. Пример. Определить выборочное уравнение линейной регрессии Х по Y, если по результатам опытов получены следующие оценки: Решение. Выборочный коэффициент корреляции Тогда x-410=0,1*(64,3/62)*(y-170), или x=0,104y+392,32. Выводы 1. Одной из часто встречающихся задач, встающих перед аналитиками различных специальностей, является задача нахождения зависимости между некоторыми наборами данных эксперимента. В общей постановке задача описания эмпирической зависимости с помощью параметрической регрессии предполагает, что задается функция, определенная с точностью до нескольких параметров, которые подбирают таким образом, чтобы получающаяся функция с максимальной точностью соответствовала данным эксперимента. Наиболее просто определяются параметры для случая линейной регрессии. 2. При выравнивании (сглаживании) эмпирических зависимостей наиболее часто исходят из того, что наилучшим приближением в данном классе функций является то, для которого сумма квадратов отклонений обращается в минимум. Вопрос о том, в каком классе функций следует искать наилучшее приближение, решается уже не математически, а исходя из характера эмпирической кривой. Аналогично обстоит дело и с задачей выравнивания статистических распределений. Принципиальный вид выравнивающей плавной кривой выбирается заранее, исходя из условий возникновения случайной величины Х или просто из соображений, связанных с внешним видом гистограммы. 3. Одним из основных методов определения статистических оценок параметров, входящих в выравнивающую функцию, является метод наименьших квадратов. 12. Статистическая проверка гипотез При решении многих задач приходится делать предположение о виде законов распределения рассматриваемых случайных величин или соотношении между их числовыми характеристиками. Такие предположения принято называть гипотезами. Приняв ту или иную гипотезу, из нее выводят определенное следствие и рассматривают, насколько оно оправдывается на опыте, т. е. проверяют согласие принятой гипотезы с опытом. Процедура обоснованного сопоставления высказанной гипотезы с имеющимися выборочными данными осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотез. Результат подобного сопоставления может быть либо отрицательными (данные наблюдения противоречат высказанной гипотезе, а потому от этой гипотезы следует отказаться), либо неотрицательными (данные наблюдения не противоречат высказанной гипотезе, а потому ее можно принять в качестве одного из естественных и допустимых решений). При этом неотрицательный результат статистической проверки гипотезы не означает, что высказанное нами предположительное утверждение является наилучшим, единственно подходящим: просто оно не противоречит имеющимся у нас выборочным данным, однако таким же свойством могут наряду с данной гипотезой обладать и другие гипотезы. По своему прикладному содержанию высказываемые в ходе статистической обработки данных гипотезы можно подразделить на несколько основных типов: 1. Гипотезы о типе законов распределения исследуемой величины. 2. Гипотезы об однородности двух или нескольких обрабатываемых выборок или некоторых характеристиках анализируемых совокупностей. 3. Гипотезы о числовых значениях параметров исследуемой генеральной совокупности. 4. Гипотезы о типе зависимости между компонентами исследуемого многомерного признака. 5. Гипотезы независимости и стационарности обрабатываемого ряда наблюдений. Для проверки гипотезы о виде закона распределения случайной величины часто применяется критерий согласия (критерий Пирсона). Он позволяет производить проверку гипотезы соответствия опытного закона распределения теоретическому (предполагаемому) не только в случаях, когда последний известен полностью, но и тогда, когда параметры предполагаемого закона распределения определяются на основании опытных данных. Пусть проведено n независимых опытов, в каждом из которых случайная величина Х приняла определенное значение. Результаты опытов сведены в m разрядов и в виде группированного статистического ряда: i ... ... ... Мы выводим гипотезу Н, состоящую в том, что случайная величина Х имеет ряд распределения с вероятностями pi, i=1,2,...,m, а отклонения частот вероятностей pi объясняются случайными причинами. от Чтобы проверить правдоподобность этой гипотезы, надо выбрать какую-то меру расхождения статистического распределения с гипотетическим. В качестве меры расхождения R между гипотетическим распределением и статистическим при использовании критерия отклонений с некоторыми весами берется сумма квадратов : Коэффициенты ci вводятся потому, что отклонения, относящиеся к разным значениям pi, нельзя считать равноправными по значимости: одно и то же по абсолютной величине отклонение может быть малозначительным, если сама вероятность pi велика, и очень заметным, если она мала. Пирсон доказал, что если взять то при большом числе опытов n закон распределения величины R обладает весьма простыми свойствами: он практически не зависит от закона распределения случайной величины Х и мало зависит от числа опытов n, а зависит только от числа m значений случайной величины и при увеличении числа n приближается к распределению . При таком выборе коэффициентов сi, мера расхождения R обычно обозначается Распределение : , как известно, зависит от параметра r , называемого "числом степеней свободы". При пользовании критерием число степеней свободы полагается равным числу разрядов m минус число независимых условий ("связей"), наложенных на частоты . Примерами таких условий могут быть: если мы требуем только того, чтобы сумма частот была равна единице (это требование накладывается во всех случаях); или же если мы требуем, чтобы совпадало статистическое среднее с гипотетическим, или же если мы требуем, кроме того, еще и совпадения дисперсий и т. д. Для распределения значения составлены таблицы. Пользуясь ими, можно для каждого и число степеней свободы r найти вероятность p того, что величина, распределенная по закону , превзойдет это значение. Если эта вероятность весьма мала, гипотеза отбрасывается как неправдоподобная. Если эта вероятность относительно велика, гипотезу можно признать не противоречащей опытным данным. Вопрос о том, какую вероятность p считать очень малой, чтобы отбросить или пересмотреть гипотезу, не может быть решен из математических соображений. Обычно вероятности, не превосходящие 0,01, считают уже достаточно малыми (в других случаях считают малыми вероятности, не превосходящие 0,05). Вероятность р называют уровнем значимости критерия, а отвергающую ей область больших отклонений - критической областью. Критерий согласия можно применять и для непрерывных случайных величин, если, приближенно заменить непрерывную случайную величину Х дискретной с возможными значениями xi*, равными середине i-го разряда, и частотами pi*, равными частоте попадания случайной величины Х в i-й разряд. Вероятности pi вычисляются по формуле , . ПРИМЕР. Произведено n = 800 наблюдений над случайной величиной Х, возможные значения которой , . Результаты 800 опытов представлены в виде таблицы: Xi 0 1 2 3 4 5 6 7 8 9 10 ni 25 81 124 146 175 106 80 35 16 6 6 P i* 0,03 1 0,10 1 0,15 5 0,18 6 0,21 0,13 2 0,1 0,04 4 0,02 0,00 8 0,00 8 Требуется оценить правдоподобие гипотезы Н, состоящей в том, что Х распределена по закону Пуассона ( где =m ) с параметром , равным статистическому среднему наблюденных значений случайной величины Х. В качестве уровня значимости принять Решение. Найдем статистическое среднее mx* Вычислим вероятность , соответствующие закону Пуассона: И так далее: Находим значение : Число степеней свободы r в данном случае равно числу значений случайной величины (m=11) минус единица (первое условие ) и минус еще единица совпадение гипотетического математического ожидания со статистическим: r=11- 1-1=9. По таблице для распределения при r=9 и =15 находим р=0,1. таким образом, в данном примере гипотеза Н о пуассоновском распределении случайной величины Х противоречит опытным данным и ее надо отбросить, так как р=0,1< . Простым критерием проверки гипотезы о виде закона распределения является критерий Колмогорова. Однако этот критерий можно применять только в том случае, когда гипотетическое распределение закона распределения полностью известно заранее из каких-либо теоретических соображений, т.е. когда известен не только вид закона распределения, но и все входящие в нее параметры. Общая схема применения критерия Колмогорова может быть сформулирована следующим образом. 1. По результатам n независимых опытов определяют статистическую (опытную) функцию распределения . 2. Определяют величину D критерия Колмогорова: и вычисляют опыт= . 3. Принимают тот или иной уровень значимости 4. Зная находят соответствующее значение опыт> по . Если критерия Колмогорова. таблице опыт< функции Колмогорова гипотеза принимается. Если же , гипотеза бракуется. ПРИМЕР. В ОТК были измерены диаметры 60 валиков из партии, изготовленной на одном станке-автомате. Результаты измерения приведены в виде статистической совокупности: Li mi 13,94 14,04 14,14 14,04 14,14 14,24 1 1 4 14,24 14,34 14,34 14,44 14,44 14,54 14,54 14,64 14,64 14,74 Pi Проверить с помощью критерия Колмогорова гипотезу о том, что выборка извлечена из генеральной совокупности, равномерно распределенной в интервале (13,94; 14,74), при уровне значимости . 6 РЕШЕНИЕ. Функция распределения равномерно распределенной случайной величины Х в интервале (13,94; 14,74) имеет следующий вид: при Пользуясь данными статистической совокупности, найдем значения статистической функции распределения . Определим также значения теоретической функции распределения F(x) и абсолютные значения разности . Результаты вычисления представлены в таблице: i хi F (хi) F(х) di 1 13,94 0 0 0 2 14,04 0,017 0,125 0,108 3 14,14 0,033 0,25 0,217 4 14,24 0,1 0,375 0,275 5 14,34 0,275 0,5 0,225 6 14,44 0,517 0,625 0,108 7 14,54 0,741 0,75 0,009 8 14,64 0,9 0,875 0,025 9 14,74 1 1 0 Сравнивая абсолютные величины разностей , определим , и вычисляем: опыт= Зная . находим по таблице соответствующее опыт=2,12>1,355, то выборка не согласуется с гипотезой. =1,355. Так как Рассмотрим применение к задаче проверки гипотез метода минимума риска. Общая постановка задачи такова. Имеются две противоположные гипотезы и и некоторая связанная с ними случайная величина Х. Пусть х - числовое значение случайной величины Х, полученное в результате испытания; - множество всех возможных значений случайной величины Х. Требуется произвести проверку гипотезы относительно конкурирующей гипотезы на основании испытания, т.е. на основании полученного значения х случайной величины Х. Для решения поставленной задачи необходимо определить решающее правило разбиение множества возможных значений случайной величины Х на две части и с условием принятия гипотезы при попадании полученного значения х в результате опыта в и гипотезы Н при попадании х в . Очевидно, что при этом всегда возможно допустить ошибку двоякого рода: ошибка первого рода верна гипотеза Н , а принято решение об истинности гипотезы Н ; ошибка второго рода - верна гипотеза Н , а принято решение об истинности гипотезы Н . Чтобы применить метод минимума риска к поставленной задаче, необходимо располагать следующими данными: - распределение случайной величины Х при условии, что верна гипотеза Н ; - распределение случайной величины Х при условии, что верна гипотеза Н ; р - доопытная вероятность того, что гипотеза Н имеет место. Оптимальное решающее правило, приводящее к наименьшему возможному риску в данной задаче, заключается в следующем: для полученного в результате опыта значения х вычисляется отношение незываемое отношением правдоподобия, и сравнивается с числом где - потери, связанные с ошибкой первого рода; - потери, связанные с ошибкой второго рода. Если отношение Н . меньше , применяется гипотеза Н , в противном случае - ПРИМЕР. На складе готовой продукции с двух заводов поступают партиями однотипные изделия. Качество продукции завода характеризуется вероятностью того, что наугад выбранное изделие является бракованным. Для одного завода р=0,16, для другого р=0,08. Потребитель наугад выбирает одну партию изделий. На основании результатов контроля решить, на каком заводе изготовлена выбранная партия изделий, если известно, что на складе храниться 8 партий изделий, из которых 5 изготовлено на втором заводе (р = 0,08). Решение. Пусть Н - гипотеза, состоящая в том, что выбранная партия изделий плохого качества (р=0,16); Н - противоположная гипотеза (р = 0,08). Отберем из партии наугад n изделий, среди которых оказалось m бракованных. Число бракованных есть случайная величина Х, подчиняющаяся биномиальному распределению. Поэтому при условии верности гипотезы Н при условии верности гипотезы Н Отношение правдоподобия Доопытная вероятность того, что гипотеза Н имеет место, равна Имеем . Составляем неравенство: Откуда . Определяя m из этого неравенства, имеем Итак, если число m бракованных изделий среди наугад выбранных изделий удовлетворяет этому неравенству, то принимается решение о плохом качестве полученной партии (верность гипотезы Н ), в противном случае - решение о верности гипотезы H1. По своему назначению и характеру решаемых задач статистические критерии проверки гипотез чрезвычайно разнообразны. Однако их объединяет общность логической схемы, по которой они строятся. Коротко эту схему можно описать так. 1. Выдвигается гипотеза Н . 2. Задаются величиной уровня значимости критерия . Дело в том, что всякое статистическое решение, т.е. решение принятое на основании ограниченной выборки, неизбежно сопровождается, хотя может и очень малой, вероятностью ошибочного заключения. Выбор зависит от сопоставления потерь, которые мы понесем в случае ошибочных заключений в ту или иную сторону: чем весомее для нас потери от ошибочного отвержения гипотезы Н , тем меньшей выбирается величина . На практике пользуются стандартными значениями уровня значимости: 0,1; 0,05; 0,025; 0,01; 0,005; 0,001. Особенно распространенной является величина уровня значимости Оно означает, что в среднем в пяти случаях из 100 мы будем ошибочно отвергать высказанную гипотезу при пользовании данным статистическим критерием. 3. Задаются некоторой функцией от результатов наблюдений (критической статистикой) . Эта критическая статистика , как и всякая функция от результатов наблюдения, сама является случайной величиной и в предложении справедливости гипотезы Н подчинена некоторому хорошо изученному (затабулированному) закону распределения с плотностью 4. Из таблиц распределения находятся %-ная точка . и %-ная точка , распределяющие всю область возможных значений величины на три области: область неправдоподобно малых (1), неправдоподобных больших (3) и правдоподобных (в условиях справедливости гипотезы Н ) (2) значений (рис.7). Рис. 7-ст. В тех случаях, когда основную опасность для нашего утверждения представляют только односторонние отклонения, т. е. только "слишком малые" и только "слишком большие" значения критической статистики , находят лишь одну процентную точку: либо %-ную точку min, которая разделяет весь диапазон на две части: область неправдоподобно малых и область правдоподобных значений; либо 100 %-ную точку ; она будет разделять весь диапазон значений на область неправдоподобно больших и область правдоподобных значений. 5. Наконец, в функцию подставляют имеющиеся конкретные выборочные значения случайной величины Х и подсчитывают численную величину . Если окажется, что вычисленное значение принадлежит области правдоподобных значений , то гипотеза Н считается непротиворечащей выборочным данным. В противном случае, т.е. если слишком мала или слишком велика, делается вывод, что не подчиняется закону (этот вывод , как видно из рис.7, сопровождается ошибкой ), и это несоответствие мы вынуждены объяснить ошибочностью высказанного нами предположения Н и, следовательно, отказаться от него. Выводы 1. Процедура обоснованного сопоставления высказанного исследователем предположительного утверждения (гипотезы) относительно природы или величины неизвестных параметров рассматриваемой случайной величины с имеющимися в его распоряжении результатами наблюдения осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотезы. 2. По своему содержанию высказываемые в ходе статистической обработки данных гипотезы подразделяются на следующие типы: - об общем виде закона распределения исследуемой случайной величины; - об однородности двух или нескольких обрабатываемых выборок; - о числовых совокупности; значениях параметров исследуемой генеральной - об общем виде зависимости, существующей между компонентами исследуемого многомерного признака; - о независимости и стационарности ряда наблюдений. 3. Все статистические критерии строятся по общей логической схеме. Построить статистический критерий - это значит: а) определить тип проверяемой гипотезы; б) предложить и обосновать конкретный вид функции от результатов наблюдений (критической статистики ), на основании значений которой принимается окончательное решение; в) указать такой способ выделения из области возможных значений критической статистики области отклонения проверяемой гипотезы Н , чтобы было соблюдено требование к величине ошибочного отклонения гипотезы Н (т.е. к уровню значимости критерия ). (с) Киевский институт инвестиционного менеджмента, 2000 год Журнал "Наша справа" №12э, 2000 г.