1.Случайные события,их вероятность.Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Каждое случайное событие есть следствие действия многих случайных причин Таким образом, события будет рассматривается как результат испытания.Классификация случайных событий. Полной группой событий называются несколько событий таких, что в результате опыта непременно должно произойти хотя бы одно из них. События называют несовместными, если появление одного из них исключает появления других событий в одном и том же испытании. События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое.Классическая формула вероятности Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой P(A) = m/n, где m-число элементарных исходов, благоприятствующих А; nчисло всех возможных элементарных исходов испытания. Здесь предполагается, что элементарные исходы не совместны, равновозможные и образуют полную группу. Из определения вероятности вытекает следующие свойства: 1.Вероятность достоверного события равна единице. 2.Вероятность невозможного события равна нулю. 3.Вероятность случайного события есть положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испытания. В этом случае 0<m<n, значит, 0 <m/n<1, следовательно, 0<P(A)<1. Итак, вероятность любого события удовлетворяет двойному неравенству 0 <= P(A)<= 1. 2.Геометрическая вероятность Чтобы преодолеть недостаток классического определения вероятности, состоящий в том, что оно неприменимо к испытаниям с бесконечным числом исходов, вводят геометрические вероятности вероятность попадания точки в область(отрезок, часть плоскости и т.д.). Пусть отрезок l составляет часть отрезка L. На отрезок L на удачу поставлена точка. Это означает выполнение следующих предположений: поставленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок l пропорциональна длине этого отрезка и не зависит от его расположения относительно отрезка L. В этих предположениях вероятность попадания точки на отрезок l определяется равенством. P= Длинаl/длинаL 3.Вероятность суммы событий. Сумма случайных событий. Суммой А + В двух событий А и В называют событие, состоящее в появлении события А, или события В, или обоих этих событий другими словами логическое ИЛИ. В частности, если два события А и В - несовместные, то А + В событие, состоящее в появлении одного из этих событии, безразлично какого. Теорема сложения вероятностей Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления. Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В) 4.Вероятность произведения событий Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий другими словами логическое И. Событие А называется зависимым от события В если его вероятность меняется в зависимости от того произошло событие В или нет. Для независимых событий условная и безусловная вероятность совпадают.Вероятность появления двух зависимых событий равна произведению вероятностей одного из них на вероятность другого вычисленную при условии, что первое событие имело место. Р(А*В)=Р(А)*Р(В/А)=Р(В)*Р(В/А) Вероятность произведения нескольких событий равна произведению вероятностей этих событий причем вероятность каждого следующего события вычисляется при условии, что все предыдущие имели место. Р(А1;А2…Аn)=Р(А1)*Р(А2/А1)*… *Р(Аn/А1,А2…Аn-1) 5.Формула полной вероятности Пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н1,Н2…Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезе P( H ) P( A / H ) i i i 1 6.Формула Бейса Пусть имеется полная группа попарнонесовместных гипотез Н1,Н2…Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло P( H i / A) P( H i ) P( A / H i ) P( A) 7.Формула Бернулли . Если производится несколько испытаний, причем вероятность события А в каждом испытании не зависит от исходов других испытаний, то такие испытания называют "независимыми относительно события А"(Событие А имеет одну и ту же вероятность) "Сложное событие"- совмещение нескольких отдельных событий, которые называют "простыми". Пусть производится n независимых испытаний, в каждом из которых событие А может появиться либо не появиться. Теорема. Если производится n независимых опытов в каждом из которых событие А появляется с одинаковой вероятностью р, причем то тогда вероятность того, что событие А появится ровно m раз определяется по формуле. Pn (m) C m n * p m q n m интегральной функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами: 1. 2. 3. 0<F(х)<1 если х1>х2,то F(х1)>F(х2) lim F ( x) F () 0 x lim F ( x) F () 1 x функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками.С помощью функции распределения легко находится вероятность попадания величины на участок от α до β формула Бернули применяется в тех случаях, когда число опытов невелико, а вероятности появления достаточно велики. Р(α<х<β) рассмотрим 3 события 8.Дискретная случайная величина. Функция распределения Опытом называется всякое осуществление определенных условий и действий при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно. Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z) В - α<Х<β Дискретными называются случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить. Непрерывными величины возможные значение которых непрерывно заполняют некоторый диапазон. Законом распределения случайной величины называется всякое соотношение устанавливающее связь между возможными значениями случайных величин и соответствующими им вероятности. Ряд и многоугольник распределения. Простейшей формой закона распределения дискретной величины является ряд распределения. Графической интерпретацией ряда распределения является многоугольник распределения. Функция распределения случайной величины. Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения. Функция распределения случайной величины Х, называется функцией аргумента х, что случайная величина Х принимает любое значение меньшее х (Х<х) F(х)=Р(Х<х) F(х) - иногда называют А - α<Х С - Х<β С=А+В Р(С)=Р(А)+Р(В) Р(α<х<β)=Р(α)-Р(β) 9.Числовые характеристики дискретных случайных величин Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину. Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины n=2k+1, то Ме=хк+1 (среднее по порядку значение) Если значение случайных величин четное, т.е n=2k, то Me xk xk 1 2 Математическое ожидание случайной величины. Математическим ожиданием случайной величины х (M[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений. Для дискретной случайной величины n M [ x] x *P i i i 1 Для непрерывной M [ x] x * f ( x)dx С механической точки зрения мат. Ожидание это абсцисса центра тяжести системы точек расположенных по одноименной оси. Размерность мат. Ожидания совпадает с размерностью самой случайной величины. Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольшего 10.Непрерывная случайная величина. Дифференциальные и интегральные функции. Интегральная функция F(x)=P(X < x) Геометрический смысл интегральной функции распределения – это вероятность того, что случайная величина X примет значение, которое на числовой оси лежит левее точки x. Свойства интегральной функции распределения: Значения интегральной функции распределения принадлежат отрезку [0;1]: .Вероятность того, что случайная величина X примет значение, заключенной в интервале (a,b), равна приращению интегральной функции распределения на этом интервале Если все возможные значения x случайной величины принадлежат интервалу (a, b), то , если ,если Для описания распределения вероятностей непрерывной случайной величины используется дифференциальная функция распределения. Дифференциальная функция распределения (ДФР) (или плотность вероятности) – это первая производная от интегральной функции. Интегральная функция распределения является первообразной для дифференциальной функции распределения. Тогда Вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a,b), равна определенному интегралу от дифференциальной функции, взятому в пределах от a до b: Геометрический смысл ДФР состоит в следующем: вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a, b), равна площади криволинейной трапеции, ограниченной осью x, кривой распределения f(x) и прямыми x = a и x=b Свойства дифференциальной функции распределения: Дифференциальная функция распределения неотрицательна. Если все возможные значения случайной величины принадлежат интервалу (a, b), то Так как дифференциальная функция распределения равна f(x)=F’(x), то можно записать (6.1) т. е. предел отношения вероятности того, что непрерывная случайная величина примет значение, принадлежащее интервалу к длине этого интервала (при ), равен значению дифференциальной функции распределения в точке x. Аналогичное (6.1) определение дается в механике для определения плотности массы в точке (если масса распределена вдоль оси X по закону F(x)), поэтому в теории вероятности для дифференциальной функции распределения f(x) часто используется термин "плотность вероятности в точке". На основании (6.1) запишем: (6.2)Вероятностный смысл дифференциальной функции распределения на основании (6.2) таков: вероятность того, что случайная величина примет значение принадлежащее интервалу приближенно равна произведению плотности вероятности в точке x на длину интервала или (на графике) площади прямоугольника с основанием и высотой f(x). Дифференциальную функцию распределения часто называют законом распределения вероятностей непрерывных случайных величин. Me xk xk 1 2 13.Равномерное распределение Закон равномерного распределения вероятностей непрерывной случайной величины используется при имитационном моделировании сложных систем на ЭВМ как первоначальная основа для получения всех необходимых статистических моделей. При этом, если специально не оговорен закон распределения случайных чисел, то имеют ввиду равномерное распределение. Распределение вероятностей называют равномерным, если на интервале (a,b), которому принадлежат все возможные значения случайной величины, дифференциальная функция распределения имеет постоянное значение, т. е. f(x) = C. Так как то Отсюда закон равномерного распределения аналитически можно записать так: График дифференциальной функции равномерного распределения вероятностей представлен на рис. 11.Численные характеристики непрерывных случайных величин Математическим ожиданием Дисперсия 6.5 Рис. 6.5. Интегральную функцию равномерного распределения аналитически можно записать так: 12.Мода и медиана случайной величины Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину. Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины n=2k+1, то Ме=хк+1 (среднее по порядку значение) Если значение случайных величин четное, т.е n=2k, то График интегральной функции равномерного распределения вероятностей представлен на рис. 6.6 Pn (m1 m m2 ) ( x2 ) ( x1 ), как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а. 14.Биномиальное распределение. Биномиальным называют законы распределения случайной величины Х числа появления некоторого события в n опытах если вероятность р появления события в каждом опыте постоянна P (m) m * p m q nm C n n Сумма вероятностей представляют собой бином Ньютона 0 p 0 q n n p1q n1 n p n q 0 (1 q) n 1 C n C C n 16. Нормальный закон распределения В начале XIX века нормальное распределение затмило собой все остальные, поскольку в работах Гаусса и Лежандра утверждалось о нормальном законе распределения ошибок наблюдений. Нормальный закон распределения (или распределение Гаусса) задается следующей дифференциальной функцией n параметры . Для определения числовых характеристик в биномиальное распределение подставить вероятность которая определяется по формуле Бернули. n M [ x] x *P i i D[ x] npq 18. Закон больших чисел Неравенство Чебышева На практике сложно сказать какое конкретное значение примет случайная величина, однако, при воздействии большого числа различных факторов поведение большого числа случайных величин практически утрачивает случайный характер и становится закономерным. Этот факт очень важен на практике, т.к. позволяет предвидеть результат опыта при воздействии большого числа случайных факторов.Однако, это возможно только при выполнении некоторых условий, которые определяются законом больших чисел. К законам больших чисел относятся теоремы Чебышева (наиболее общий случай) и теорема Бернулли (простейший случай), которые будут рассмотрены далее. ( x) 1 2 * e x2 2 dx........ x n mn np mn pq 20. Совместное распределение случайных величин Совместной функцией распределения случайных величин , назовем функцию , зависящую от n вещественных переменных, такую, что Предложение 4.1 (Без доказательства) . Перечислим некоторые свойства функций распределения нескольких случайных величин: по каждой переменной, Монотонность например, i 1 При биномиальном распределении дисперсия равна мат. Ожиданию умноженному на вероятность появления события в отдельном опыте. 15. Распределение Пуассона Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле. Pm a m a *e m! a=np n-число проведенных опытов р-вероятность появления события в каждом опыте В теории массового обслуживания параметр пуассоновского распределения определяется по формуле ( - max перегиба. = а - , x = а + - точки 17. Правило трех сигм При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D: Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа: Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее. На практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение. Рассмотрим дискретную случайную величину Х (хотя все сказанное ниже будет справедливо и для непрерывных случайных величин), заданную таблицей распределения Требуется определить вероятность того, что отклонение значения случайной величины от ее математического ожидания будет не больше, чем заданное число e. Теорема. (Неравенство Чебышева) Вероятность того, что отклонение случайной величины Х от ее математического ожидания по абсолютной величине меньше положительного числа e, не меньше 19. Локальная и интегральная теорема Лапласа Если число опытов достаточно велико но не бесконечно, а вероятность появления события А в каждом опыте не стремится к 0, применяют локальную и интегральную теоремы Лапласа Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р причем 1>р>0, то это событие наступает ровно m раз приблизительно равна отметить, что пуассоновское является предельным случаем когда испытаний стремится к вероятность появления события в lim Pn (m) Pm n Пуассоновское распределение является единичным распределением для которого такие характеристики каждом опыте стремится к 0. 1 Pn (m) а=λt , где λ - интенсивность потока сообщений tвремя Необходимо распределение биномиального, бесконечности, а чем ( x) npq 1 2 * ( x), x2 *e 2 Интегральная m np ........ x mpq теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р, причем 1>р>0, то событие А наступит не менее m1 раз и не более m2 раза приблизительно равно Пределы на ``минус бесконечности'': если в совместной функции распределения зафиксировать все переменные, кроме одной, а оставшуюся переменную устремить к , то предел равен нулю. Например, для фиксированных Пределы на ``плюс бесконечности''.Если все переменные устремить к ,в единица зафиксируем пределе все переменные, получится Если кроме одной, которую устремим к , получим функцию распределения меньшего набора случайных величин. Например, 21.Линии регрессии, корелляции Если две случайные величины Х и Y имеют в отношении друг друга линейные функции регрессии, то говорят, что величины Х и Y связаны линейной корреляционной зависимостью. Теорема. Если двумерная случайная величина (X, Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью. 22. «Хи-квадрат» распределение с f степенями свободы, распределение вероятностей суммы квадратов c^2 = X1^2+...+Xf^2, независимых случайных величин X1,..., Xf, подчиняющихся нормальному распределению с нулевым математическим ожиданием и единичной дисперсией. Функция «Х.-к.» р. выражается интегралом Первые три момента (математическое ожидание дисперсия и третий центральный момент) суммы c2 равны соответственно f, 2f, 8f. Сумма двух независимых случайных величин c1^2 и c2^2, с f^1 и f^2 степенями свободы подчиняется «Х.-к.» р. с f^1 + f^2 степенями свободы. Примерами «Х.-к.» р. могут служить распределения квадратов случайных величин, подчиняющихся Рэлея распределению и Максвелла распределению. В терминах «Х.-к.» р. с чётным числом степеней свободы выражается Пуассона распределение: Если количество слагаемых f суммы c2 неограниченно увеличивается, то согласно центральной предельной теореме распределение нормированного отношения сходится к стандартному нормальному распределению: где Следствием этого факта является другое предельное соотношение, удобное для вычисления Ff (x) при больших значениях f: имеет 23. Распределение Стьюдента - распределение получило свое название от псевдонима Student, которым английский ученый Госсет подписывал 2. свои работы по статистике. Пусть -независимые стандартные нормальные случайные величины. Распределением Стьюдента с степенями свободы называется распределениеследующей случайной величины: 25. Задачи математической статистики Математическая статистика, раздел математики, посвященный математическим методам систематизации, обработки и использования статистических данных для научных и практических выводов. При этом статистическими данными называются сведения о числе объектов в какойлибо более или менее обширной совокупности, обладающих теми или иными признаками. Предмет и метод математической статистики. Статистическое описание совокупности объектов занимает промежуточное положение между индивидуальным описанием каждого из объектов совокупности, с одной стороны, и описанием совокупности по её общим свойствам, совсем не требующим её расчленения на отдельные объекты, — с другой. По сравнению с первым способом статистические данные всегда в большей или меньшей степени обезличены и имеют лишь ограниченную ценность в случаях, когда существенны именно индивидуальные данные (например, учитель, знакомясь с классом, получит лишь весьма предварительную ориентировку о положении дела из одной статистики числа выставленных его предшественником отличных, хороших, удовлетворительных и неудовлетворительных оценок). С другой стороны, по сравнению с данными о наблюдаемых извне суммарных свойствах совокупности статистические данные позволяют глубже проникнуть в существо дела. Метод исследования, опирающийся на рассмотрение статистических данных о тех или иных совокупностях объектов, называется статистическим. Статистический метод применяется в самых различных областях знания. (46) Если вспомнить введенную формулой (44) случайную величину , то можно сказать, что отношение имеет распределение Стьюдента. Плотность этого распределения представляет собой симметричную функцию, задаваемую формулой По форме график функции напоминает график плотности стандартного нормального закона, но с более медленным убыванием ``хвостов''. При последовательность функций сходится к функции , которая есть плотность распределения . Чтобы понять, почему этот факт имеет место, следует обратить внимание на то, что по закону больших чисел знаменатель выражения (46) при стремится к 24. Теорема Фишера для нормальных выборок В этом параграфе мы приводим теорему, впервые доказанную Р.А. Фишером в 1925 г. Она существенно облегчает статистический анализ независимых выборок из нормального распределения. Теорема Фишера. Пусть независимая распределения среднее Тогда выборка 1. и выборочная дисперсия из выборочное независимы; с -распределение степенью свободы. 26. Выборочный метод Общее понятие о выборочном методе. Множество всех единиц совокупности, обладающих определенным признаком и подлежащих изучению, носит в статистике название генеральной совокупности. На практике по тем или иным причинам не всегда возможно или же нецелесообразно рассматривать всю генеральную совокупность. Тогда ограничиваются изучением лишь некоторой части ее, конечной целью которого является распространение полученных результатов на всю генеральную совокупность, т. е. применяют выборочный метод. Для этого из генеральной совокупности особым образом отбирается часть элементов, так называемая выборка, и результаты обработки выборочных данных (например, средние арифметические значения) обобщаются на всю совокупность. Теоретической основой выборочного метода является закон больших чисел. В силу этого закона при ограниченном рассеивании признака в генеральной совокупности и достаточно большой выборке с вероятностью, близкой к полной достоверности, выборочная средняя может быть сколь угодно близка к генеральной средней. Закон этот, включающий в себя группу теорем, доказан строго математически. Таким образом, средняя арифметическая, рассчитанная по выборке, может с достаточным основанием рассматриваться как показатель, характеризующий генеральную совокупность в целом. Разумеется, не всякая выборка может быть основой для характеристики всей совокупности, к которой она принадлежит. Таким свойством обладают лишь репрезентативные (представительные) выборки, т. е. выборки, которые правильно отражают свойства генеральной совокупности. Существуют способы, позволяющие гарантировать достаточную репрезентативность выборки. Как доказано в ряде теорем математической статистики, таким способом при условии достаточно большой выборки является метод случайного отбора элементов генеральной совокупности, такого отбора, когда каждый элемент генеральной совокупности имеет равный с другими элементами шанс попасть в выборку. Выборки, полученные таким способом, называются случайными выборками. Случайность выборки является, таким образом, существенным условием применения выборочного метода. должен находиться совокупности. 27. Точечные оценки параметров генеральной совокупности Оценка параметра — определенная числовая характеристика, полученная из выборки. Точечной называют статистическую оценку, которая определяется одним числом. В качестве точечных оценок параметров генеральной совокупности используются соответствующие выборочные характеристики. Теоретическое обоснование возможности использования этих выборочных оценок для суждений о характеристиках и свойствах генеральной совокупности дают закон больших чисел и центральная предельная теорема Ляпунова. Несмещенной называют точечную оценку, математическое ожидание которой равно оцениваемому параметру при любом объеме выборки. Смещенной называют точечную оценку, математическое ожидание которой не равно оцениваемому параметру. Выборочная средняя является точечной оценкой генеральной средней, т. е. Несмещенной оценкой генеральной средней (математического ожидания)служит выборочная средняя. Генеральная дисперсия имеет две точечные оценки: — выборочная дисперсия, которая исчисляется при н 30; S^2 — исправленная выборочная дисперсия, которая исчисляется при n < 30. Причем в математической статистике доказывается, что При больших объемах выборки и S^2практически совпадают. Смещенной оценкой генеральной дисперсии служит выборочная дисперсия. Генеральное среднее квадратическое отклонение также имеет две точечные оценки: — выборочное среднее квадратическое отклонение и S — исправленное выборочное среднее квадратическое отклонение. используется для оценивания при п 30, a S для оценивания при п < 30; пpи этом 28. Интервальные оценки параметров генеральной совокупности Интервальной оценкой называют оценку, которая определяется двумя числами — концами интервала, который с определенной вероятностью накрывает неизвестный параметр генеральной совокупности. Интервал, содержащий оцениваемый параметр генеральной совокупности, называют доверительным интервалом. Для его определения вычисляется предельная ошибка выборки , позволяющая установить предельные границы, в которых с заданной вероятностью (надежностью) параметр генеральной (6.7) Предельная ошибка выборки равна t-кратному числу средних ошибок выборки. Коэффициент t позволяет установить, насколько надежно высказывание о том, что заданный интервал содержит параметр генеральной совокупности. Если выбирается коэффициент таким, что высказывание в 95% случаев окажется правильным и только в 5% — неправильным, то говорится, что: со статистической надежностью в 95% доверительный интервал выборочной статистики содержит параметр генеральной совокупности. Статистической надежности в 95% соответствует доверительная вероятность — 0,95. В 5% случаев утверждение «параметр принадлежит доверительному интервалу» будет неверным, т. е. 5% задает уровень значимости ( ) или 0,05 вероятность ошибки. Обычно в статистике уровень значимости выбирают таким, чтобы он не превысил 5% (α < 0,05). Доверительная вероятность и уровень значимости дополняют друг друга до 1 (или 100%) и определяют надежность статистического высказывания. С помощью доверительного интервала можно оценить не только генеральную среднюю, но и другие неизвестные параметры генеральной совокупности. 29. Для оценки математического ожидания а (генеральной средней) нормально распределенного количественного признака X по выборочной средней при известном среднем квадратическом отклонении а генеральной совокупности (на практике — при большом объеме выборки, т. е. при п 30) и собственно-случайном повторном отборе формула (5.5) примет вид tопределяется по таблицам (6.6) где функции Лапласа (приложение 2) из соотношения ; — среднее квадратическое отклонение; п — объем выборки (число обследованных единиц). 30 Для оценки математического ожидания а (генеральной средней) нормально распределенного количественного признака X по выборочной средней при известном среднем квадратическом отклонении генеральной совокупности (при большом объеме выборки, т. е. при п 30) и собственно-случайном бесповторном отборе формула (5.6) примет вид. Для оценки математического ожидания а (генеральной средней) нормально распределенного количественного признака Xпо выборочной средней при неизвестном среднем квадратическом отклонении генеральной совокупности (на практике — при малом объеме выборки, т. е. при п < 30) и собственно-случайном повторном отборе формула (6.6) будет иметь вид (6.8) где tопределяется по таблицам Стьюдента (приложение 5), по уровню значимости и числу степеней свободы k = п - 1; — исправленное выборочное среднее квадратическое отклонение; п — объем выборки. Для оценки математического ожидания а (генеральной средней) нормально распределенного количественного признака X по выборочной средней при неизвестном среднем квадратическом отклонении генеральной совокупности (при малом объеме выборки, т. е. при п < 30) и собственно-случайном бесповторном отборе формула (5.8) примет вид ( 6.9) Для оценки генеральной доли р нормально распределенного количественного признака по выборочной доле w = m/п (при большом объеме выборки, т. е. при п 30) и собственнослучайном повторном отборе формула (6.5) будет иметь вид гд е tопределяется по таблицам функции Лапласа (приложение 2) из соотношения 2Ф0(t) =; w— выборочная доля; п — объем выборки (число обследованных единиц); Для оценки генеральной доли р нормально распределенного количественного признака по выборочной доле w= т/п (при большом объеме выборки, т. е. при п 30) и собственно-случайном бесповторном отборе формула (5.10) примет вид ,( 6.11) Для оценки генеральной доли р нормально распределенного количественного признака по выборочной доле w ~ т/п (при малом объеме выборки, т. е. при п < 30) и собственно-случайном повторном отборе формула (6.10) примет вид где tопределяется по таблицам Стьюдента (приложение 5), по уровню значимости а = 1 - и числу степеней свободы k — п - 1. Для оценки генеральной доли р нормально распределенного количественного признака по выборочной доле w= т/п (при малом объеме выборки, т. е. при п < 30) и собственно-случайном бесповторном отборе формула (6.12) будет иметь вид статистики 31. Доверительный интервал для дисперсии По закону c 2 ("хи-квадрат") распределена сумма n квадратов независимых нормально распределенных величин, каждая из которых имеет математическое ожидание, равное 0, и дисперсию, равную 1. Очевидно, у этого закона один параметр n , получивший название - "число степеней свободы". Используя элементарные знания теории вероятностей, легко показать, что математическое ожидание Mc 2n = n , дисперсия Dc 2n = 2n , плотность распределения p(c 2n ) имеет один максимум, который при n = 1 и n = 2 лежит в точке c 2n = 0, а затем с ростом n сдвигается в сторону увеличения c 2n . При очень больших n (n > 30) распределение, как следует из центральной предельной теоремы, практически неотличимо от нормального с соответствующими значениями матeматического ожидания и дисперсии. Можно показать , что комбинация Здесь: n - объем выборки; Sx2 - оценка дисперсии результата измерения х, определенная по формуле (1.2) ; s 2 - "истинная" дисперсия результата измерения, т.е. оцениваемый параметр, который нам не известен; символ " ~ " здесь и в дальнейшем использован для сокращения записи вместо слов "распределено по закону". Рассмотрим на примере, как закон (2.1) можно использовать для построения доверительного интервала для дисперсии. Допустим, что мы создали новую установку для измерения длины волны l в оптическом спектре. Нас интересует оценка случайной погрешности измерений на этой установке, т.е. какова дисперсия значений длин волн, полученных на нашей установке. Осветим установку источником с паспортизованной длиной волны (например, l 0= 632,8 нм) и выполним 5 измерений. Получим выборку из пяти значений: l 1= 633.1 нм, l 2 = 632.9 нм, l 3 = 633.4 нм, l 4 = 633.3 нм, l 5= 632.5 нм. Вычислим согласно (1.1) и (1.2): = 0.128 нм2 . = 633.04 нм, Sl 2 32. Проверка статистической гипотезы о мат ожидании нормального распределения при известной дисперсии Применение критерия сравнения двух выборочных средних при известных и равных дисперсиях предусматривает вычисление где , - объем -й выборки, В случае принадлежности наблюдений нормальным законам статистика подчиняется стандартному нормальному закону. 33. Проверка гипотезы о равенстве дисперсии Проверяемая гипотеза о постоянстве дисперсии выборок объема имеет вид: . (1) а конкурирующая с ней гипотеза – (2) где неравенство выполняется, по крайней мере, для одной пары индексов , Статистика для проверки гипотезы имеет вид Степенями свободы для распределения статистики являются число выборок и . В [Закс Л.] приводятся таблицы процентных точек для статистик, заимствованные из [Pearson E.S., Hartley H.O. 34.Проверка статистической значимости. Выборочного коэффициента корреляции Проверкой статистической значимости выборочной оценки параметра генеральной совокупности называется проверка статистической гипотезы H0: =0,при конкурирующей гипотезе H1: 0. Если гипотеза H0 отвергается, то оценка считается статистически значимой. Пусть имеются две случайные величины и , определенные на множестве объектов одной и той же генеральной совокупности, причем обе имеют нормальное распределение. Задача заключается в проверке статистической гипотезы об отсутствии корреляционной зависимости между случайными величинами и : H0: = 0; H1: 0. Здесь – коэффициент линейной корреляции.Производится выборка объема n и вычисляется выборочный коэффициент корреляции r. За статистический критерий принимается случайная величина t r n 2 / 1 r 2 , которая распределена по закону Стьюдента с n – 2 степенями свободы. Отметим сначала, что все возможные значения выборочного коэффициента корреляции r лежат в промежутке [– 1;1]. Очевидно, что относительно большие отклонения в любую сторону значений t от нуля получаются при относительно больших, то есть близких к 1, значениях модуля r. Близкие к 1 значения модуля r противоречат гипотезе H0, поэтому здесь естественно рассматривать двустороннюю критическую область для критерия t. По уровню значимости и по числу степеней свободы n – 2 находим из таблицы распределения Стьюдента значение tкр. Если модуль выборочного значения критерия tв превосходит tкр, то гипотеза H0 отвергается и выборочный коэффициент корреляции считается статистически значимым. В противном случае, то есть если tв < tкр и принимается гипотеза H0, выборочный коэффициент корреляции считается статистически незначимым.