1 Правило 3-х I (трех “сигм”). Пусть имеется нормально распределённая случайная величина x с математическим ожиданием, равным а и дисперсией s2. Определим вероятность попадания x в интервал (а – 3s; а + 3s), то есть вероятность того, что x принимает значения, отличающиеся от математического ожидания не более, чем на три среднеквадратических отклонения. P(а – 3s< x < а + 3s)=Ф(3) – Ф(–3)=2Ф(3) По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практически равняется единице. Таким образом, можно сделать важный вывод: нормальная случайная величина принимает значения, отклоняющиеся от ее математического ожидания не более чем на 3s. (Выбор числа 3 здесь условен и никак не обосновывается: можно было выбрать 2,8, 2,9 или 3,2 и получить тот же вероятностный результат. Учитывая, что Ф(2)=0,477, можно было бы говорить и о правиле 2–х “сигм”.) Совместное распределение двух случайных величин. Пусть пространство элементарных исходов W случайного эксперимента таково, что каждому исходу wij ставиться в соответствие значение случайной величины x, равное xi и значение случайной величины h, равное yj. Примеры: 1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать x и толщину—h (можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах). 2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за x можно принимать объем производства отнесенный к количеству сотрудников, а за h—объем продукции, идущей на экспорт, тоже отнесенной к числу сотрудников. В этом случае мы можем говорить о совместном распределении случайных величин x и h или о “двумерной” случайной величине. Если x и h дискретны и принимают конечное число значений (x – n значений, а h – k значений), то закон совместного распределения случайных величин x и h можно задать, если каждой паре чисел xi, yj (где xi принадлежит множеству значений x, а y j—множеству значений h) поставить в соответствие вероятность pij, равную вероятности события, объединяющего все исходы wij (и состоящего лишь из этих исходов), которые приводят к значениям x = xi ; h = y j . Такой закон распределения можно задать в виде таблицы: 2 x x1 xi xn h ¼ ¼ y1 y2 ¼ yj ¼ yk р11 ¼ р i1 ¼ рn1 P1 р12 ¼ р i2 ¼ рn2 P2 ¼ ¼ ¼ ¼ ¼ ¼ р1j ¼ р ij ¼ рnj Pj ¼ ¼ ¼ ¼ ¼ ¼ р1k ¼ р ik ¼ рnk Pk n P1 ¼ Pi ¼ Pn ¼ (*) k j Очевидно å å pi = 1 i =1 j =1 Если просуммировать все рij в i–й строке, то получим k j å pi = Pi j =1 вероятность того, что случайная величина x примет значение xi. Аналогично, если просуммировать все рij в j–м столбце, то получим n j j å pi = P i =1 вероятность того, что h принимает значение y j. Соответствие xi ® Pi (i = 1,2,¼,n) определяет закон распределения x, также как соответствие yj ® P j (j = 1,2,¼,k) определяет закон распределения случайной величины h. n k i =1 j =1 j j Очевидно M x = å xi Pi , M h = å y P . Раньше мы говорили, что случайные величины x и h независимы, если pij=Pi×P j (i=1,2,¼,n; j=1,2,¼,k). Если это не выполняется, то x и h зависимы. В чем проявляется зависимость случайных величин x и h и как ее выявить из таблицы? Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число pi1 pi/1= (1) P1 которое будем называть условной вероятностью x= xi при h=y1. Обратите внимание на то, что это не вероятность Pi события x= xi, и сравните формулу (1) P( A 1 B) . с уже известной формулой условной вероятности P( A / B) = P( B) Соответствие xi®рi/1, (i=1,2,¼,n) 3 будем называть условным распределением случайной величины x при h=y1. n Очевидно å pi / 1 = 1 . i =1 Аналогичные условные законы распределения случайной величины x можно построить при всех остальных значениях h, равных y2; y3,¼, yn ,ставя в pij n соответствие числу xi условную вероятность pi/j = ( å pi / j = 1 ). Pj i =1 В таблице приведён условный закон распределения случайной величины x при h=yj x x1 x2 pi/j p1j Pj p2j Pj ¼ xi ¼ pij Pj ¼ xn ¼ pnj Pj Можно ввести понятие условного математического ожидания x при h = yj n pij 1 n M ( x / h = y j ) = å xi j = j å xi pij P P i =1 i =1 Заметим, что x и h равноценны. Можно ввести условное распределение h при x=xi соответствием pi j y ® (j = 1,2,¼,k) Pi Также можно ввести понятие условного математического ожидания случайной величины h при x=xi : j k 1 k j j j pi M ( h / x = xi ) = å y = åy p Pi Pi j =1 i j =1 Из определения следует, что если x и h независимы, то все условные законы распределения одинаковы и совпадают с законом распределения x (напоминаем, что закон распределения x определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М(x/h = yj) при j = 1,2,¼,k, которые равны Мx. Если условные законы распределения x при различных значениях h различны, то говорят, что между x и h имеет место статистическая зависимость. Пример I. Пусть закон совместного распределения двух случайных величин x и h задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины x, а первая и последняя строки – закон распределения случайной величины h. j 4 2 3 1/36 0 2/36 1/36 2/36 3/36 1/36 8/36 6/36 12/36 Полигоны условных распределений графике (рис. 1). Здесь явно просматривается зависимость условного закона распределения x от величины h. Пример II. (Уже встречавшийся). Пусть даны две независимые случайные величины x и h с законами распределения 0 0 2/36 16/36 18/36 можно x 10 20 30 40 0 1/3 x Р 1 h 1 2/3 1/36 3/36 7/36 25/36 изобразить на трехмерном 1 3/4 h Р 2 1/4 Найдем законы распределений случайных величин a=x+h и b=x*h a Р 1 3/12 2 7/12 3 2/12 b Р 0 4/12 1 6/12 2 2/12 Построим таблицу закона совместного распределения a и b. a 1 2 3 b 0 1 2 3/12 0 0 3/12 1/12 6/12 0 7/12 0 0 2/12 2/12 4/12 6/12 2/12 Чтобы получить a=2 и b=0, нужно чтобы x приняла значение 0, а h приняла значение 2. Так как x и h независимы, то Р(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12. Очевидно также Р(a=3; b=0)=0. 5 Построим полигоны условных распределений. Здесь зависимость a от b довольно близка к функциональной: значению b=1 соответствует единственное a=2, значению b=2 соответствует единственное a=3, но при b=0 мы можем говорить лишь, что a с 3 вероятностью принимает значение 1 4 1 – значение 2. 4 и с вероятностью Пример III. Рассмотрим закон совместного распределения x и h, заданный таблицей x 1 2 3 h 0 1 2 1/30 3/30 2/30 1/5 3/30 9/30 6/30 3/5 1/30 3/30 2/30 1/5 1/6 3/6 2/6 В этом случае выполняется условие P(x=xi; h=yj)=P(x=xi)*P(h=yj), i=1,2,3¼; j=1,2,3,¼ Построим законы условных распределений x ph=1 ( x) = ph= 2 (x) = = ph=3 (x) = ph= 4 (x) 1 1/5 2 3/5 3 1/5 Законы условных распределений не отличаются друг от друга при h=1,2,3 и совпадают с законом распределения случайной величины x. В данном случае x и h независимы. Характеристикой зависимости между случайными величинами x и h служит математическое ожидание произведения отклонений x и h от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией. cov(x; h) = M((x–Mx)(h–Mh)) Пусть x = {x1, x2, x3,¼, xn}, h = {y1, y2, y3,¼,yn}. Тогда n k cov(x; h)= å å ( xi - Mx)( y j - Mh)P((x = xi ) 1( h = y j )) i =1 j =1 (2) 6 Эту формулу можно интерпретировать так. Если при больших значениях x более вероятны большие значения h, а при малых значениях x более вероятны малые значения h, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения. Если же более вероятны произведения (xi – Mx)(yj – Mh), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям x в основном приводят к малым значениям h и наоборот, то ковариация принимает большие по модулю отрицательные значения. В первом случае принято говорить о прямой связи: с ростом x случайная величина h имеет тенденцию к возрастанию. Во втором случае говорят об обратной связи: с ростом x случайная величина h имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (xi – Mx)(yj – Mh)pij, то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой. Легко показать, что если P((x = xi)∩(h = yj)) = P(x = xi)P(h = yj) (i = 1,2,¼,n; j = 1,2,¼,k), òî cov(x; h)= 0. Действительно из (2) следует n k å å xi - Mx y j - Mh Px = xi P h = y j = i =1 j = 1 n k i =1 j =1 = å xi - MxPx = xi × å y j - Mh P h = y j = = M x - Mx M h - Mh = 0 × 0 = 0 Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю. Доказательство (для дискретных случайных величин с конечным числом значений). n n n i =1 i =1 i =1 M x - Mx = å xi - Mx P xi = å xi P xi - Mx å P xi = Mx - Mx = 0 Ковариацию удобно представлять в виде cov(x; h)=M(xh–xMh–hMx+MxMh)=M(xh)–M(xMh)–M(hMx)+M(MxMh)= =M(xh)–MhMx–MxMh+MxMh=M(xh)–MxMh Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий. 7 Легко доказывается следующее свойство математического ожидания: если x и h—независимые случайные величины, то М(xh)=МxМh. (Доказать самим, n m используя формулу M(xh) = å å xi y j P x = xi P h = y j ) i =1 j =1 Таким образом, для независимых случайных величин x и h cov(x;h)=0.