ТМ к лекции № 6 Основные свойства числовых характеристик 7.1 Теоремы о математических ожиданиях Теорема 1. Математическое ожидание постоянной равно этой постоянной. Доказательство. Мы можем рассматривать постоянную величину как предельный случай случайной величины, которая принимает единственное значение с вероятностью, равной 1. Тогда Mc=1c=c Теорема 2. Математическое ожидание от алгебраической суммы случайных величин равно алгебраической сумме математических ожиданий от слагаемых. M ( X Y ) MX MY . Доказательство. Случай 1. Пусть X и Y две дискретные случайные величины с конечным числом возможных значений. Тогда M ( X Y ) ( x1 y1 ) p11 ( x2 y1 ) p12 ( xn y1 ) p1n ( x1 y 2 ) p 21 ( x2 y 2 ) p 22 ( xn y 2 ) p 2n . . . . . . . . . . . . . . . . . . . . . . ( x1 y m ) p m1 ( x2 y m ) p m 2 ( xn y m ) p mn Раскроем скобки и произведем перегруппировку x1 ( p11 p 21 p m1 ) x 2 ( p12 p 22 p m 2 ) . . . . . . . . . . x n ( p1n p 2 n p mn ) y1 ( p11 p12 p1n ) y 2 ( p 21 p 22 p 2 n ) . . . . . . . . . . y m ( p m1 p m 2 p mn ) x1q1 x 2 q 2 x n q n y1 p1 y 2 p 2 y m p m MX MY . Проведем еще раз тоже доказательство в обозначениях сумм. m n m n n m m n i 1k 1 i 1 k 1 ki1 i 1 i 1 ki1 M ( X Y ) ( x k yi ) pik yi pik xk pik yi pi x k q k MX MY Случай 2. Пусть X и Y две непрерывные случайные величины с плотностью распределения p(x,y). Тогда M ( X Y ) ( x y ) p( x, y )dxdy x p( x, y )dy dx y p( x, y )dx dy xp ( x)dx yp ( y )dy MX MY . Теорема 3. Математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий от сомножителей. M ( XY ) MX MY. Случай 1. Пусть X и Y две дискретные случайные величины с конечным числом возможных значений. Так как X и Y независимы, то pik=pipk. Тогда m n m n m n i 1k 1 i 1k 1 i 1 k 1 M ( XY ) ( x k yi ) pik x k yi pi p k yi pi x k p k MX MY . Случай непрерывных случайных величин рассмотреть самостоятельно. Теорема 4. Постоянный сомножитель можно вынести за знак математического ожидания. M (CY ) C MY . где C=const. Доказательство. Считая, что постоянная величина есть предельный случай случайной величины, применим теорему 3. Очевидно, что C и Y независимы. Отсюда следует утверждение. Следствие. Математическое ожидание отклонения равно 0. Доказательство. M(X-MX)=MX- M(MX)= MX- MX=0. 7.2. Теоремы о дисперсиях Теорема 1. Дисперсия постоянной равна нулю. Доказательство. Мы можем рассматривать постоянную величину как предельный случай случайной величины, которая принимает единственное значение с вероятностью, равной 1. Тогда MC C;DC M (C MC) 2 M (C C ) 2 M (0) 2 0. Теорема 2. Постоянный сомножитель можно вынести за знак дисперсии под знаком возведения в квадрат. D(CX ) C 2 DX . где C=const. Доказательство. D(CX ) M (CX M (CX )) 2 M (CX CMX ) 2 M (C ( X MX )) 2 M (C 2 ( X MX C 2 M ( X MX ) 2 C 2 DX . Теорема 3. Дисперсия суммы случайных независимых величин равно сумме дисперсий слагаемых. D( X Y ) DX DY . Доказательство. Из независимости случайных величин и следствия получаем M ( X MX )(Y MY ) 0 Тогда D( X Y ) M ( X Y M ( X Y )) 2 M (( X MX ) (Y MY )) 2 M (( X MX ) 2 2( X MX )(Y MY ) (Y MY )) 2 M ( X MX ) 2 2 M ( X MX )(Y MY ) M (Y MY )) 2 M ( X MX ) 2 M (Y MY )) 2 DX DY . Следствие 1. Дисперсия случайной величины неотрицательна. Причем DX=0 только тогда, когда X=const. Доказательство. Так как (X-MX)20, то DX=M (X-MX)20. Величина (X-MX)2=0 только тогда, когда X-MX=0. Или X=MX=const. Следствие 2. Дисперсия разности двух случайных независимых величин равна сумме дисперсий слагаемых. D( X Y ) DX DY . Доказательство D( X Y ) D( X (Y )) DX D(Y ) DX (1) 2 D(Y ) DX D(Y ). Следствие 3. Дисперсия равна DX M ( X MX ) 2 M ( X 2 2 XMX ( MX ) 2 ) M ( X 2 ) 2MXMX ( MX ) 2 M ( X 2 ) ( MX ) 2 . Сравнивать две случайные величины с разными характеристиками сложно. Поэтому для сравнения их нормируют по формуле U=(X-MX)/. Тогда MU M ( X MX ) 1 M ( X MX ) 0. DU M (U 2 ) ( MU ) 2 M (U 2 ) 1 2 M ( X MX ) 2 2 1. 2 7.3. Ковариация Определение. Ковариацией двух случайных величин X и Y называется величина (обозначается cov(X,Y)), равная cov(X , Y ) M ( X MX )(Y MY ). Из свойств математических ожиданий cov(X , Y ) M ( XY ) MXMY. Если случайные величины X и Y независимы, то cov(X,Y)=0. Т. е. отличной от нуля может быть ковариация только для зависимых величин. Свойства. 1. Постоянный сомножитель можно вынести за знак ковариации cov(X , Y ) cov(X , Y ). 2. Ковариация от алгебраической суммы равна алгебраической сумме математических ожиданий от слагаемых, как по первому, так и по второму операнду. cov(X U , Y V ) cov(X , Y ) cov(X , V ) cov(U , Y ) cov(U , V ). Доказательство следует из свойств математического ожидания. Доказать самостоятельно. 3. Дисперсия суммы равна D( X Y ) M ( X MX ) 2 2M ( X MX )(Y MY ) M (Y MY )) 2 DX DY 2 cov(X Доказательство следует из формулы для суммы дисперсий (см. лекцию 7). Доказать самостоятельно. Ковариация не очень удобна для практических применений из-за свойства 1. Оно показывает, что при изменении масштаба измерения одного из операндов, ковариация меняется. 7.4. Коэффициент корреляции Определение. Коэффициентом корреляции двух случайных величин X и Y называется величина (обозначается rXY), равная rXY cov(X , Y ) . X Y Коэффициент корреляции - это ковариация нормированных случайных величин U=(X-MX)/X и V=(Y-MY)/Y. Покажем это: cov(U , V ) M (UV ) MUMV M (UV ) M ( X MX )(Y MY ) rXY . X Y Свойства. 1. Коэффициент корреляции не меняется при линейной замене операндов. Т. е. если заменить X на X+ и Y на Y+, где ,,, const, то коэффициент корреляции не изменится. Доказать самостоятельно. 2. Коэффициент корреляции удовлетворяет неравенству 1 r XY 1. Доказательство, Найдем дисперсию суммы двух нормированных случайных величин U=(X-MX)/X и V=(Y-MY)/Y . D(U V ) DU DV 2 cov(U , V ) 2 2rXY 0. Откуда следует, что -1rXY. Аналогично рассмотрим дисперсию их разности и покажем, что rXY1. Доказать самостоятельно. 3. Если rXY=1, то между случайными величинами X и Y существует линейная зависимость вида Y= X+, где , - const. Схема доказательства, Пусть rXY=-1. Тогда дисперсия суммы двух нормированных случайных величин U и V равна 0. По свойству дисперсий U+V= const. Откуда следует утверждение. Доказать самостоятельно. 4. Если случайные величины X и Y независимы, то rXY =0. Доказать самостоятельно. Обратное утверждение неверно. Это значит, что если rXY =0, то утверждать, что случайные величины X и Y независимы нельзя. Пример. Пусть случайная величина X имеет ряд распределения X -1 0 1 P 0,25 0,5 0,25 Тогда MX=-10,25+00,5+10,25=0. Пусть Y=X2. Тогда случайные величины X и Y зависимы. Вычислим ковариацию Cov(X,Y)=M(XY)-MXM(X2)=M(X3)-0 M(X2)= M(X3) Но в нашем случае M(X3)= M(X)=0. Значит rXY =0, но случайные величины X и Y зависимы. Коэффициент корреляции является мерой линейной зависимости. Равенство rXY = 0 означает, что отсутствует линейная зависимость, но может быть, как в нашем примере, нелинейная зависимость. Чем ближе rXY к единице, тем ближе связь к линейной.