ТМ к лекции 6

реклама
ТМ к лекции № 6
Основные свойства числовых характеристик
7.1 Теоремы о математических ожиданиях
Теорема 1. Математическое ожидание постоянной равно этой
постоянной.
Доказательство. Мы можем рассматривать постоянную величину как предельный случай случайной величины, которая принимает
единственное значение с вероятностью, равной 1. Тогда
Mc=1c=c
Теорема 2. Математическое ожидание от алгебраической суммы
случайных величин равно алгебраической сумме математических
ожиданий от слагаемых.
M ( X  Y )  MX  MY .
Доказательство. Случай 1. Пусть X и Y две дискретные случайные величины с конечным числом возможных значений. Тогда
M ( X  Y )  ( x1  y1 ) p11  ( x2  y1 ) p12    ( xn  y1 ) p1n 
 ( x1  y 2 ) p 21  ( x2  y 2 ) p 22    ( xn  y 2 ) p 2n 
. . . . . . . .
. . . . . . . . . . . . . .
 ( x1  y m ) p m1  ( x2  y m ) p m 2    ( xn  y m ) p mn 
Раскроем скобки и произведем перегруппировку
 x1 ( p11  p 21    p m1 ) 
 x 2 ( p12  p 22    p m 2 ) 
. . . . . . . . . .
 x n ( p1n  p 2 n    p mn ) 
 y1 ( p11  p12    p1n ) 
 y 2 ( p 21  p 22    p 2 n ) 
. . . . . . . . . .
 y m ( p m1  p m 2    p mn ) 
 x1q1  x 2 q 2   x n q n 
 y1 p1  y 2 p 2   y m p m  MX  MY .
Проведем еще раз тоже доказательство в обозначениях сумм.
m n
m
n
n
m
m
n
i 1k 1
i 1
k 1
ki1
i 1
i 1
ki1
M ( X  Y )    ( x k  yi ) pik   yi  pik   xk  pik   yi pi   x k q k  MX  MY
Случай 2. Пусть X и Y две непрерывные случайные величины с
плотностью распределения p(x,y). Тогда
 
  
  


M ( X  Y )    ( x  y ) p( x, y )dxdy   x  p( x, y )dy dx   y  p( x, y )dx dy 
 
  
  






  xp ( x)dx   yp ( y )dy  MX  MY .
Теорема 3. Математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий от сомножителей.
M ( XY )  MX  MY.
Случай 1. Пусть X и Y две дискретные случайные величины с
конечным числом возможных значений. Так как X и Y независимы,
то pik=pipk. Тогда
m n
m n
m
n
i 1k 1
i 1k 1
i 1
k 1
M ( XY )    ( x k yi ) pik    x k yi pi p k   yi pi  x k p k  MX  MY .
Случай непрерывных случайных величин рассмотреть самостоятельно.
Теорема 4. Постоянный сомножитель можно вынести за знак математического ожидания.
M (CY )  C  MY .
где C=const.
Доказательство. Считая, что постоянная величина есть предельный случай случайной величины, применим теорему 3. Очевидно, что
C и Y независимы. Отсюда следует утверждение.
Следствие. Математическое ожидание отклонения равно 0.
Доказательство. M(X-MX)=MX- M(MX)= MX- MX=0.
7.2. Теоремы о дисперсиях
Теорема 1. Дисперсия постоянной равна нулю.
Доказательство. Мы можем рассматривать постоянную величину как предельный случай случайной величины, которая принимает
единственное значение с вероятностью, равной 1. Тогда
MC  C;DC  M (C  MC) 2  M (C  C ) 2  M (0) 2  0.
Теорема 2. Постоянный сомножитель можно вынести за знак
дисперсии под знаком возведения в квадрат.
D(CX )  C 2  DX .
где C=const.
Доказательство.
D(CX )  M (CX  M (CX )) 2  M (CX  CMX ) 2  M (C ( X  MX )) 2  M (C 2 ( X  MX
 C 2 M ( X  MX ) 2  C 2 DX .
Теорема 3. Дисперсия суммы случайных независимых величин
равно сумме дисперсий слагаемых.
D( X  Y )  DX  DY .
Доказательство. Из независимости случайных величин и следствия получаем
M ( X  MX )(Y  MY )  0
Тогда
D( X  Y )  M ( X  Y  M ( X  Y )) 2  M (( X  MX )  (Y  MY )) 2  M (( X  MX ) 2 
 2( X  MX )(Y  MY )  (Y  MY )) 2  M ( X  MX ) 2  2 M ( X  MX )(Y  MY ) 
 M (Y  MY )) 2  M ( X  MX ) 2  M (Y  MY )) 2  DX  DY .
Следствие 1. Дисперсия случайной величины неотрицательна.
Причем DX=0 только тогда, когда X=const.
Доказательство. Так как (X-MX)20, то DX=M (X-MX)20. Величина (X-MX)2=0 только тогда, когда X-MX=0. Или X=MX=const.
Следствие 2. Дисперсия разности двух случайных независимых
величин равна сумме дисперсий слагаемых.
D( X  Y )  DX  DY .
Доказательство
D( X  Y )  D( X  (Y ))  DX  D(Y )  DX  (1) 2 D(Y )  DX  D(Y ).
Следствие 3. Дисперсия равна
DX  M ( X  MX ) 2  M ( X 2  2 XMX  ( MX ) 2 )  M ( X 2 )  2MXMX  ( MX ) 2 
 M ( X 2 )  ( MX ) 2 .
Сравнивать две случайные величины с разными характеристиками сложно. Поэтому для сравнения их нормируют по формуле
U=(X-MX)/. Тогда
MU  M (
X  MX

)
1

M ( X  MX )  0.
DU  M (U 2 )  ( MU ) 2  M (U 2 ) 
1
2
M ( X  MX ) 2 
2
 1.
2
7.3. Ковариация
Определение. Ковариацией двух случайных величин X и Y
называется величина (обозначается cov(X,Y)), равная
cov(X , Y )  M ( X  MX )(Y  MY ).
Из свойств математических ожиданий
cov(X , Y )  M ( XY )  MXMY.
Если случайные величины X и Y независимы, то cov(X,Y)=0. Т.
е. отличной от нуля может быть ковариация только для зависимых
величин.
Свойства.
1. Постоянный сомножитель можно вынести за знак ковариации
cov(X , Y )   cov(X , Y ).
2. Ковариация от алгебраической суммы равна алгебраической
сумме математических ожиданий от слагаемых, как по первому, так и
по второму операнду.
cov(X  U , Y  V )  cov(X , Y )  cov(X , V )  cov(U , Y )  cov(U , V ).
Доказательство следует из свойств математического ожидания.
Доказать самостоятельно.
3. Дисперсия суммы равна
D( X  Y )  M ( X  MX ) 2  2M ( X  MX )(Y  MY )  M (Y  MY )) 2  DX  DY  2 cov(X
Доказательство следует из формулы для суммы дисперсий (см.
лекцию 7). Доказать самостоятельно.
Ковариация не очень удобна для практических применений из-за
свойства 1. Оно показывает, что при изменении масштаба измерения
одного из операндов, ковариация меняется.
7.4. Коэффициент корреляции
Определение. Коэффициентом корреляции двух случайных величин X и Y называется величина (обозначается rXY), равная
rXY 
cov(X , Y )
.
 X Y
Коэффициент корреляции - это ковариация нормированных случайных величин U=(X-MX)/X и V=(Y-MY)/Y. Покажем это:
cov(U , V )  M (UV )  MUMV  M (UV ) 
M ( X  MX )(Y  MY )
 rXY .
 X Y
Свойства.
1. Коэффициент корреляции не меняется при линейной замене
операндов. Т. е. если заменить X на X+ и Y на Y+, где ,,, const, то коэффициент корреляции не изменится. Доказать самостоятельно.
2. Коэффициент корреляции удовлетворяет неравенству
 1  r XY  1.
Доказательство, Найдем дисперсию суммы двух нормированных
случайных величин U=(X-MX)/X и V=(Y-MY)/Y .
D(U  V )  DU  DV  2 cov(U , V )  2  2rXY  0.
Откуда следует, что -1rXY. Аналогично рассмотрим дисперсию
их разности и покажем, что rXY1. Доказать самостоятельно.
3. Если rXY=1, то между случайными величинами X и Y существует линейная зависимость вида Y= X+, где , - const.
Схема доказательства, Пусть rXY=-1. Тогда дисперсия суммы
двух нормированных случайных величин U и V равна 0. По свойству
дисперсий U+V= const. Откуда следует утверждение. Доказать самостоятельно.
4. Если случайные величины X и Y независимы, то rXY =0. Доказать самостоятельно.
Обратное утверждение неверно. Это значит, что если rXY =0, то
утверждать, что случайные величины X и Y независимы нельзя.
Пример.
Пусть случайная величина X имеет ряд распределения
X
-1
0
1
P
0,25
0,5
0,25
Тогда MX=-10,25+00,5+10,25=0. Пусть Y=X2. Тогда случайные
величины X и Y зависимы. Вычислим ковариацию
Cov(X,Y)=M(XY)-MXM(X2)=M(X3)-0 M(X2)= M(X3)
Но в нашем случае M(X3)= M(X)=0. Значит rXY =0, но случайные
величины X и Y зависимы.
Коэффициент корреляции является мерой линейной зависимости. Равенство rXY = 0 означает, что отсутствует линейная зависимость, но может быть, как в нашем примере, нелинейная зависимость.
Чем ближе rXY к единице, тем ближе связь к линейной.
Похожие документы
Скачать