Плотность распределения системы двух случайных величин

advertisement
Лекция №4
Плотность распределения
системы двух случайных
величин
Распределение системы непрерывных
величин
обычно
характеризуют
не
функцией
распределения,
а
плотностью распределения.
y
Δy
RΔ
y
0
x
Δx
x
Пусть имеется система
двух
непрерывных
случайных величин (X, Y),
которая
интерпретируется
случайной
точкой
на
плоскости хОу. Рассмотрим
на этой плоскости малый
прямоугольник
RΔ
со
сторонами
Δx
и
Δy,
примыкающий к точке с
координатами
(х, у) .
Вероятность попадания в
этот
прямоугольник
по
формуле равна
Р(( Х , Y )  R )  F ( х  х, у  у)  F ( х  х, у)  F ( х, у  у)  F ( х, у)
Разделим вероятность попадания в
прямоугольник RΔ на площадь этого
прямоугольника и перейдем к пределу
при Δх → 0 и Δу → 0:
Р(( Х , Y )  R )
F ( х  х, у  у )  F ( х  х, у )  F ( х, у  у )  F ( х, у )

lim
lim
ху
ху
х0
х0
у 0
у 0
(1)
Предположим, что функция F (х, у) не
только
непрерывна,
но
и
дифференцируема; тогда правая часть
формулы (1) представляет собой вторую
смешанную
частную
производную
функции F (х,у) по х и у. Обозначим эту
производную f (х,у):
 2 F ( х, у )
''
f ( х, у ) 
 Fху ( х, у )
ху
Функция
f
плотностью
системы.
(х,у)
называется
распределения
Таким
образом,
плотность
распределения системы представляет
собой предел отношения вероятности
попадания в малый прямоугольник к
площади этого прямоугольника, когда оба
его размера стремятся к нулю; она может
быть выражена как вторая смешанная
частная
производная
функции
распределения
системы
по
обоим
аргументам.
Если
воспользоваться
«механической»
интерпретацией распределения системы как
распределения единичной массы по плоскости
хОу, функция f (х, у) представляет собой
плотность распределения массы в точке (х, у).
f(x,y)
0
y
x
Геометрически функцию
f(х,у)
можно
изобразить
некоторой поверхностью.
Эта
поверхность
аналогична
кривой
распределения для одной
случайной величины
и
называется
поверхностью
распределения.
Если пересечь поверхность распределения f
(х,у) плоскостью, параллельной плоскости хОу,
и спроектировать полученное сечение на
плоскость хОу, получится кривая, в каждой
точке
которой
плотность
распределения
постоянна.
Такие кривые называются кривыми равной
плотности.
Кривые
равной
плотности,
очевидно, представляют собой горизонтали
поверхности распределения. Часто бывает
удобно задавать распределение семейством
кривых равной плотности.
Рассматривая плотность распределения f (х)
для одной случайной величины, мы ввели
понятие «элемента вероятности» f(х)dх. Это
есть вероятность попадания случайной величины X на элементарный участок dх,
прилежащий к точке х. Аналогичное понятие
«элемента вероятности» вводится и для
системы двух случайных величин. Элементом
вероятности в данном случае называется
выражение
f ( х, у)dxdy.
Очевидно, элемент вероятности есть не
что иное, как вероятность попадания в
элементарный прямоугольник со
сторонами dх, dy, примыкающий к точке
(x, у).
y
1
R
0
1
x
Пользуясь понятием элемента вероятности, выведем
выражение для вероятности попадания случайной
точки в произвольную область D. Эта вероятность,
очевидно, может быть получена суммированием
(интегрированием) элементов вероятности по всей
области D:
Р(( Х , Y )  D)   f ( х, у )dxdy
( D)
Геометрически вероятность попадания в
область
D
изображается
объемом
цилиндрического тела С, ограниченного сверху
поверхностью распределения и опирающегося
на область D.
Формула для вероятности попадания в
прямоугольник R, ограниченный абсциссами α и
β и ординатами γ и δ:

Р(( Х , Y )  D)   f ( х, у )dxdy

Функция распределения F(x, у) есть
вероятность
попадания
в
бесконечный
квадрант; последний можно рассматривать как
прямоугольник, ограниченный абсциссами — ∞
и х и ординатами — ∞ и у:
х у
F ( х, у ) 
  f ( х, у)dxdy
 
Легко убедиться в следующих свойствах
плотности распределения системы:
1. Плотность распределения системы есть
функция неотрицательная:
f (х, у) ≥ 0.
Это
ясно
из
того,
что
плотность
распределения есть предел отношения двух
неотрицательных
величин:
вероятности
попадания в прямоугольник и площади
прямоугольника — и, следовательно, отрицательной быть не может.
2. Двойной интеграл в бесконечных
пределах от плотности распределения
системы равен единице:

  f ( х, у)dxdy  1

Геометрически это свойство означает,
что полный объем тела, ограниченного
поверхностью
распределения
и
плоскостью хОу, равен единице.
Зависимые и независимые
случайные величины.
Числовые характеристики
системы двух случайных
величин.
Корреляционный момент.
Коэффициент корреляции
Зависимые и независимые
случайные величины
При изучении систем случайных величин
всегда следует обращать внимание на степень
и характер их зависимости. Эта зависимость
может быть более или менее ярко выраженной,
более или менее тесной.
В некоторых случаях зависимость между
случайными величинами может быть настолько
тесной, что, зная значение одной случайной
величины, можно в точности указать значение
другой. В другом крайнем случае зависимость
между случайными величинами является
настолько слабой и отдаленной, что их можно
практически считать независимыми.
Случайная величина Y называется
независимой от случайной величины X,
если закон распределения величины Y не
зависит от того, какое значение приняла
величина X.
Для
непрерывных
случайных
величин условие независимости Y от X
может быть записано в виде:
f ( у х)  f 2 ( у )
при любом у.
Напротив, в случае, если Y зависит от X, то
f ( у х)  f 2 ( у )
Зависимость или независимость случайных
величин всегда взаимны: если величина Y не зависит
от X, то и величина X не зависит от Y.
Действительно, пусть Y не зависит от X:
f ( у х)  f 2 ( у )
Имеем:
f 1 ( х) f ( у х)  f 2 ( у ) f ( х у )
Получим
f ( у х)  f 1 ( х)
Случайные
величины
X
и
Y
называются
независимыми,
если
закон распределения каждой из них не
зависит от того, какое значение
приняла другая. В противном случае
величины
X
и
Y
называются
зависимыми.
Для
независимых
непрерывных
случайных величин теорема умножения
законов распределения принимает вид:
f ( х, у)  f1 ( х) f 2 ( у)
т. е. плотность распределения
системы независимых случайных
величин
равна
произведению
плотностей распределения отдельных
величин, входящих в систему.
Понятие
«зависимости»
случайных
величин, которым мы пользуемся в теории
вероятностей, несколько отличается от
обычного понятия «зависимости» величин,
которым мы оперируем в математике.
Действительно,
обычно
под
«зависимостью»
величин подразумевают
только один тип зависимости — полную,
жесткую, так называемую функциональную
зависимость.
Две величины X и Y называются
функционально зависимыми, если, зная
значение одной них, можно точно
указать значение другой.
В теории вероятностей мы встречаемся
с
другим,
более
общим
типом
зависимости — с вероятностной или
«стохастической»
зависимостью.
Если величина Y связана с величиной X
вероятностной зависимостью, то, зная
значение X, нельзя указать точно
значение, а можно указать только ее
закон распределения, зависящий от того,
какое значение приняла величина X.
Вероятностная
зависимость
может
быть более или менее тесной по мере
увеличения
тесноты
вероятностной
зависимости
Числовые характеристики системы двух
случайных величин. Корреляционный
момент. Коэффициент корреляции
Начальным моментом порядка k, s
системы
(X,У)
называется
математическое
ожидание
произведения k-й и s-й степени
соответствующих
центрированных
величин:
 k ,s  М [ Х Y ]
k
s
Центральным моментом порядка k,
s
системы
называется
математическое
ожидание
произведения k-й и s-й степени
соответствующих
центрированных
величин:


 k ,s  М [ Х Y ]
k
k
Первые
начальные
моменты
представляют собой уже известные нам
математические ожидания величин Х и Y,
входящих в систему:
тх  1,0  М [ Х 1Y 0 ]  М [ Х ],
т у   0,1  М [ Х 0Y 1 ]  М [Y ]
Совокупность математических ожиданий тх,
ту представляет собой характеристику
положения системы. Геометрически это
координаты средней точки на плоскости,
вокруг которой происходит рассеивание точки
(X, У).
Кроме первых начальных моментов, на
практике широко применяются еще
вторые
центральные
моменты
системы. Два из них представляют собой
уже известные нам дисперсии величин X
и У:



Dх   2,0  М [ Х 2 Y 0 ]  М [ Х 2 ]  D[ Х ];



Dх   0, 2  М [ Х 0 Y 2 ]  М [Y 2 ]  D[Y ]
характеризующие рассеивание случайной
точки в направлении осей Ох и Оу.
Особую роль как характеристика
системы играет второй смешанный
центральный момент:


1,1  М [ Х Y ]
т. е. математическое ожидание
произведения
центрированных
величин.
Характеристика
Кху,
называется
корреляционным моментом (иначе —
«моментом
связи»)
случайных
величин X, Y.
 
К ху  М [ Х Y ]  М [( Х  тх )(Y  m у )]
Для прерывных
корреляционный
формулой
случайных величин
момент выражается
К ху   ( xi  mx )( y j  m y ) pij
i
j
а для непрерывных — формулой

К ху 
 ( x  m )( y  m ) f ( x, y)dxdy
x

y
Корреляционный момент характеризует не
только зависимость величин, но и их
рассеивание. Действительно, если, например,
одна из величин (X, У) весьма мало
отклоняется
от
своего
математического
ожидания
(почти
не
случайна),
то
корреляционный момент будет мал, какой бы
тесной зависимостью ни были связаны
величины (X, У).
Поэтому для характеристики связи между
величинами (X, У) в чистом виде переходят от
момента Кху к безразмерной характеристике
rxy 
K xy
 x y
где
σх,σу — средние
отклонения величин X, У.
квадратические
rxy
Характеристика
называется
коэффициентом корреляции величины Х и Y.
Очевидно,
коэффициент
корреляции
обращается
в
нуль
одновременно
с
корреляционным моментом; следовательно, для
независимых случайных величин коэффициент
корреляции равен нулю.
Случайные
величины,
для
которых
корреляционный
момент
(а
значит
и
коэффициент
корреляции)
равен
нулю,
называются некоррелированными (иногда —
«несвязанными»).
Коэффициент корреляции характеризует
степень тесноты линейной зависимости
между случайными величинами.
Если случайные величины X и Y связаны
точной
линейной
функциональной
зависимостью:
Y  ax  b
Коэффициентом корреляции равен
rxy = ±1, причем знак «плюс» или «минус»
берется
в
зависимости
от
того,
положителен
или
отрицателен
коэффициент а.
В общем случае, когда величины X и Y
связаны произвольной вероятностной
зависимостью, коэффициент корреляции
может иметь значение в пределах:
-1 < rxy< 1
В
случае
rxy>0
говорят
о
положительной корреляции величин X
и Y, в случае rxy< 0
— об
отрицательной корреляции.
Положительная корреляция между
случайными величинами означает, что
при возрастании одной из них другая
имеет тенденцию в среднем возрастать;
отрицательная корреляция означает,
что при возрастании одной из случайных
величин другая имеет тенденцию в
среднем убывать.
НОРМАЛЬНЫЙ ЗАКОН
РАСПРЕДЕЛЕНИЯ
ДЛЯ СИСТЕМ СЛУЧАЙНЫХ ВЕЛИЧИН
Из законов распределения системы
двух случайных величин имеет смысл
специально рассмотреть нормальный
закон,
как
имеющий
наибольшее
распространение на практике. Так как
система
двух
случайных
величин
изображается случайной точкой на
плоскости,
нормальный
закон
для
системы двух величин часто называют
«нормальным законом на плоскости».
В общем случае плотность нормального
распределения
двух
случайных
величин
выражается формулой
f ( x, y ) 
1
2 x y 1  r 2
1

2(1 r
e
 (xm )
2r ( x  m )( y  m ) ( y  m ) 




) 

 
2
2
x
2
x
y
2
x
y
2
x
y
y
Этот закон зависит от пяти параметров: mx, my,
σx, σy и r.
Параметры тх, ту представляют собой
математические
ожидания
(центры
рассеивания) величин X и У; σx, σy — их средние
квадратические отклонения; r — коэффициент
корреляции величин X и У.
Рассматривая
выражение
для
плотности
нормального распределения на плоскости, мы
видим, что нормальный закон на плоскости
полностью
определяется
заданием
пяти
параметров: двух координат центра рассеивания
тх, ту, двух средних квадратических отклонений σx,
σу и одного коэффициента корреляции r. В свою
очередь последние три параметра σx, σу и r
полностью
определяются
элементами
корреляционной матрицы: дисперсиями Dх, Dу и
корреляционным моментом Кxy.
Таким
образом,
минимальное
количество
числовых
характеристик
системы
—
математические
ожидания,
дисперсии
и
корреляционный момент — в случае, когда система
подчинена нормальному закону, определяет собой
полностью закон распределения, т. е. образует
исчерпывающую систему характеристик.
Обобщенный релеевский закон
распределения
Функция распределения, обобщает релеевский закон
распределения
2
x
W ( x)  2

x
 2
e 2 , x
0
Поэтому она может называться обобщенной функцией
распределения Релея.
W1( x) 
x

2

e
2
2
x 
2
2
I0 
x

2
,x 0
Обобщенный
реевский
закон
распределения
характеризуется соотношением сигнал/шум  / 
  const
1   2   3
0.025
1
0.02
W1 ( j )
W2 ( j ) 0.015
W3 ( j )
0.01
2
0.005
0
10
3
20
30
j
40
50
 /
Если
мало, то обобщенная
функция распределения Релея мало чем
отличается
от
релеевского
закона
распределения, причем поправка может быть
получена путем разложения функции Бесселя в
степенной ряд.

 1

Если
и x
близко к  ,
обобщенная функция распределения Релея
переходит в нормальную с параметрами  и 
Download