случайных величин X, Y.

advertisement
Лекция №3
Статистический ряд.
Гистограмма
При большом числе наблюдений (порядка
сотен) простая статистическая совокупность
перестает быть, удобной формой записи
статистического материала — она становится
слишком громоздкой и мало наглядной.
Для придания ему большей компактности и
наглядности статистический материал должен
быть подвергнут дополнительной обработке —
строится так называемый «статистический
ряд».
Предположим, что в нашем распоряжений
результаты наблюдений над непрерывной
случайной величиной X, оформленные в виде
простой
статистической
совокупности.
Разделим
весь
диапазон
наблюденных
значений X на интервалы или «разряды» и
подсчитаем
количество
значений
mi,
приходящееся на каждый i-й разряд. Это число
разделим на общее число наблюдений п и
найдем частоту, соответствующую данному
разряду:
mi
p 
n
*
i
Сумма частот всех разрядов, очевидно,
должна быть равна единице.
Построим
таблицу,
в
которой
приведены разряды в порядке их
расположения, вдоль оси абсцисс и
соответствующие частоты. Эта таблица
называется статистическим рядом:
Ii
p
x1; x2
*
i
*
1
p
x2; x3
p
*
2
…
…
xi; xi+1
p
*
i
…
xk; xk+1
…
Ii — обозначение i-го разряда; xi; xi+1 — его границы;
p
pi* — соответствующая частота; k — число разрядов.
*
k
Статистический
ряд
часто
оформляется
графически в виде так называемой гистограммы.
Гистограмма строится следующим образом. По
оси абсцисс откладываются разряды, и на каждом
из разрядов как их основании строится
прямоугольник, площадь которого равна частоте
данного разряда. Для построения гистограммы
нужно частоту каждого разряда разделить на его
длину и полученное число взять в качестве высоты
прямоугольника. В случае равных по длине
разрядов
высоты
прямоугольников
пропорциональны соответствующим частотам. Из
способа построения гистограммы следует, что
полная площадь ее равна единице.
-4 -3
-2
-1
0
1
2
3
4
x
Выравнивание статистических
рядов
При обработке статистического материала
часто приходится решать вопрос о том, как
подобрать для данного статистического ряда
теоретическую
кривую
распределения,
выражающую лишь существенные черты
статистического материала, но не случайности,
связанные
с
недостаточным
объемом
экспериментальных данных. Такая задача
называется
задачей
выравнивания
(сглаживания) статистических рядов.
f(x)
x
Задача выравнивания заключается в том, чтобы
подобрать теоретическую плавную кривую распределения,
с той или иной точки зрения наилучшим образом
описывающую данное статистическое распределение

2
Распределение
Пирсона дает
2
возможность
оценить
степень
согласованности
теоретического
и
статистического распределения.
k
U  2 

i 1
(mi  npi ) 2
npi
де r - число «степеней свободы», равное
числу разрядов k
минус число
независимых
условий
(«связей»),
наложенных на частоты
Для распределения
таблицы:
составлены специальные
r,p
0.99
0.98
0.95
0.90
0.80
0.70
0.50
0.30
0.20
0.10
0.05
0.02
0.01
0.001
10
2.56
3.06
3.94
4.86
6.18
7.27
9.34
11.78
13.44
15.99
18.31
21.2
23.2
29.6
Пользуясь этими таблицами, можно для каждого
значения
и числа степеней свободы r найти
2
вероятность p того, что величина, распределенная по
закону  2 , превзойдет это значение.
Если эта вероятность весьма мала, гипотеза
отбрасывается как неправдоподобная. Если эта
вероятность относительно велика, гипотезу можно
признать не противоречащей опытным данным.
СИСТЕМЫ СЛУЧАЙНЫХ
ВЕЛИЧИН
Понятие о системе случайных величин
В
практических
применениях
теории
вероятностей
очень
часто
приходится сталкиваться с задачами, в которых
результат опыта описывается не одной
случайной величиной, а двумя или более
случайными
величинами,
образующими
комплекс или систему.
Свойства системы нескольких случайных
величин
не
исчерпываются
свойствами
отдельных величин, ее составляющих: помимо
этого, они включают также взаимные связи
(зависимости) между случайными величинами.
При рассмотрении вопросов, связанных с
системами случайных величин, удобно
пользоваться
геометрической
интерпретацией системы.
Например, систему двух случайных
величин (X, Y) можно изображать случайной
точкой на плоскости с координатами X и Y .
y
Y
0
X
x
Аналогично система трех случайных
величин
может
быть
изображена
случайной
точкой
в
трехмерном
пространстве. Часто бывает удобно
говорить о системе n случайных величин
как о «случайной точке в пространстве n
измерений».
Часто вместо образа случайной точкой
для геометрической интерпретации системы
случайных величин пользуются образом
случайного
вектора.
Систему
двух
случайных величин при этом рассматривают
как случайный вектор на плоскости хОу,
составляющие
которого
по
осям
представляют собой случайных величин Х,
y
Y.
Y
0
X
x
Система трех случайных величин
изображается случайным вектором в
трехмерном пространстве, система n
случайных
величин
—
случайным
вектором в пространстве n измерений.
При этом теория систем случайных
величин рассматривается как теория
случайных векторов.
Функция распределения
системы двух случайных
величин
Функцией распределения системы двух
случайных величин (X, Y) называется
вероятность совместного выполнения
двух неравенств Х < х и Y < у:
F (х,y) = Р ((Х < х)(Y < у))
Если пользоваться для геометрической
интерпретации системы образом случайной
точки, то функция распределения F(х, у)
есть не что иное, как вероятность попадания
случайной точки (X, У) в бесконечный
квадрант с вершиной в точке (x, у),
лежащий левее и ниже ее.
y
(x,y)
0
x
В аналогичной интерпретации функция
распределения одной случайной величины
X — обозначим ее F1 (x) – представляет
собой вероятность попадания случайной
точки в полуплоскость, ограниченную справа
абсциссой х.
y
0
x
x
Функция
распределения
одной
величины Y — F2 (y) — вероятность
попадания
в
полуплоскость,
ограниченную сверху ординатой у.
y
0
x
Сформулируем свойства для функции
распределения
системы
случайных
величин и
снова
воспользуемся
геометрической
интерпретацией
для
наглядной иллюстрации этих свойств.
1. Функция распределения F (х, у)
есть неубывающая функция обоих своих
аргументов, т. е.
при x2 > x1
при y2 > y1
F (x2, y) ≥ F (x1, y);
F (x, y2) ≥ F (x, y1).
2. Повсюду на -∞ функция распределения
равна нулю:
F (x, -∞) = F (-∞, y) = F (-∞, -∞)
В этом свойстве мы наглядно убеждаемся,
неограниченно отодвигая влево правую
границу квадранта (х → -∞) или вниз его
верхнюю границу (у → -∞) или делая это
одновременно с обеими границами; при этом
вероятность
попадания
в
квадрант
стремится к нулю.
3. При одном из аргументов, равном +∞,
функция
распределения
системы
превращается в функцию распределения
случайной
величины,
соответствующей
другому аргументу:
F (x, +∞) = F1 (х),
F (+∞, у) = F2 (y).
где F1 (х), F2 (y) – соответственно функции
распределения случайных величин X и Y.
В этом свойстве функции распределения можно
наглядно убедиться, смещая ту или иную из границ
квадранта на +∞; при этом в пределе квадранта
превращается
в
полуплоскость,
вероятность
попадания в которую есть функция распределения
одной из величин, входящих в систему.
4. Если оба аргумента равны + ∞,
функция распределения системы равна 1:
F (+ ∞, + ∞) =1
Действительно, при х→+∞, у→+∞
квадрант с вершиной (х, у) в пределе
обращается во всю плоскость хОу,
попадание
в
которую
есть
достоверное событие.
Аналогичным вопросом для системы
двух случайных
величин
является
вопрос
о
вероятности
попадания
случайной точки (X, У) в пределы
заданной области D на плоскости хОу
Условимся
событие,
состоящее в попадании
случайной точки (X, У) в
область D, обозначать
символом
y
D
0
x
( Х ,Y )  D
Выразим
через
функцию
распределения системы вероятность
попадания случайной точки (X, У) в
прямоугольник
R,
ограниченный
абсциссами α и β и ординатами γ и δ
y
Событие ( ХY )  D
будет равносильно
произведению двух
событий:
δ
R
γ
  Х   ,  Y  
0
α
β
x
Очевидно,
вероятность
попадания
в
прямоугольник R равна вероятности попадания
в квадрант (β,δ) минус вероятность попадания в
квадрант (α,δ) минус вероятность попадания в
квадрант (β,γ) плюс вероятность попадания в
квадрант (α,γ).
Отсюда получаем формулу, выражающую
вероятность попадания в прямоугольник через
функцию распределения системы:
Р(( Х , Y )  R)  F ( ,  )  F ( ,  )  F ( ,  )  F ( ,  )
Плотность распределения
системы двух случайных
величин
Распределение системы непрерывных
величин
обычно
характеризуют
не
функцией
распределения,
а
плотностью распределения.
y
Δy
RΔ
y
0
x
Δx
x
Пусть имеется система
двух
непрерывных
случайных величин (X, Y),
которая
интерпретируется
случайной
точкой
на
плоскости хОу. Рассмотрим
на этой плоскости малый
прямоугольник
RΔ
со
сторонами
Δx
и
Δy,
примыкающий к точке с
координатами
(х, у) .
Вероятность попадания в
этот
прямоугольник
по
формуле равна
Р(( Х , Y )  R )  F ( х  х, у  у)  F ( х  х, у)  F ( х, у  у)  F ( х, у)
Разделим вероятность попадания в
прямоугольник RΔ на площадь этого
прямоугольника и перейдем к пределу
при Δх → 0 и Δу → 0:
Р(( Х , Y )  R )
F ( х  х, у  у )  F ( х  х, у )  F ( х, у  у )  F ( х, у )

lim
lim
ху
ху
х0
х0
у 0
у 0
(1)
Предположим, что функция F (х, у) не
только
непрерывна,
но
и
дифференцируема; тогда правая часть
формулы (1) представляет собой вторую
смешанную
частную
производную
функции F (х,у) по х и у. Обозначим эту
производную f (х,у):
 2 F ( х, у )
''
f ( х, у ) 
 Fху ( х, у )
ху
Функция
f
плотностью
системы.
(х,у)
называется
распределения
Таким
образом,
плотность
распределения системы представляет
собой предел отношения вероятности
попадания в малый прямоугольник к
площади этого прямоугольника, когда оба
его размера стремятся к нулю; она может
быть выражена как вторая смешанная
частная
производная
функции
распределения
системы
по
обоим
аргументам.
Если
воспользоваться
«механической»
интерпретацией распределения системы как
распределения единичной массы по плоскости
хОу, функция f (х, у) представляет собой
плотность распределения массы в точке (х, у).
f(x,y)
0
y
x
Геометрически функцию
f(х,у)
можно
изобразить
некоторой поверхностью.
Эта
поверхность
аналогична
кривой
распределения для одной
случайной величины
и
называется
поверхностью
распределения.
Если пересечь поверхность распределения f
(х,у) плоскостью, параллельной плоскости хОу,
и спроектировать полученное сечение на
плоскость хОу, получится кривая, в каждой
точке
которой
плотность
распределения
постоянна.
Такие кривые называются кривыми равной
плотности.
Кривые
равной
плотности,
очевидно, представляют собой горизонтали
поверхности распределения. Часто бывает
удобно задавать распределение семейством
кривых равной плотности.
Рассматривая плотность распределения f (х)
для одной случайной величины, мы ввели
понятие «элемента вероятности» f(х)dх. Это
есть вероятность попадания случайной величины X на элементарный участок dх,
прилежащий к точке х. Аналогичное понятие
«элемента вероятности» вводится и для
системы двух случайных величин. Элементом
вероятности в данном случае называется
выражение
f ( х, у)dxdy.
Очевидно, элемент вероятности есть не
что иное, как вероятность попадания в
элементарный прямоугольник со
сторонами dх, dy, примыкающий к точке
(x, у).
y
1
R
0
1
x
Пользуясь понятием элемента вероятности, выведем
выражение для вероятности попадания случайной
точки в произвольную область D. Эта вероятность,
очевидно, может быть получена суммированием
(интегрированием) элементов вероятности по всей
области D:
Р(( Х , Y )  D)   f ( х, у )dxdy
( D)
Геометрически вероятность попадания в
область
D
изображается
объемом
цилиндрического тела С, ограниченного сверху
поверхностью распределения и опирающегося
на область D.
Формула для вероятности попадания в
прямоугольник R, ограниченный абсциссами α и
β и ординатами γ и δ:

Р(( Х , Y )  D)   f ( х, у )dxdy

Функция распределения F(x, у) есть
вероятность
попадания
в
бесконечный
квадрант; последний можно рассматривать как
прямоугольник, ограниченный абсциссами — ∞
и х и ординатами — ∞ и у:
х у
F ( х, у ) 
  f ( х, у)dxdy
 
Легко убедиться в следующих свойствах
плотности распределения системы:
1. Плотность распределения системы есть
функция неотрицательная:
f (х, у) ≥ 0.
Это
ясно
из
того,
что
плотность
распределения есть предел отношения двух
неотрицательных
величин:
вероятности
попадания в прямоугольник и площади
прямоугольника — и, следовательно, отрицательной быть не может.
2. Двойной интеграл в бесконечных
пределах от плотности распределения
системы равен единице:

  f ( х, у)dxdy  1

Геометрически это свойство означает,
что полный объем тела, ограниченного
поверхностью
распределения
и
плоскостью хОу, равен единице.
Зависимые и независимые
случайные величины.
Числовые характеристики
системы двух случайных
величин.
Корреляционный момент.
Коэффициент корреляции
Зависимые и независимые
случайные величины
При изучении систем случайных величин
всегда следует обращать внимание на степень
и характер их зависимости. Эта зависимость
может быть более или менее ярко выраженной,
более или менее тесной.
В некоторых случаях зависимость между
случайными величинами может быть настолько
тесной, что, зная значение одной случайной
величины, можно в точности указать значение
другой. В другом крайнем случае зависимость
между случайными величинами является
настолько слабой и отдаленной, что их можно
практически считать независимыми.
Случайная величина Y называется
независимой от случайной величины X,
если закон распределения величины Y не
зависит от того, какое значение приняла
величина X.
Для
непрерывных
случайных
величин условие независимости Y от X
может быть записано в виде:
f ( у х)  f 2 ( у )
при любом у.
Напротив, в случае, если Y зависит от X, то
f ( у х)  f 2 ( у )
Зависимость или независимость случайных
величин всегда взаимны: если величина Y не зависит
от X, то и величина X не зависит от Y.
Действительно, пусть Y не зависит от X:
f ( у х)  f 2 ( у )
Имеем:
f 1 ( х) f ( у х)  f 2 ( у ) f ( х у )
Получим
f ( у х)  f 1 ( х)
Случайные
величины
X
и
Y
называются
независимыми,
если
закон распределения каждой из них не
зависит от того, какое значение
приняла другая. В противном случае
величины
X
и
Y
называются
зависимыми.
Для
независимых
непрерывных
случайных величин теорема умножения
законов распределения принимает вид:
f ( х, у)  f1 ( х) f 2 ( у)
т. е. плотность распределения
системы независимых случайных
величин
равна
произведению
плотностей распределения отдельных
величин, входящих в систему.
Понятие
«зависимости»
случайных
величин, которым мы пользуемся в теории
вероятностей, несколько отличается от
обычного понятия «зависимости» величин,
которым мы оперируем в математике.
Действительно,
обычно
под
«зависимостью»
величин подразумевают
только один тип зависимости — полную,
жесткую, так называемую функциональную
зависимость.
Две величины X и Y называются
функционально зависимыми, если, зная
значение одной них, можно точно
указать значение другой.
В теории вероятностей мы встречаемся
с
другим,
более
общим
типом
зависимости — с вероятностной или
«стохастической»
зависимостью.
Если величина Y связана с величиной X
вероятностной зависимостью, то, зная
значение X, нельзя указать точно
значение, а можно указать только ее
закон распределения, зависящий от того,
какое значение приняла величина X.
Вероятностная
зависимость
может
быть более или менее тесной по мере
увеличения
тесноты
вероятностной
зависимости
Числовые характеристики системы двух
случайных величин. Корреляционный
момент. Коэффициент корреляции
Начальным моментом порядка k, s
системы
(X,У)
называется
математическое
ожидание
произведения k-й и s-й степени
соответствующих
центрированных
величин:
 k ,s  М [ Х Y ]
k
s
Центральным моментом порядка k,
s
системы
называется
математическое
ожидание
произведения k-й и s-й степени
соответствующих
центрированных
величин:


 k ,s  М [ Х Y ]
k
k
Первые
начальные
моменты
представляют собой уже известные нам
математические ожидания величин Х и Y,
входящих в систему:
тх  1,0  М [ Х 1Y 0 ]  М [ Х ],
т у   0,1  М [ Х 0Y 1 ]  М [Y ]
Совокупность математических ожиданий тх,
ту представляет собой характеристику
положения системы. Геометрически это
координаты средней точки на плоскости,
вокруг которой происходит рассеивание точки
(X, У).
Кроме первых начальных моментов, на
практике широко применяются еще
вторые
центральные
моменты
системы. Два из них представляют собой
уже известные нам дисперсии величин X
и У:



Dх   2,0  М [ Х 2 Y 0 ]  М [ Х 2 ]  D[ Х ];



Dх   0, 2  М [ Х 0 Y 2 ]  М [Y 2 ]  D[Y ]
характеризующие рассеивание случайной
точки в направлении осей Ох и Оу.
Особую роль как характеристика
системы играет второй смешанный
центральный момент:


1,1  М [ Х Y ]
т. е. математическое ожидание
произведения
центрированных
величин.
Характеристика
Кху,
называется
корреляционным моментом (иначе —
«моментом
связи»)
случайных
величин X, Y.
 
К ху  М [ Х Y ]  М [( Х  тх )(Y  m у )]
Для прерывных
корреляционный
формулой
случайных величин
момент выражается
К ху   ( xi  mx )( y j  m y ) pij
i
j
а для непрерывных — формулой

К ху 
 ( x  m )( y  m ) f ( x, y)dxdy
x

y
Корреляционный момент характеризует не
только зависимость величин, но и их
рассеивание. Действительно, если, например,
одна из величин (X, У) весьма мало
отклоняется
от
своего
математического
ожидания
(почти
не
случайна),
то
корреляционный момент будет мал, какой бы
тесной зависимостью ни были связаны
величины (X, У).
Поэтому для характеристики связи между
величинами (X, У) в чистом виде переходят от
момента Кху к безразмерной характеристике
rxy 
K xy
 x y
где
σх,σу — средние
отклонения величин X, У.
квадратические
rxy
Характеристика
называется
коэффициентом корреляции величины Х и Y.
Очевидно,
коэффициент
корреляции
обращается
в
нуль
одновременно
с
корреляционным моментом; следовательно, для
независимых случайных величин коэффициент
корреляции равен нулю.
Случайные
величины,
для
которых
корреляционный
момент
(а
значит
и
коэффициент
корреляции)
равен
нулю,
называются некоррелированными (иногда —
«несвязанными»).
Коэффициент корреляции характеризует
степень тесноты линейной зависимости
между случайными величинами.
Если случайные величины X и Y связаны
точной
линейной
функциональной
зависимостью:
Y  ax  b
Коэффициентом корреляции равен
rxy = ±1, причем знак «плюс» или «минус»
берется
в
зависимости
от
того,
положителен
или
отрицателен
коэффициент а.
В общем случае, когда величины X и Y
связаны произвольной вероятностной
зависимостью, коэффициент корреляции
может иметь значение в пределах:
-1 < rxy< 1
В
случае
rxy>0
говорят
о
положительной корреляции величин X
и Y, в случае rxy< 0
— об
отрицательной корреляции.
Положительная корреляция между
случайными величинами означает, что
при возрастании одной из них другая
имеет тенденцию в среднем возрастать;
отрицательная корреляция означает,
что при возрастании одной из случайных
величин другая имеет тенденцию в
среднем убывать.
Download