ГЛАВА 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ §1. Дискретные случайные величины Одним из основных понятий теории вероятностей является понятие случайной величины. Случайная величина ξ есть число, которое ставится в соответствие каждому возможному исходу случайного эксперимента, т.е. ее можно рассматривать как функцию ξ (ω ) на пространстве элементарных ~ событий Ω . Пусть (Ω,Ω, P ) – произвольное вероятностное пространство. Определение 1. Если для любых x ∈ R , ω ∈ Ω выполняется условие измеримости (ξ < x ) ∈ Ω~ , (1) то функция ξ (ω ) : Ω → R называется случайной величиной, где R множество вещественных чисел. Пример. Пусть испытание состоит в бросании монеты. Требуется определить случайную величину числа появлений герба. Решение. Элементарными событиями такого испытания является событие ω1 = (г ) , состоящее в появлении герба, и событие ω2 = ( р ) , состоящее в ~ появлении решетки, так что Ω = {ω1, ω2 }, Ω = {Ω, ω1, ω2 , ∅}. Определим функцию ξ (ω ) : Ω = {ω1, ω2 } → R = {0,1}, где ξ (ω1 ) = 1, ξ (ω2 ) = 0 . Несложно видеть, что ⎧∅, x ≤ 0 (ξ < x ) = ⎪⎨ω2 , 0 < x ≤ 1 . ⎪Ω, x > 1 ⎩ ~ ~ ~ Так как ∅ ∈ Ω, Ω ∈ Ω, ω2 ∈ Ω , то условие измеримости (1) выполнено, и, следовательно, функция ξ (ω ) : Ω = {ω1, ω2 } → R = {0,1} является случайной величиной. Так как по условию (1) множества (ξ < x ) являются случайными событиями, то для них можно определить вероятность, что позволяет определить функцию распределения случайной величины, которая, с одной стороны, является неслучайной функцией, с другой – несет всю информацию, заложенную в случайной величине. Определение 2. Функцией распределения (СВ) ξ называется функция Fξ ( x ) : R → [0,1] , такая что для любых x ∈ R, ω ∈ Ω Fξ ( x ) = P(ξ < x ) . Определение 3. Дискретная случайная величина (СВ) – это (СВ), возможные значения которой можно записать в виде конечной или бесконечной числовой последовательности x1, x2 , .....xn ,...... Дискретная (СВ) считается заданной, если задан ее закон распределения. Закон распределения дискретной (СВ) можно задать таблично, аналитически и графически. I.Простейшей формой задания закона распределения дискретной (СВ) является таблица вида: xi x1 x2 ………. xn pi p1 p2 ………. pn Здесь x1, x2 , .....xn ,...... возможные значения (СВ) ξ , pi = P(ξ = xi ) – вероятности возможных значений, ∑ pi = 1 . Такую таблицу называют рядом i распределения. II.Закон распределения (СВ) может быть задан аналитически ее функцией распределения F (x ) ≡ P(ξ < x ) , которая для дискретной (СВ) имеет вид F (x ) ≡ P(ξ < x ) = ∑ pi , xi < x где суммируются вероятности тех значений (СВ), которые меньше x . III.Закон дискретной (СВ) может быть также задан графически, когда по оси X откладываются возможные значения (СВ), а по оси Y значения их вероятностей. Фигура, ограниченная ломанной линией, соединяющей точки (xi , pi ) , и осью Х, называется многоугольником распределения. §2. Свойства функции распределения Отметим наиболее часто употребляемые свойства функции распределения. Свойство 1. Значения функции распределения принадлежат отрезку [0,1] , т.е. 0 ≤ F (x ) ≤ 1 . Доказательство. вероятности По определению функция распределения равна F (x ) ≡ P(ξ < x ) , а вероятность всегда есть неотрицательное число, не превышающее единицы 0 ≤ P ≤ 1 , так что и функция 0 ≤ F (x ) ≤ 1 , что и требовалось показать. Свойство 2. Вероятность того, что a ≤ ξ < b равна P (a ≤ ξ < b ) = F (b ) − F (a ) . Доказательство. Очевидно, события (a ≤ ξ < b ), (ξ < a ) – несовместны и (ξ < b ) = (a ≤ ξ < b ) + (ξ < a ) , так что по теореме сложения вероятностей несовместных событий P (ξ < b ) = P (a ≤ ξ < b ) + P(ξ < a ) Откуда находим P (a ≤ ξ < b ) = P (ξ < b ) − P (ξ < a ) = F (b ) − F (a ) . Свойство 3. Функция распределения является неубывающей функцией, т.е. F ( x2 ) ≥ F ( x1 ), при x2 > x1 . Доказательство. По свойству (2) P(x1 ≤ ξ < x2 ) = F (x2 ) − F (x1 ) , а так как P ( x1 ≤ ξ < x2 ) ≥ 0 , то и F ( x2 ) ≥ F ( x1 ), что и требовалось показать. Свойство 4. ⎧ lim F ( x ) = 0 ⎪⎪ x → −∞ ⎨ ⎪ lim F ( x ) = 1 ⎪⎩ x → +∞ Доказательство. Так как (ξ < −∞ ) = Ø, то lim F (x ) = lim P(ξ < x ) = P(ξ < −∞ ) = P (Ø)=0. x → −∞ Аналогично, x → −∞ lim F (x ) = lim P(ξ < x ) = P(ξ < ∞ ) = P (Ω)=1, x →∞ что и требовалось x →∞ показать. Замечание. Для дискретной случайной величины функция распределения всегда есть разрывная функция. Функция F (x ) при значениях аргумента, соответствующих дискретным значениям, имеет конечные скачки, а между двумя любыми соседними значениями остается постоянной. Величина скачка равна вероятности возможного значения дискретной величины, а сумма всех скачков равна единице. Пример. Бросают 3 монеты разного достоинства. Требуется: 1) задать случайную величину ξ числа выпавших решеток; 2) построить ряд распределения; 3) найти функцию распределения; 4) найти вероятность P (1 ≤ ξ < 3) . Решение. Возможные неразложимые исходы испытания таковы: ω1 = ( ГГГ ), ω2 = ( ГГР ), ω3 = ( ГРР ), ω4 = (РРР ), ω5 = ( ГРГ ), ω6 = (РГГ ), ω7 = (РРГ ), ω8 = (РГР ). Поэтому областью определения (СВ) ξ является пространство элементарных событий Ω = {ωi }, i = 1,2,...8 , а областью значений ξ являются целые числа R = (0,1,2,3) , так что ξ (ω ) : Ω(ωi ) → R = (0,1,2,3) . Вероятности возможных значений ξ равны: ( ) ( ) ( ) 3 m 1 = , p1 = P(ξ = 1) = P(ω2 + ω5 + ω6 ) = P ω1 + P ω 2 + P ω3 = , 8 n 8 3 p2 = P(ξ = 2 ) = P(ω3 + ω7 + ω8 ) = P ω3 + P ω7 + P ω8 = , 8 1 p3 = P(ξ = 3) = P(ω4 ) = . 8 p0 = P(ξ = 0) = P(ω1 ) = ( ) ( ) ( ) Тогда ряд распределения дискретной (СВ) ξ имеет вид: xi 0 1 2 3 pi 1 8 3 8 3 8 1 8 Ряд распределения характеризует закон распределения в табличном виде. По формуле F (x ) ≡ P(ξ < x ) = ∑ pi найдем функцию распределения xi < x ⎧0, x ≤ 0 ⎪1 / 8, 0 < x ≤ 1 ⎪⎪ F (x ) ≡ P(ξ < x ) = ∑ pi = ⎨4 / 8, 1 < x ≤ 2 ⎪7 / 8, 2 < x ≤ 3 xi < x ⎪ ⎪⎩1, x > 3 Функция распределения характеризует закон распределения в аналитическом виде. Откуда по свойству (2) для функции распределения P(1 ≤ ξ < 3) = F (3) − F (1) = 7 1 3 − = . 8 8 4 §3. Непрерывные случайные величины Определение. Непрерывной (СВ) называется такая (СВ), для которой существует непрерывная функция f (x ) , такая что при любом x f (x ) = dF ( x ) . dx Функцию называют плотностью распределения вероятностей. Свойства плотности распределения Свойство 1. Плотность распределения является неотрицательной функцией, т.е. f ( x ) ≥ 0 . Доказательство. По третьему свойству функция распределения является неубывающей функцией. Из курса математического анализа известно, что dF ( x ) ≥ 0 , так что согласно определению dx плотность распределения удовлетворяет неравенству f (x ) ≥ 0 . для неубывающей функции Свойство 2. Вероятность того, что a ≤ ξ < b равна значению определенного интеграла P(a ≤ ξ < b ) = b ∫ f (x )dx . a Доказательство. По второму свойству для функции распределения P(a ≤ ξ < b ) = F (b ) − F (a ) . (1) F (b ) − F (a ) = ∫ F ′(x )dx . a Подставляя (2) в (1) и учитывая определение f (x ) = F ′(x ) , получим (2) С другой стороны по формуле Ньютона-Лейбница b P(a ≤ ξ < b ) = b ∫ f (x )dx , a что и требовалось показать. Свойство 3. Связь функции распределения F (x ) и соответствующей ей плотности распределения можно представить в интегральной форме F (x ) = x ∫ f (z )dz . −∞ Доказательство. Согласно второму свойству для плотности распределения, второму и четвертому свойствам для функции распределения x ∫ f (z )dz = P(− ∞ < ξ < x ) = F (x ) − F (− ∞ ) = F (x ) , −∞ что и требовалось показать. Свойство 4. Несобственный интеграл второго рода плотности распределения равен единице ∞ ∫ f (x )dx = 1 . −∞ Доказательство. Согласно второму свойству для плотности распределения, второму и четвертому свойствам для функции распределения ∞ ∫ f (z )dz = P(− ∞ < ξ < ∞ ) = F (∞ ) − F (− ∞ ) = 1 , −∞ что и требовалось показать. §4. Числовые характеристики случайных величин Ранее мы познакомились с исчерпывающими характеристиками (СВ) такими как: ряд распределения, функция распределения F (x ) , плотность распределения f (x ) , которые полностью описывают (СВ) с вероятностной точки зрения. Однако, на практике часто нет необходимости характеризовать (СВ) полностью. Часто ограничиваются частичным описанием (СВ) с помощью числовых характеристик таких как: 1) математическое ожидание, 2) дисперсия и среднеквадратичное отклонение, 3) начальные и центральные моменты, 4) мода и медиана, 5) асимметрия и эксцесс. Математическое ожидание Пусть ξ – дискретная (СВ); xi (i = 1,2,....n..) – возможные значения ξ ; pi – вероятности этих значений. Последовательность возможных значений может быть как конечной, так и бесконечной. Определение. Математическое ожидание дискретной (СВ) называют величину M (ξ ) , определяемую по формуле M (ξ ) = n, ∞ n, ∞ , x p ∑ i i ∑ pi = 1 . i =1 i =1 Определение. Математическим ожиданием непрерывной (СВ) с плотностью распределения вероятностей f (x ) , называется величина M (ξ ) , равная M (ξ ) = ∞ ∞ −∞ −∞ ∫ xf (x )dx, ∫ f (x )dx = 1 . Замечание. Математическое ожидание есть число, характеризующее среднее значение (СВ) ξ , около которого группируются все возможные значения (СВ). Пример. Устройство состоит из двух независимых дублирующих блоков a, b . Функции надежности первого и второго блоков равны ⎧0, t < 0, ⎧0, t < 0, . Ra (t ) = ⎨ , Rb (t ) = ⎨ ⎩ 1 − exp(− k1t ), t ≥ 0 ⎩ 1 − exp(− k2t ), t ≥ 0 Найти функцию надежности всего устройства и среднее время его безотказной работы. Решение. Пусть T – случайная величина срока службы устройства; Ta – случайная величина срока службы блока a ; Tb – случайная величина срока службы блока b . Тогда событие (T > t ) равносильно сумме следующих совместных событий (T > t ) = (Ta > t ) + (Tb > t ) , и, следовательно, по теоремам сложения и умножения R(t ) = P(T > t ) = P(Ta > t ) + P(Tb > t ) − P(Ta > t )P(Tb > t ) = Ra (t ) + Rb (t ) − Ra (t )Rb (t ). Таким образом, функция распределения равны надежности устройства и его плотность ⎧0, t < 0 ⎧0, t < 0 dR(t ) R(t ) = ⎨ , = f (t ) = ⎨ . ⎩1 − exp[− (k1 + k2 )t ], t ≥ 0 dt ⎩(k1 + k2 )exp[− (k1 + k2 )t ], t ≥ 0 Среднее время безотказной работы устройства определяется математическим ожиданием M (T ) = ∞ ∞ −∞ 0 1 ∫ tf (t )dt = (k1 + k2 ) ∫ t exp[− (k1 + k2 )t ]dt = k1 + k2 , что и требовалось получить. Свойства математического ожидания Для определенности докажем свойства математического ожидания для дискретных (СВ). Они имеют место и для непрерывных (СВ). Свойство 1. Математическое ожидание постоянной величины C равно самой константе, т.е. M (C ) = C . Доказательство. По определению математического ожидания M (C ) = n n Cp = C ∑ i ∑ pi = C , i =1 i =1 так что M (C ) = C . Свойство 2. Константу можно выносить за знак математического ожидания M (Cξ ) = CM (ξ ) . Доказательство. По определению математического ожидания M (Cξ ) = n n i =1 i =1 ∑ Cxi pi = C ∑ xi pi = CM (ξ ) , что и требовалось показать. Замечание 1. Суммой случайных величин ξ ,η называют (СВ) (ξ + η ) , возможные значения которой равны суммам каждого возможного значения (СВ) ξ с каждым возможным значением (СВ) η . Математическое ожидание суммы двух случайных величин определяется формулой M (ξ + η ) = m n ∑ ∑ Zij Pij j =1i =1 , Z ij = xi + y j . Свойство 3. Математическое ожидание суммы двух случайных величин равна сумме математических ожиданий этих величин, т.е. M (ξ + η ) = M (ξ ) + M (η ) . Доказательство. Пусть xi (i = 1,2...n ) – возможные значения (СВ) ξ ; y j ( j = 1,2...m ) – возможные значения (СВ) η ; Z ij = xi + y j – возможные значения (СВ) (ξ + η ) . Очевидно, события (ξ = xi ,η = y1 ), (ξ = xi ,η = y2 ), (ξ = xi ,η = y3 ),....(ξ = xi ,η = ym ) – несовместны и m (ξ = xi ) = ∑ (ξ = xi ,η = y j ). j =1 Тогда по теореме сложения вероятностей несовместных событий Pi = m ∑ Pij , (1) j =1 где P ((ξ = xi ,η = y j )) ≡ Pij , P(ξ = xi ) ≡ Pi , P(η = y j ) ≡ P j . Аналогично, Pj = Учитывая (1) и (2), найдем n ∑ Pij . i =1 (2) ⎞ m ⎛ n ⎛ m ⎞ ⎟ ⎜ M (ξ + η ) = ∑ ∑ Z ij Pij = ∑ ∑ xi + y j Pij = ∑ xi ⎜ ∑ Pij ⎟ + ∑ y j ⎜ ∑ Pij ⎟ = ⎜ ⎟ j =1i =1 j =1i =1 i =1 ⎜⎝ j =1 ⎟⎠ j =1 ⎝ i =1 ⎠ n m = ∑ xi Pi + ∑ y j P j = M (ξ ) + M (η ) i =1 j =1 m n m n ( n ) что и требовалось показать. Следствие. По индукции это утверждение можно распространить на любое числа слагаемых ⎛ n ⎞ n M ⎜ ∑ ξi ⎟ = ∑ M (ξi ) ⎜ ⎟ ⎝ i =1 ⎠ i =1 Замечание 2. Две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие значения приняла другая (СВ). Замечание 3. Произведением двух случайных величин ξ ,η называют (СВ) (ξ ⋅ η ) , возможные значения которой равны произведениям каждого возможного значения (СВ) ξ на каждое возможное значение (СВ) η , а математическое ожидание произведения двух случайных величин определяется формулой M (ξ ⋅ η ) = m n ∑ ∑ Zij Pij , Zij = xi ⋅ y j . j =1i =1 Свойство 4. Если ξ и η независимые (СВ), то математическое ожидание произведения двух случайных величин равна произведению математических ожиданий этих величин, т.е. M (ξ ⋅ η ) = M (ξ ) ⋅ M (η ) . Доказательство. Пусть xi (i = 1,2...n ) – возможные значения (СВ) ξ ; y j ( j = 1,2...m ) – возможные значения (СВ) η ; Z ij = xi ⋅ y j – возможные значения (СВ) (ξ ⋅ η ) . По условию утверждения ξ и η независимы. Тогда по теореме умножения независимых событий Pij = Pi ⋅ P j , так что ⎞ ⎛ n ⎞⎛⎜ m ⎟ ⎜ ⎟ M (ξ ⋅ η ) = ∑ ∑ Z ij Pij = ∑ ∑ xi ⋅ y j Pij = ∑ xi Pi ⎜ ∑ y j P j ⎟ = M (ξ ) ⋅ M (η ) , ⎜ ⎟⎜ ⎟ j =1i =1 j =1i =1 ⎝ i =1 ⎠⎝ j =1 ⎠ m n m n ( ) что и требовалось показать. Следствие. По индукции это можно распространить на любое числа взаимно независимых сомножителей ⎛ n ⎞ n M ⎜ ∏ ξi ⎟ = ∏ M (ξi ) . ⎜ ⎟ ⎝ i =1 ⎠ i =1 Свойство 5. Модуль математического ожидания произведения (СВ) не превосходит среднего геометрического произведения средних квадратов этих величин, т.е. M (ξ ⋅ η ) ≤ M ⎛⎜ ξ 2 ⎞⎟ M ⎛⎜η 2 ⎞⎟ . ⎝ ⎠ ⎝ ⎠ Доказательство. Очевидно, при [ξ + tη ]2 ≥ 0 и M ⎛⎜ [ξ + tη ]2 ⎞⎟ ≥ 0 , т.е. ⎝ Так как ⎠ M ⎛⎜ ξ 2 + 2tξη + η 2t 2 ⎞⎟ = M ⎛⎜ ξ 2 ⎞⎟ + 2tM (ξ ⋅ η ) + t 2 M ⎛⎜η 2 ⎞⎟ ≥ 0 . ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ M ⎛⎜ ξ 2 ⎞⎟, M ⎛⎜η 2 ⎞⎟, M (ξ ⋅ η ) – числа, то имеем квадратный трехчлен ⎝ ⎠ ⎝ ⎠ относительно t вида M ⎛⎜ ξ 2 ⎞⎟ + 2tM (ξ ⋅ η ) + t 2 M ⎛⎜η 2 ⎞⎟ ≥ 0 . ⎝ ⎠ ⎝ ⎠ Чтобы выполнялось это неравенство, дискриминант должен удовлетворять условию D = (M (ξ ⋅ η ))2 − M ⎛⎜ ξ 2 ⎞⎟ M ⎛⎜η 2 ⎞⎟ ≤ 0 , ⎝ ⎠ ⎝ ⎠ откуда следует неравенство, называемое неравенством Буняковского, M (ξ ⋅ η ) ≤ M ⎛⎜ ξ 2 ⎞⎟ M ⎛⎜η 2 ⎞⎟ . ⎝ ⎠ ⎝ ⎠ Это неравенство используется при выводе имеющих фундаментальное значение в квантовой механике соотношений неопределенности Гейзенберга, которые являются математическим выражением принципа корпускулярноволнового дуализма Бора. Пример. Ректор Томского политехнического университета R и проректор по науке Q играют в известную игру, которая состоит в следующем. Оба одновременно поднимают один или два пальца. Если общее число поднятых пальцев четно, то Q платит R, а если оно нечетно, то R платит Q сумму, равную общему числу поднятых пальцев. Предполагается, что при каждом испытании игрок случайно, но с фиксированными вероятностями, выбирает одну из 2 возможностей (поднять 1 или 2 пальца). При каких условиях игра является справедливой, и при каких она наиболее несправедлива? Решение. Пусть Y – случайная величина алгебраической суммы выплат игрока Q при одном испытании, а X – сумма выплат игрока R. Пусть p1 – вероятность поднять 1 палец игроком R; p2 – вероятность поднять 2 пальца игроком R; q1 – вероятность поднять 1 палец игроком Q; q2 – вероятность поднять 2 пальца игроком Q; Тогда ряд распределения для величины Y имеет вид yi ‐3 2 p q2 + p2 q1 1 Pi 4 p1q1 p2 q2 Сумма денег, которую Q в среднем выплатит R, равна M (Y ) = 2 p1q1 − 3 p1q2 − 3 p2 q1 + 4 p2 q2 (1) Для случайной величины X ряд распределения имеет вид xi ‐4 Pi ‐2 3 p q2 + p2 q1 1 p1q1 p q2 2 При этом M ( X ) = − M (Y ) (2) (3) (4) (5) Игра была бы справедливой, если бы M (Y ) = 0 Учитывая p 1 + p2 = 1, q 1 + q2 = 1, из (1) получим M (Y ) = 12 p1q1 − 7( p1 + q1) + 4 Выберем p1 = q1 . Тогда из (3) и (4) получим уравнение 12 p12 − 14 p1 + 4 = 0 , 1 2 так что p1 = q1 = , либо p1 = q1 = . Таким при таких условиях игра является 2 3 справедливой. Из-за (2) игра наиболее несправедлива в точке минимакса (седловой точке) функции (1) при условиях p 1 + p2 = 1, q 1 + q2 = 1 : ∂M = 2q1 − 3q2 + λ1 = 0, ∂p1 ∂M = −3q1 + 4q2 + λ1 = 0, ∂p2 ∂M = 2 p1 − 3 p2 + λ2 = 0, ∂q1 ∂M = −3 p1 + 4 p2 + λ2 = 0. ∂q2 (6) Из (6) следует 5 7 , p2 = q2 = . 12 12 1 λ1 = λ2 = 12 p1 = q1 = (7) 1 , что означает, что Q выигрывает в среднем 12 1 1 рубля после каждой игры. Соответственно, M ( X ) = , т.е. R проигрывает 12 12 1 рубля. Таким образом, доказано, что при условиях (7) игра не в среднем 12 При таких условиях M (Y ) = − является справедливой. Пример. В бесконечном слое воздуха толщины H летают тучи комаров размера r , концентрация в воздухе которых равна λ . На слой перпендикулярно падает луч света. Найти вероятность поглощения света, плотность распределения случайной величины r , средний размер комаров. Решение. Выделим в слое воздуха вертикальный цилиндрический объем высоты H и радиуса R , решим задачу для такого объема, а затем устремим R в бесконечность. Введем обозначения: A1 – событие, состоящее в том, что луч света пронзит одного комара в цилиндре, AN – событие, состоящее в том, что луч света не пронзит ни одного из N комаров в цилиндре, A – событие, состоящее в том, что луч света не пронзит ни одного комара в слое воздуха, ρ – (СВ) размера комара. Тогда по формуле геометрической вероятности P ( A1 ) = 2 2 v πr 2 H ⎛ r ⎞ v ⎛r⎞ = = ⎜ ⎟ , P (A1 ) = 1 − = 1 − ⎜ ⎟ . V πR 2 H ⎝ R ⎠ V ⎝R⎠ По теореме умножения независимых событий N ⎡ ⎛ r ⎞2 ⎤ P (AN ) = ⎢1 − ⎜ ⎟ ⎥ , N = λπR 2 H , ⎢ ⎝R⎠ ⎥ ⎣ ⎦ так что согласно второму замечательному пределу P ( A) = lim P(AN ) = exp⎡⎢⎣− λπr R →∞ 2 H ⎤ . ⎥⎦ Очевидно функция распределения (СВ) ρ равна 2 Fρ (r ) = P(ρ < r ) = P(A ) = 1 − P( A) = 1 − e − λπHr , и, следовательно, плотность распределения этой (СВ) имеет вид f ρ (r ) = 2πλHr exp ⎡− λπHr 2 ⎤, r > 0. ⎢⎣ ⎥⎦ Учитывая найденную плотность распределения, найдем средний размер комара M (ρ ) = ∞ 2e − λπHr 2 = 1 . ( ) rf r dr 2 πλ H r = ρ ∫ ∫ 2 λH 0 −∞ ∞ Дисперсия и среднеквадратичное отклонение Определение. Дисперсией дискретной случайной величины называют величину D(ξ ) = M ⎡(ξ − M (ξ ))2 ⎤ = ⎢⎣ ⎥⎦ n ∑ (xi − M (ξ ))2 pi . i =1 Определение. Дисперсией непрерывной (СВ) с плотностью распределения вероятностей f (x ) , называется величина D(ξ ) , равная D(ξ ) = M ⎡(ξ − M (ξ ))2 ⎤ = ⎢⎣ ⎥⎦ ∞ 2 ∫ (x − M (ξ )) f (x )dx . −∞ Замечание 4. Дисперсия является характеристикой рассеяния возможных значений (СВ) вокруг ее математического ожидания. Для вычисления дисперсии часто бывает удобно пользоваться следующей формулой: D(ξ ) = M ⎛⎜ ξ 2 ⎞⎟ − (M (ξ ))2 . ⎝ ⎠ Вывод формулы основывается на доказанных математического ожидания. Действительно, выше свойствах D(ξ ) = M ⎡(ξ − M (ξ ))2 ⎤ = M ⎡ξ 2 + (M (ξ ))2 − 2ξM (ξ )⎤ = M ⎛⎜ ξ 2 ⎞⎟ + (M (ξ ))2 − 2(M (ξ ))2 . ⎢⎣ ⎥⎦ ⎥⎦ ⎢⎣ ⎝ ⎠ Свойства дисперсии Так как по определению дисперсия является математическим ожиданием квадрата отклонения (СВ) от ее среднего значения, то все свойства дисперсии являются следствием соответствующих свойств математического ожидания. Свойство 1. Дисперсия константы равна нулю, т.е. D(C ) = 0 . Доказательство. По определению D(C ) = M ⎡⎢(C − M (C ))2 ⎤⎥ . Используя свойства ⎣ ⎦ математического ожидания, получим D(C ) = M ⎡(C − M (C ))2 ⎤ = M (C − C )2 = M (0) = 0 , ⎢⎣ ⎥⎦ что и требовалось показать. Свойство 2. Константу можно выносить за знак дисперсии следующим образом: D(Cξ ) = C 2 D(ξ ) Доказательство. По определению D(C ) = M ⎡⎢(C − M (C ))2 ⎤⎥ , так что согласно ⎣ ⎦ свойствам математического ожидания D(Cξ ) = M ⎡(Cξ − M (Cξ ))2 ⎤ = M ⎡C 2 (ξ − M (ξ ))2 ⎤ = C 2 M ⎡(ξ − M (ξ ))2 ⎤ = C 2 D(ξ ) , ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ ⎥⎦ ⎢⎣ что и требовалось показать. Свойство 3. Если ξ и η независимые (СВ), то D(ξ ± η ) = D(ξ ) + D(η ) . Доказательство. Из формулы D(ξ ) = M ⎛⎜ ξ 2 ⎞⎟ − (M (ξ ))2 следует ⎝ ⎠ D(ξ ± η ) = M ⎡(ξ ± η )2 ⎤ − (M [ξ ± η ])2 = M ⎛⎜ ξ 2 ± 2ξη + η 2 ⎞⎟ − [M (ξ ) ± M (η )]2 = ⎢⎣ ⎥⎦ ⎝ ⎠ = M ⎛⎜ ξ 2 ⎞⎟ + M ⎛⎜η 2 ⎞⎟ ± 2 M (ξ )M (η ) − (M (ξ ))2 − (M (η ))2 m 2 M (ξ )M (η ) = ⎝ ⎠ ⎝ ⎠ = ⎡⎢ M ⎛⎜ ξ 2 ⎞⎟ − (M (ξ ))2 ⎤ + ⎡ M ⎛⎜η 2 ⎞⎟ − (M (η ))2 ⎤ = D(ξ ) + D(η ) ⎥⎦ ⎢⎣ ⎝ ⎠ ⎥⎦ ⎣ ⎝ ⎠ что и требовалось показать. По определению дисперсия имеет размерность, равную квадрату размерности (СВ) ξ . В тех случаях, когда необходимо, чтобы оценка рассеяния имела размерность (СВ) ξ вместо дисперсии используют среднеквадратичное отклонение, размерность которого совпадает с размерностью ξ σ (ξ ) = D(ξ ) . Мода и медиана, асимметрия и эксцесс Модой Mo дискретной (СВ) называют ее наиболее вероятное значение. Модой Mo непрерывной (СВ) называют то ее значение, при котором плотность распределения максимальна. Медианой Me непрерывной (СВ) называется такое ее значение, для которого P(ξ < M e ) = P(ξ > M e ) = 0.5 . Начальным моментом порядка k случайной величины ξ называют величину ν k = M ⎡ξ k ⎤ . ⎢⎣ ⎥⎦ Центральным моментом порядка k случайной величины ξ называют величину μ k = M ⎡⎢(ξ − M (ξ ))k ⎤⎥ . ⎣ ⎦ Для центральных моментов справедливы следующие формулы μ1 = 0, μ 2 = ν 2 − ν12 = D(ξ ), μ3 = ν 3 − 3ν1ν 2 + 2ν13 , μ 4 = ν 4 − 4ν1ν 3 + 6ν12ν 2 − 3ν14 . Асимметрией распределения (СВ) ξ называют величину, равную μ As = 3 , σ3 которая служит для характеристики «скошенности» распределения. Эксцессом распределения (СВ) ξ называют величину, равную Ek = μ4 σ4 −3, которая служит для характеристики «крутости» распределения. Отметим, что для нормального распределения As = 0, Ek = 0 , так что нормальное распределение служит эталоном. Пример. Найти среднюю скорость молекул газа и дисперсию скорости, распределенной по закону Максвелла: ⎧ 4h3 ⎪ v 2 exp⎛⎜ − h 2v 2 ⎞⎟, v ≥ 0 f (v ) = ⎨ π ⎝ ⎠ ⎪ ⎩0, v < 0 Решение. Среднее значение непрерывной случайной величины скорости молекул определяется ее математическим ожиданием M (v ) = = ∞ ∫ vf (v )dv = −∞ u = t , du = dt ∞ 2 2 2 3e − h 2 v 2 dv = t = h v = v te −t dt = ∫ ∫ π dt = 2h 2vdv h π 0 0 4h 3 dV = e −t dt , V = −e −t ∞ = ∞ 2 ⎡ 2 − te −t − e −t ⎤ = ⎥⎦ 0 h π h π ⎢⎣ Обозначим среднее значение скорости через v ≡ M (v ) = 2 . Тогда дисперсия h π скоростей равна D(v ) = ∞ 4h 2 ∫ (v − v ) f (v )dv = 3 ⎡ I (h ) + v 2 I (h ) − 2v I (h )⎤ , 4 2 3 ⎥⎦ π ⎢⎣ 0 где ∞ ∞ ∞ 2 2 2 2 2 2 − − h v h v 2 3 I 2 (h ) = ∫ v e dv, I 3 (h ) = ∫ v e dv, I 4 (h ) = ∫ v 4e − h v dv . 0 0 0 Введем обозначение ∞ 2 2 π . I 0 (h ) = ∫ e − h v dv= 2h 0 Используя метод интегрирования путем дифференцирования по параметру h, нетрудно получить I 2 (h ) = − 1 ∂ 1 ∂ ⎡ 1 ∂ π π ⎤ 3 π ( ) ( ) , I 4 (h ) = − , I 0 (h ) = − I h = I h = v. 0 3 ⎢⎣ 2h ∂h ⎥⎦ 3 5 5 2h ∂h 2 h ∂ h 4h 8h 4h Тогда окончательно D(v ) = 4h 3 ⎡ 3 π 3 π 2 2 π ⎤ = ⎡3 − 4 ⎤ 1 . ⎢ 5 + 3 v − 2v ⎥ ⎢ ⎥ π ⎣ 8h 4h 4h 3 ⎦ ⎣ 2 π ⎦ h 2 §5. Закон распределения функции случайной величины Пусть ξ – случайная величина, x – ее возможные значения; η – случайная величина, y – ее возможные значения. Определение. Если y = ϕ (x ) , то (СВ) η называют функцией случайной величины ξ , которую обозначают η = ϕ (ξ ) . Рассмотрим сначала дискретную величину ξ . Пусть закон распределения (СВ) ξ задан рядом распределения xi pi x1 p1 x2 ……………… xn p2 ……………… pn Пусть y = ϕ (x ) – монотонная функция действительного аргумента. Тогда ряд распределения дискретной (СВ) η = ϕ (ξ ) определяется таблицей вида: yi ϕ (x1 ) ϕ ( x2 ) ... pi p1 … p2 ϕ ( xk −1 ) ϕ ( xk ) ϕ ( xk +1 ) .. pk −1 pk pk +1 .. ϕ ( xs −1 ) ϕ (xs ) ϕ (xs +1 ) .. p s −1 ps p s +1 .. ϕ ( xn ) pn Если же y = ϕ (x ) – немонотонная функция, то среди возможных значений xi могут существовать такие xk , xs , для которых ϕ (xk ) = ϕ (xs ) . В таком случае столбцы ряда распределения (СВ) η с равными значениями yk = y s объединяют в один столбец, а соответствующие вероятности складывают. Пусть теперь ξ – непрерывная случайная величина с функцией распределения Fξ (x ) и плотностью распределения fξ (x ) и пусть x = g ( y ) – обратная к y = ϕ (x ) функция. Возникает задача определения Fη ( y ) и fη ( y ) . Решение такой задачи содержится в следующих теоремах. Теорема 1. Если в интервале возможных значений x непрерывной (СВ) ξ функция y = ϕ (x ) строго возрастает и ϕ (x ), ϕ ′(x ) – непрерывны, то Fη ( y ) = Fξ ( g ( y )), fη ( y ) = fξ ( g ( y )) dg ( y ) . dy Доказательство. Из курса математического анализа известно, что если ϕ ( x ), ϕ ′( x ) – непрерывны, то существует дифференцируемая функция x = g ( y ) , обратная к функции y = ϕ (x ) . Тогда для возрастающей функции ϕ (x ) равносильны следующие события (η < y ) = (ϕ (ξ ) < y ) = (ξ < g ( y )) . Откуда следует P(η < y ) = P(ξ < g ( y )) , так что по определению функции распределения Fη ( y ) = Fξ ( g ( y )) . (1) Дифференцируя равенство (1) по переменной y , получим dFη ( y ) dy = fη ( y ) = dFξ ( g ( y )) dy = dFξ ( g ( y )) dg ( y ) dg ( y ) dy = fξ ( g ( y ))g ′( y ) , что и требовалось получить. Теорема 2. Если в интервале возможных значений x непрерывной (СВ) ξ функция y = ϕ (x ) строго убывает и ϕ (x ), ϕ ′(x ) – непрерывны, то Fη ( y ) = 1 − Fξ ( g ( y )), fη ( y ) = − fξ ( g ( y )) Доказательство. Для убывающей функции ϕ (x ) dg ( y ) . dy (η < y ) = (ϕ (ξ ) < y ) = (ξ > g ( y )) . (ξ > g ( y )) + (ξ < g ( y )) + (ξ = g ( y )) = Ω , то по Так как вероятностей несовместных событий теореме сложения P(ξ > g ( y )) + P(ξ < g ( y )) + P(ξ = g ( y )) = P(Ω ) = 1 , где для непрерывной случайной величины P(ξ = g ( y )) = 0 . Откуда следует P(ξ > g ( y )) = 1 − P(ξ < g ( y )) , так что Fη ( y ) = 1 − Fξ ( g ( y )) . (2) Дифференцирование (2) по y дает fη ( y ) = − fξ ( g ( y )) dg ( y ) , dy что и требовалось получить. Функция двух случайных величин будет определена в дальнейшем. §6. Системы случайных величин Если на одном и том же пространстве событий Ω заданы n (СВ) ξi , i = 1,2,3...n , то говорят, что задана n – мерная (СВ) {ξ1, ξ 2 , ξ3 , ...ξ n }. Изучение системы (СВ) проведем на примере системы двух (СВ). Все результаты распространяются на систему n (СВ). Двумерную (СВ) {ξ ,η } геометрически можно интерпретировать либо как случайную точку M (ξ ,η ) на плоскости, либо как случайный вектор → OM . Закон распределения двумерной дискретной случайной величины Определение. Законом распределения двумерной дискретной (СВ) называют перечень возможных значений этой величины {xi , y j } и их вероятностей ( ) Pij ≡ P ξ = xi ,η = y j , i = 1,2,...n, j = 1,2,....m . Обычно закон распределения двумерной дискретной (СВ) задают в виде таблицы с двойным входом: …………….. x2 y1 x1 p11 ……………. ……………. …………….. yk p1k p2 k ……………. ……………. ……………. ym p1m p2 m xn pn1 p21 …………….. ……………. pnk ……………... ……………. pnm Так как события (ξ = xi ,η = y j ), i = 1,2,...n, j = 1,2,...m образуют полную группу, то n m ∑ ∑ Pij = 1 . i =1 j =1 Зная закон распределения двумерной (СВ), можно закон распределения каждой ее составляющей. Действительно, например, так как события (ξ = xi ,η = y j ), j = 1,2,...m несовместны, то по теореме сложения вероятностей несовместных событий Pi ≡ P(ξ = xi ) = m ∑ Pij . j =1 Аналогично, ( n ) ∑ Pij . Pj ≡ P η = y j = i =1 Двумерная функция распределения Двумерная функция распределения задает закон распределения двумерной случайной величины в аналитическом виде. Определение. Двумерной функцией распределения называют функцию вида F (x, y ) = P(ξ < x,η < y ) , где P(ξ < x,η < y ) – вероятность того, что (СВ) ξ принимает значение меньшее x , и при этом (СВ) η принимает значение меньшее y . Геометрически F (x, y ) определяет вероятность попадания случайной точки в бесконечный квадрат с вершиной в точке (x, y ) , расположенный левее и ниже этой точки. Свойства двумерной функции распределения Свойство 1. Значения двумерной функции распределения принадлежат единичному отрезку, т.е. 0 ≤ F ( x, y ) ≤ 1 . Доказательство. По определению функция распределения– это вероятность F (x, y ) = P(ξ < x,η < y ) , а всякая вероятность 0 ≤ P ≤ 1 , так что и 0 ≤ F ( x, y ) ≤ 1 , что и требовалось показать. Свойство 2. Двумерная функция распределения является неубывающей функцией, т.е. F (x2 , y ) ≥ F ( x1, y ), если x 2 > x1, F ( x, y2 ) ≥ F ( x, y1 ), если y 2 > y1. Доказательство. Так как (ξ < x2 ,η < y ) = (ξ < x1,η < y ) + (x1 ≤ ξ < x2 ,η < y ) , то по теореме сложения вероятностей несовместных событий откуда следует P(ξ < x2 ,η < y ) = P(ξ < x1,η < y ) + P( x1 ≤ ξ < x2 ,η < y ) , P( x1 ≤ ξ < x2 ,η < y ) = P(ξ < x2 ,η < y ) − P(ξ < x1,η < y ) = F ( x2 , y ) − F ( x1, y ) . Так как P(x1 ≤ ξ < x2 ,η < y ) ≥ 0 , то F (x2 , y ) ≥ F (x1, y ) , что и требовалось доказать. Аналогично, F (x, y2 ) ≥ F (x, y1 ), если y 2 > y1. Свойство 3. При бесконечном значении переменных двумерная функция распределения принимает следующие значения: F (− ∞, y ) = 0, F (x,−∞ ) = 0, F (− ∞,−∞ ) = 0, F (∞, ∞ ) = 1, Fξη ( x, ∞ ) = Fξ ( x ), Fξη (∞, y ) = Fη ( y ). Доказательство. Так как (ξ < −∞ ) = Ø, то определению функции распределения (ξ < −∞ )(η < y ) = Ø. Тогда по F (− ∞, y ) = P(ξ < −∞,η < y ) = P(Ø)=0, то и требовалось показать. Аналогично, так как (η < −∞ ) = Ø, то (ξ < x )(η < −∞ ) = Ø и F ( x,−∞ ) = P(ξ < x,η < −∞ ) = P(Ø)=0, что и требовалось показать. Так (ξ < −∞ )(η < −∞ ) = Ø и, следовательно, как (ξ < −∞ ) = Ø, F (− ∞,−∞ ) = P(ξ < −∞,η < −∞ ) = P(Ø)=0. Так как событие (ξ < ∞ )(η < ∞ ) = Ω – достоверное, то F (∞, ∞ ) = P(ξ < ∞,η < ∞ ) = P(Ω)=1. Так как (η < ∞ ) = Ω , то (ξ < x )(η < ∞ ) = Ω , откуда следует, что (η < −∞ ) = Ø, то F ( x, ∞ ) = P(ξ < x )(η < ∞ ) = P(ξ < x )P(Ω ) = Fξ ( x ) . Аналогично, F (∞, y ) = P(ξ < ∞ )(η < y ) = P(η < y )P(Ω ) = Fη ( y ) . Вероятность попадания случайной точки в полу-полосу Найдем вероятности P( x1 < ξ < x2 ,η < y ), P(ξ < x, y1 < η < y2 ) , определяющие, соответственно, вероятность попадания случайной точки в вертикальную и горизонтальную полу-полосу. Для этого представим событие (ξ < x2 ,η < y ) в эквивалентном виде (ξ < x2 ,η < y ) = (ξ < x1,η < y ) + (x1 ≤ ξ < x2 ,η < y ) . Откуда по теореме сложения вероятностей несовместных событий следует P( x1 ≤ ξ < x2 ,η < y ) = P(ξ < x2 ,η < y ) − P(ξ < x1,η < y ) = F ( x2 , y ) − F ( x1, y ) , так что окончательно P( x1 < ξ < x2 ,η < y ) = F ( x2 , y ) − F ( x1, y ) . Аналогично, P(ξ < x, y1 < η < y2 ) = F ( x, y2 ) − F ( x, y1 ) , что и требовалось получить. Вероятность попадания случайной точки в прямоугольник Найдем вероятность P( x1 < ξ < x2 , y2 < η < y1 ) , определяющую вероятность попадания случайной точки в прямоугольник. Для этого представим событие (ξ < x2 ,η < y2 ) в эквивалентном виде (x1 ≤ ξ < x2 ,η < y2 ) = (x1 ≤ ξ < x2 ,η < y1 ) + (x1 ≤ ξ < x2 , y1 ≤ η < y2 ) . Откуда по теореме сложения вероятностей несовместных событий с учетом формул для вероятности попадания случайной точки в полу-полосу следует P( x1 ≤ ξ < x2 , y1 ≤ η < y2 ) = P( x1 ≤ ξ < x2 ,η < y2 ) − P( x1 ≤ ξ < x2 ,η < y1 ) = , = [F (x2 , y2 ) − F ( x1, y2 )] − [F ( x2 , y1 ) − F ( x1, y1 )] так что окончательно P(x1 < ξ < x2 , y2 < η < y1 ) = [F ( x2 , y2 ) − F ( x1, y2 )] − [F ( x2 , y1 ) − F ( x1, y1 )] . что и требовалось получить. Двумерная плотность распределения вероятностей Функция распределения F (x, y ) = P(ξ < x,η < y ) используется для характеристики как дискретных, так и непрерывных двумерных (СВ). На практике двумерные непрерывные (СВ) обычно характеризуются не F (x, y ) = P(ξ < x,η < y ) , а плотностью распределения вероятностей. Пусть F (x, y ) = P(ξ < x,η < y ) всюду непрерывна и имеет всюду непрерывные частные производные до второй включительно. Определение. Двумерной плотностью распределения вероятностей называют функцию ∂ f ( x, y ) = 2 F ( x, y ) ∂y∂x . Вероятностный смысл двумерной плотности Вероятность попадания случайной точки в прямоугольник с учетом теоремы Лагранжа из математического анализа равна P( x1 < ξ < x2 , y2 < η < y1 ) = [F ( x2 , y2 ) − F ( x1, y2 )] − [F ( x2 , y1 ) − F ( x1, y1 )] = ∂ 2 F (x , y ) ΔxΔy ∂y∂x где x1 < x < x2 , y1 < y < y2 , Δx ≡ x2 − x1, Δy = y2 − y1 . Откуда следует ΔP (1) , ΔS где ΔP ≡ P(x1 ≤ ξ < x2 , y1 < η < y2 ), ΔS ≡ ΔxΔy . Переходя в (1) к пределу при Δx → 0, Δy → 0 , получим ⎡ P(x ≤ ξ < x + Δx, y ≤ η < y + Δy )⎤ f ( x, y ) = lim ⎢ ⎥⎦ . ΔS ⎣ Δx →0 Δy →0 f (x , y ) = Таким образом, функцию плотности распределения f (x, y ) можно рассматривать как предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Δx, Δy к площади этого прямоугольника, когда обе стороны этого прямоугольника стремятся к нулю. Вероятность попадания случайной точки в произвольную область В соответствии с вероятностным смыслом двумерной плотности распределения f (x, y )ΔxΔy – вероятность попадания случайной точки в прямоугольник со сторонами Δx, Δy , примыкающий к точке (x, y ) . Пользуясь этим, выведем формулу для расчета вероятности попадания случайной точки в произвольную область P[(ξ ,η ) ∈ D] . Для этого область D разобьем на n прямоугольников произвольным образом. Тогда вероятность попадания случайной точки в каждый элементарный прямоугольник равна f ( xi , yi )Δxi Δyi . Так как события, состоящие в попадании случайной точки в элементарные прямоугольники несовместны, то по теореме сложения вероятностей несовместных событий P[(ξ ,η ) ∈ D ] ≈ n ∑ f (xi , yi )Δxi Δi , i =1 откуда, переходя к пределу, получим P[(ξ ,η ) ∈ D ] = ∫∫ f ( x, y )dxdy . D (*) Геометрически формула (*) означает, что P[(ξ ,η ) ∈ D ] равна объему цилиндрического тела, ограниченного сверху поверхностью z = f (x, y ) , основанием которого служит проекция этой поверхности на плоскость ( XOY ) . Свойства двумерной плотности распределения Свойство 1. Двумерная плотность распределения является неотрицательной функцией, т.е. f ( x, y ) ≥ 0 . Доказательство. По определению f ( x, y ) = ∂ 2 F ( x, y ) = ∂y∂x ⎛ ΔP ⎞ lim ⎜⎝ ΔS ⎟⎠ . Δx →0 Δy →0 Так как ΔP – вероятность, то ΔP ≥ 0 , а ΔS – площадь, то и ΔS ≥ 0 , так что и отношение эти величин f (x, y ) ≥ 0 , что и требовалось показать. Свойство 2. Двумерный интеграл от двумерной плотности распределения по всей плоскости равен единице, т.е. ∞ ∞ ∫ ∫ f (x, y )dxdy = 1 . −∞ −∞ Доказательство. Очевидно, что [(ξ ,η ∈ XOY )] = [− ∞ < ξ < ∞, − ∞η < ∞] = Ω . Откуда следует, что P[(ξ ,η ∈ XOY )] = P[− ∞ < ξ < ∞, − ∞η < ∞ ] = P(Ω ) = 1 . С другой стороны, по формуле (*) P[(ξ ,η ) ∈ XOY ] = ∞ ∞ ( ) f x , y dxdy = ∫∫ ∫ ∫ f (x, y )dxdy , XOY −∞ −∞ так что окончательно ∞ ∞ ∫ ∫ f (x, y )dxdy = 1 , −∞ −∞ что и требовалось показать. Свойство 3. Связь функции распределения F (x, y ) и соответствующей ей плотности распределения можно представить в интегральной форме F ( x, y ) = x y ∫ ∫ f (x, y )dxdy . −∞ −∞ Доказательство. По определению F ( x, y ) = P(ξ < x, η < y ) . а по формуле (*) P(ξ < x, η < y ) = y x ∫ ∫ f (x, y )dxdy , −∞ −∞ так что F ( x, y ) = y x ∫ ∫ f (x, y )dxdy . −∞ −∞ Свойство 4. Двумерные плотности распределения связаны соответствующими одномерными функциями следующим образом: fξ ( x ) = ∞ ∫ f (x, y )dy, fη ( y ) = −∞ с ∞ ∫ f (x, y )dx −∞ Доказательство. По третьему свойству двумерной функции распределения Fξ ( x ) = F ( x, ∞ ), Fη ( y ) = F (∞, y ) , и второму свойству двумерной плотности распределения F ( x, y ) = y x ∫ ∫ f (x, y )dxdy . −∞ −∞ Откуда следует равенство x ⎛ ∞ ⎞ ⎜ ⎟ F ( x, ∞ ) = ∫ ⎜ ∫ f ( x, y )dy ⎟dx = Fξ ( x ) , ⎜ ⎟ −∞ ⎝ −∞ ⎠ дифференцируя которое получим dFξ ( x ) dx = fξ ( x ) = dy ∫ f (x, y )dy . −∞ Аналогично, dFη ( y ) ∞ ∞ = fη ( y ) = ∫ f ( x, y )dx . −∞ §7. Зависимые и независимые случайные величины Рассмотрим эквивалентное определение независимости (СВ). Для этого докажем следующую теорему. Теорема. Для того, чтобы (СВ) ξ и η были независимы необходимо и достаточно, чтобы F (x, y ) была равна произведению одномерных функций распределения: Fξη ( x, y ) = Fξ ( x )Fη ( y ) . Доказательство. Сначала докажем необходимость утверждения. I. Необходимость. Пусть ξ и η независимы. Тогда события (ξ < x ) и (η < y ) также независимы. Следовательно, по теореме произведения вероятностей независимых событий F ( x, y ) = P(ξ < x,η < y ) = P(ξ < x )P(η < y ) = Fξ ( x )Fη ( y ) . II. Достаточность. Пусть Fξη (x, y ) = Fξ (x )Fη ( y ) . Откуда по определению функции распределения P(ξ < x,η < y ) = P(ξ < x )P(η < y ) , т.е. вероятность совмещения событий (ξ < x ) и (η < y ) равна произведению вероятностей этих событий, что означает независимость этих событий, также как ξ и η . Следствие. Для того, чтобы непрерывные (СВ) ξ и η были независимы необходимо и достаточно, чтобы f (x, y ) была равна произведению одномерных плотностей распределения. Доказательство. I. Необходимость. Пусть ξ и η независимые непрерывные (СВ). Тогда на основании доказанной выше теоремы Fξη ( x, y ) = Fξ ( x )Fη ( y ) . Дифференцируя это равенство по x , затем по y , получим ∂ 2 Fξη ( x, y ) ∂y∂x = ∂Fξ ( x ) ∂Fη ( y ) ∂x ∂y = fξ ( x ) fη ( y ) . II. Достаточность. Пусть fξη (x, y ) = fξ (x ) fη ( y ) . Интегрируя это выражение по x и по y , получим ⎞ ⎞⎛ y ⎛ x ⎟ ⎟⎜ ⎜ Fξη (x, y ) = ∫ ∫ f ( x, y )dxdy = ⎜ ∫ fξ (x )dx ⎟⎜ ∫ fη ( y )dy ⎟ = Fξ ( x )Fη ( y ) . ⎟⎜ ⎜ ⎟ −∞ −∞ ⎠⎝ − ∞ ⎝ −∞ ⎠ x y Откуда заключаем, что ξ и η независимы. Так как доказанные утверждения необходимы и достаточны, то можно дать новые определения независимости (СВ): 1) две (СВ) являются независимыми, если Fξη (x, y ) = Fξ (x )Fη ( y ) ; 2) две непрерывные (СВ) являются независимыми, если fξη ( x, y ) = fξ ( x ) fη ( y ) . Функция двух случайных величин и закон композиции Пусть z – возможные значения случайной величины χ ; x – возможные значения (СВ) ξ ; y – возможные значения (СВ) η . Определение. Непрерывная случайная величина χ = ϕ (ξ ,η ) является функцией двух случайных величин ξ и η , если z = ϕ (x, y ) . Закон распределения (СВ) χ = ϕ (ξ ,η ) определяется распределения Fχ ( z ) = P[(ξ ,η ) ∈ Dz ] = ее функцией ∫∫ fξη (x, y )dxdy , Dz где Dz – проекция на плоскость XOY части поверхности z = ϕ (x, y ) , лежащей ниже секущей плоскости z = const . Зависимость от z содержится в пределах интегрирования. В частном случае, когда χ = ξ + η , а ξ и η независимы, функция распределения принимает вид ∞ ⎡z− x ⎤ ⎢ Fχ ( z ) = P[(ξ ,η ) ∈ Dz ] = ∫∫ fξη ( x, y )dxdy = ∫ f ( x ) fη ( y )dy ⎥ dx , ⎢ ∫ ξ ⎥ −∞ ⎣ −∞ Dz ⎦ откуда находим плотность распределения f χ (z ) = dFχ ( z ) dz ∞ = ∫ fξ (x ) fη (z − x )dx , −∞ которая определяет закон композиции независимых (СВ) ξ и η . Пример. (Задача о беспорядочном движении взвешенных в жидкости частиц). Требуется, следуя подходу Эйнштейна, исследовать броуновское движение. Современной теоретической моделью броуновского движения является винеровский случайный процесс. Эйнштейн же исследовал броуновское движение без явного использования теории случайных процессов. Решение. Вслед за Эйнштейном предположим, что каждая отдельная частица движется независимо от остальных частиц; кроме того, движения одной и той же частицы в разные промежутки времени также являются независимыми, пока эти промежутки остаются не слишком малыми. Введем в рассмотрение промежуток времени τ , очень малый по сравнению с наблюдаемыми промежутками времени, но все же настолько большой, что движения частицы в двух следующих друг за другом промежутках могут рассматриваться как независимые друг от друга события. Пусть в жидкости находится n частиц. Пусть через промежуток времени τ координата x отдельных частиц увеличится на ε . Сопоставим x случайную величину ξ , а приращению ε сопоставим случайную величину η , z = x + ε – случайную величину χ = ξ + η . По теореме Бернулли и теореме о среднем плотность распределения (СВ) η равна ν dn , fη (ε ) ≈ i = nh ndε где по условию нормировки плотности распределения ∞ ∫ fη (ε )dε = 1 . −∞ По закону композиции вычислим распределение частиц в момент времени t + τ , исходя из распределения в момент времени t f χ (z, t + τ ) = Так как по условию задачи τ мало, то ∞ ∫ fη (ε ) fξ (z − ε , t )dε . −∞ f χ (z, t + τ ) ≈ f χ (z, t ) + τ Разложим функцию fξ (z − ε , t ) производной (1) ∂f χ ( z, t ) ∂t . (2) в ряд Тейлора по степеням ε до второй ∂fξ ( z , t ) ε 2 ∂ 2 fξ ( z , t ) . fξ ( z − ε , t ) ≈ fξ ( z , t ) − ε + ∂z 2! ∂z 2 (3) Подставляя (2) и (3) в закон композиции (1), и полагая, что M (η ) = 0, D(η ) = τ D , с учетом условия нормировки плотности fη (ε ) получим известное дифференциальное уравнение диффузии ∂f χ ( z , t ) ∂t ∂ 2 f χ (z, t ) , =D ∂z 2 где D – коэффициент диффузии. Решение этого уравнения имеет вид (4) f χ (z, t ) = ⎡ z2 ⎤ ⎥, exp ⎢− 4π tD ⎢⎣ 4 tD ⎥⎦ 1 откуда следует экспериментально наблюдаемый закон линейной диффузии D(χ ) = 2tD , согласно которому средний квадрат процесса броуновского движения растет линейно. Отметим, что в теории случайных процессов уравнение (1) является следствием уравнения Колмогорова-Чепмена, а уравнение (4) является частным случаем обратного уравнения Колмогорова. §8. Числовые характеристики двумерных случайных величин Математические ожидания и дисперсии дискретных (СВ) ξ и η , входящих в двумерную (СВ) {ξ ,η }, определяются по формулам n m m n m ( ) = = == , η M y P x P x P ∑ i i ∑ ∑ i ij ∑ j j ∑ ∑ y j Pij , i =1 j =1 j =1 i =1 j =1 i =1 n m n m D(ξ ) = ∑ ∑ ( xi − M (ξ ))2 Pij , D(η ) = ∑ ∑ y j − M (η ) 2 Pij , i =1 j =1 i =1 j =1 M (ξ ) = n ( ) где xi (i = 1,2...n ) – возможные значения (СВ) ξ ; y j ( j = 1,2...m ) – возможные значения (СВ) η ; Pij ≡ P(ξ = xi ,η = y j ). Математические ожидания и дисперсии непрерывных (СВ) ξ и η , входящих в двумерную (СВ) {ξ ,η }, определяются по формулам M (ξ ) = D(ξ ) = ∞ ∞ ∞ ∞ −∞ −∞ −∞ −∞ ∫ ∫ xf (x, y )dxdy, M (η ) = ∫ ∫ yf (x, y )dxdy , ∞ ∞ ∞ ∞ −∞ −∞ −∞ −∞ ∫ 2 ∫ (x − M (ξ )) f (x, y )dxdy, D(η ) = 2 ∫ ∫ ( y − M (η )) f (x, y )dxdy . Для описания двумерной (СВ) пользуются и другими характеристиками, к числу которых относятся корреляционный момент и коэффициент корреляции. Корреляционным моментом (СВ) ξ и η называют математическое ожидание произведения отклонений этих величин μ = M [(ξ − M (ξ ))(η − M (η ))] . Для дискретных величин μ = M [(ξ − M (ξ ))(η − M (η ))] = n m ∑ ∑ (xi − M (ξ ))(y j − M (η ))Pij , i =1 j =1 а для непрерывных величин μ = M [(ξ − M (ξ ))(η − M (η ))] = ∞ ∞ ∫ ∫ (x − M (ξ ))( y − M (η )) f (x, y )dxdy . −∞ −∞ По определению корреляционный момент имеет размерность, равную произведению размерностей величин ξ и η . Поэтому для одних и тех же величин ξ и η корреляционный момент будет иметь различные значения в зависимости от того, в каких единицах были измерены эти величины. Для того чтобы устранить этот недостаток, вводят безразмерную числовую характеристику – коэффициент корреляции. Коэффициентом корреляции (СВ) ξ и η называют величину, равную r= μ , σ (ξ )σ (η ) где σ (ξ ), σ (η ) – среднеквадратичные отклонения величин ξ и η . Две случайные величины называют коррелированными, если μ ≠ 0 . Соответственно, (СВ) ξ и η некоррелированные, если μ = 0 . Справедливо следующее утверждение. Утверждение. 1) Если (СВ) ξ и η независимы, то они являются некоррелированными, 2) а если они коррелированны, то эти величины зависимы. Доказательство. Так как ξ и η независимы, то отклонения (ξ − M (ξ )) и (η − M (η )) также независимы. Тогда по свойству математического ожидания μ = M [(ξ − M (ξ ))(η − M (η ))] = M (ξ − M (ξ ))M (η − M (η )) = 0 , так что, если (СВ) ξ и η независимы, то они являются некоррелированными. Для доказательства второй части утверждения предположим противное, т.е., что ξ и η независимы. Тогда согласно предыдущему μ = 0 , что противоречит условию коррелированности во второй части утверждения. Следует отметить, что обратное утверждение не всегда имеет место, т.е., если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Таким образом, в общем случае понятия независимости и некоррелированности не равносильны. Равносильность этих понятий имеет место для нормального распределения, т.е. из некоррелированности нормально распределенных величин вытекает их независимость. Действительно, нормальный закон на плоскости задается двумерной плотностью распределения ⎡ ⎛ ( x − a )2 ( y − b )2 (x − a )( y − b ) ⎞⎟ ⎤⎥ ⎢ ⎜ + − 2r σ (ξ )σ (η ) ⎟ ⎥ ⎢ ⎜⎝ σ 2 (ξ ) σ 2 (η ) 1 ⎠ , fξη ( x, y ) = exp ⎢− ⎥ ⎥ ⎢ 2⎛⎜1 − r 2 ⎞⎟ 2πσ (ξ )σ (η ) 1 − r 2 ⎝ ⎠ ⎥ ⎢ ⎥⎦ ⎢⎣ где a, b – математические ожидания, σ (ξ ), σ (η ) – среднеквадратичные отклонения величин ξ и η , r – коэффициент корреляции. Пусть ξ и η некоррелированные величины. Тогда μ = 0 и r = 0 . Учитывая это, получим fξη ( x, y ) = ⎡ ⎛ ( x − a )2 ( y − b )2 ⎞⎤ ⎟⎥ = f ( x ) f ( y ) . exp ⎢− ⎜ + ξ η 2πσ (ξ )σ (η ) ⎢ ⎜⎝ 2σ 2 (ξ ) 2σ 2 (η ) ⎟⎠⎥ ⎦ ⎣ 1 Откуда следует по доказанному выше утверждению независимость (СВ) ξ и η . Таким образом, для нормально распределенных (СВ) понятия независимости и некоррелированности равносильны. Пример. В заколдованном круге радиуса 1 герой Гоголя Хома выбирает наугад точку А и через нее в произвольном направлении проводит магическую хорду ВС. Найти среднюю длину хорды ВС. Решение. Пусть R – (СВ) длины радиус-вектора точки А, Φ – (СВ) угла, образованного этим вектором и хордой ВС. По условию задачи эти (СВ) независимы. Найдем функции распределения этих величин ⎧ πr 2 ⎪ = r2, 0 < r ≤ 1 FR (r ) ≡ P(R < r ) = ⎨π 12 ⎪ ⎩1, r > 1 2ϕ ⎧ ϕ = , 0<ϕ ≤π /2 ⎪ FΦ (ϕ ) ≡ P(Φ < ϕ ) = ⎨ π / 2 π ⎪⎩1, ϕ > π / 2 Откуда следует f R (r ) = dFR (r ) ⎧2r , 0 < r ≤ 1 =⎨ dr ⎩0, r > 1 f Φ (ϕ ) = dFΦ (ϕ ) ⎧2 / π , 0 < ϕ ≤ π / 2 =⎨ dϕ ⎩0, ϕ > π / 2 Так как (СВ) R и Φ независимы, то f RΦ (r , ϕ ) = f R (r ) f Φ (ϕ ) = 4r π . По теореме Пифагора длина хорды ВС равна L = 2 1 − H 2 = 2 1 − r 2 sin 2 (ϕ ) , так что средняя длина хорды ВС M (L ) = π /2 1 8 16 ( ) ϕ ϕ Lf r , drd = dϕ ∫ 1 − r 2 sin 2 (ϕ )rdr = . ∫ ∫ π 3π −∞ 0 0 ∞ §9. Условные законы распределения Рассмотрим сначала дискретную двумерную (СВ) {ξ ,η }. Пусть xi (i = 1,2...n ) – возможные значения (СВ) ξ ; y j ( j = 1,2...m ) – возможные значения (СВ) η . Определение. Условным распределением составляющей ξ при условии, что (η = y j ) , называют совокупность условных вероятностей ( ) ( ) ( ) ( ) P ξ = x1 / η = y j , P ξ = x2 / η = y j , P ξ = x3 / η = y j ....P ξ = xn / η = y j , вычисленных в предположении, что событие (η = y j ) уже наступило. Аналогично определяется условное распределение составляющей η . По теореме умножения эти вероятности можно представить в виде ( ) P ξ = xi / η = y j = ( ) Pij Pij , P η = y j / ξ = xi = . Pj Pi Определение. Условной плотностью распределения составляющей ξ при условии, что (η = y ) , называют функцию вида f ( x, y ) ϕξ ( x / y ) = , fη ( y ) = fη ( y ) ∞ ∫ f (x, y )dx . −∞ Аналогично определяется условная плотность распределения составляющей η при условии, что (ξ = x ) f ( x, y ) ϕη ( y / x ) = , fξ ( x ) = fξ ( x ) ∞ ∫ f (x, y )dy . −∞ Основное свойство функции регрессии Определение. Условным математическим ожиданием дискретной (СВ) η при условии, что (ξ = x ) , называют величину M (η / ξ = xi ) = m ∑ y j P(y j / ξ = xi ) . j =1 Определение. Условным математическим ожиданием непрерывной (СВ) η при условии, что (ξ = x ) , называют величину M (η / ξ = x ) = Аналогично определяется составляющей ξ : M (ξ / η = y ) = ∞ ∫ yϕη ( y / x )dy . −∞ условные математические n ∞ i =1 −∞ ожидания ∑ xi P(xi / η = y j ), M (ξ / η = y ) = ∫ xϕξ (x / y )dx . Из определений видно, условное математическое ожидание M (η / ξ = x ) является функцией от x, которую называют функцией регрессии величины η на ξ . Обозначим ее следующим образом M (η / ξ = x ) = f (x ) . Уравнение y = f (x ) называется уравнением регрессии η на ξ , а график функции регрессии – линией регрессии η на ξ . Линия регрессии η на ξ показывает, как в среднем изменяется величина η при изменении величины ξ . Аналогично определяется регрессия ξ на η : M (ξ / η = y ) = g ( y ) . Функции регрессии f (x ) g ( x ) в общем случае не являются взаимно обратными. Основное свойство регрессии раскрывается в следующей теореме. Теорема. Если f (x ) является функцией регрессии η на ξ , то для любой функции h(ξ ) M ⎡(η − f (ξ ))2 ⎤ ≤ M ⎡(η − h(ξ ))2 ⎤ . ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ (1) Доказательство. Доказательство проведем в два этапа. Сначала докажем, что для любой функции u (ξ ) M (u (ξ ) ⋅ η ) = M (u (ξ ) ⋅ f (ξ )) . По формуле для математического ожидания функции (СВ) имеем (2) ∞ ∞ ( ) ( ) = u x yf x , y dxdy ∫ ∫ ∫ ∫ u(x )yfξ (x )ϕη ( y / x )dxdy = −∞ −∞ −∞ −∞ ∞ ∞ ∞ = ∫ u ( x ) fξ ( x )dx ∫ yϕη ( y / x )dy = ∫ u ( x ) fξ (x ) f ( x )dx = M [u (ξ ) f (ξ )] −∞ −∞ −∞ M (u (ξ ) ⋅ η ) = ∞ ∞ что и требовалось показать. В частности, если u (ξ ) = 1 , то из формулы (2) следует M (η ) = M ( f (ξ )) . (3) Теперь преобразуем M ⎡⎢(η − h(ξ ))2 ⎤⎥ следующим образом: ⎣ ⎦ M ⎡(η − h(ξ ))2 ⎤ = M ⎡((η − f (ξ )) + ( f (ξ ) − h(ξ )))2 ⎤ = M ⎡(η − f (ξ ))2 ⎤ + M ⎡( f (ξ ) − h(ξ ))2 ⎤ + ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ + 2 M (η − f (ξ ))M ( f (ξ ) − h(ξ )) По формуле (3) M (η − f (ξ ))M ( f (ξ ) − h(ξ )) = 0 и, следовательно, M ⎡(η − h(ξ ))2 ⎤ = M ⎡(η − f (ξ ))2 ⎤ + M ⎡( f (ξ ) − h(ξ ))2 ⎤ . ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ (4) Из (4) следует, что M ⎡(η − f (ξ ))2 ⎤ ≤ M ⎡(η − h(ξ ))2 ⎤ . ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ (5) Аналогично формулируется основное свойство регрессии ξ на η M ⎡(ξ − g (η ))2 ⎤ ≤ M ⎡(ξ − H (η ))2 ⎤ . ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ В частном случае, когда h(ξ ) = M (η ) = M (ξ ) = b , из (4) следует M ⎡(η − b )2 ⎤ = M ⎡(η − f (ξ ))2 ⎤ + M ⎡( f (ξ ) − b )2 ⎤ , ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ т.е. D(η ) = D( f (ξ )) + M ⎡( f (ξ ) − η )2 ⎤ . ⎢⎣ ⎥⎦ так что D(η ) ≥ D( f (ξ )) . (6) Линейная регрессия Если обе функции регрессии f (x ) и g ( y ) линейны, то говорят, что между величинами ξ и η существует линейная корреляционная зависимость. В этом случае линии регрессии являются прямыми. Выведем уравнения прямых линий регрессии. Для этого введем обозначения: a = M (ξ ), b = M (η ), D (ξ ) = σ 2 (ξ ), D(η ) = σ 2 (η ), μ = M [(ξ − a )(η − b )] . В соответствие с постановкой задачи представим функцию регрессии в линейном виде f ( x ) = A( x − a ) + B . Найдем параметры А и В. По формуле предыдущего раздела M (η ) = M ( f (ξ )) = M [ A(ξ − a ) + B ] = AM (ξ − a ) + B = B = b, μ = M [(ξ − a )(η − b )] = M [(ξ − a )( f (ξ ) − b )] = AM ⎡⎢(ξ − a )2 ⎤⎥ = Aσ 2 (ξ ) . ⎦ ⎣ откуда следует, что A= μ σ 2 (ξ ) . Таким образом, f (x ) = μ σ 2 (ξ ) (x − a ) + b . Аналогично, функция регрессии ξ на η имеет вид g(y) = μ σ 2 (η ) (y − a) + a . Если воспользоваться коэффициентом корреляции r = μ , то уравнения σ (ξ )σ (η ) регрессии можно представить в традиционном виде f (x ) = r σ (η ) (x − a ), g ( y ) = r σ (ξ ) ( y − b ) . σ (ξ ) σ (η ) Свойства коэффициента корреляции Свойство 1. Коэффициент корреляции не изменяется ни при изменении начала отсчета, ни при изменении масштаба измерения (СВ) ξ и η . Доказательство. Изменение масштаба и начала отсчета (СВ) ξ означает линейное преобразование вида ξ = x0 + hξ ′ , где h > 0 . При таком преобразовании M (ξ ) = M ( x0 + hξ ′) = x0 + hM (ξ ′), σ (ξ ) = hσ (ξ ′) и, следовательно, ξ − M (ξ ) ξ ′ − M (ξ ′) = . σ (ξ ) σ (ξ ′) Аналогично, η − M (η ) η ′ − M (η ′) = . σ (η ) σ (η ′) Тогда r= M [(ξ − M (ξ ))(η − M (η ))] σ (ξ )σ (η ) ⎡ (ξ − M (ξ ))(η − M (η )) ⎤ = M⎢ ⎥= σ (ξ )σ (η ) ⎦ ⎣ ⎡ (ξ ′ − M (ξ ′))(η ′ − M (η ′)) ⎤ = M⎢ ⎥ = r′ σ (ξ ′)σ (η ′) ⎦ ⎣ что и требовалось показать. Свойство 2. Коэффициент корреляции по абсолютной величине не превышает единицы, т.е. r ≤ 1. Доказательство. Представим величину η в виде η = [A(ξ − a ) + B ] + χ , где остаток χ = η − [A(ξ − a ) + B ] будем рассматривать как ошибку приближения величины η линейной функцией [A(ξ − a ) + B ] . Константы А и В найдем из условия минимума M ⎛⎜ χ 2 ⎞⎟ . Для этого преобразуем эту величину ⎝ ⎠ следующим образом: { } M ⎛⎜ χ 2 ⎞⎟ = M [(η − b ) − A(ξ − a ) − (B − b )]2 = M ⎡(η − b )2 ⎤ + A2 M ⎡(ξ − a )2 ⎤ − ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦ (1) ⎝ ⎠ − 2 AM [(η − b )(ξ − a )] + (B − b )2 = D(ξ ) + A2 D(η ) + (B − b )2 − 2 Arσ (ξ )σ (η ) Решая уравнения экстремума, ⎧ ∂M ⎛ χ 2 ⎞ ⎜ ⎟ ⎪ ⎝ ⎠ = 2 AD(ξ ) − 2σ (ξ )σ (η ) = 0, ⎪⎪ ∂A ⎨ ⎪ ∂M ⎛⎜ χ 2 ⎞⎟ ⎝ ⎠ = 2(B − b ) = 0 ⎪ ⎪⎩ ∂B найдем А и В A=r σ (η ) , B = b. σ (ξ ) (2) Из (2) следует, что M (χ ) = M [(η − b ) − A(ξ − a )] = M (η − b ) − AM (ξ = a ) = 0 , и, следовательно, дисперсия (СВ) χ равна D(χ ) = M ⎛⎜ χ 2 ⎞⎟ . ⎝ ⎠ (3) Подставляя (2) в (1) с учетом (3), получим D(χ ) = 1− r2 . D(η ) (4) Так как любая дисперсия по определению является неотрицательной величиной, то из (4) следует, что 1 − r 2 ≥ 0 или r ≤ 1 , что и требовалось доказать. Свойство 3. Если r = 0 , то (СВ) ξ и η не связаны линейной корреляционной зависимостью. Доказательство. При r = 0 из определения коэффициента корреляции r= M [(ξ − M (ξ ))(η − M (η ))] σ (ξ )σ (η ) = M (ξ ⋅ η ) − M (ξ )M (η ) σ (ξ )σ (η ) следует M (ξ ⋅ η ) = M (ξ )M (η ) . (1) Доказательство проведем по методу от противного. Для этого предположим, что f (ξ ) = A(ξ − a ) + B . (2) Из равенства (2) следует M (η ) = M ( f (ξ )) = B , (3) M (ξ ⋅ η ) = M (ξ )M ( f (ξ )) = M [ξ [ A(ξ − a ) + B ]] = AD(ξ ) + BM (ξ ) . (4) Из (1), (3), и (4) находим D(ξ ) = 0 . (5) Применим неравенство Чебышева к случайной величине A(ξ − a ) : P[ A(ξ − a ) < ε ] ≥ 1 − A2 D(ξ ) . ε2 (6) Так как D(ξ ) = 0 , то из (6) находим P[ A(ξ − a ) < ε ] = 1 и, следовательно, согласно (2) P[ f (ξ ) − B < ε ] = 1 , т.е. с единичной вероятностью M (η / ξ = x ) = B = M (η ) . Это означает, что (СВ) ξ и η независимы. Свойство 4. Коэффициент корреляции принимает крайние значения ± 1 тогда и только тогда, когда между величинами ξ и η имеется линейная функциональная зависимость. Доказательство. Если r = ±1 , то по формуле (4) второго свойства D(χ ) = 0 , Тогда из неравенства Чебышева P[ χ − M (χ ) < ε ] ≥ 1 − D (χ ) ε2 следует P[ χ < ε ] = 1 , т.е. с единичной вероятностью остаток χ = 0 и, следовательно, (СВ) η есть линейная функция от ξ : η = A(ξ − a ) + B . Верно и обратное утверждение: если η = A(ξ − a ) + B , то χ = 0 , D(χ ) = 0 и, следовательно, r = ±1 . Следствие. Из доказанных свойств коэффициента корреляции следует, что коэффициента корреляции является мерой линейной корреляционной зависимости между (СВ): с возрастанием абсолютной величины r линейная корреляционная зависимость становится более тесной и при r = ±1 переходит в линейную функциональную зависимость. Пример. В клетке 50 попугаев, из них 25 розовых. На обед удаву наугад последовательно выбирают двух попугаев. Пусть ξ – случайная величина числа розовых попугаев, появившихся при случайном выборе первого попугая, а η – при выборе второго попугая. Найти коэффициент корреляции ξ и η. Решение. Построим ряды распределении для (СВ) ξ , η и их произведения (ξ ⋅ η ) ξ 0 1 pi 0.5 0.5 η 0 1 pi 0.5 0.5 ξ ⋅η 0 1 pi 37 49 12 49 Тогда коэффициент корреляции равен r= M (ξη ) − M (ξ )M (η ) σ (ξ )σ (η ) =− 1 . 49