1.Основные понятия ТВ. ТВ изучает массовые явления,в кот.наблюдается неоднозначность исходов.Говорят случайные

advertisement
1.Основные понятия ТВ.
ТВ изучает массовые явления,в кот.наблюдается
неоднозначность исходов.Говорят случайные
явления.Массовые явления-такие,кот. В принципе можно
повторить неогранич.кол-во раз.Основным понятием ТВ
явл.понятие случайного события.Событием наз. Всякий факт,
кот. В рез-тате испытания(опыта,эксперимента) может
произойти или же не произойти.Все события бывают 3х
типов(видов): достоверные, невозможные и случайные.
События наз.достоверным, если оно обязательно происх. При
осущ.испытания.Обозн.U,Ω. Невозможным наз. Событие кот.
Заведомо не произойдет в рез-тате испытания.Обозн.V,Ø.
Случайное событие-кот. При осуществлении испытания
может либо произойти либо не произойти,т.е. события наз.
Случайным, если оно при одних повторах испыт. Происходит,
при других повторах-не происх. Обозн.A,B,C и т.д.
Вероятностью случ.события наз. Число характ. Степень
возможности наступления этого события при каждом ед.
испытании. Нахождение вероятности события индуктивно
понятно,когда исходы испытания равно возможны.Когда мы
подбр. Монету, мы не знаем, что выпадет орел или
решка.Однако мы знаем,что шансы выпадения и того и того,
одинаковы.Исходы испытания наз.равновозможными, если
ни один из них не явл. Объективно более возможным, чем
любой другой. Равновозможность исходов устан. на
интуитивном уровне.Обычно так,если в условиях испытания
присутств. Симметрия, то считают, что исходы
равновозможные. Матем. методами убедиться в
равновозможности исходов невозм. Исходы испытания
наз.несовместными, если никакие 2 из них не могут
наступить в рез-тате испытания.В противном случае исходы
испытания наз совместными.Несовместные исходывзаимоисключающие исходы испытания.
2.Классическое определение вероятности.св-ва.
Пусть испытание приводит всего к n несовместным и
равновозможным исходам, т.е. испытание заканчив.1 и т.1 из
этих исходов.Вероятностью случайного события А наз.
P(A)=m/n (1), где m число исходов при наступлении кот.
Наступит А.Такие исходы в ТВ наз.благоприятными для А. т.е.
вероятностью случ. События А наз. Отношение числа
благоприятных исходов к числу всех исходов испытания. При
усл. что они несовместны и равновозможны.
ПР.Подбрасывается 1 раз игральная кость.Найти вероятность
того, что выпадет четное число очков.(соб А).решение.В
данном испытании возможны исходы Е1..Е6 Еi- выпадение i
очков.Понятно, что эти исходы несовмесные.Они
равновозможные. Соб А благопр исходы Е2,Е4,Е6. Их 3, значит
Р(А)=3/6=0,5.Ясно что в этом примере А-случ. событие.дост
соб. вып. очков <7. Нев. соб. вып. число >=7
Св-во класич. Вероятностей.
P(U)=1(m=n)
P(V)=0 (m=0)
0<P(A)<1 (0<m<n) m>0
Обозн. Ā сост. В непоявлении А, т.е. Ā-не А. Ā наз.
Противоположным событием к А.P(Ā)=1-P(A)=(n-m)/n
3.Правило произведения в комбинаторике.Размещения.
Комбинаториика-матем. Наука, в кот. Дается ответ на
вопррос:Сколько подмн-в опред. Типа можно построить из
эл-тов конечного мн-ва.Осн.в комбинаторике явл. Так
называемое пр-ло умножение. Пусть требуется выполнить
одно за другим К действий.Если первое действие выполн. n1
способом, 2- n2 способами и т.д. К действ. nк способами,то все
К действия вместе можно выполнить n1* n2*..* nк
способами.Докажем справ. Для к=2.Пусть А1,А2,..,Аn способы
выполнения 1го действия. В1,В2,..,Вn способы выполнения 2-го
действия.Тогда оба действ. можно выполнить (A1B1) (A2B2)*..*
(An Bn) а всего n1*n2 Далее применим ММИ
ПР.Пусть нужно попасть из А в С через В, а из В в С
тремя.тогда попасть из А в С 6 способами.
Союз «и» в объяснении соотв оп-ции «*» там где «или»- «+»
Размещение.
Рассм мн-во Х сост из n разл. эл-тов x1,x2,..,xn будем послед.
Выбирать один за др. мн-во Х и распол. Их на к места.первым
заполн. 1ое место,2ым-2ое… Рез-тат этой комбинации эл-тов
наз. Размещением из n эл-тов по к.Число всех размещений из
n по к обозн.
Ank .Справ. Ank =
n!
(n  k )!
Док-во:
Заполнение 1-го места будем считать 1м действием.
Выполняется n способами. Заполнение 2-го места-2
действие(n-1 способами)…..Заполнение последн. К вып.( nк+1) для обр. размещения нужно эти действия вып 1 за
другим значит согласно пр-лу умнож.
Ank = n*( n-1)* (n-к+1)
n!
= (n  k )!
ПР.пусть Х={a,b,c} выпишем все размещения из этих эл-тов по
2 эл-та.: ab, ac, bc, ba, ca, cb.
4.Перестановки. Сочетания.
1.Перестановки.
Рассм. Мн-во Х сост из n разл. эл-тов x1,x2,..,xn т.е. Х={
x1,x2,..,xn}будем послед-но по одному выбир. Все эл-ты мн-ва
Х один за другим и размещать их на n местах .получ
комбинацию эл-тов наз перестановкой. Перестановкаупоряд. N-элементное мн-во или перестан. Наз любое
располож. Эл-тов Х в линейном порядке. Число всех
перестан. Мн-ва Х обозн Рn. Pn=n!
Пр. Пусть X={a,b,c}. Вып все перестан. (a,b,c), (a,c,b), (b,a,c),
(b,c,a), (c,a,b), (c,b,a) Р3=3!=6 сопоставляя опред. Размещения
и престановки можно сказать, что перестановка есть
k
A
размещение из n эл-тов по n зн. должно вып. Рn= n =
n!
(n  n)!
n!
= 0 это будет вып-ся,если положить, что 0!=1.
2.Сочетание.Рассм. мн-во Х={ x1,x2,..,xn} из Х одним действием
выберем сразу к эл-тов. Полученная комбинация эл-тов
называется сочетанием из n эл-тов по к, т.е. сочетанием наз.
К-эл-нтоное подмн-во мн-ва Х. Число всех сочетаний обозн
n
C nk    Справ. C nk = n! (1)
k!(n  k )!
k
Док-во.
Вып все сочетания 1 строкой. В кажд из этих сочет сделаем
всевозможные перестановки эл-тов в кажд будет к!. В
остальных сочетаниях тоже самое. В рез-тате получим все
размещения из n эл-тов по к. Значит
Ank = C nk *к!=
n!
k!(n  k )!
ПР. Пусть X={a,b,c}.выпишем все сочетания по 2 эл-та ab, ac,
3!
2
C

 3 (ab) и (ba) одно и тоже сочетание, но
3
cb.
2!(3  2)!
разное размещение.
5. Сочетания. Св-ва сочетаний. Рассмотрим мн. X={x1,x2,…,xn}.
Из Х одним действием выберем к-элементов полученная
комбинация элементов наз. сочетанием элем. из n по k,
обозначается Cnk и справедлива формула Cnk=n!/k!(n-k)! Дово: выпишем все испытания одной строкой. {…},{…},…,{…}. В
каждом из выписаных сочетаний сделаем возможные
перестановки элементов .В результате получим все
размещения из n элементов по k значит Akn= Cnkk!=> Cnk=
Akn/k!=n!/k!(n-k)!
Св-ва: 1). Cnk=Cnn-k
2). Cnk=Cnk-1+Cn-1k
3). Cn0+Cn1+…+Cnn=2n Д-во=> из бинома Ньютона (a+b)n
=an+Cn1an-1b+ Cn2an-2b2+…+bn
(1+1)n= Cnk
6.геометрич опред вероятности.Св-ва.
О. Пусть каждому исходу испытания соответствует
некоторая точка М промежутка D. Числовая прямая
причём соответствие взаимно-однозначное. Пусть
событию А соответствует d (d подмнож. D). Если все
исходы испытания равновозможны, то за вероятность
события А принимают md/mD, где m есть длина.
Св-ва. 1. P(U)=1
2. P(V)=0
3. 0≤P(A)≤1
4.P(не A)=1-P(A)
7.Частотное определение вероятности.
Св-ва. О. Пусть испытание в результате которого может
произойти А повторов N-раз относительная частота
появления события А в данной серии из N испытаний
наз. Число P*(A)=M/N, где M есть число испытаний в
которых событие А произошло.
О. Число около которого колеблится относительная
частота события при массовых испытаниях наз.
Вероятностью случайного события.
С-ва: 1).P*(U)=1
P*(V)=0
0≤P*(A)≤1
P*( не А)=1-P*(A)
8.Операции над событиями
О1. Говорят, что событие А влечёт за собой В, если в
испытании когда появляется А, то происходит В.
О2. Если А влечёт за собой В и в то же время В влечёт за
собой А то говорят что они равносильны.
А=В
О3.Суммой двух событий А и В наз. Событие С состоящее
из явлений или А или В, или обеих.
С=А+В
О3'. Суммой n событий A1 …An наз. Событие С состоящее в
проявлении хоть одного из них. C= A1 +…+An
О4. Произведением n событий наз. Событие C состоящее в
проявлении каждого из них.
C= A1* …*An
O5. Разностью двух событий А и В наз. Событие С
состоящее в проявлении А и не проявлении В С=А-В
(С=А\В)
О6. 2- события наз несовместными если А*В=V
О7. 2-а события А и не A наз противоположными если A*
не А=V, значит что А+ не А=U
О8. Если А= A1 +…+An , Аi*Aj=V то говорят что А
подразделяется на частные случаи A1 …An
О9.Говорят что события A1 …An образуют полную группу
событий если A1+ …+An =U, Аi*Aj=V.
9.Свойства операций над событиями:
Св-ва:
1.А+В=В+А
2.А+(В+С)=(А+В)+С
3.АВ=ВА
4.А(ВС)=(АВ)С
5.(А+В)С=АС+ВС
Св-ва операций, которыми числа не обладают:
6.(А+С)(В+С)=С+(АВ)
7.А+А=А
8.АА=А
9.А+U=U
10.АU=А
11.А+V=А
12.АV=V
13.А+А(с чертой)=U
14. АА(с чертой)=V
15. А-В=АВ(с чертой)
16.А+В=А+(В-А)=(A-B)+B=(A-B)+(B-A)+AB=A+BA(с чертой)=AB(с
чертой)+B=AB(с чертой)+BA(с чертой)+AB
17.A1+A2+…+An(всё с чертой)= A1 (с чертой)*A2 (с чертой)*…*An (с чертой)
18.A1*A2*…*An(всё с чертой)= A1 (с чертой)+A2 (с чертой)+…+An (с чертой)
Докажем свойство 17 для случая n=2. Докажем что A1+A2 (всё с чертой)=
A1 (с чертой)*A2 (с чертой).Пусть ω принадлежит A1+A2 (всё с чертой), 
ω не принадлежит A1+A2 
ω не принадлежит A1, ω не принадлежит A2  ω принадлежит A1(всё с
чертой), ω принадлежит A2 (всё с чертой)  ω принадлежит A1 (с
чертой)*A2 (с чертой):
A1+A2 (всё с чертой) включ. A1 (с чертой)*A2 (с чертой)
Пусть ω принадлежит A1 (с чертой)*A2 (с чертой)  ω принадлежит
A1(всё с чертой), ω принадлежит A2 (всё с чертой)  ω не принадлежит
A1, ω не принадлежит A2  ω не принадлежит A1+A2  ω принадлежит
A1+A2 (всё с чертой) 
A1 (с чертой)*A2 (с чертой)= A1+A2 (всё с чертой).
Сопоставим подчеркнутые соотношения, делаем вывод что A1+A2(всё с
чертой)= A1 (с чертой)*A2 (с чертой)
10.Пространство элементарных событий
Рассмотрим понятие пространства элементарных
событий. Если подбрасывается игральная кость 1 раз, то в
этом испытании возможны исходы Е1 Е2 …Е6; где Еi –
выпадение i очков. Совокупность этих исходов называют
пространством элементарных событий(обозначается Ω).
Таким образом в нашем примере Ω={ Е1, Е2,…, Е6}. Это
справедливо и для общего случая.
Опр: Пространством элементарных событий (ПЭМ)
соответствующего данному испытанию называется
произвольное множество Ω, обладающее тем свойством,
что каждому исходу испытания соответствует в точности
элемент из Ω.
Каждый элемент множества Ω называется событием.
Ω={ ω 1, ω 2, ω 3,…}т.е. ПЭМ наз.совокупность всех попарно
несовместных исходов испытания. ПЭМ – это есть полная
группа исходов испытания.
11.Аксиоматическое определение вероятности:
Аксиом.пространтва:
Пусть Ω –произв.мн-во элементов Ω={ ω 1, ω 2, ω 3,…}.
Мн-во Ω-наз.пространством элем.событий.
Элементы ω 1, ω 2, ω 3,…-Элем.событий.
Пусть F-совокупность подмножеств множества Ω.
Считаем что F-алгебра событий, либо СИГМА-алгебра
событий.
Событиями явл.элементы F.Считается что событие
произошло, если произошло ω-входящая в это событие.
Само Ω-есть достоверное событие.
Суммой двух событий наз.их теоретикомн-ное
обьединение,произведением-пересечение.
Пр-ным событием-наз подмн-во Ω-А.
Аксиомы:
Р1:Любому событию А из F, ставиться в соответствие число
Р(А)-наз.его вероятностью.
Р2:Вероятность достоверного события=1, т.е Р(U)=1
Р3:Если событие А1 и А2-несовместны, т.е.А1*А2=V, то Р(А1+
А2)=Р(А1)+Р(А2)
Р4:Если события А1,А2,…Аn таковы что в А1 включается А2, в
А2-А3 и т.д.и это равно пустому множеству, то предел Р(Аn)=0
Аксиома 4 имеет место если Ω-бесконечное,Если Ω-конечное,
то подмножеств будет Аn .
Тройка{ Ω ,F,P}- наз.вероятным пространством ТВ.
12. Свойства аксиоматической вероятности.
Вероятностное пространство.
1. P(v)=0
Док. Опираясь на наши аксиомы A+V=A, тогда
P(A+V)=P(A), A,V-несовместны(см.сво-во)применим P3.
P(A)+P(v)=P(A)=>P(v)= 0 чтд.
2. P(A c чертой)=1-P(А)
Док. А+А с чертой=u; P(A+A с чертой)=P(u). А,А с чертойнесовместны(см св); P3= P2; P(A)+P(A с чертой)=1=>P(A с
чертой)=1-P(A) чтд.
3. 0<=P(A)<=1 (аддитивность сложения P3)
Док. . 0<=P(A)<=1; P(A)=1-P(A с чертой) Согл P1>=0; P(A)=1>=0 Рез-т <=1
4. Если A<B, то P(A)<=P(B) (неприрывности P4)
Док. Если А влечет (С) за собой В, то В=А+(В-А),
Р(В)=Р(А+(В-А)). Событие А и В-А-несовместны. При Р3.
Р(В)=Р(А)+Р(В-А). Согластно Р, это больше=0. Получаем
Р(В)>=Р(А).
13. Теоремы сложения вероятностей
Т1. Если событие А1А2..Аn несовместны, то можно считать(
т.е попарно несовместны), то
Р(А1+А2+..+Аn)=P(A1)+P(A2)+..+P(An)
В некоторых утверждениях дается вместо Р3. Верно для
двух зн-т верно.
Док. ММИ. Для n=2- это есть утверждение P3.
Предпологаем верность , для n-1 событие, т.е
Р(А1+А2+..+Аn-1)= P(A1)+P(A2)+..+P(An-1)-и, тогда
Р(А1+А2+..+Аn)= Р((А1+А2+..+Аn-1)+Аn)=( по P3)= Р(А1+А2+..+Аnчтд
1)+Р(An)= P(A1)+P(A2)+..+P(An)
Т2. Если событие А и В совместны (АВ≠0), то
Р(А+В)=Р(А)+Р(В)-Р(АВ)
Док. Справедливо А+В=А+(В-А), Р(А+В)=Р(А+(В-А))=(по
Р3)=Р(А)+Р(В-А) т.е Р(А+В)=Р(А)+ Р(В-А) . Справедливо
В=(В-А)+АВ. Р(В)=Р((В-А)+АВ)=( по Р3)=Р(В-А)+Р(АВ).
Событие В-А,АВ – несовмесны. Р(В-А)=Р(В с чертой)-Р(АВ)
14 Вероятность суммы совместных событий.
Теорема3. Если события А1, А2,.. Аn совместны, то
P(А1+А2+... +Аn)=∑
…An)
P(Ai) - ∑ P(AiAj)+ ∑ P(AiAj Ak) - …- ∑ P(AiAj
Д-тся методом мат.индукции опираясь на Т2. Это теорема
применяется на практики для n=3. и для n=3 формулировка
следующая.
Теорема3’ Если событие А,В,С совместны, то
P(А+В+С)=P(А)+P(В)+P(С)- P(AB)- P(ВС)-P(АС)+P(АВС)
Д-во: P(А+В+С)= P((А+В)+С)=<Т2>= P(А+В)+P(С)-P(АС+ВС)=<Т2>=
P(A)+P(B)- P(AB)+P(C)-P(AC)- P(BC)+ P(АВС).
Теорема4. Если события А1, А2,.. Аn совместны, то
P(А1+ А2,…+ Аn =P(A1+P(𝐴1 A2)+…+P(𝐴1 𝐴2 …An)
Теорема5. Если события А1, А2,.. Аn совместны, то
P(А1+ А2,…+ Аn )=1- P(𝐴1 𝐴2 …𝐴𝑛 )
Д-во: применяем теоремы Т1,Т2,Т3.
15 условная вероятности. Свойства.
Условной вероятности наз. рассмотрение вероятности наступления
события А, при условие, что другое событие В уже произошло.
P(A∗B)
P(A/B)=
𝑃(𝐵)
Это определение эквивалентно так наз. теории умножения, согласно
которой
P(A*B)=P(A)*P(B/A)=P(B)*P(A/B)
Т.е. вероятность произведения двух событий равна вероятности
одного из них, умноженной на условную вероятность другого при
условии, что первое событие наступило.
Д-ем условную вероятность для классического определения.
Пусть опыт приводит всего к n-несовместным и равновозможных
исходов из них n1- благоприятных А, n2– благоприятных В, n3 благоприятных АВ.
Тогда P(A/B)=
n3
n2
=
𝑛3
𝑛
𝑛2
𝑛
P(A∗B)
=
𝑃(𝐵)
Свойства:
1. P(A/B)≥ 0
2. P(В/B)=1
Д-во: P(В/B)=
P(ВB)
P(B)
𝑃(𝐵)
𝑃(𝐵)
=
=1
3. P(U/B)=1
Д-во: P(U/B)=
P(U∗B)
P(B)
𝑃(𝐵)
𝑃(𝐵)
=
=1
4. Если А1 , А2 – несовместны, то
P(А1 +А2 /B)= P(A1/B)+ P(A2/B)
Д-во: P(А1 +А2 /B)=
𝑃((𝐴1 +𝐴2 )∗𝐵)
𝑃(𝐵)
=
Т.к. 𝐴1 𝐵, 𝐴2 𝐵 – несовместны =
𝑃((𝐴1 𝐵+𝐴2 𝐵)
=
𝑃(𝐴1 𝐵)+𝑃(𝐴2 𝐵)
𝑃(𝐵)
𝑃(𝐴1 𝐵) (𝑃(𝐴2 𝐵)
𝑃(𝐵)
+
𝑃(𝐵)
𝑃(𝐵)
= P(A1/B)+ P(A2/B)
5. P(𝐴/B)=1-P(A/B)
𝐴 + 𝐴 = 𝑈 → 𝑃(𝐴 + 𝐴/𝐵) = 𝑃(𝑈/𝐵) => 𝑃(𝐴 + 𝐴/𝐵) = 1 =>
P(𝐴/B)+ P(A/B)=1 => P(𝐴/B)=1-P(A/B)
16. Вероятность произведения событий
Р(АВ)
Заменим опред условную вероятность, т.е. ф-лу Р(А/В)= 𝑃(𝐵)
(1). В этой ф-ле поменяем местами А и В
Р(В/А)=
Р(ВА)
Р(А)
Р(А)≠0
(1’)
Из (1) и (1’) след, что Р(АВ)=Р(А)Р(В/А)=Р(В)Р(А/В)
Р(АВ)=Р(А)Р(В/А)=Р(В)Р(А/В) (2)
Соотнош (2) в ТВ назыв теорией умножения вероятностей для
2-х событий.
Теорема: Вероятность произведения 2-х событий =
произведению вероятности одного из них на условную
вероятность 2-го события, при условии, что 1-е событие уже
произошло.
Методом мат индукции в соотношении (2) распр на n –
событий, а именно:
Р(А1, А2,…,
Аn)=P(A1)P(A2/A1)P(A3)P(A3/A1A2)…P(An)P(A1A2…An-1)
(3)
Вероятность произвед n – событий А1,А2,…,Аn = произвед
вероятностей одного из них условную вероятность всех
остальных событий, причём вероятрн каждого послед
события, наход в предполож, что все предыдущ произошли.
Рав-во (3) назыв теорией умножения вероятностей.
Пример: В урне наход 5 белых, 4 чёрных и 3 синих шара,
кажд испыт состоит в том, чтобы наудачу извлек 1 шар из
урны. Найти вер-ть того, что при 1-ом испыт появ белый шар
(А), при 2-ом чёрн шар (В), при 3-ем испыт появ синий шар
(С). Если выбран шары в урну не возвращ .
Нам нужно найти вер-ть
Р(АВС)=Р(А)Р(В/А)Р(С/АВ)=5/2*4/11*3/10=1/22
17. Независимость события
Пусть события А и В имеют не нулев вер-ти. Будем считать, что А
независ от В, если Р(А/В)=Р(А) и это естественно.
Вероятность наступл А , если А – независ от В, то и В независ от А.
Д-во: Дано Р(А/В)=Р(А), д-ть, что Р(В/А)=Р(В)
Заменем ТВ для умнож Р(АВ)=Р(А)Р(В/А)=Р(А)Р(А/В), Р(А/В)=Р(А)
Получ требуемое, так образ, если А независ от В то и В независ от А,
поэтому можно говорить, что событ А и В независ. Если событ А и В
независ, то из теор вер, умнож 2-х событ след, что Р(АВ)=Р(А)Р(В).
Опр. n- событ А1,А2,…,Аn наз независимыми в совокупности, если
Р(Ai)(Aj1,Aj2,…,Ajk)= P(Ai) для всех i=1,…,n, для всех j=1,…,n-1.
Если события А1,…,Аn независ в совокупности, то из ф-лы (3), след что
Р(А1…Аn)= Р(А1)…Р(Аn)
Если независ в совок вып, только лишь для к=1, то событ А1,…,Аn
назыв попарнонезависимыми. Ясно, что если А1,…,Аn независ в
совокупн, то они и попарнонезавис. Обратное не всегда верно.
Пример: В урне наход 5 белых, 4 чёрных и 3 синих шара, кажд испыт
состоит в том, чтобы наудачу извлек 1 шар из урны. Найти вер-ть того,
что при 1-ом испыт появ белый шар (А), при 2-ом чёрн шар (В), при 3ем испыт появ синий шар (С). После выбора шара, возвращаем его
обратно в урну. Тогда Р(АВС)=Р(А)Р(В)Р(С)=5/12*4/12*3/12=5/144
События А,В,С независ, установл на интуитивном уровне.
Замечание: Не следует смешивать понятия независ событ и
несовместн событ. Независ событ имеет знач при нахожд вероятности
произведения событий, а несовместн событ – при нахожд
вероятности суммы событий.
Более того если события А и В независ с ненулевыми вероятностями,
то они совместны.
Действит А и В независ, следовательнол Р(АВ)=Р(А)Р(В)≠0 с
ненулевыми вероятностями, значит АВ≠V, следов А и В совместны.
18. События А и В независимы. Независимы ли события
̅иВ
А
̅ и В, а так
Если А и В независ, то незави будет и события А
̅иВ
̅, а так же А
̅. Наличие чёрточек на зависимость
же А и В
не влияет.
̅В)=Р(А
̅)Р(В)
Дано Р(АВ)=Р(А)Р(В) Д-ть, что Р(А
̅В
Д-во: Рассмотрим В=АВ+А
̅В)= Р(АВ)+Р(А
̅В) значит Р(В)= Р(АВ)+Р(А
̅В)
Р(В)=Р(АВ+А
̅)
Р(АВ)=Р(В) – Р(АВ)= Р(В) – Р(А)Р(В)=Р(В)(1 – Р(А))=Р(В)Р(А
̅В)=Р(А
̅)Р(В)
Т.е. Р(А
Остальные следуют из этого, т.е. наличие чёрточек на
зависимость не влияет. Если Аи В независимы.
19. Формула полной вероятности
Т. В одном и том же вероятностном пространстве {Ω, 𝐹, 𝑃}
расм. некоторое событие А и группу событий Н1, Н2, …, Нn
образующих полную группу событий. Тогда справедлива
формула: Р(А)=Р(Н1)*Р(А/ Н1)+Р(Н2)*Р(А/
Н2)+…+Р(Нn)*Р(А/ Нn)=∑𝒏𝒌=𝟏 Р(Н𝐤) ∗ Р(А/ Н𝐤) – это ф-ла
полной вероятности.
Д-во. Т.к. события Н1, Н2, …, Нn образуют полную группу
событий, то Н1+ Н2+ …+Нn и Нi* Нj=v, i≠j. Умножим обе
части на А: А*Н1+ А*Н2+ …+А*Нn=АU=A, значит
Р(А)=Р(А*Н1+ А*Н2+ …+А*Нn) АНi*AHj=A*Нi* A*Hj=Av=v.
Вывод: слагаемые не совместны. Р(А)=(А*Н1)+Р(А*
Н2)+…+Р(А*Нn). Чтд.
20. Формулы Байеса
Рассмотрим формулу Байеса, и пусть условия те же, что и
для ф-лы полной вероятности. АН1+ АН2+ …+АНn=А. А
наступает тогда и т.тогда, когда наступает одно из Н. Пусть
известно, что в результате испытания событие А
произошло, значит произошло какое-то одно из Н.
Переоценим вероятности Р(Нi) с учетом дополнительной
информации: событие А произошло, т.е. найдем Р(Нi/A).
Рассмотрим вероятность Р(Нi/A)= Р(Нi)* Р(Нi/A)=
Р(Н𝐢)∗ Р(А/Н𝐢)
Р(А)*Р(Нi/A). Отсюда Р(Нi/A)=
Р(А)
=∑ 𝒏
Р(Н𝐢)∗ Р(А/Н𝐢)
𝒌=𝟏 Р(Н𝐤)∗Р(А/ Н𝐤)
, i=1,2,…,n это и есть формулы Байеса.
Формулы Байеса применяются в медицине, биологии,
разведке полезных ископаемых и т.д. Ф-лы Байеса ещё
называют формулами переоценки вероятности гипотез.
21.Схема Бернулли. Формула Бернулли.
Пусть одно и то же испытание повторяется одно и то же
количество n-раз. Такие испытания называются повторными.
Если вероятность наступления некоторого события А в каждом
испытании одна и та же, т.е. не меняется от испытания к
испытанию, то такие испытания наз. независимыми. Повторные
независимые испытания образуют схему Бернулли.
Теорема(формула Бернулли): Если Вероятность p наступления
события Α в каждом испытании постоянна, то вероятность Pn(к)
того, что событие A наступит k раз в n независимых испытаниях,
равна:
,где q = 1-p.
Док-во. Обозначим Ai — наступление события A в испытании с
номером i. Так как условия проведения опытов одинаковые, то
эти вероятности равны. Пусть в результате n опытов событие A
наступает k раз, тогда остальные n − k − раз это событие не
наступает. Событие A может появиться k раз в n испытаниях в
различных комбинациях, число которых равно количеству
сочетаний из n элементов по k. Это количество сочетаний
находится по формуле:
.
При этом вероятность каждой комбинации равна
произведению вероятностей:
.
Применяя теорему сложения вероятностей несовместных
событий, получим окончательную Формулу Бернулли:
где q = 1-p, что и требовалось доказать.
22.Найвероятнейшее число в схеме Бернулли
Пример. Монета подбрасывается 4 раза. Ясно, что герб может
выпасть 0,1,2,3,4 раза. Найдем эти вероятности. Вероятность
выпадения герба при каждом подбрасывании 1/2. Вычислим
вероятности по формуле Бернулли. Сумма всех найденных
вероятностей =1.
Наибольшая вероятность здесь будет Р4(2)=6/16. А это
означает, что при 4-х подбрасываниях гебр выпадет 2 раза
вероятнее всего. В связи с этим число к=2 называют
наивероятнейшим числом. В общем случае обозначается k* есть такое число к, для которого вероятность Рn(к) является
наибольшей, по сравнению с остальными вероятностями. k*точка максимума ф-и Рn(к).
Легко установить, что Рn(к+1)/ Рn(к)=(n-к)/(к+1)*p/q , пусть (nк)/(к+1)*p/q=1 
(n-k)p=(k+1)q.Если k=np-q , то
отношение равно 1, если же k<np-q, то отношение больше 1. В
случае, когда k>np-q функция убывает. Число np-q постоянное и
отсюда следует, что k* есть целое число, заключенное между
np-q<= k*<= np-q+1 , но 1-q=p. Таким образом окончательно
получаем np-q<= k*<= np+р .
Наивероятнейшим числом появления события в
независимых испытаниях называется такое число k*, для
которого вероятность, соответствующая этому числу,
превышает или, по крайней мере, не меньше вероятности
каждого из остальных возможных чисел появления события .
Для определения наивероятнейшего числа не обязательно
вычислять вероятности возможных чисел появлений события,
достаточно знать число испытаний и вероятность появления
события в отдельном испытании.
23.локальная теорема Лапласа. Когда и как используется.
Нахождение вероятности Pn (k) при больших вероятностях n
вызывают значительные трудности вычислительного характера.
Поэтому нужны формулы позволяющие найти Pn (k) при больших n
локальная теорема Лапласа: пусть производится n независимых
испытаний в каждом из которых с вероятностью p отличной от 0 и 1
𝑘−𝑛𝑝
может произойти некоторое событие A так, что величина x=
Ограниченной ,то lim 𝑃 (𝑘) =
𝑛→∞
1
√𝑛𝑝𝑞
𝜑 (𝑥 ), 𝜑 (𝑥 ) =
1
√2𝑛
𝑒
√𝑛𝑝𝑞
явл.
𝑥
𝑦
Из этой теоремы следует,что для конечных n справедливо npq≥8
Результат тем точнее ,чем больше n и чем ближе p к 0,5
График функции 𝜑(𝑥) наз. Кривой вероятности или кривой Гаусса он
имеет холмоподобный вид .Эта функция четная
24.теорема Пуассона.когда исп.
Нахождение вероятности Pn (k) при больших вероятностях n
вызывают значительные трудности вычислительного
характера. Поэтому нужны формулы позволяющие найти Pn
(k) при больших n
Теорема Пуаасона:если вероятность p наступления события А
в каждом испытании постоянна и мала,и число испытаний
достаточно велико ,то Pn (k)≈
𝑒 −𝜆 ∗𝜆𝑘
λ=np
𝑘!
Док-во:
Pn (k)=
𝑛!
𝜆 𝜆𝑘 𝑛 𝑛−1 𝑛−2 𝑛−𝑘+1
k
n-k
*p q =(p= )=
(1
𝑘!(𝑛−𝑘)!
𝑛
𝑘! 𝑛 𝑛
𝑛
𝑛
𝜆
− )n(1𝑛
𝜆 -k
)
𝑛
пусть теперь n→ ∞ т.к. число множителей конечное кол-во
таким образом lim (𝑒^(−𝜆) ∗ 𝜆^𝑘)/𝑘! отсюда следует что
𝑛→∞
для конечных n Pn (k)≈(e^(-λ)*λ^k)/k!
,для λ=np
Эта формула наз. Формулой Пуассона или же законом редких
событий
25.интегральная теорема Лапласса.когда и как исп.
Нахождение вероятности Pn (k) при больших вероятностях n
вызывают значительные трудности вычислительного
характера. Поэтому нужны формулы позволяющие найти Pn
(k) при больших n
интегральная теорема Лапласса:пусть производится n
независимых испытаний в каждой из которых вероятность
появления события А постоянна и ровна р(0 <р< 1). Тогда
вероятность Pn(k1,k2) того что событие А в испытаниях
появится не менее k1 раз и не более k2 раза
Pn(k1,k2)≈Ф(х”)-Ф(х’), где
x’’=
2
х −𝑡
Ф(х)= 2𝜋 ∫0 е 2
√
1
𝑘1−𝑛𝑝
dt, х’ =
√𝑛𝑝𝑞
𝑘2−𝑛𝑝
√𝑛𝑝𝑞
схема док-ва : Pn(k1,k2)= Pn(k1) + Pn(k1+1)+ Pn(k1+2)+…+
Pn(k2) это равенство используется при нахождении Pn(k1,k2)
при малых n. каждое слогаемое справа находится по
формуле Бернулли . пусть теперь n большое число тогда
каждое слогаемое записывается по локальной теореме
Лапласа 𝜑(𝑥 ) =
1
√2𝑛
−𝑥
2
𝑒 , q=1-p эта сумма есть интегральная
сумма Римана для интеграла
dt тогда
2
𝑥′′ −𝑡
lim 𝑃𝑛(𝑘1, 𝑘2)= 2𝑛 ∫𝑥′ 𝑒 2
√
𝑛→∞
1
2
𝑥′′ −𝑡
∫ 𝑒 2
√2𝑛 𝑥′
1
dt этот интеграл относится к
типу неберущихся .
Применяется в тех же ситуациях,что и локальная теорема
Лапласа ,что и при npq≥8 .Погрешность будет тем меньше
,чем больше n
26. Функция Лапласса и ее свойства.
Функция Ф(х) =
2
х −𝑡
∫ 𝜀 2
√2𝜋 0
1
𝑑𝑡 наз интегралом
вероятностей или же фу-цией Лапласа.
Св-ва.
- определена и непрерывна на числовой прямой.
′(
- монотонно возрастает Ф 𝑥 ) =
1
√2𝜋
𝜀
𝑡2
2
−
>0
-фун-ция Ф(х) – нечетная
2
- lim Ф(х) = 0,5 это следует из того, что
х→∞
+∞ −𝑡
∫−∞ 𝜀 2
𝑑𝑡 =
√2𝜋- интеграл Пуассона.
-функция Ф(х) табулирована. В табл приводятся
значения фу-ции для аргументров от 0 до 4.99. Если
х>=5, то для таких х полагают, что Ф(х) отриц,то
используется нечетность фу-ции Ф(х)
27.Оценка вероятности по относительной частоте.
Пусть производится n-независемых испытания, в каждом из которых с
вероятностью p может произойти событие А тогда справедлива
формула: P(|
𝑚
𝑛
𝑛
𝑚
− 𝑟| ≥ ɛ ≈ 2𝜑 (𝜀 ∗ √𝑝∗𝑞)
𝑛
–
относительная частота появления события А в n-испытаниях. 𝜀—
положительное наперёд заданное. q=1-p
Эта формула используется для оценки вероятности p, которая нам
известна. Левая часть вероятность того , что отношение абсолютной
величины , относительной частоты появления А от вероятности
появления А ≤ не превосходит положительного числа ɛ
Доказательство:
𝑚
𝑚
𝑛
𝑛
P(| − 𝑟| ≥ ɛ = p(- ɛ ≤
− 𝑝 ≤ ɛ)= P(-ɛ𝑛 ≤ 𝑚 − 𝑛𝑝 ≤ ɛ𝑛)
P(np- ɛ𝑛 ≤ 𝑛𝑟 ≤ 𝑛𝑝 + ɛ𝑛
Применим теорему Лапласса если n—большое ≈ 𝛷(
𝛷(
𝑛𝑝−𝐸𝑛−𝑛𝑝
√𝑛𝑝𝑞
)= Ф(Е*
𝑛
√𝑛𝑝𝑞
− −Ф(−ɛ
𝑛
√𝑛𝑝𝑞
))=2Ф(Е*
𝑛
√𝑛𝑝𝑞
𝑛𝑝+𝐸𝑛−𝑛𝑝
√𝑛𝑝𝑞
)=2Ф (Е*√
)-
𝑛
𝑝𝑞
ч.т.д
В данной формуле перейдём к пределу, получим
𝑚
𝑛
lim 𝑃 (| + 𝑝| ≤ ɛ) = lim 2Ф(ɛ ∗ √ = 2Ф(∞) = 2 ∗ 0,5 = 1
𝑛→∞
𝑛→∞
𝑛
𝑝𝑞
Получим что р-вероятность, при n=1, значит при n=∞ явл.
Достоверным. Если взять ɛ-- сколь угодно, то получим, что
относительная частота отличается на малое число , при n→ ∞. Из
этого соотношения можно определить n если задать 𝜀
28. Понятие случайной вероятности. ДСВ
Понятие случайной величины явл. Основн. Понятием СВ.
Характеризует результат испытания А.
Любое правило устанавливающее связь между возможными
значениями СВ и соответствующими вероятностями наз. Зн-н
распределения.
СВ могут быть 2-ух типов:
-- дискретные
-- неприрывные.
СВ наз дискретной если множество возможных значений явл.
Конечным или отчётным множеством.
СВ наз. Непрырывной если множество явл. Числоваой промежуток
даже бесконечный.
Закон распределения ДСВ удобнее всего представлять в виде
таблицы
x X1 X2 X3 … X4
p p1 p2 p3 … P4
Ряд распределения. В первой строке этой таблицы указываются все
возможные значения, во второй соответствующие вероятности.
Pk=P(X=Xk) правая часть читается вероятность того, что случайная
величина числа Х применит значение Хк
29. Биномиальное распределение. Распределение Пуассона.
Из всех дискретных случайных величин на практике чаще всего
встречаются СВ имеющие биномиальный закон распределения или
закон распределения Пуассона.
Говорят что СВ Х распределено по биномиальному закону, если ряд
имеет вид
х 0 1 2 … n
P P0 P1 P2 … pn
𝑛!
𝑘 𝑛−𝑘
P k=
∗
𝑝
𝑞
𝑘!(𝑛−𝑘 )!
P= const, 0<p<1
q = 1-p
Говорят что СВ Х по закону Пуассона, если ряд распределения имеет
вид:
х 0 1 2 … n …
P P0 P1 P2 … pn ...
𝜆𝑘 ∗𝑒 −𝜆
P=
𝑘!
λ=const
λ>0
Из теорему Пуассона следует, что распределение Пуассона является
предельным для биномиального распределения.
30.Функция распределения. Св-ва.
Опр: Функцией распределения СВ Х
наз.действительная функция F(х) определённая с
помощью равенства F(x)=P(X<x), xєR, где событие
(X<x)={X(w)<x}
Свойства функции распределения:
1. 0≤F(x)≤1 (F – есть вероятность)
2. P(x1≤Х<x2)=F(x2)-F(x1) (x1≤x<x2)={w│ x1≤x(w)<x2}
Док-во: Справедливо (Х<х2)=(Х<х1)+( x1≤Х<x2), тогда
Р(Х<х2)=Р(Х<х1)+Р(x1≤Х<x2).Отсюда Р(x1≤Х<x2)=
Р(Х<х1)- (Х<х2)= F(x2)-F(x1) чтд.
3. P(X≥x)=1-F(x) (X≥x), (X<x) явл. противоположными
4. lim 𝐹 (𝑥 ) = 0, lim 𝐹 (𝑥 ) = 1
х→−∞
𝑥→∞
5. Функция F(x) явл. не убывающей следует это из свва 2.
6. Скачёк функции F(x) в точке х равен P(X=x) следует
из св-ва 2.
7. Функция F(x) может иметь не более счётного мнва скачков (точек разрыва).
31.Функция распределения. ДСВ.
Опр: Функцией распределения СВ Х наз.действительная
функция F(х) определённая с помощью равенства F(x)=P(X<x),
xєR, где событие (X<x)={X(w)<x}
Опр:Любое правило устанавливающее связь между
возможными значениями СВ и соответствующими
вероятностями наз. Зн-н распределения.
СВ могут быть 2-ух типов:
-- дискретные ;
-- неприрывные.
СВназ дискретной если множество возможных значений
явл. Конечным или отчётным множеством.
СВ наз. Непрырывной если множество явл. Числоваой
промежуток даже бесконечный.
Закон распределения ДСВ удобнее всего представлять в
виде таблицы
x X1 X2 X3 … X4
p p1 p2 p3 … P4
Ряд распределения. В первой строке этой таблицы
указываются все возможные значения, во второй
соответствующие вероятности.
Pk=P(X=Xk) правая часть читается вероятность того, что
случайная величина числа Х применит значение Хк
32.НСВ. Св-ва плотности вероятности.
Опр: Случайная величина Х наз непрерывной, если
существует неотридцательная функция P(t), такая, что 𝐹 (𝑥 ) =
𝑥
∫−∞ 𝑃(𝑡)𝑑𝑡 где F(x) есть функция распределения, которую мы
уже изучали.
Функция P(t) наз. Плотностью распределения вероятности
или кратко плотностью вероятности из этого опр. Следует, что
функция распредления для НСВ непрерывна, а у ДСВ- кусочно
постоянна.
Свойства плотности вероятности:
∞
1. ∫−∞ 𝑃(𝑡)𝑑𝑡 = 1 ( ∑ 𝑝𝑖 = 1 𝐷 ∈ 𝐵
Док-во: Мы знаем (св-во F (x))3. lim 𝐹 (𝑥 ) = 1
∞
F(x)=∫−∞ 𝑃(𝑡)𝑑𝑡
𝐹 (∞ ) =
𝑥→∞
∞
∫−∞ 𝑝(𝑡)𝑑𝑡
=1
Это сво-во пременяется для определения параметров
распределения.
𝑥
2. Р(x1≤Х<x2)=∫𝑥 2 𝑝(𝑡)𝑑𝑡= Р(x1≤Х≤x2)= Р(x1<Х<x2)= Р(x1<Х≤x2)
1
3. Если в точке х фун-я F(x) имеет производную, то
F'(x)=P(x)- это следует из опр. НСВ
𝑥
F(x)=∫−∞ 𝑝(𝑡)𝑑𝑡 F'(x)=P(x)x'
33. Равномерное распределение.
Говорят, что СВ Х равномерно распределена на отрезке
[a,b] если пл-ть вер-ти имеет вид Р(t)=система
c,t€[a,b] c=const
0, t€[a,b]
Используя первое св-во пл-ти вер-ти, легко показать,что
с=1/b-a
А используя НСВ, показ, что F(x)=сис-ма
0, х<=a
(x-a)/b-a a<x<=b
1, x>b
Ничего не изменится, если отрезок заменить интервалом.
34-35. Нормальное распределение.Правило 3 сигм
Говорят НСВ Х имеет нормальное
распределение(распределения по норм закону),если пл-сть
Вероятности имеет вид
P(t)=
1
𝜏√2𝜋
𝜀
−(𝑥−𝑎)2
2𝜏2
; a, сигма=const; сигма больше 0
Используя опр НСД легко пок-ть, что F(x)=0,5+Ф(
Ф(z)=
𝜏
)
2
𝑧 −𝑡
∫ 𝜀 2
√2𝜋 0
1
𝑥−𝑎
𝑑𝑡
Правило 3 сигм
Найдем вер-ть. Р(|х-а|)<3 сигма) ; а,сигма=const сигма>0.
Р(|х-а|)<3 сигма)=P(-3сигма<x-a<3сигма)=P(а-3 сигма<x<a+3
сигма)=Ф((а-3сигма-а)/гамма)-Ф((а-3сигма-а)/гамма)=Ф(3)-Ф(3)=Ф(3)+Ф(3)=2Ф(3)=0,9973
Всегда возможные значения норм распределений СВ
заключены в интервале (а-3 сигма, а+3 сигма)-этот рез-т в ТВ
наз Правилом трех сигм . Нормальное распределение
используется очень часто в физике.
36.Дискретная- если мн-во возможных значений явл конечным или
счетным мн-вом.
Пусть на вер пр-ве (Ω,₣,ρ) заданы n случ. Величин х 1 ,х 2 ,х n Это означ
что каждому w€ Ω х 1(w), х 2 (w)….. ,х n (w) т.е случ в-ром.
Отображение задаваемое СВ х 1 ,х 2 ,х n наз n-мерной СВ и обознач. (х
1 ,х 2 ,х n )
С этими понятиями будем знакомится на примере двумерной СВ
(x,y)-координаты
Если координаты обе ДСВ, то их двумерное СВ наз дискретной, если
обе НСВ,то- непрерывной
З-н распределения двумерной ДСВ удобнее всего представить в виде
т-цы:
x\y Y1 Y2 … ym
X1 P 1 P 2 … p m
X2 P21 P22 … P2m
… … … … …
xn Pn1 Pn2 … pnm
Точки (xi,yj) наз возможными положениями случ в-ра (x,y)
Сумма всех рi,j =1 рi,j=p(x,y)=p(xi,yj)=p(X= xi,Y= yj)
Некоторые рi,j могут быть=0
Из закона распределения двумерной ДСВ можно получить з-н
распределения каждой из координат. Н: получим з-н распределения
СВХ
Очевидно, возм знач СВХ будут числа х 1 ,х 2 ,х n Находим вероятности
знач:
P(x=x1)=p(x,y)=(x1,y1) или(x,y)=(x1,y2)или(x,y)=(x1,ym)
Ясно,что слаг несовм по Т1=p(x,y)= (x1,y1)+ p(x,y)= (x1,y2)+…..+ p(x,y)=(
x1,ym)= p11+p12+……+p1m Т.е произошло суммирование 1-ой
строки.Просуммировав 2-ую получим P(X=x2) и т.д.
Аналогично получим з-н распределения СВУ. Только там уже
суммируем по столбцам,т.о по з-ну распределения двум ДСВ можно
всегда найти з-ны распределения координат. Обратную работу,т.е по
з-нам распределения корд найти з-н совм распределения можно
вып-ть лишь в случае , когда СВ не зависимы.Если зависимы,то нужно
знат все зависим вер-сти.
СВ наз независим,если з-н распределения каждой из них не зависит
от того, какое возможное знач приняла другая СВ.
37. Функция распределения двумерной СВ. Двумерные НСВ.
Опр: ф-цией распределения двумерной СВХ,У наз ф-ция
F(x,y)=P(X<x,Y<y)
Опр: СВ(х,у) наз независим если независим соб (X<x,Y<y)
Двумерная ф-ция распредел облад св-ми:
1) 0<F(x,y)<1
2) P(x1 <x<x2,y1<y<y2)=F(x1, y1 )+ F(x2, y2 )- F(x1, y2 )
3) Lim F(x, y),x->-∞=Lim F(x, y ),y->∞=Lim F(x, y ),x->∞,y->-∞;
F(x, y )=1
4)СВХ,У независим если независимы соб (X<x)и ,(Y<y),тогда
F(x,y)=P(X<x,Y<y)= F(X<x)*P(Y<y)=FX(X)*Fy(y)
38.Функции от СВ.
х
-1 0 1
р 0,1 0,2 0,7
Х-возм соб, р-вероятные соб.
Построить: I=x+2, y2=2x,y3=x2
I=f(x) будут все различн числа f(x),если
x X1 X2 Xn (*)
p P1 P2 Pn
З-н распередел для I будет иметь P(Y1=1)=P(X=-1)=0,1
I2
P
I2
-2 0 2
0,1 0,2 0,7 P
1 2 3
0,1 0,2 0,7
I3
P
0
0,2
1
0,8
P(y3=0)=P(X=0)=0,2
P(Y3=1)=P(X=-1)0 ИЛИ(X=1))=0,1+0,7=0,8
З-н распределения СВ I=f(x), если СВХ имеет з-н распредел (*), получ
след образ возм значений У, будут все различные числа из
совокупности чисел f(xi) Если знач f(xi) в совокупности только одно,то
P(Y= f(xi))=P(X= xi)=Pi
То вероятность переписыв.
Если знач f(xi) в совок несколько, то P(Y= f(xi))= сумме соотв Pi
39.Матем ожидание. Что характ-ет M(x).Св-ва.
Числовые характеристики-это числа,которые характеризуют
случайную велечину в среднем.
Важнейшим из числовых характеристик является матем. ожидание
дисперсия.
Матем. ожидание ДСВ х с законом распределения х х₁ … х
р р₁ … р наз.
число М(х)=
и с законом распределения х х₁ … х …
р р₁ … р …
М(х)=
,если последний ряд сходится абсолютно,а если не
сходится,то говорят,что СВ х не имеет математического ожидания..
Матем. ожидание НСВ х с ср(х) наз. число М(х)=
,тогда
если интеграл сходится абсолютно М(х)=
Это интеграл Стильтьесса…Мат. Ожидание ещё может обозначаться
так:
Св-ва матем. ожидания.
1) М(х±y)=М(х)±М(y)
2) М(х*у)=М(х)*М(y) ,если х,y независимые случайные велечины.
3) Х4) М(С)=С ,где С=const
Док-во:
С имеет закон распределения х с
Р 1 ,поэтому М(х)=С
1=С=М(С)
Теорема доказана
5) М(kx)=kM(x) , k=const
Док-во:
Пусть СВ х имеет закон распределения kx x₁ x₂ … x
p p₁ p₂ … p → М(kx)=
40.Дисперсия.Среднее квадратическое отклонение. Что
характ-ет. Теорема о дисперсии
Дисперсией наз. математическое ожидание квадрата
отклонения СВ х.. Обознач. D(x).
D(x)=М(х²)*D(x)=M(x-M(x))²
Теорема..
D(x)=М(х²)-М²(х)
Док-во:
D(x) = М(х²)= M(x-M(x))²=М(х²-2х* М(х)+М²(х))= М(х²)-2М(х)М(х)+ М²(х)= М(х²)-М²(х)
Опр.
Среднее значение самих отклонений характеризуется
средним квадратическим отклонением.
Обознач. Ω(х)
Ω(х)=
41. Св-ва дисперсии. Вычислительные формулы для дисперсии.
Св-ва дисперсии:
1. D(C) = 0
Д-во: D(С) = М(С2) – М2(С) = С2∙1 – С2 = 0
С
С
Р
1
2/D(kx) = k2 D(x)
Х
x1
x2
…
xn
p
p1 p2
…
pn
Д-во: (для ДСВ)
Тогда СВ k∙X имеет закон распределения:
k∙Х k∙x1 k∙x2
p
p1
p2
…
…
k∙xn тогда D(k∙x) = M((k∙x)2) – M2(k∙x) = M(k2∙x2) –
(k∙M(x))2 = k2∙M(x2) – k2∙M2(x) =
pn
= k2(M(x2) – M2(x)) = k2∙D(x)
2. D(x+y) = D(x) + D(y), если х и у независимы
Следствие из св-ва 3: D(x-y) = D(x) + D(y)
Д-во: D(x-y) = D(x+(-1)∙y) = D(x) + D((-1)∙y) = D(x) + (-1)2∙D(y) = D(x) + D(y)
Для
D( x  y)
– формул нет
Вычислительные формулы для дисперсии:
Пусть ДСВ Х имеет закон распределения:
Х x1 x2 … xn
Тогда из опр. → D(x) =
p p1 p2 … pn
n
из теоремы → D(x) =  x
i 1
Пусть Х – НСВ с плотностью распределения p(x), тогда:

из опр. → D(x) =  ( x  M ( x)) p( x)dx
2


x p ( x)dx  M ( x)
из теоремы → D(x) = 

2
2
n
 ( xi  M ( x))  pi
2
i 1
2
i
2
pi  M ( x)
42. М(х) и D(x) в биномиальном законе.
В этом законе М(х) = n∙p, D(x) = n∙p∙q :
Х
0
1
2
…
n
p
p0 p1 p2
…
pn
k
nk
n!
Pk 
 p q
, где p – const; 0 < p < 1; q =
k!(n  k )!
1–p
Распределение СВ Х по биномиальному закону – это число
наступлений события А в n независимых испытаниях, если
P(A) = P. xi – число наступления А в i-том испытании, тогда: x =
x1+x2+…+xn, M(x) = M(x1+x2+…+xn) = M(x1)+ M(x2)+…+M(xn)
xi – имеет закон распределения:
xi 0 1
P q p
M(xi) = 0∙q+1∙p = p → M(x1) = p, M(x2) = p, …, M(xn) = p
Это M(xn) подставляем в сумму: М(х) = p+p+…+p = n∙p
Так же мы можем доказать и то, что D(x) = n∙p∙q
43. М(х) и D(x) в законе распределения Пуассона.
Распределение Пуассона распределяется таблицей:
Х
0
1
2
…
n
…
p
p0 p1 p2
…
pn
…
 e
k
k
p 

,
k!

M(x) =

и D(x) =


x
Д-во: M(x) = k  0
k 
e 
k!
k 0

 e


 pk  k  
=

k
k 
e 
k!
k 1

=

k
=
e

e
k!

=


k
 (k  1)!
k 1
k 1

i
 (k  1)! = (замена: k-1 = i) =   e  i!

k 1
 e
k
k 0
k


- const,  >0

e

i 0

=

Точно так доказывается, что D(x) =

=
==
44. M(X) и D(X) в равномерном законе
Случайная величина X называется равномерно распределенной на
отрезке [α,β], если плотность распределения вероятностей этой
величины постоянна на данном отрезке и равна нулю вне его:
1/(β − α) при α ≤ X ≤ β
𝑝 (𝑥 ) = {
0 при 𝑥 < α и 𝑥 > β
Для случайной величины Х, равномерно распределенной на отрезке
[α,β], вероятность попадания в интервал (γ,δ), принадлежащий этому
отрезку, пропорциональна длине интервала:
𝛿
𝛿−𝛾
𝑃(𝛾 < 𝑋 < 𝛿 ) = ∫ 𝑝(𝑥 )𝑑𝑥 =
𝛽−𝛼
𝛾
Функция распределения F(x) этой величины имеет вид
0 при 𝑥 ≤ 𝛼
𝐹 (𝑥 ) = {(𝑥 − 𝛼)/(𝛽 − 𝛼) при 𝛼 < 𝑥 < 𝛽
1 при 𝑥 ≥ 𝛽
Для этой случайной величины 𝑀(𝑋) = (𝛽 + 𝛼)/2 , 𝐷(𝑋) =
(𝛽 − 𝛼 )2 /12.
Показательное распределение определяется формулой
0 при 𝑥 ≤ 0
𝑝(𝑥 ) = { −𝛼𝑥
𝛼𝑒
при 𝑥 > 0 (𝑎 > 0)
Кривая распределения вероятностей этой величины представлена на
рис. 35.5. Функция распределения F(х) в этом случае имеет вид
0 при 𝑥 ≤ 0
𝐹 (𝑥 ) = {
1 − 𝑒 −𝑎𝑥 при 𝑥 > 0
График функции F(x) изображен на рис. 35.6. Для этой случайной
величины
𝑀(𝑋) = 1/𝑎,𝐷(𝑋) =
1/𝑎2 .
45. M(X) и D(X) в нормальном законе.
Нормальным распределением (или распределением
Гаусса) называется распределение случайной величины,
определяемое формулой
2
2
1
𝑝(𝑥 ) = 𝜎 2𝜋 𝑒 −(𝑥−𝑎) /(2𝜎 ) (𝜎 > 0)
√
Параметры распределения а и σ нормальной
случайной величины X имеют следующие
значения: а=М(Х),
σ2= D(X). График функции р(х) называют
нормальной кривой или кривой Гаусса. На рис.
35.7 представлены три кривые при одном а и различных
σ.
Вероятность попадания значений нормально
распределенной случайной величины X в интервал (а, b)
определяется формулой
𝛽−𝛼
𝛼−𝑎
𝑃(𝛼 < 𝑋 < 𝛽 ) = Ф (
) − Ф ( ),
𝜎
𝜎
где Ф (х) - функция Лапласа:
x
1
2
Ф(x) =
∫ e−t /2 dt
√2π 0
С помощью этой функции выражается вероятность
неравенства |𝑋 − 𝑎| < 𝛿 для нормальной случайной
величины X:
𝛿
𝑃(|𝑋 − 𝑎| < 𝛿 ) = 2Ф ( ) , 𝑃(|𝑋 − 𝑎| < 𝜎𝑡) = 2Ф(𝑡).
𝛼
46. Неравенства Чебышева. Правило трёх сигм
1 нер-во чебышева
При t=3, т. е. 𝜎𝑡 = 3𝜎 последнее равенство принимает
вид
𝑃(|𝑋 − 𝑎| < 3𝜎) = 0,9973
и выражает правило трех сигм: если случайная величина
распределена по нормальному закону, то модуль ее
отклонения от математического ожидания не превосходит утроенного среднего квадратического
отклонения.
33. Равномерное распределение.
Говорят, что СВ Х равномерно распределена на отрезке
[a,b] если пл-ть вер-ти имеет вид Р(t)=система
c,t€[a,b] c=const
0, t€[a,b]
Используя первое св-во пл-ти вер-ти, легко показать,что
с=1/b-a
А используя НСВ, показ, что F(x)=сис-ма
0, х<=a
(x-a)/b-a a<x<=b
1, x>b
Ничего не изменится, если отрезок заменить интервалом.
34-35. Нормальное распределение.Правило 3 сигм
Говорят НСВ Х имеет нормальное
распределение(распределения по норм закону),если пл-сть
Вероятности имеет вид
P(t)=
1
𝜏√2𝜋
𝜀
−(𝑥−𝑎)2
2𝜏2
; a, сигма=const; сигма больше 0
Используя опр НСД легко пок-ть, что F(x)=0,5+Ф(
Ф(z)=
𝜏
)
2
𝑧 −𝑡
∫ 𝜀 2
√2𝜋 0
1
𝑥−𝑎
𝑑𝑡
Правило 3 сигм
Найдем вер-ть. Р(|х-а|)<3 сигма) ; а,сигма=const сигма>0.
Р(|х-а|)<3 сигма)=P(-3сигма<x-a<3сигма)=P(а-3 сигма<x<a+3
сигма)=Ф((а-3сигма-а)/гамма)-Ф((а-3сигма-а)/гамма)=Ф(3)-Ф(3)=Ф(3)+Ф(3)=2Ф(3)=0,9973
Всегда возможные значения норм распределений СВ
заключены в интервале (а-3 сигма, а+3 сигма)-этот рез-т в ТВ
наз Правилом трех сигм . Нормальное распределение
используется очень часто в физике.
Download