Теория вероятностей. Занимается исследованием вероятностных моделей. И как любая наука использует свои понятия и терминологию. Случайность может выступать в виде двух факторов. 1.Как недостаток информации относительно закономерного процесса. 2Случайность может быть как таковая. Основные понятия. А. Основным понятием в теории вероятности является испытание (при котором происходит или не происходит случайное событие). Б. Случайное событие. С. Вероятность. Классическое определение вероятности основано на понятии равновероятных событий (вероятность появления которых при испытании одинакова). Связано с множеством равновероятных событий, одно из которых происходит при испытании. m( a ) P(a) n n – общее число равновероятных событий ,которые могут произойти при испытании. m – число равновероятных событий, при которых данное событие А происходит. Частотное определение вероятности, связано с последовательностью испытаний m n n n – общее число испытаний. m – общее число успешных испытаний, при которых данное событие произошло. P A lim Априорная. Вероятность которая определяется свойствами модели. Свойства вероятности: 0 P 1 если Р(А) = 1 – событие достоверное. Р(А) = 0 – событие недостоверное. Алгебра событий. Диаграмма Венна – Эйлера. А+В=С Замечание: алгебра – это совокупность двух множеств. Носитель алгебры - множество элементов относительно которых определяются операции (например числа). 1. А + В =С - под суммой двух событий подразумевается событие которое происходит, если происходит хотя бы одно из событий входящих в эту сумму. A B A+B=B Свойства: А + В = В + А – коммутативность. А + В + С = А + С + В – ассоциативность. А + А = А – идемпотентность А+ =А 0 A A 2.Умножение событий. A B C - Произведение событий – событие которое происходит, если происходят оба события входящих в это произведение. A- =A Свойства: A B C A B B A ( A B) C A ( B C ) A A A 3.Операция отрицания. A - противоположное событие (не А). _ A Противоположное событие происходит , если данное событие не происходит. Свойства: A A A (B C) A B A C A ( B C ) ( A B) ( A C ) A A A C B A B Cгде А А А А АС А А ВА А Теорема Моргана. _ _ AB A B A B A B Доказательство: AB A B _ AB A B Все что не входит в лунку. Разбиение полного поля событий. Образуют разбиение полного поля событий, если они попарно не совместны, и их произведение не равно невозможному событию, а их сумма равна полному полю событий. Аксеоматичеекое определение теории вероятности. Вероятность – идетивное (идетивность – сложение) не отрицательная , нормированная функция, определенная на разбиение полного поля событий. !.0 P( Bi ) 2.P 1 3.P A B P A B еслиА В Теоремы теории вероятности. 1.Теорема сложения. A+B=C !.P A B P A B P AB Если события не совместны то вероятность суммы, равна сумме вероятностей. !.P A B P A B Условная вероятность. PB A P A | B - вероятность события А ,при условии что событие В произошло. P A B Умножив обе части на Р(В), получаем исходное уравнение. PB A PB Из определения следует: P( AB) PB PB A P A PB События случайно независимы – если вероятность к появлению одного из них не зависит от появления другого. Если А и В события случайно не зависимы, то PB A P A Вероятность произведения случайно независимых событий, равна произведению их вероятностей. P AB PB P A Формула полной вероятности. Если собвтия B1….Bn образуют разбиение полного поля событий, то =.> p P A PBk PBK A n 1 => 1еслиBk A PBK A 0еслиBk A Вероятность события А равна сумме произведения вероятностей событий образующих произведение на условную вероятность донного события А. Формула проверки гипотезы Бееса.- Баеса. Если Б1…Бн образуют полное поле событий и вероятность Р(А) определена то => PBk PBK A PA Bk n PBm PBm A m 1 Дерево решений. Задача. P(S) = ? 10б 20ч 7б 8ч Наугад из первой урны перекладывается один шар. Определить вероятность , что случайно выбранный шар из второй урны окажется белым? 11/31б 11б 20/31ч 7/15б 20ч 7б Р(б) = Р1(б) Рб(б) 8ч 8/15ч 10/31б 10б 21ч 21/37ч Р(б) = Р1(б) Рб(б) , где Рб(б) - условная вероятность. Р = Р1(Ч) . Р2(Б) = 7 11 8 10 15 31 15 31 Случайные величины. Случайные величины подразделяются: 1.На дискретные( величины которые можно пронумеровать шт.) 2.Непрерывные (занимающие некоторые интервалы). Дискретные случайные величины. Единственная дискретная величина. Полная характеристика дискретной , случайной величины задается ее законом распределения : соответствие между значением дискретной случайной величины и вероятностью ее появления. Значение Х i X1 X2 X3 X4 Вероятность Рi P1 P2 P3 P4 n 2. Pi 1 m 1 Пример: X -1 0 1 2 Pi 0,2 0,4 0,1 0,7 = сумма всегда равна 1 Параметры закона распределения. n M ( X k ) M k ( X ) X i Pi А. Начальные моменты. i 1 n M ( X 3 ) X i Pi i 1 0 0.2 1 0.5 Решение: 1 0,5 0 0,2 1 0.5 0,2 12 0,5 0 2 0,2 12 0,5 0,8 n k б. M x M x xi M x Pi k i 1 3 k Xn Pn ……. Свойства закона распределения: 1. 0 Р 1 Хi -1 Pi 0.3 ……. Центральный момент катого порядка. Математическое ожидание. n M ( X ) Е Х X i Pi - в статистике соответствует среднему значению. i 1 Свойства математического ожидания. 1.М(с) = С 2.М(Сх) = СМ(х) 3.М(х + у) = М(х) + М(у) Пример. Санкт – Петербургский парадокс. Необходимо принять участие по ставкам в двух лотереях, какая из двух выгоднее и по каким условиям? 500 -100 300 200 -100 200 -250 150 ЛПР – лица принимающие решение. Критерий принятия решения. Азартный – выбирает максимальный выигрыш, вне зависимости от вероятности его появления. Осторожный – выбирает минимум возможного проигрыша. Максимум – математического ожидания. Применяется в том случае, если игра идет значительно долго (в продолжительный период времени). n M ( X ) X i Pi i 1 М1 игры = 0,5 500 100 0,5 200 n 500 X i Pi 83 6 i 1 1 гдеХ i 6 Санкт – Петербургский парадокс. 0,5 0,5 1 500 - 100 100 Принять решение с вероятностью 0,5 процентов принять участие в игре или получить 100 условных единиц с вероятностью 1 или 100 процентов. Схема повторных испытаний Бернулли. Биноминальное распределение. Все эти формулы представлены в редакторе Microsoft Word, Tools => Date analysis. Вероятность появления события А, при однократном испытании Р. P(A) = P P(A) = 1 – P = Q Допустим , что испытания проводятся n раз при неизменных условиях, тогда вероятность появления события К раз при А испытаниях определяется биноминальным распределением. k Pn k Cn P n q n k n! k! n k ! Математическое ожидание равно M(k) = np k Cn Дисперсия и среднеквадратическое отклонение. 2 Dx M x M x ...гдеx M x отклонение, от среднего... значения. Дисперсия равна математическому ожиданию квадрата отклонения случайной величины. Обычно формулу преобразуют к виду удобному для вычисления. M x 2 2 xM x M 2 x M x M x M x M x M x M x 2 M 2 xM x M M 2 x 2 2 2 2 2 Полученная формула: M x 2 M 2 x Решение примера: Xi -1 0 2 Pi 0,1 0,5 0,3 M x 3 X i Pi 1 0,2 0 0,5 2 0,3 0,4 i 1 M x 2 X 2 i Pi 12 0,2 0 2 0,5 2 2 0,3 0,2 1,2 1,4 3 i 1 Dx M x 2 M 2 x 1,4 0,16 1,27 Дисперсия характеризует случайные величины. Риск равен дисперсии. $ t 0 $ Риск = 0 0 t Чаще величину колебаний характеризуют не дисперсией, а среднеквадратическим отклонением. G x D x В то время как дисперсия имеет размерность квадрата случайной величины, среднеквадратическое отклонение имеет размерность случайной величины. Свойства: 1.D(c) = 0 2.D(cx) = C2D(x) 3.D(X + Y) = D(X) + D(Y) , если случайные величины случайно независимы. В общем случае дисперсия суммы: D x y M x y M x M y x M x y M y 2 M x M x 2x M x y M y y M y 2 2 M x M ( x ) D ( x ) M y M ( y ) D ( y ) M x M x 2 M x M ( x ) y M ( y ) M y M ( y ) 2 2 2 2 Ковариация характеризует связь между двумя случайными величинами. Коэффициенты. Co var( x : y ) где 1 0 G ( x )G ( y ) Корреляции коэффициентов корел. Если = 0 , то случайные коэффициенты, случайно независимы. Если = 1, то случайные величины линейно связаны друг с другом и изменяются синфазно. Если = -1 , то случайные величины связаны линейно и изменяются пропорционально. Co var( x : y ) y M(y) 0< <1 0 y M(x) x =1 M(y) x M(x) 0 y M(y) = -1 0 Co var( x1 x2 ) Co var( x1 x3 ) Co var( x1 x4 ) M(x) x Dx1 .....Dx2 Непрерывные случайные величины. Непрерывные случайные величины полностью характеризуются функцией распределения или интегральной функцией, которая равна вероятности того что случайная величина меньше некоторого случайного значения. F x 1 Вероятность того, что случайная величина попадет в этот интервал. x y x 0 Свойства функции распределения. 1. lim F x 0 x 2. lim F x 1 x 3. F x1 F x2 , приX 1 X 2 Дифференциальная функция распределения, или плотность случайной величины. d f x F x d x Свойства: 1. F x x f t dt 2. F x lim x 3. f x 0 f x 0 Момент непрерывной случайной величины: M x k M x x f x dx k k - момент катого порядка. Параметры распределения такие же, как и у дифференциальной величины. E x M x f x dx D x M x 2 M 2 x G x Dx Нормальная случайная величина или величина имеющая нормальное распределение. Предельная теорема доказывает, что среднее значение случайной величины с произвольным распределением и ограниченной дисперсией, при увеличении числа усреднений, имеет нормальное распределение. Дифференциальная функция распределения нормальной случайной величины. 1 f x e x 2 2 2G 2 2 G Характеризуется двумя параметрами: 1. математическим ожиданием. 2. среднеквадратическим отклонением. y G1 G2 a1 a2 x Интегральная функция является не элементарной и выражается через интеграл Лапласса. Ф0 x 1 2 x e 0 t2 2 dx