Анализ случайных величин по экспериментальным данным

advertisement
Федеральное агентство по образованию
Государственное образовательное учреждение
высшего профессионального образования
НИЖЕГОРОДСКИЙ ГОСУДАРСТВЕННЫЙ
ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
Кафедра «Металловедение, термическая и пластическая обработка
металлов»
АНАЛИЗ СЛУЧАЙНЫХ ВЕЛИЧИН
ПО ЭКСПЕРИМЕНТАЛЬНЫМ ДАННЫМ
Методические указания к выполнению лабораторной работы №1
по курсу «Организация эксперимента в металловедении и термообработке»
для студентов специальности 110500 всех форм обучения
Нижний Новгород
2005
Составитель Т.В. Комарова
УДК 62-501.72:669.017
Анализ случайных величин по экспериментальным данным:
Методические указания к выполнению лабораторной работы №1 по курсу
«Организация эксперимента в металловедении и термообработке» для
студентов
специальности
110500
всех
форм
обучения/НГТУ;
Сост.:Т.В.Комарова - Н.Новгород, 2005.-18с.
Настоящие методические указания составлены в соответствии с
программой курса «Организация эксперимента в металловедении и
термообработке» для закрепления теоретического материала и получения
навыков
анализа
экспериментальных
величин.
Предусматривают
использование ЭВМ. Предложено 24 индивидуальных занятия.
Редактор Э.Б. Абросимова
Под. к печ.
.Формат 60х84 1/16. Бумага газетная.
Печать офсетная. Печ. л. 1,2. Уч.-изд. л. 1,1. Тираж 300 экз. Заказ
Нижегородский государственный технический университет.
Типография НГТУ. 603600, Н.Новгород, ул. Минина, 24
@ Нижегородский государственный
технический университет, 2005.
Лабораторная работа №1
Анализ случайных величин
по экспериментальным данным
Цель работы:
1) экспериментальная проверка закона статистической устойчивости
средних значений наблюдаемых величин;
2) ознакомление со способами задания закона распределения случайных
величин и их эмпирическими аналогами;
3) анализ случайной величины по экспериментальным данным,
определение числовых характеристик случайных величин;
4) проверка правила трех сигм.
1. Теория вопроса
1.1. Устойчивость средних значений наблюдаемых величин –
эмпирическая основа теории вероятностей
Для изучения физических явлений проводят эксперименты (испытания,
наблюдения). Их результаты обычно регистрируют в виде значений
некоторых наблюдаемых величин. При повторении испытаний
обнаруживается разброс их результатов: так, повторяя точные измерения
одной и той же величины даже в строго одинаковых условиях, мы получаем
различающиеся результаты, что дает основание рассматривать все
экспериментальные величины как случайные.
Случайной называют величину, которая в результате испытания
принимает то или иное возможное значение (но при этом только одно),
заранее неизвестное, меняющееся от испытания к испытанию и зависящее
от стечения случайных обстоятельств.
Причина случайного характера экспериментальных величин: все они
складываются под действием многих одновременно действующих факторов
и разного набора их, в ряде случаев действуют неконтролируемые,
неизвестные факторы. Например, при испытании проволоки на кручение
такими факторами могут быть: колебания химического состава,
неоднородность микроструктуры, наличие неметаллических включений,
наличие поверхностных дефектов, колебания в режиме работы
испытательной
машины,
погрешности
измерений
и т. п.
Однако несмотря на случайное рассеивание результаты эксперимента
нельзя рассматривать как произвольные, недостоверные данные.
Следует отметить, что измерения экспериментальных величин можно
производить двумя способами:
1) на основе единичных измерений – например, на образцах,
отобранных по одному от каждого из нескольких мотков проволоки,
обработанных одной партией (x1, x2 …xn);
2) на основе измерения сериями,
когда от каждого мотка той же партии
отбирается
несколько
образцов,
образующих
серию,
и
в
каждой
вычисляется среднее.
Единичные измерения действительно
имеют недостоверный характер, и по
результату одного измерения нельзя
предсказать результат следующего (рис.1).
Но
при
многократном
повторении
наблюдений
(измерениях
сериями)
Рис. 1. Экспериментальные
выявляются
вполне
определенные
данные и выборочные средние:
закономерности, основанные на законе
1 – Y(I); 2 – ES(N); 3 – SR
статистической устойчивости средних.
Закон статистической устойчивости проявляется в следующем:
1) разброс средних значительно меньше разброса единичных измерений
(кривые 1 и 2 на рис. 1);
2) разброс средних в сериях уменьшается с увеличением объемов серий
( в больших сериях испытаний значения средних мало отличаются друг от
друга);
3) при увеличении объемов серий до бесконечности средние стремятся к
постоянной величине, называемой математическим ожиданием.
Математическое ожидание – предел, к которому стремятся средние в
сериях при увеличении объема серий (числа наблюдений) до бесконечности.
lim x  M(x) .
(1)
n
Статистическая устойчивость средних значений наблюдаемых величин
служит эмпирической основой теории вероятностей – раздела математики,
включающего понятие случая.
Статистическая устойчивость средних позволяет:
1) строить математические модели, исключая из них случайный фактор,
для прогноза случайных величин;
2) рассчитывать устойчивые характеристики случайных величин;
3) оценивать точность и надежность выводов из эксперимента.
1.2. Закон распределения случайных величин
Различают дискретные и непрерывные случайные величины.
Дискретной называют случайную величину, которая принимает
отдельные изолированные друг от друга возможные значения (например,
число дефектных изделий в партии, число отказов оборудования за
определенный промежуток времени при испытании его на надежность и т.
п.).
Непрерывной называют такую случайную величину, которая может
принимать любые значения из некоторого конечного или бесконечного
интервала. К таким величинам относятся время, температура, химический
состав и т. п.
Свойства случайных величин изучаются теорией вероятности,
основным понятием которой является вероятность – числовая
характеристика возможности появления некоторого определенного события
в цепи событий.
Приближенной характеристикой вероятности случайного события
является относительная частота – отношение числа испытаний, в которых
событие появилось, к общему числу фактически произведенных испытаний:
n
P(A)  ωA  A ,
(2)
n
где P(A) – вероятность события А;
ωA – относительная частота события А;
nА – число появлений события;
n – общее число испытаний.
Случайные величины характеризуются законом распределения.
Закон распределения случайной величины – это соответствие между
возможными значениями измеряемой величины и их вероятностями.
Закон распределения можно задать тремя способами:
1) табличным (в виде вариационного ряда распределения (табл. 1));
2) графическим (с помощью многоугольника распределения – рис.
2 или гистограммы – рис. 3);
3) аналитическим (в виде функции распределения).
Таблица 1
Ряд распределения
Значения случайной величины
X
Вероятность P
x1
x2
x3
…
xi
…
xn
р1
р2
р3
…
рi
…
рn
Наиболее общей формой задания закона распределения случайной
величины является задание в виде функции распределения – интегральной и
дифференциальной (аналитический способ).
Для нормального закона распределения эти функции имеют следующий
вид:
а) интегральная функция распределения
F( x ) 
1
σ 2π
x
e

( x  a )2
2σ 2

б) дифференциальная функция распределения
dx ;
(3)

1
f(x)
e
σ 2π
Рис. 2. Многоугольник распределения
( x  a )2
2σ 2
.
(4)
Рис. 3. Гистограмма распределения
Интегральная функция распределения F(x) случайной величины X
показывает вероятность того, что случайная величина не превышает
некоторого значения x, то есть
F ( x)  P{X  x } .
(5)
В теории вероятности доказываются следующие положения:
1) если F( x )  P{ X  x } , то вероятность противоположного события
равна
P{X  x }  1 - F( x ) ;
(6)
2) вероятность попадания случайной величины X в интервал между x1 и
x2, равна разности значений интегральной функции распределения,
вычисленных в этих двух точках:
P{ x1  X  x2 }  F( x2 ) - F( x1 ) .
(7)
Свойства интегральной функции
Интегральная функция распределения
случайной величины – это неотрицательная
неубывающая функция, заключенная между 0
и 1; математически эти свойства выражаются
следующим образом:
1) F ( x )  0 для всех x;
2) F ( x2 )  F ( x1 ) , если x2 > x1;
3) F (  )  0 ;
Рис. 4. Интегральная функция
распределения
4) F (  )  1 .
Как и всякая вероятность, значение интегральной функции
распределения – величина безразмерная. График этой функции имеет форму
плавной кривой (рис. 4), асимптотически приближающейся к 0 при x = -∞ и к
1 при x = +∞.

Принятые обозначения: X, Y, Z – случайные величины, x, y, z – их возможные значения;
P – оператор вероятности, p1, p2 – значения вероятностей.
Если функция F(x) дифференцируема для всех значений случайной
величины X, то закон распределения вероятностей может быть выражен в
аналитической форме также с помощью дифференциальной функции
распределения вероятностей.
Связь между дифференциальной и интегральной функциями
Пусть имеется непрерывная случайная величина X с функцией
распределения F(x). Вероятность попадания этой случайной величины на
элементарный участок [x; x+Δx] через интегральную функцию определяется
согласно формуле (7):
P{x  X  x  x}  F ( x  x)  F ( x) .
(8)
Разделим обе части этого равенства на Δx:
P{x  X  x  x} F ( x  x)  F ( x)

.
(9)
x
x
Переходя к пределу при Δx → 0, получим
P{ x  X  x  x }
F ( x  x )  F ( x ) dF ( x )
lim
 lim

 f ( x ) . (10)
x 0
x 0
x
x
dx
Таким образом, значение функции
f(x) приближенно равно отношению
вероятности
попадания
случайной
величины в интервал [x; x+Δx] к длине
этого интервала, когда Δx – бесконечно
малая величина. Это вероятность,
приходящаяся на одну единицу длины
интервала, поэтому дифференциальную
функцию распределения вероятностей
Рис. 5. Дифференциальная функция
также называют функцией плотности
распределения
вероятностей.
Кривая, изображающая дифференциальную функцию нормального
распределения f(x), называется кривой распределения и имеет вид,
представленный на рис. 5.
Основные свойства дифференциальной функции:
1) дифференциальная функция неотрицательна, то есть кривая
расположена над осью абсцисс: f(x) ≥ 0;
2) интеграл в бесконечных пределах от дифференциальной функции
равен 1:

 f ( x)dx  F ()  F ()  1  0  1 ,
(11)

геометрически это означает, что площадь, ограниченная кривой
распределения и осью абсцисс, равна 1;
3) интегральная функция распределения может быть выражена через
дифференциальную функцию по формуле
x
F ( x) 
 f ( x)dx ;
(12)

4) с помощью дифференциальной функции распределения вычисляется
вероятность нахождения случайной величины в любой области из
множества
ее
возможных
значений.
В
частности:
a1
P{ X  a1 } 
 f ( x)dx ,
(13)

(14)


P{ X  a 2 }  f ( x)dx ,
a2
a2
P{a1  X  a 2 } 
 f ( x)dx .
(15)
a1
Вероятность нахождения случайной величины в той или иной области
можно определить как относительную долю площади под кривой плотности
распределения вероятностей f(x).
Например, отношением площадей заштрихованной части к общей
площади под кривой можно определить:
P{ X  a1} - рис. 6, а;
P{ X  a2 } - рис. 6, б;
P{a1  X  a2 } - рис. 6, в.
Рис. 6. Кривая плотности вероятности
1.3. Числовые характеристики распределения случайных величин
Интегральная
и
дифференциальная
функции
являются
исчерпывающими вероятностными характеристиками случайной величины.
Однако в ряде случаев некоторые основные свойства случайных величин
могут быть описаны более просто – с помощью числовых характеристик.
Важнейшими из них являются: математическое ожидание, дисперсия,
среднеквадратическое отклонение.
1.3.1. Математическое ожидание и его свойства
Математическое ожидание – это центр распределения случайной
величины, около которой группируются все возможные ее значения,
другими словами – это теоретическое среднее значение случайной
величины.
Математическое ожидание для дискретной случайной величины
соответствует абсциссе центра тяжести фигуры, образованной кривой
плотности вероятности, и подсчитывается как средневзвешенное значение
по вероятности появления этих значений:
x p  x 2 p 2  ...  x n p n  xi pi
M ( x)  1 1

.
(16)
p1  p 2  ... p n
 pi
Так как
p
i
 1 , получаем

M ( x)   xi pi ,
i 1
(17)
то есть математическое ожидание дискретной величины определяется как
сумма произведений всех ее возможных значений на их вероятности.
Для непрерывной случайной величины математическое ожидание
определяется по формуле

M( x ) 
 xf ( x )dx .
(18)

Основные свойства математического ожидания
1) Математическое ожидание постоянной величины равно самой
постоянной:
M (c)  c .
(19)
2) Постоянный множитель случайной величины может быть вынесен
за знак математического ожидания:
M (cx)  cM ( x) .
(20)
3) Математическое ожидание суммы двух случайных величин равно
сумме их математических ожиданий:
M ( X  Y )  M ( X)  M (Y ) .
(21)
4) Математической ожидание произведения двух случайных величин
равно произведению их математических ожиданий:
M ( XY )  M ( X)M (Y ) .
(22)
5) Математическое ожидание отклонения случайной величины от ее
математического ожидания равно нулю:
M [ X - M ( x)]  0 .
(23)
Наилучшей оценкой математического ожидания при ограниченном
объеме экспериментального материала является среднее арифметическое,
определяемое по формуле
1 N
x   xi .
(24)
N i 1
Чем больше объем экспериментальной выборки, тем ближе величина
среднего арифметического к теоретическому среднему значению
(математическому ожиданию).
1.3.2. Дисперсия и ее свойства. Среднеквадратичное отклонение
Характеристикой рассеивания случайной величины вокруг ее центра
распределения является дисперсия.
При числе опытов N   эта величина называется генеральной
дисперсией. Оператор дисперсии обозначается D(x) , ее конкретное
2
значение σ x .
Дисперсия представляет собой математическое ожидание квадрата
отклонения случайной величины от ее математического ожидания.
σ x2  M [ X  M ( x )]2 .
(25)
Для непрерывной случайной величины, распределение которой задано в
виде функции плотности вероятности, генеральная дисперсия определятся из
выражения:

σ   M [ X  M ( x )]2 f ( x )dx.
2
x
(26)

Дисперсия имеет размерность квадрата случайной величины.
Положительный корень квадратный из дисперсии называется
среднеквадратичным отклонением (СКО) случайной величины. Эта
величина также называется квадратичной ошибкой, стандартным
отклонением, стандартом. Размерность СКО совпадает с размерностью
случайной величины.
Основные свойства дисперсии
1. Дисперсия постоянной величины равна нулю:
D(c)  0 .
(27)
2. Постоянный множитель случайной величины можно выносить за
знак дисперсии, предварительно возведя его в квадрат:
D(cx)  c 2 D( x) .
(28)
3. Дисперсия суммы или разности двух независимых величин равна
сумме дисперсий от этих величин:
D( X  Y )  D( X )  D(Y ) .
(29)
4. Дисперсия случайной величины равна разности между
математическим ожиданием квадрата случайной величины X и
квадратом ее математического ожидания:
D( x)  M ( x 2 )  [M ( X )]2 .
(30)
y  f ( x1 , x2 ...xn ) случайных независимых
5. Дисперсия функции
аргументов x1 , x2 ...xn определяется из выражения
2
2
2
 f  2
 f  2  f  2
 σ xn ,
 σ x1  
 σ x2  ...
D( x)  
(31)

x

x

x
 1
 2
 n
2
2
где σ x1 , σ x2 … - дисперсии случайных независимых величин x1 , x2 ...xn .
При ограниченном объеме экспериментальной выборки оценкой
генеральной дисперсии является эмпирическая дисперсия (выборочная
дисперсия), которая рассчитывается по формуле
1 N
2
Sx 
( xi  x ) 2 ,
(32)

N  1 i 1
где xi - экспериментальные значения случайной величины;
x - среднеарифметическое значение случайной величины;
N – число опытов.
1
Множитель
введен для получения несмещенной оценки
N 1
дисперсии. Эмпирическое среднеквадратичное отклонение определяется по
2
формуле S  S x .
2. Методика выполнения работы
2.1. Экспериментальная проверка статистической
средних значений случайных величин
устойчивости
1) Получить набор (выборку) случайных величин.
Выборка может быть получена непосредственно из эксперимента –
например, многократным измерением какой-либо величины: y1 , y2 ...yn .
В данной работе выборку случайных величин Y(I), которые могут
представлять собой результат какого-то эксперимента, получают
моделированием на ЭВМ с помощью генератора случайных чисел, который
реализован в программе «LAB1B».
Исходными данными при этом являются:
 начальное десятичное шестизначное число от 0 до 1, являющееся
одновременно шифром задачи SH=0.901** (где ** - N варианта) ;
 число опытов;
 теоретическое
среднее
значение
случайной
величины
(математическое ожидание).
2) Получив из эксперимента или с помощью ЭВМ выборку случайных
чисел, подсчитать их среднее значение по данным 1,2,3…N опытов, что
может быть выполнено на ЭВМ по программе «LAB1А» или «LAB1В».
3) Результаты расчета округлить до первого десятичного знака и
обобщить в виде графика, на котором представлены две кривые: случайные
числа Y (I ) и их средние значения при различном числе опытов ES  f ( N i ) ,
а также прямую, соответствующую математическому ожиданию случайной
величины.
4) Дать анализ полученных результатов, указать три признака
проявления закона статистической устойчивости средних.
2.2. Характеристика используемых программ
Работа выполняется путем моделирования экспериментальной выборки
на ЭВМ «Электроника–85» с помощью генератора случайных величин,
который
реализован
в
программе
«LAB1B».
Для
обработки
экспериментальных данных также используются программы «LAB1A»,
SORT1.
2.2.1. Характеристика программы «LAB1B»
2.2.1.1. Назначение программы
Программа выполняет следующее:
1) моделирует экспериментальную выборку объемом до 100 случайных
величин [Y(I)…до Y(N)];
2) определяет средние значения экспериментальных величин в выборках
различных объемов от 1 до N опытов: ES(1)…ES(N);
3) определяет оценки числовых характеристик случайных величин:
YS – среднее арифметическое по данным N опытов, являющееся
оценкой математического ожидания:
Y(I) ;
YS 
(33)
N
S2 – эмпирическую дисперсию, являющуюся оценкой генеральной
дисперсии:
1
S2 
( yi  y) 2 ;
(34)

N 1
S – эмпирическое среднеквадратическое отклонение:
S  S2 .
(35)
2.2.1.2. Исходные данные
- начальное десятичное шестизначное число от 0 до 1, являющееся
шифром задачи;
- число опытов (объем выборки);
- теоретическое среднее случайной величины.
2.2.1.3. Вывод на печать
Y(I); ES(N); YS; S2; S.
2.2.2. Характеристика программы SORT1
2.2.2.1. Назначение программы
Предназначена для обработки экспериментальных данных с целью
построения гистограммы распределения-разбиения экспериментальных
данных на заданное число интервалов ( M  N ; M ≥ 5) и определения
числа попаданий экспериментальных значений в каждый из интервалов.
Максимальный объем выборки – 500 значений.
2.2.2.2. Исходные данные
1) количество испытаний N;
2) число интервалов M;
3) имя файла C*.DAT, где * – номер варианта.
2.2.2.3. Вывод на печать
На печать выводятся:
1) результаты опытов;
2) ymax, ymin;
3) число попаданий в каждый интервал;
4) границы интервалов XL (левая), XR (правая).
3. Экспериментальный анализ случайной величины
3.1. Построение вариационного ряда случайной величины
Вариационный ряд строят по выборке случайных чисел, полученной в
первой части работы, путем расположения Y(I) в порядке возрастания от Ymin
до Ymax и их группировки по следующему принципу:
1) если исследуемая величина дискретна и имеет небольшой диапазон
колебаний между крайними значениями, то интервал группирования
принимается равным единице исследуемой случайной величины;
2) если случайная переменная дискретна и имеет большой диапазон
колебаний между отдельными значениями, то несколько таких значений
объединяют в один интервал:
3) если изучаемая переменная непрерывна, то полученные значения
также объединяются в интервалы.
Выбор ширины интервала зависит от объема измерений N, диапазона
колебаний между крайними значениями и цели исследования.
Для построения вариационного ряда необходимо:
1) Определить количество интервалов группирования с помощью
оценочной формулы:
M N,
(36)
где найденное значение округляют до ближайшего большего числа и
принимают М ≥ 5.
2) Определить ширину интервала:
( y  y min )
y  max
.
(37)
М
Величину y можно несколько округлить для удобства вычислений.
( y min  y max )
принимают за центр некоторого интервала,
2
после чего находят границы и окончательное количество интервалов так,
чтобы в совокупности они перекрывали всю область от ymin до ymax.
4) Подсчитать количество наблюдений, попавшее в каждый интервал.
Значения Y(I), попавшие на границу (m – 1) и m-го интервалов, относят к mму интервалу.
5) Определить относительное количество (относительную частоту)
наблюдений, попавших в данный интервал.
3) Значение
Пример. По 20 измерениям получены следующие значения %Ni в
стали: 4,26; 4,17; 4,25; 4,25; 4,22; 4,25; 4,25; 4,40; 4,05; 4,15; 4,40; 4,17; 4,27;
4,10; 4,25; 4,30; 4,25; 4,20; 4,20; 3,90.
Максимальное и минимальное значения – 4,40 и 3,90.
Количество интервалов: M  20  5 .
4,4  3,9
 0,1 .
Ширина интервала 5
Результаты группирования представлены в табл. 2.
Таблица 2
№
интервала
I
II
III
IV
V
Вариационный ряд
Границы
интервала
3,9 – 4,0
4,0 – 4,1
4,10 – 4,2
4,2 – 4,3
4,3 – 4,4
Сумма
Середина
интервала
3,95
4,05
4,15
4,25
4,35
Частота
наблюдения
nA
1
2
5
10
2
20
Относительная
частота nA/n
0,05
0,1
0,25
0,5
0,1
1,00
3.2. Построение диаграммы накопленных частот FˆN (Y )
Диаграмма накопленных частот (рис. 7) является эмпирическим
аналогом интегральной функции распределения. Диаграмму строят в
соответствии с формулой
Fˆ (Y ) 
 P(Y ) .
(38)
y  yi
Значения накопленных частот:
F̂ ( Y1 )   P( Y )  0,05; F̂ ( Y2 )   P( Y )  0,15; F̂ ( Y3 ) 
y1  4
y2  4 ,1
 P( Y )  0,4;
y3  4 ,2
F̂ ( Y4 ) 
 P( Y )  0,9;
y4  4 ,3
F̂ ( Y5 ) 
 P( Y )  1,0.
y5  4 ,4
По
полученным
данным
строят
диаграмму, откладывая по оси абсцисс
значения наблюдений, по оси ординат –
накопленные частоты.
Из диаграммы видно, что для величин
y< ymin значение FˆN (Y ) равно нулю. В точке
ymin и далее во всех точках yi диаграмма
имеет скачок, равный  P(Y ) . Для величин
y  yi
y > ymax FˆN (Y )  1 .
N 
При
значение
оценок
интервальных функций стремится к их
истинному значению FˆN (Y )  F (Y ) ,
которая будет выражаться плавной кривой.
Рис. 7. Диаграмма накопленных
частот
3.3. Построение гистограммы выборки
fˆN (Y )
Гистограмма
является
эмпирическим
аналогом
дифференциальной функции распределения f(Y).
Для построения ее по оси абсцисс откладывают интервалы
группирования, по оси ординат относительные частоты, деленные на
nА
ширину интервала f̂ ( Y ) 
. На
ny
гистограмме
каждая
группа
изображается
прямоугольником,
ширина которого равна ширине
интервала, а высота пропорциональна
частоте,
площадь
каждого
ni
прямоугольника равна
, а сумма
Рис. 8. Гистограмма выборки
n
площадей равна 1. При большом числе испытаний N гистограмма будет
близка к кривой распределения. Гистограмма, построенная по данным
табл. 2, приведена на рис. 8. Проведя плавную кривую через середины
прямоугольников, можно получить общее представление о форме кривой
распределения плотности вероятности
для нормального закона
распределения.
3.4. Определение числовых характеристик случайных величин
1) Рассчитать по формулам (33-35) или на ЭВМ с помощью программы
«LAB1A» или «LAB1В» математическое ожидание, дисперсию и
среднеквадратическое отклонение случайных величин по данным выборки,
полученной в первой части работы.
2) На график, полученный в первой части работы, нанести линии,
соответствующие значениям: M (Y )  S , M (Y )  2S и M (Y )  3S (одно-,
двух- и трехсигмовые интервалы). Вычислить вероятности выпадов
значений случайной величины за их пределы. Сравнить с теоретическими
вероятностями (0,32; 0,05, 0,003).
3) Дать интерпретацию полученным данным.
4. Требования к отчету
Отчет должен содержать:
1) цель работы;
2) краткие сведения из теории (основные определения и расчетные
формулы);
3) исходные данные (шифр работы, число опытов, теоретическое
среднее случайной величины);
4) распечатку данных, полученных на ЭВМ;
5) график экспериментальной проверки статистической устойчивости
средних значений случайных величин;
6) анализ графика;
7) экспериментальный анализ случайной величины (вариационный ряд,
диаграмма накопленных частот и гистограмма выборки, числовые
характеристики распределения);
8) обсуждение полученных результатов;
9) выводы (соответствуют ли полученные данные теоретическим
положениям; если нет, то в чем причина расхождения).
5. Вопросы для самопроверки
1. Почему экспериментальные величины являются случайными? В чем
проявляется их случайный характер?
2. Что такое случайная величина?
3. В каком случае экспериментальные данные достоверны и почему?
4. Какая закономерность является эмпирической основой теории
вероятности?
5. Значение закона статистической устойчивости средних.
6. В чем проявляется закон статистической устойчивости средних?
7. Что такое дискретные и непрерывные случайные величины?
Привести примеры.
8. Что такое вероятность события? Ее приближенная характеристика.
Единицы измерения вероятности, предельные значения вероятности.
9. Что такое закон распределения случайной величины? Виды законов
распределения.
10. Способы задания закона распределения.
11. Что такое вариационный ряд?
12. Порядок построения вариационного ряда. Особенности построения
вариационного ряда для дискретных и непрерывных величин. Как
определить число интервалов в вариационном ряду?
13. Что
такое
интегральная
и
дифференциальная
функции
распределения? Их свойства.
14. Связь между интегральной и дифференциальной функциями
распределения.
15. Что является эмпирическими аналогами интегральной и
дифференциальной функций?
16. Что является параметрами закона распределения? Что является
характеристиками расположения и рассеивания случайной величины?
17. Как отражается увеличение σ и a на графике закона распределения?
18. Что такое оценка параметров закона распределения? Числовые
характеристики закона распределения.
19. Что такое математическое ожидание? Его свойства, оценка по
выборке.
20. Что такое генеральная дисперсия? Ее свойства.
21. Что такое эмпирическая дисперсия? Пересказать словами формулу
для расчета эмпирической дисперсии.
22. Почему за меру рассеяния принята сумма квадратов отклонения?
23. Среднеквадратичное отклонение и его смысл.
24. Единицы измерения дисперсии и среднеквадратичного отклонений.
25. Чему равна вероятность попадания случайной величины в заданный
интервал P{x1  X  x2 } ?
26. Какова графическая интерпретация с помощью кривой функции
плотности вероятности выражений P{ X  a1} ; P{ X  a2 } ; P{a1  X  a2 } .
27. Правило трех сигм.
Список литературы
1. Румшиский, Л.З. Организация эксперимента:. учебное пособие
/Л. З. Румшиский – М.: МИСиС, 1984 – 140 с.
2. Иванова, В.М. и др. Математическая статистика. – М.: Высшая
школа, 1981 – 368 с.
3. Калоша, В.К. и др. Математическая обработка результатов
эксперимента. – Минск: Вышейшая школа, 1982 – 103 с.
Варианты заданий
Шифр задачи 0.9011** (** - № варианта)
№
варианта
1
2
3
4
5
6
7
8
9
10
11
12
SR
N
5
6
7
7
8
9
10
15
20
25
30
35
50
65
55
56
58
60
65
70
55
60
60
50
№
варианта
13
14
15
16
17
18
19
20
21
22
23
24
SR
N
5
10
15
20
25
30
35
40
45
50
55
60
50
55
60
65
50
55
60
50
55
50
45
60
Download