ЛЕКЦИЯ 13 «СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ ВЗАИМОСВЯЗЕЙ

реклама
ЛЕКЦИЯ 13
«СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ ВЗАИМОСВЯЗЕЙ»
13.1 Основные понятия корреляционного и регрессионного анализа
Исследуя
природу,
общество,
экономику
необходимо
иметь
представление о существующих связях между наблюдаемыми процессами и
явлениями. Оценка наиболее существенных из них, а также воздействия одних
факторов на другие является одной из основных задач статистики.
Признак – это основная отличительная черта, особенность изучаемого
явления.
Признаки по их значению для изучения взаимосвязи делятся на два
класса. Признаки, обуславливающие изменения других, связанных с ними
признаков, называют факторными (x), или просто факторами. Признаки,
изменяющиеся под действием факторных признаков, называют результативным
(y).
В статистике различают функциональную и корреляционные зависимости.
При функциональной зависимости величине факторного признака строго
соответствует одно или несколько значений функции. Корреляционная связь
проявляется в среднем, для массовых наблюдений, когда заданным значениям
зависимой переменной соответствует некоторый ряд вероятных значений
независимой переменной. Это связано со сложностью взаимосвязей между
факторами, на взаимодействие которых влияют неучтённые случайные величины.
Выделяют связь прямую и обратную. Прямая – это такая связь, при
которой с увеличением или с уменьшением значений факторного признака
происходит увеличение или уменьшение значений результативного. В случае
обратной связи значения результативного признака изменяются под воздействием
факторного, но в противоположном направлении по сравнению с изменением
факторного признака.
Выделяют связи прямолинейные (или просто линейные) и нелинейные.
Если статистическая связь между явлениями может быть приблизительно
выражена уравнением прямой линии, то ее называют линейной связью вида (13.1):
y x  a 0  a1x
(13.1)
Если же связь может быть выражена уравнением какой-либо кривой
линии, например: параболы (13.2) или гиперболы (13.3) и т.д., то такую связь
называют нелинейной или криволинейной.
y x  a 0  a1x  a 2 x 2
y x  a 0  a1
1
x
(13.2)
(13.3)
По силе различают слабые и сильные связи. Эта характеристика
выражается конкретными показателями.
Изучение взаимосвязей состоит в количественной оценке их наличия и
направления, а также характеристике силы и формы влияния одних факторов на
другие. Для этого применяются две группы методов: корреляционный анализ и
регрессионный анализ.
Задачи корреляционного анализа сводятся к измерению тесноты связи
между признаками, определению неизвестных причинных связей и оценке
факторов, оказывающих наибольшее влияние на результативный признак.
В статистике принято различать следующие варианты зависимостей:
1. Парная корреляция – связь между двумя признаками (результативным и
факторным, или двумя факторными).
2. Частная корреляция – зависимость между результативным и одним
факторным признаками при фиксированном значении других факторных
признаков.
3. Множественная корреляция – зависимость результативного и двух или
более факторных признаков, включенных в исследование.
Теснота связи количественно выражается величиной коэффициентов
корреляции.
Задачи регрессионного анализа – установление формы зависимости,
определение функции регрессии, использования уравнений для оценки
неизвестных значений зависимой переменной.
13.2 Однофакторная регрессия
Однофакторная регрессия (парная) характеризует связь между двумя
признаками: результативным и факторным. Аналитически связь между ними
описывается уравнениями (13.1), (13.2), (13.3).
Определить тип уравнения можно с помощью различных методов.
Например, если результативный и факторный признаки возрастают одинаково,
примерно в арифметической прогрессии, то линейная связь, при обратной связи –
гиперболическая, если результативный признак увеличивается в арифметической
прогрессии, а факторный значительно быстрее, то используется параболическая
функция. Наиболее распространенный метод определения типа уравнения –
графический.
Для нахождения параметров a0 и a1 используется метод наименьших
квадратов. Решить систему нормальных уравнений можно различными методами
(пример, метод обратной матрицы, метод Крамера, метод Жордана-Гаусса).
Система нормальных уравнений для нахождения параметров линейной
однофакторной (парной) регрессии методом наименьших квадратов имеет
следующий вид (13.4):
na 0  a 1  x   y


a 0  x  a 1  x 2   xy
(13.4)
Система нормальных уравнений для нахождения параметров
параболической парной регрессии методом наименьших квадратов имеет
следующий вид (13.5):
na 0  a 1  x  a 2  x 2   y

2
3
a 0  x  a 1  x  a 2  x   xy

2
3
4
2
a 0  x  a 1  x  a 2  x   x y
(13.5)
Система нормальных уравнений для нахождения параметров
гиперболической парной регрессии методом наименьших квадратов имеет
следующий вид (13.6):
1

na

a
y

1
 0
x

a 0  1  a 1  1   y

x
x
x2
(13.6)
где n – объем исследуемой совокупности (число единиц наблюдения).
В уравнениях регрессии параметр a0 показывает усредненное влияние на
результативный признак неучтенных в уравнении факторных признаков;
коэффициент регрессии a1 показывает, на сколько изменяется в среднем значение
результативного признака при увеличении факторного на единицу собственного
измерения.
Скачать