А.Г. Белов, Б.М. Щедрин ОЦЕНИВАНИЕ ПАРАМЕТРОВ ЛИНЕЙНОЙ МОДЕЛИ ПРИ РАЗБИЕНИИ РЕГРЕССОРОВ Введение. Теорема о разбиении (декомпозиции) регрессоров или, как ее часто называют в зарубежной литературе теорема Frisch–Waugh– Lovell (FWL), названная так в честь авторов ряда основополагающих работ [1;2], занимает важное место в экономических приложениях регрессионного анализа при введении дополнительных регрессоров[2; 3, c.68]. Эта теорема формулируется обычно применительно к выборочному уравнению множественной регрессии (1) y X e, где y y1 ,... yn — вектор–столбец значений наблюдаемой зависимой T переменной (отклика), X x1,..., xk Rnk , n k , rank X k — матрица (плана) наблюдений k линейно независимых векторов значений переменных (регрессоров), x j x1 j ,..., xnj , 1 ,..., k T T — вектор– столбец неизвестных коэффициентов модели и e e1 ,..., en — вектор– столбец ненаблюдаемых равноточных (гомоскедастичных) некоррелированных ошибок. Пусть наблюдаемая регрессионная модель представима в блочном виде y X 1 1 X 2 2 e, (2) T где X 1 x1 ,..., x k1 R nk1 и X 2 x k1 ,..., x k R nk2 — матрицы наблюдений k1 и k2 k k1 переменных, rank X1 k1 , rank X 2 k2 , а 1 Rk11 и 2 Rk 1 — вектора–столбцы соответствующих коэффициентов с числом 2 компонент k1 и X X 1 : X 2 , 1 , 2 T компонента ˆ2 T оценки k2 , T . соответственно. Тогда FWL–теорема ˆ X T X X T y 1 Таким образом, утверждает, что по методу наименьших квадратов (МНК) в регрессии y на X (1) совпадает с МНК–оценкой 2 X 2T X 2 X 2T y в регрессии y M1 y на X 2 M1 X 2 вида 1 где y X 2 2 u, (3) M 1 I n X 1 X 1T X 1 X 1T R nn , I n diag (1,...,1) R nn . При этом 1 остаточные вектора ê y X ˆ и u y X 2 2 в обеих регрессиях (1), (3) равны. Справедливо также, что если две группы регрессоров ортогональны, то есть X 2T X 1 0 R k2 k1 , то МНК–оценки ˆ1 , ˆ2 в уравнениях y X 1 1 e1 , y X 2 2 e2 (4) совпадут с МНК–оценками этих коэффициентов, полученных из (2). Данная теорема была обобщена [4] для случая коррелированных ошибок наблюдений e с невырожденной ковариационной матрицей . Тогда применяется обобщенный МНК (ОМНК) и оценки имеют вид 1 ˆ X T 1 X X T 1 y (5) 2 2 2 2 где y M1 y , X 2 M1 X 2 , M 1 I n X 1 X 1 X 1 X 1T 1 R nn . При этом в T 1 случае ортогональности X 1 и X 2 в метрике 1 , то есть X 2T 1 X 1 0 , ОМНК–оценки коэффициентов уравнений (4) есть 1 1 ˆ X T 1 X X T 1 y, ˆ X T 1 X X T 1 y , (6) 1 1 1 1 2 2 2 2 и совпадают с соответствующими ОМНК–оценками, полученными для (2). Постановка задачи. Перечисленные выше формулы оценок получены для случая выборочной регрессии и являются следствием ряда теорем линейной алгебры с использованием свойств линейной независимости и ортогональности векторов. Однако, как известно [5, с.57], вектора значений наблюдаемых переменных могут рассматриваться как реализации случайных величин (с.в.) и тем самым обладать рядом вероятно-статистических свойств, например, быть некоррелированными [6]. В связи с этим возможно стохастическое обобщение формул для оценок коэффициентов. Теоретическая регрессия. Рассмотрим теоретическую модель множественной линейной регрессионной зависимости T E , (7) где зависимая и объясняющая 1 ,..., k переменные являются T с.в. с соответствующими распределениями, имеющими конечные первый и второй моменты. Примером ситуации, описываемой (7), может являться эксперимент, в котором на исход i –го опыта yi , описываемого с.в. i , влияют факторы в виде с.в. 1 ,..., k со значениями xi1 ,..., xik и аддитивные ei , ошибки описываемые некоррелированными, одинаково распределенными с.в. i , i 1,..., n , имеющими нулевые математические ожидания (м.о.) E i 0 и одинаковые дисперсии D i 2 0 . В силу гомоскедастичности величины ei 1 n можно интерпретировать как значения одной с.в. , эквивалентной с.в. i 1 . Аналогично, величины n y1 ,..., yn можно считать значениями одной с.в. . Известно, что средней квадратичной коэффициентов является величина 2 ˆ arg min E E T arg min E T оценкой 2 T E вектора E , (8) 1 k T E E i j R kk . 1 Будем предполагать, что переменные можно разбить на две группы, при условии невырожденности матрицы например, случайные вектора 1 1 ,..., k1 T и 2 k1 1 ,..., k T . Тогда T матрицу E , вектора E E 1 ,..., E k и можно записать в блочном виде E T E T E 1 2 1 1 1 , , 1 . T T E E E 2 2 2 2 2 1 T Для блочного обращения E воспользуемся одним из вариантов формулы Фробениуса [7, с.60] 1 A1 A1BH 1CA1 A1BH 1 A B , C D H 1CA1 H 1 T где H D CA1B . Тогда для оценок блочных векторов параметров справедливы представления 1 T ˆ1 E 11 T E 1 E 1 2 ˆ2 , (9) 1 T T 1 ˆ 2 H E 2 E 2 1 E 11 E 1 , T где H E 2 2T E 2 1T E 11 1 E 12T . Если выполнено условие «ортогональности» E 2 1T 0 , то из (9) имеем ˆ1 E 11T 1 1 T E 1 , ˆ2 E 2 2 E 2 . (10) В противном случае, в предположении некоррелированности с.в. 1 , 2 , T E 2 1 E 2 E 1 , E 1 E 1 E , (11) для блочных векторов параметров из (9) получаем представления 1 ˆ1 E 11 T E 1 E E 2T ˆ2 , (12) 1 ˆ 2 H E 2 E 2 S1E , T где H E 2 2T E 2 S1E 2T и S1 E 1T E T 1 1 1 E 1 . Возможно дальнейшее упрощение для блочных оценок коэффициентов, если дополнительно к условиям (11) предположить, что выполнено равенство T T E 11 E 1 E 1 . (13) Последнее условие означает, что компоненты вектора 1 являются с.в. с нулевой дисперсией, т.е. принимают постоянные значения. Поскольку T матрица E 1 E 1 обратима только при k1 1 , то не уменьшая P 1 1 1 и учитывая E 1 1, S1 1 , из (12) общности, полагая получим ˆ1 E E 2T ˆ2 , ˆ2 H 1 cov 2 , H 1E 2c c , (14) где H cov 2 , 2 E 2c 2cT , а 2с 2 E 2 , c E — с.в., центрированные относительно средних значений. Рассмотрим теперь случай коррелированных и неравноточных (гетероскедастичных) ошибок наблюдений ei , описываемых с.в. i с E i 0 и невырожденной ковариационной матрицей cov i , j R nn . n Тогда наблюдаемый вектор значений 1 y y1 ,..., yn описывается вектором с.в. 1 ,...,n . Поскольку T T матрица симметрична и положительно определена, то существует такая невырожденная матрица V R nn , что VV T [3, с.64]. Тогда преобразуя V 1 , V 1 V 1 , с.в. и где E 0n , D I n , 1,..., n , T приходим к некоррелированным, гомоскедастичным с.в. 1 ,..., n , которые эквивалентны некоторой с.в. со значениями V 1 y . Уравнение регрессии имеет аналогичный (7) вид T E . (15) Следовательно, все формулы (9), (10), (12) и (14) могут быть перенесены и легко преобразованы на случай коррелированных ошибок. Таким образом, в зависимости от степени коррелированности объясняющих и зависимой переменных возможны различные представления для МНК–оценок блочных векторов коэффициентов при разбиении регрессоров. Примером применимости полученных формул оценивания является модель (7) с постоянным членом k –параметрическая T E 1, 1 , где 2 ,..., k , 2 ,..., k . Для этой T T модели справедливо блочное представление с k1 1, k2 k 1, 1 1 и выполнены условия (11), (13). Тогда для МНК–оценок коэффициентов модели справедливы представления (14). Выборочная регрессия. Запишем полученные выше формулы для оценок коэффициентов блочного аналога (2) выборочного уравнения множественной регрессии (1). В случае некоррелированных и гомоскедастичных ошибок наблюдений статистическим аналогом T теоретического совместного распределения случайного вектора , является распределение дискретного случайного вектора, принимающего T i iT n значений x , yi , i 1,..., n, с вероятностями 1 , где x xi1 ,..., xik . n В этом случае, статистический аналог некоторой характеристики T E T , наблюдаемой с.в. , вычисляется по формуле ˆn x , y , n i 1 T i i где суммирование происходит по всем выборочным значениям [8, с.105]. Тогда заменой теоретических характеристик на 1 n 1 n эмпирические, например, E i j ~ xli xlj , E xli yl , легко i ~ n l 1 n l 1 могут быть получены расчетные формулы оценок коэффициентов для линейных регрессионных моделей. При этом выражения для оценок (8), (9) примут известный соответствующий выборочный вид T 1 1 ˆ arg min yi T xi arg min y X y X X T X X T y, n i 1 n 2 ˆ1 X 1T X 1 X 1T y X 2 ˆ2 , ˆ2 X 2T X 2 X 2T y. 1 1 В случае ортогональности регрессоров X 2T X 1 0 из (10) получим известные МНК–оценки для (4) аналоги (10): 1 1 ˆ X T X X T y, ˆ X T X X T y . 1 1 1 1 2 2 2 2 При выполнении условий некоррелированности (11), имеющим T выборочный вид X 2T X 1 nx 2 x 1 , X1T y nx 1 y , приходим к следующим выборочным аналогам оценок (12) 1 ˆ1 n X 1T X 1 x 1 y x T2 ˆ2 , ˆ2 X 2T X 2 s1 x 2 x T2 где 1 n y yi n i 1 , x 1 x1 ,..., xk1 T X 1 T 2 (16) y s1 x 2 y , 1 1Tn X 1 , n x 2 xk1 1 ,..., xk T 1 1Tn X 2 , n n 1 1 n x , j 1,.., k , s1 pij , а pij P1 X1 X1T X1 X1T R nn . В ij n i 1 i , j 1 случае выполнения дополнительного к (11) условия (13) в виде T X 1T X 1 nx 1 x 1 приходим к выборочным аналогам оценок (14) 1 ˆ y x T ˆ , ˆ X сT X с X сT y с , (17) xj 2 1 где 2 2 2 2 2 1n 1,...,1 R n1 , X 2c CX 2 , y C y y y1n , T c C I n 1n 1nT1n 1nT R nn — матрица центрирования. 1 В случае коррелированных ошибок наблюдений выборочными аналогами (15) являются соотношения y X e X X e, 1 1 2 2 y V 1 y, X 1 V 1 X 1 , X 2 V 1 X 2 , e V 1 e , где V 1 wij 1/2U T R nn определяется матрицами а разложения diag 1 ,..., n , i 0, i 1,..., n , U U T , — собственные (характеристические) числа , а столбцы матрицы U — соответствующие числам собственные вектора. Учитывая U T U 1 , V 1 V 1 1 , (8) примет известный вид T ˆ X T X X T y X T 1 X X T 1 y, 1 1 1 а (9) — вид (5) и ˆ1 X 1T 1 X 1 X 1T 1 y X 2 ˆ2 . В случае ортогональности регрессоров X 2T X 1 X 2T 1 X 1 0 получим ОМНК–оценки (6). Соотношения (12), при выполнении T X 2T 1 X 1 nX 2T ww X 1 , соответствующих (11) условий X1T 1 y nX1T ww y , после принимают вид: ˆ n X T 1 X T 1 1 ˆ2 X T 2 w w1 ,..., wn , где T небольших матричных преобразований y X ˆ , s ww X X s ww y, 1 1 T X 1T ww 1 2 1 T 1 pij P1 V 1 X1 X1T 1 X1 X1T V 1 1 T 2 2 wj 2 1 1 n wij , j 1,..., n n i 1 1 T (18) T n s1 pij , , а i , j 1 . Для (14), при дополнительном к (11) условии (13) в виде X 1T 1 X 1 nX 1T ww X 1 , имеем T ˆ1 wT y X 2 ˆ2 , ˆ2 X 2T 1 X 2 c 1 X 2T 1 y , (19) c где 1 CV 1 CV 1 . c T В качестве примера применимости полученных формул и условий для них рассмотрим для модели (1) следующие массивы данных: 1 1 0 0 1 0 0 0 1 1 1 1 0 1 0 0 . X , y , 1 0 1 0 0 0 1 0 1 0 0 1 0 0 0 1 T Тогда вычисляя МНК–оценки коэффициентов получим ˆ 0.5,0,0 . Рассмотрим два случая блочного представления матрицы плана: 1 1 0 1 1 0 1 1 1 1 1 1 , X ; X , X . X1 2 1 2 1 0 1 1 0 1 1 0 0 1 0 0 Легко проверить, что для первого разложения выполняется условие (11), а для второго также и (13). Тогда воспользовавшись (16) и (17) или их обобщенными аналогами (18) и (19) для соответствующих представлений получим те же значения для оценок коэффициентов. Заключение. Рассмотренный вероятностно–статистический подход позволил получить ряд общих формул и условий их применимости для оценок коэффициентов линейной множественной регрессионной модели при разбиении регрессоров в зависимости от проявления стохастических свойств зависимой и объясняющих величин. ЛИТЕРАТУРА 1. Frisch R., Waugh F.V. Partial Time Regressions as Compared with Individual Trends // Econometrica, 1933, 1(4), 387–401. 2. Lovell M. Seasonal adjustment of economic time series // Journal of the American Statistical Association, 1963, 58, 993–1010. 3. Себер Дж. Линейный регрессионный анализ. М.: Мир, 1980. 4. Fiebig D.G., Bartels R., Kramer W. The Frisch-Waugh Theorem and Generalised Least Squares Estimators // Econometrics. Reviews, 1996, 15, 431–444. 5. Айвазян С.А., Енюков И.С., Мешалкин Л.Д. (1985). Прикладная статистика: Исследование зависимостей. М.: Финансы и статистика, 1985. 6. Rodgers J.L., Nicewander W.A., Toothaker L. Linear independent, orthogonal and uncorrelated variables // American Statistician, 1984, 38(2), 133–134. 7. Гантмахер Ф.Р. Теория матриц. М.: Изд-во Наука, 1967. 8. Ивченко Г.И., Медведев Ю.И. Введение в математическую статистику: Учебник. М.: ЛКИ, 2010.