ЛЕКЦИЯ 8
- Мультиколлинеарность.
- Отбор наиболее существенных объясняющих переменных в регрессионных моделях.
- Пример.
- Значимость уравнения регрессии.
- Выборочные ковариации переменных.
- Выборочные коэффициенты корреляции.
- Матрица парных коэффициентов корреляции.
- Значимость коэффициентов корреляции.
- Вопросы для самопроверки.
Мультиколлинеарность
Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.
При функциональной форме мультиколлинеарности, по крайней мере, одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица ХТ·Х особенная, так как содержит линейно зависимые векторы-столбцы, и её определитель равен нулю, т. е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы уравнений и получения оценок регрессионной модели.
Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица XТ X в этом случае является неособенной, но ее определитель очень мал.
В то же время вектор оценок b и его ковариационная матрица Σb в соответствии с формулами (7) и (16) пропорциональны обратной матрице (ХT Х)-1, а значит, их элементы обратно пропорциональны величине определителя |ХT Х|. В результате получаются значительные средние квадратические отклонения (стандартные ошибки) коэффициентов регрессии b0, b1,..., bp и оценка их значимости по F - критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой по F - критерию.
Оценки становятся очень чувствительными к незначительному изменению результатов наблюдения и объёма выборки. Уравнения регрессии в этом случае не имеют реального смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения экономической теории знаки и неоправданно большие значения.
Точных количественных критериев для определения наличия или отсутствия мультиколлинеарности не существует. Тем не менее имеются некоторые эвристические подходы по её выявлению.
Один из таких подходов заключается в анализе корреляционной матрицы между объясняющими переменными Х1, Х2, , Хр и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними.
Полезно также находить множественные коэффициенты детерминации между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента детерминации (обычно больше 0,6) свидетельствует о мультиколлинеарности.
Другой подход состоит в исследовании матрицы ХTХ. Если определитель матрицы ХTХ, либо ее минимальное собственное значение λmin близки к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. О том же может свидетельствовать и значительное отклонение максимального собственного значения λmах матрицы ХTХ от ее минимального собственного значения λmin.
Для устранения или уменьшения мультиколлинеарности используется ряд методов. Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из рассмотрения, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.
Другой метод устранения или уменьшения мультиколлинеарности заключается в переходе от несмещенных оценок, определенных по методу наименьших квадратов, к смещенным оценкам, обладающим, однако, меньшим рассеянием относительно оцениваемого параметра, т. е. меньшим математическим ожиданием квадрата отклонения оценки bj от параметра βj или М (bj - βj)2.
Оценки, определяемые вектором (7), обладают в соответствии с теоремой Гаусса-Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить точность оценивания параметров регрессии. На ( рисунке) показан случай, когда смещенная оценка
, выборочное распределение которой задается плотностью φ (
), "лучше" несмещенной оценки bj, распределение которой представляет плотность φ (bj).Действительно, пусть максимально допустимый по величине доверительный интервал для оцениваемого параметра βj есть (βj - Δ, βj + Δ). Тогда доверительная вероятность, или надежность оценки, определяемая площадью под кривой распределения на интервале (βj - Δ, βj + Δ), как нетрудно видеть из ( рисунка), будет в данном случае больше для оценки
по сравнению с bj (на рисунке эти площади заштрихованы). Соответстенно средний квадрат отклонения оценки от оцениваемого параметра будет меньше для смещенной оценки, т. е.
- βj)² < M(bj - βj)².
, где τ - некоторое положительное число, называемое "гребнем" или "хребтом", Ep+1 - единичная матрица (р + 1)-го порядка. Добавление τ к диагональным элементам матрицы XTX делает оценки параметров модели смещенными, но при этом увеличивается определитель матрицы системы нормальных уравнений (6) - вместо ( ХTХ ) он будет равен | ХTХ + τ Е р + 1|.Таким образом, становится возможным исключение мультиколлинеарности в случае, когда определитель | ХTХ | близок к нулю.
Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных Х1, Х2,..., Хn, связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах, в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации.
Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сравнительно большом количестве исходных объясняющих переменных.
Отбор наиболее существенных объясняющих переменных в регрессионных моделях
Процедура введения новых переменных продолжается до тех пор, пока будет увеличиваться минимальное значение соответствующего (скорректированного) коэффициента детерминации
.
Пример
| i (номер района) |
xi1 | xi2 | xi3 | yi |
| 1 | 42,2 | 11,2 | 31,9 | 167,1 |
| 2 | 48,6 | 10,6 | 13,2 | 174,4 |
| 3 | 42,6 | 10,6 | 28,7 | 160,8 |
| 4 | 39,0 | 10,4 | 26,1 | 162,0 |
| 5 | 34,7 | 9,3 | 30,1 | 140,8 |
| 6 | 44,5 | 10,8 | 8,5 | 174,6 |
| 7 | 39,1 | 10,7 | 24,3 | 163,7 |
| 8 | 40,1 | 10,0 | 18,6 | 174,5 |
| 9 | 45,9 | 12,0 | 20,4 | 185,7 |
Решение. Пусть Y – вектор - столбец, компоненты которого являются зависимыми переменными (назовём этот вектор зависимым вектором), Х1, Х2, Х3 — векторы - столбцы, координаты которых являются соответствующими объясняющими переменными, Е — вектор – столбец, координаты которого являются равными единице.
Линейная комбинация векторов Х1, Х2, Х3, Е является вектором
. (1)Найдём выборочную остаточную дисперсию s2

Обратная матрица (XTX)-1 имеет вид


Выборочное уравнение множественной регрессии имеет вид
(2)
, т. е.
.
.Значимость уравнения регрессии

Выборочные ковариации переменных
cov(x2,x3) = - 0,907; cov(x1,y) = 37,637; cov(x2,y) = 6,442; cov(x3,y) = -56,028.
Выборочные коэффициенты корреляции

Матрица парных коэффициентов корреляции

Знаком * отмечены коэффициенты корреляции, значимые по t - критерию (3.46) на 5%-ном уровне (см. ниже).
Значимость коэффициентов корреляции
,Вычислим значения статистики
,Анализируя матрицу парных коэффициентов корреляции можно отметить более тесную связь между переменными Y и X1, чем между переменными Y и X2, Y и X3. Между переменными X1 и X2, X1 и X3 связь сильная, а X2 и X3 связь практически отсутствует, поэтому между объясняющими переменными есть мультиколлинеарность.
Для устранения мультиколлинеарности применим процедуру пошагового отбора наиболее информативных переменных.
- 1-й шаг. Из объясняющих переменных Х1 – Х3 выделяется переменная Х1, имеющая с зависимой переменной Y наибольший коэффициент детерминации R2y x1 = 0,643 (равный для парной модели квадрату коэффициента корреляции ryx1 = 0,8022). С учетом поправки на несмещенность по формуле (3) скорректированный коэффициент детерминации
. - 2-й шаг. Среди всевозможных пар объясняющих переменных X1, Xj =2,3 выбирается пара, имеющая с зависимой переменной Y наиболее высокий коэффициент детерминации. Для этого придёться провести множественный регрессионный анализ для различных пар (X1, X2), (X1, X3).
Для пары (X1, X2) уравнением регрессии и средние квадратические отклонения коэффициентов регрессии будет Коэффициент детерминации для этой модели будет
.
и с учетом поправки
Для пары (X1, X3) уравнением регрессии и средние квадратические отклонения коэффициентов регрессии будет
. Коэффициент детерминации для этой модели будет
.
и с учетом поправки
.
и соответственно скорректированный коэффициент
.Найдём расчетные значения t - статистики

Вопросы для самопроверки
- Что означает мультиколлинеарность между объясняющими факторами?
- Как установить наличие мультиколлинеарности?
- Как установить значимость уравнения регрессии?
- Как установить значимость коэффициентов корреляции?
- Какой информативностью обладают коэффициенты элластичности?