ЛЕКЦИЯ 8

  1. Мультиколлинеарность.
  2. Отбор наиболее существенных объясняющих переменных в регрессионных моделях.
  3. Пример.
  4. Значимость уравнения регрессии.
  5. Выборочные ковариации переменных.
  6. Выборочные коэффициенты корреляции.
  7. Матрица парных коэффициентов корреляции.
  8. Значимость коэффициентов корреляции.
  9. Вопросы для самопроверки.

Мультиколлинеарность

   В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся: мультиколлинеарность, ее причины и методы устранения; использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава.
   Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.
   При функциональной форме мультиколлинеарности, по крайней мере, одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица ХТ·Х особенная, так как содержит линейно зависимые векторы-столбцы, и её определитель равен нулю, т. е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы уравнений и получения оценок регрессионной модели.
   Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица XТ X в этом случае является неособенной, но ее определитель очень мал.
   В то же время вектор оценок b и его ковариационная матрица Σb в соответствии с формулами (7) и (16) пропорциональны обратной матрице (ХT Х)-1, а значит, их элементы обратно пропорциональны величине определителя |ХT Х|. В результате получаются значительные средние квадратические отклонения (стандартные ошибки) коэффициентов регрессии b0, b1,..., bp и оценка их значимости по F - критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой по F - критерию.
   Оценки становятся очень чувствительными к незначительному изменению результатов наблюдения и объёма выборки. Уравнения регрессии в этом случае не имеют реального смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения экономической теории знаки и неоправданно большие значения.
   Точных количественных критериев для определения наличия или отсутствия мультиколлинеарности не существует. Тем не менее имеются некоторые эвристические подходы по её выявлению.
   Один из таких подходов заключается в анализе корреляционной матрицы между объясняющими переменными Х1, Х2, …, Хр и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними.
   Полезно также находить множественные коэффициенты детерминации между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента детерминации (обычно больше 0,6) свидетельствует о мультиколлинеарности.
   Другой подход состоит в исследовании матрицы ХTХ. Если определитель матрицы ХTХ, либо ее минимальное собственное значение λmin близки к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. О том же может свидетельствовать и значительное отклонение максимального собственного значения λmах матрицы ХTХ от ее минимального собственного значения λmin.
   Для устранения или уменьшения мультиколлинеарности используется ряд методов. Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из рассмотрения, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.
   Другой метод устранения или уменьшения мультиколлинеарности заключается в переходе от несмещенных оценок, определенных по методу наименьших квадратов, к смещенным оценкам, обладающим, однако, меньшим рассеянием относительно оцениваемого параметра, т. е. меньшим математическим ожиданием квадрата отклонения оценки bj от параметра βj или М (bj - βj)2.
   Оценки, определяемые вектором (7), обладают в соответствии с теоремой Гаусса-Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить точность оценивания параметров регрессии. На ( рисунке) показан случай, когда смещенная оценка , выборочное распределение которой задается плотностью φ (), "лучше" несмещенной оценки bj, распределение которой представляет плотность φ (bj).
   Действительно, пусть максимально допустимый по величине доверительный интервал для оцениваемого параметра βj есть (βj - Δ, βj + Δ). Тогда доверительная вероятность, или надежность оценки, определяемая площадью под кривой распределения на интервале (βj - Δ, βj + Δ), как нетрудно видеть из ( рисунка), будет в данном случае больше для оценки по сравнению с bj (на рисунке эти площади заштрихованы). Соответстенно средний квадрат отклонения оценки от оцениваемого параметра будет меньше для смещенной оценки, т. е.
M( - βj)² < M(bj - βj)².
   При использовании "ридж-регрессии" (или "гребневой регрессии") вместо несмещенных оценок (7) рассматривают смещенные оценки, задаваемые вектором , где τ - некоторое положительное число, называемое "гребнем" или "хребтом", Ep+1 - единичная матрица (р + 1)-го порядка. Добавление τ к диагональным элементам матрицы XTX делает оценки параметров модели смещенными, но при этом увеличивается определитель матрицы системы нормальных уравнений (6) - вместо ( ХTХ ) он будет равен | ХTХ + τ Е р + 1|.
   Таким образом, становится возможным исключение мультиколлинеарности в случае, когда определитель | ХTХ | близок к нулю.
   Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных Х1, Х2,..., Хn, связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах, в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации.
   Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сравнительно большом количестве исходных объясняющих переменных.

Отбор наиболее существенных объясняющих переменных в регрессионных моделях

   Одним из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора информативных переменных. Например, на первом шаге рассматривается лишь одна объясняющая переменная, имеющая с зависимой переменной Y наибольший коэффициент детерминации. На втором шаге включается в регрессию новая объясняющая переменная, которая вместе с первоначально отобранной образует пару объясняющих переменных, имеющих с Y наиболее высокий (скорректированный) коэффициент детерминации. На третьем шаге вводится в регрессию ещё одна объясняющая переменная, которая вместе с двумя первоначально отобранными образуют тройку объясняющих переменных, имеющую с Y наибольший (скорректированный) коэффициент детерминации, и т.д.
   Процедура введения новых переменных продолжается до тех пор, пока будет увеличиваться минимальное значение соответствующего (скорректированного) коэффициента детерминации .

Пример

   Имеются следующие данные о потреблении некоторого продукта Y (усл. ед.) в зависимости от уровня урбанизации (доли городского населения) Х1, относительного образовательного уровня X2 и относительного заработка Х3 для девяти географических районов:
i
(номер
района)
xi1 xi2 xi3 yi
1 42,2 11,2 31,9 167,1
2 48,6 10,6 13,2 174,4
3 42,6 10,6 28,7 160,8
4 39,0 10,4 26,1 162,0
5 34,7 9,3 30,1 140,8
6 44,5 10,8 8,5 174,6
7 39,1 10,7 24,3 163,7
8 40,1 10,0 18,6 174,5
9 45,9 12,0 20,4 185,7
   В случае обнаружения мультиколлинеарности принять меры по её устранению (уменьшению), используя пошаговую процедуру отбора наиболее информативных переменных.
   Решение. Пусть Y – вектор - столбец, компоненты которого являются зависимыми переменными (назовём этот вектор зависимым вектором), Х1, Х2, Х3 — векторы - столбцы, координаты которых являются соответствующими объясняющими переменными, Е — вектор – столбец, координаты которого являются равными единице.
   Линейная комбинация векторов Х1, Х2, Х3, Е является вектором
.                         (1)
По формуле (7) найдём вектор оценок параметров регрессионной модели bT = (60,014; 0,240; 10,718; - 0,751 ).
   Найдём выборочную остаточную дисперсию s2
и s = 6,29.
   Обратная матрица (XTX)-1 имеет вид
По формуле
вычислим средние квадратические отклонения коэффициентов регрессии sb0 = 36,191; sb1 = 1,012; sb2 = 200,897; sb3 = 446,032.
   Выборочное уравнение множественной регрессии имеет вид
          (2)
Сравнивая значения t – статистики (по абсолютной величине) каждого коэффициента регрессии по формуле , т. е.
tb0 = 1,658; tb1 = 0,237; tb2 = 0,053; tb3 = -0,002
с критическим значением t0,05; 5 = 2,571 определённым по таблице распределению Стьюдента на уровне значимости α = 0,05 при числе степеней свободы k = n – p – 1 = 9 - 3 - 1 = 5, видим, что незначимымы являются все коэффициенты регрессии. Условием значимости коэффициентов уравнения регрессии является условие
.
   Вычислим множественный коэффициент детерминации потребления продукта Y по совокупности факторов Х1Х3 по формуле
В данном примере коэффициент детерминации равен
.
Коэффициент детерминации R2 = 0,845 свидетельствует о том, что изменение исследуемой зависимой переменной Y — потребления продукта на 84,5% объясняется изменчивостью включённых в модель объясняющих переменных Х1 — уровня урбанизации, Х2 – относительного образовательного уровня, Х3– относительного заработка.

Значимость уравнения регрессии

   Фактическое значение статистики
больше табличного F0,05; 3; 5 = 5,41 то в соответствии с условием (2), то уравнение регрессии значимо в целом по F – критерию на уровне α = 0,05.

Выборочные ковариации переменных

cov(x1,x2) = 1,894; cov(x1,x3) = -18,129;
cov(x2,x3) = - 0,907; cov(x1,y) = 37,637; cov(x2,y) = 6,442; cov(x3,y) = -56,028.
   Стандартные отклонения
sx1 = 3,938; sx2 = 0,704; sx3 = 7,475; sy = 11,922.

Выборочные коэффициенты корреляции

Матрица парных коэффициентов корреляции

Чем ближе определитель матрицы парных коэффициентов к нулю, чем сильнее мультиколлинеарность и ненадёжность результатов множественной регрессии. В рассматриваемом примере det q4 = 0,042.
   Знаком * отмечены коэффициенты корреляции, значимые по t - критерию (3.46) на 5%-ном уровне (см. ниже).

Значимость коэффициентов корреляции

   Коэффициент корреляции r значим на уровне α, если
,
где tα; n - 2 — табличное значение tкритерия Стьюдента, определённое на уровне значимости α при числе степеней свободы n – 2. В данном случае tα; n - 2 = t0,05; 7 = 2,365.
Вычислим значения статистики
,
В корреляционной матрице звездочкой отмечены коэффициенты корреляции значимые по t – критерию на 5% уровне.
   Анализируя матрицу парных коэффициентов корреляции можно отметить более тесную связь между переменными Y и X1, чем между переменными Y и X2, Y и X3. Между переменными X1 и X2, X1 и X3 связь сильная, а X2 и X3 связь практически отсутствует, поэтому между объясняющими переменными есть мультиколлинеарность.
   Для устранения мультиколлинеарности применим процедуру пошагового отбора наиболее информативных переменных.    Среди всевозможных двоек объясняющих переменных (X1, Xj), j = 2,3, наиболее информативной оказалась двойка (Х1, Х3), имеющая максимальный коэффициент детерминации и соответственно скорректированный коэффициент .
   Найдём расчетные значения t - статистики
Сравнивая эти расчетные значения с табличным t - статистики t0,05; 6 = 2,447, видим, что ни один коэффициент уравнения регрессии на 5% уровне не является значимымю

Вопросы для самопроверки

  1. Что означает мультиколлинеарность между объясняющими факторами?
  2. Как установить наличие мультиколлинеарности?
  3. Как установить значимость уравнения регрессии?
  4. Как установить значимость коэффициентов корреляции?
  5. Какой информативностью обладают коэффициенты элластичности?