Теорема Гаусса — Маркова

Формулировка теоремы для парной регрессии править

Рассматривается модель парной регрессии, в которой наблюдения   связаны с   следующей зависимостью:  . На основе   выборочных наблюдений оценивается уравнение регрессии  . Теорема Гаусса—Маркова гласит:

Если данные обладают следующими свойствами:

  1. Модель данных правильно специфицирована;  
  2. Все   детерминированы и не все равны между собой;  
  3. Ошибки не носят систематического характера, то есть   
  4. Дисперсия ошибок одинакова и равна некоторой   
  5. Ошибки некоррелированы, то есть   

— то в этих условиях оценки метода наименьших квадратов оптимальны в классе линейных несмещённых оценок.

Пояснение к теореме править

Первое условие: модель данных правильно специфицирована. Под этим словосочетанием понимается следующее:

  • Модель состоит из фиксированной части   и случайной части  
  • Модель данных линейна по   и   (  и   линейны по  );
  • Отсутствует недоопределённость (то есть ситуация, когда упущены важные факторы) и переопределённость (то есть когда, наоборот, приняты во внимание ненужные факторы); (отсутствие коллинеарности)
  • Модель данных адекватна устройству данных (модель данных и устройство данных имеют одинаковую функциональную форму).

Устройство данных — это наблюдения случайной величины. Модель данных — это уравнение регрессии. «Иметь одинаковую функциональную форму» означает «иметь одинаковую функциональную зависимость». Например, если точки наблюдений очевидно расположены вдоль невидимой экспоненты, логарифма или любой нелинейной функции, нет смысла строить линейное уравнение регрессии.

Второе условие: все   детерминированы и не все равны между собой. Если все   равны между собой, то   и в уравнении оценки коэффициента наклона прямой в линейной модели в знаменателе будет ноль, из-за чего будет невозможно оценить коэффициенты   и вытекающий из него   При небольшом разбросе переменных   модель сможет объяснить лишь малую часть изменения  . Иными словами, переменные не должны быть постоянными.

Третье условие: ошибки не носят систематического характера. Случайный член может быть иногда положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в каком из двух возможных направлений для любых значений регрессора. Если уравнение регрессии включает постоянный член ( ), то безусловный аналог этого условия,  , выполняется автоматически, так как постоянный член отражает любую систематическую, но постоянную составляющую в  , которой не учитывают объясняющие переменные, включённые в уравнение регрессии.

Иногда это условие комбинируют вместе с первым условием в единую запись, задающую условное моментное ограничение:  . Это условие называется экзогенностью   в рамках данной модели или (в GMM-литературе) спецификацией модели через моментную функцию, линейную по параметрам (это предположение верности линейной спецификации, то есть экзогенности  , может быть протестировано только непараметрическими методами). В частности, из экзогенности   следует ортогональность ошибки модели любой функции от   из пространства всех функций:  . Из этого следует ортогональность ошибки линейным функциям   и константе, то есть  ,  . Выборочные аналоги этих равенств,  ,  , являются условиями первого порядка для МНК-оценок, поэтому простая ортогональность регрессоров ошибке (более слабое условие, чем экзогенность) гарантирует состоятельность МНК-оценок.

Четвёртое условие: дисперсия ошибок одинакова. Одинаковость дисперсии ошибок также принято называть гомоскедастичностью. Не должно быть априорной причины для того, чтобы случайный член порождал бо́льшую ошибку в одних наблюдениях, чем в других. Так как   и теоретическая дисперсия отклонений   равна   то это условие можно записать так:   Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по методу наименьших квадратов, будут неэффективны, а более эффективные результаты будут получаться путём применения модифицированного метода оценивания (взвешенный МНК или оценка ковариационной матрицы по формуле Уайта или Дэвидсона—Маккинона).

Пятое условие:   распределены независимо от   при   Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Если один случайный член велик и положителен в одном направлении, не должно быть систематической тенденции к тому, что он будет таким же великим и положительным (то же можно сказать и о малых, и об отрицательных остатках). Теоретическая ковариация   должна равняться нулю, поскольку   Теоретические средние для   и   равны нулю в силу третьего условия теоремы. При невыполнении этого условия оценки, полученные по методу наименьших квадратов, будут также неэффективны.

Выводы из теоремы:

  • Эффективность оценки означает, что она обладает наименьшей дисперсией.
  • Оценка линейна по наблюдениям  
  • Несмещённость оценки означает, что её математическое ожидание равно истинному значению.

Формулировка теоремы для множественной регрессии править

Если данные обладают следующими свойствами:

  1. Модель правильно специфицирована (постоянная эластичность рассматривается как постоянная, или нет лишних переменных, или есть все важные переменные),
  2.  ,
  3.  ,
  4.   (что влечёт гомоскедастичность),

— то в этих условиях оценки метода наименьших квадратов   являются лучшими в классе линейных несмещённых оценок (Best Linear Unbiased Estimators, BLUE).

В случае гетероскедастичности, если дисперсия ошибок явным образом зависит от независимой переменной, под критерий BLUE подпадает взвешенный МНК. При наличии же значительного количества выбросов наиболее эффективным может быть метод наименьших модулей[1].

Примечания править

  1. James H. Stock, Mark W. Watson. Regression with a Single Regressor: Hypothesis Tests and Confidence Intervals // Introduction to Econometrics. — 3. — Addison-Wesley, 2011. — P. 163-164. — 785 p. — ISBN 0138009007.

Литература править

  • Кристофер Доугерти. Введение в эконометрику. — 2-е, пер. с англ. — М.: ИНФРА-М, 2004. — 419 с.
  • Damodar N. Gujarati. Basic Econometrics. — 4. — The McGraw-Hill Companies, 2004. — С. 1002. — ISBN 978-0071123433.