Теорема Гаусса – Маркова - Gauss–Markov theorem

В статистика, то Теорема Гаусса – Маркова (или просто Теорема Гаусса для некоторых авторов)[1] заявляет, что обыкновенный метод наименьших квадратов (OLS) оценка имеет самый низкий дисперсия выборки в пределах класс из линейный беспристрастный оценщики, если ошибки в модель линейной регрессии находятся некоррелированный, имеют равные отклонения и нулевое математическое ожидание.[2] Ошибки не должны быть нормальный, и они не должны быть независимые и одинаково распределенные (только некоррелированный с нулевым средним и гомоскедастический с конечной дисперсией). От требования о том, чтобы оценка была несмещенной, нельзя отказаться, поскольку существуют смещенные оценки с более низкой дисперсией. См., Например, Оценка Джеймса – Стейна (что также снижает линейность), регресс гребня, или просто любой выродиться оценщик.

Теорема была названа в честь Карл Фридрих Гаусс и Андрей Марков, хотя работа Гаусса значительно предшествует Маркову.[3] Но в то время как Гаусс получил результат в предположении независимости и нормальности, Марков привел предположения к указанной выше форме.[4] Дальнейшее обобщение несферические ошибки был дан Александр Айткен.[5]

утверждение

Предположим, что в матричных обозначениях

расширяется до,

где не случайны, но ООНнаблюдаемые параметры, не являются случайными и наблюдаемыми (так называемые "объясняющие переменные"), случайны, и поэтому случайны. Случайные величины называются «помехой», «шумом» или просто «ошибкой» (будет противопоставлено «остаточному» позже в статье; см. ошибки и остатки в статистике ). Обратите внимание, что для включения константы в приведенную выше модель можно выбрать константу как переменную. с недавно введенным последним столбцом X, равным единице, т.е. для всех . Обратите внимание, что хотя в качестве образцов ответов наблюдаются следующие утверждения и аргументы, включая предположения, доказательства и другие, которые предполагаются в соответствии с Только условие знания но нет

В Гаусс – Марков предположения касаются набора случайных величин ошибок, :

  • У них средний ноль:
  • Они есть гомоскедастический, то есть все имеют одинаковую конечную дисперсию: для всех и
  • Определенные термины ошибки не коррелируют:

А линейная оценка из это линейная комбинация

в котором коэффициенты не могут зависеть от лежащих в основе коэффициентов , поскольку они не наблюдаемы, но могут зависеть от значений , поскольку эти данные наблюдаемы. (Зависимость коэффициентов от каждого обычно нелинейный; оценка линейна по каждому а значит, в каждом случайном вот почему это "линейная регрессия.) Оценщик называется беспристрастный если и только если

независимо от значений . Теперь позвольте - некоторая линейная комбинация коэффициентов. Тогда среднеквадратичная ошибка соответствующей оценки

Другими словами, это математическое ожидание квадрата взвешенной суммы (по параметрам) различий между оценочными модулями и соответствующими параметрами, подлежащими оценке. (Поскольку мы рассматриваем случай, когда все оценки параметров несмещены, эта среднеквадратичная ошибка совпадает с дисперсией линейной комбинации.) лучшая линейная несмещенная оценка (СИНИЙ) вектора параметров это один с наименьшей среднеквадратичной ошибкой для каждого вектора параметров линейной комбинации. Это эквивалентно условию, что

является положительной полуопределенной матрицей для любой другой линейной несмещенной оценки .

В Оценщик методом наименьших квадратов (OLS) это функция

из и (где обозначает транспонировать из ), что минимизирует сумма квадратов остатки (суммы неверного прогноза):

Теорема теперь утверждает, что МНК-оценка - СИНИЙ. Основная идея доказательства состоит в том, что оценка по методу наименьших квадратов некоррелирована с любой линейной несмещенной оценкой нуля, то есть с любой линейной комбинацией коэффициенты которого не зависят от ненаблюдаемых но ожидаемое значение которого всегда равно нулю.

Замечание

Доказательство того, что OLS действительно МИНИМИЗИРУЕТ сумму квадратов остатков, может быть выполнено следующим образом с вычислением Матрица Гессе и показывая, что это положительно определенно.

Функция MSE, которую мы хотим минимизировать, это

для модели множественной регрессии с п переменные. Первая производная

,где Икс матрица дизайна

В Матрица Гессе вторых производных

Предполагая, что столбцы линейно независимы, так что обратима, пусть , тогда

Теперь позвольте быть собственным вектором .

С точки зрения умножения векторов это означает

где - собственное значение, соответствующее . Более того,

Наконец, в качестве собственного вектора было произвольно, это означает, что все собственные значения положительные, поэтому положительно определен. Таким образом,

действительно местный минимум.

Доказательство

Позволять - еще одна линейная оценка с где это ненулевая матрица. Поскольку мы ограничиваем беспристрастный оценок, минимальная среднеквадратическая ошибка подразумевает минимальную дисперсию. Поэтому цель состоит в том, чтобы показать, что такая оценка имеет дисперсию не меньше, чем дисперсия оценщик OLS. Рассчитываем:

Следовательно, поскольку является ООНнаблюдаемый, беспристрастен тогда и только тогда, когда . Потом:

поскольку DD ' - положительно полуопределенная матрица, превышает положительно полуопределенной матрицей.

Замечания к доказательству

Как было сказано ранее, условие эквивалентно тому свойству, что лучшая линейная несмещенная оценка является (лучше всего в том смысле, что имеет минимальную дисперсию). Чтобы увидеть это, позвольте другая линейная несмещенная оценка .

Более того, равенство выполняется тогда и только тогда, когда . Мы рассчитываем

Это доказывает, что равенство выполняется тогда и только тогда, когда который дает уникальность оценки OLS как СИНИЙ.

Обобщенная оценка методом наименьших квадратов

В обобщенный метод наименьших квадратов (GLS), разработанная Aitken,[5] расширяет теорему Гаусса – Маркова на случай, когда вектор ошибок имеет нескалярную ковариационную матрицу.[6] Оценщик Эйткена также СИНИЙ.

Теорема Гаусса – Маркова, сформулированная в эконометрике

В большинстве методов лечения МНК регрессоры (интересующие параметры) в матрица дизайна считаются фиксированными в повторяющихся выборках. Это предположение считается неприемлемым для преимущественно неэкспериментальной науки, такой как эконометрика.[7] Вместо этого условия теоремы Гаусса – Маркова формулируются при условии .

Линейность

Предполагается, что зависимая переменная является линейной функцией переменных, указанных в модели. Спецификация должна быть линейной по своим параметрам. Это не означает, что между независимыми и зависимыми переменными должна быть линейная зависимость. Независимые переменные могут принимать нелинейную форму, если параметры линейны. Уравнение квалифицируется как линейный, в то время как можно преобразовать в линейный, заменив по другому параметру, скажем . Уравнение с параметром, зависящим от независимой переменной, не квалифицируется как линейное, например , где является функцией .

Преобразования данных часто используются для преобразования уравнения в линейную форму. Например, Функция Кобба-Дугласа - часто используется в экономике - нелинейный:

Но его можно выразить в линейной форме, взяв натуральный логарифм с обеих сторон:[8]

Это предположение также касается вопросов спецификации: предполагается, что выбрана правильная функциональная форма и нет пропущенные переменные.

Однако следует знать, что параметры, которые минимизируют остатки преобразованного уравнения, не обязательно минимизируют остатки исходного уравнения.

Строгая экзогенность

Для всех наблюдений, математическое ожидание - обусловленное регрессорами - члена ошибки равно нулю:[9]

где - вектор данных регрессоров для я-е наблюдение, и, следовательно, матрица данных или матрица плана.

Геометрически это предположение означает, что и находятся ортогональный друг другу, так что их внутренний продукт (т.е. их поперечный момент) равен нулю.

Это предположение нарушается, если объясняющие переменные являются стохастическими, например, когда они измерено с ошибкой, или эндогенный.[10] Эндогенность может быть результатом одновременность, где причинно-следственная связь возникает как между зависимой, так и независимой переменной. Инструментальная переменная методы обычно используются для решения этой проблемы.

Полный ранг

Образец матрицы данных должен иметь полную колонку классифицировать.

В противном случае не обратима, и оценка МНК не может быть вычислена.

Нарушение этого предположения идеальная мультиколлинеарность, т.е. некоторые объясняющие переменные линейно зависимы. Один сценарий, в котором это произойдет, называется «ловушка фиктивной переменной», когда базовая фиктивная переменная не пропущена, что приводит к идеальной корреляции между фиктивными переменными и постоянным членом.[11]

Может присутствовать мультиколлинеарность (если она не «идеальна»), что приводит к менее эффективной, но все же несмещенной оценке. Оценки будут менее точными и очень чувствительными к конкретным наборам данных.[12] Мультиколлинеарность можно обнаружить по номер условия или коэффициент инфляции дисперсии, среди других тестов.

Сферические ошибки

В внешний продукт вектора ошибки должен быть сферическим.

Это означает, что член ошибки имеет равномерную дисперсию (гомоскедастичность ) и никакой серийной зависимости.[13] Если это предположение нарушается, OLS остается беспристрастным, но неэффективным. Термин «сферические ошибки» будет описывать многомерное нормальное распределение: если в многомерной нормальной плотности, то уравнение формула для мяч с центром в μ с радиусом σ в n-мерном пространстве.[14]

Гетероскедастичность возникает, когда величина ошибки соотносится с независимой переменной. Например, при регрессии расходов на питание и доходов ошибка коррелирует с доходом. Люди с низким доходом обычно тратят на еду одинаковую сумму, тогда как люди с высоким доходом могут тратить очень большую сумму или столько же, сколько тратят люди с низким доходом. Гетероскедастичность также может быть вызвана изменениями в практике измерения. Например, по мере того, как статистические управления улучшают свои данные, ошибка измерения уменьшается, поэтому член ошибки уменьшается с течением времени.

Это предположение нарушается, когда есть автокорреляция. Автокорреляция может быть визуализирована на графике данных, когда данное наблюдение с большей вероятностью находится выше подобранной линии, если соседние наблюдения также лежат выше подобранной линии регрессии. Автокорреляция часто встречается в данных временных рядов, где ряд данных может испытывать «инерцию». Если зависимой переменной требуется время, чтобы полностью поглотить шок. Пространственная автокорреляция также может возникать в географических областях, которые могут иметь аналогичные ошибки. Автокорреляция может быть результатом неправильной спецификации, например неправильного выбора функциональной формы. В этих случаях исправление спецификации - один из возможных способов борьбы с автокорреляцией.

При наличии сферических ошибок обобщенная оценка методом наименьших квадратов может отображаться СИНИМ цветом.[6]

Смотрите также

Другая объективная статистика

использованная литература

  1. ^ См. Главу 7 Johnson, R.A .; Wichern, D.W. (2002). Прикладной многомерный статистический анализ. 5. Зал Прентис.
  2. ^ Тейл, Анри (1971). «Лучшая линейная объективная оценка и прогноз». Принципы эконометрики. Нью-Йорк: Джон Вили и сыновья. стр.119 –124. ISBN  0-471-85845-5.
  3. ^ Плакетт, Р.Л. (1949). «Историческая справка о методе наименьших квадратов». Биометрика. 36 (3/4): 458–460. Дои:10.2307/2332682.
  4. ^ Дэвид, Ф. Н .; Нейман, Дж. (1938). «Расширение теоремы Маркова о наименьших квадратах». Мемуары статистических исследований. 2: 105–116. OCLC  4025782.
  5. ^ а б Эйткен, А. С. (1935). «О наименьших квадратах и ​​линейных комбинациях наблюдений». Труды Королевского общества Эдинбурга. 55: 42–48. Дои:10.1017 / S0370164600014346.
  6. ^ а б Хуанг, Дэвид С. (1970). Регрессионные и эконометрические методы. Нью-Йорк: Джон Вили и сыновья. стр.127 –147. ISBN  0-471-41754-8.
  7. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 13. ISBN  0-691-01018-8.
  8. ^ Уолтерс, А. А. (1970). Введение в эконометрику. Нью-Йорк: У. В. Нортон. п. 275. ISBN  0-393-09931-8.
  9. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 7. ISBN  0-691-01018-8.
  10. ^ Джонстон, Джон (1972). Эконометрические методы (Второе изд.). Нью-Йорк: Макгроу-Хилл. стр.267–291. ISBN  0-07-032679-7.
  11. ^ Вулдридж, Джеффри (2012). Вводная эконометрика (Пятое международное изд.). Юго-Западный. п.220. ISBN  978-1-111-53439-4.
  12. ^ Джонстон, Джон (1972). Эконометрические методы (Второе изд.). Нью-Йорк: Макгроу-Хилл. стр.159–168. ISBN  0-07-032679-7.
  13. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 10. ISBN  0-691-01018-8.
  14. ^ Раманатан, Раму (1993). «Несферические возмущения». Статистические методы в эконометрике. Академическая пресса. стр.330 –351. ISBN  0-12-576830-3.

дальнейшее чтение

  • Дэвидсон, Джеймс (2000). «Статистический анализ регрессионной модели». Эконометрическая теория. Оксфорд: Блэквелл. С. 17–36. ISBN  0-631-17837-6.
  • Гольдбергер, Артур (1991). «Классическая регрессия». Курс эконометрики. Кембридж: Издательство Гарвардского университета. стр.160 –169. ISBN  0-674-17544-1.
  • Тейл, Анри (1971). «Наименьшие квадраты и стандартная линейная модель». Принципы эконометрики. Нью-Йорк: Джон Вили и сыновья. стр.101 –162. ISBN  0-471-85845-5.

внешняя ссылка