Метод наименьших квадратов с итеративным перевесом - Iteratively reweighted least squares

Методика методом наименьших квадратов с повторным взвешиванием (IRLS) используется для решения определенных задач оптимизации с целевые функции формы п-норма:

по итерационный метод в котором каждый шаг включает решение взвешенный метод наименьших квадратов проблема формы:[1]

IRLS используется для поиска максимальная вероятность оценки обобщенная линейная модель, И в надежная регрессия найти М-оценка, как способ смягчить влияние выбросов в обычно распределенном наборе данных. Например, минимизируя наименьшие абсолютные ошибки а не ошибки наименьших квадратов.

Одно из преимуществ IRLS перед линейное программирование и выпуклое программирование в том, что его можно использовать с Гаусс – Ньютон и Левенберг-Марквардт численные алгоритмы.

Примеры

L1 минимизация для разреженного восстановления

IRLS можно использовать для 1 минимизация и сглаживание п минимизация, п <1, в сжатое зондирование проблемы. Доказано, что алгоритм имеет линейную скорость сходимости при 1 норма и сверхлинейный для т с т <1, под свойство ограниченной изометрии, что обычно является достаточным условием для разреженных решений.[2][3] Однако в большинстве практических ситуаций свойство ограниченной изометрии не выполняется.[нужна цитата ]

Lп нормальная линейная регрессия

Чтобы найти параметры β = (β1, …,βk)Т которые минимизируют Lп норма для линейная регрессия проблема,

алгоритм IRLS на шаге т + 1 предполагает решение взвешенный линейный метод наименьших квадратов проблема:[4]

куда W(т) это диагональная матрица весов, обычно со всеми элементами, изначально установленными на:

и обновляется после каждой итерации до:

В случае п = 1, это соответствует наименьшее абсолютное отклонение регрессии (в этом случае к проблеме лучше подойти с помощью линейное программирование методы,[5] так что результат будет точным) и формула:

Чтобы избежать деления на ноль, регуляризация необходимо сделать, поэтому на практике формула выглядит так:

куда какое-то небольшое значение, например 0,0001.[5] Обратите внимание на использование в весовой функции эквивалентно Потеря Хубера функция в робастной оценке. [6]

Смотрите также

Примечания

  1. ^ К. Сидни Беррус, Итеративная переориентация наименьших квадратов
  2. ^ Chartrand, R .; Инь В. (31 марта - 4 апреля 2008 г.). «Алгоритмы с итеративным изменением веса для сжатия данных». Международная конференция IEEE по акустике, речи и обработке сигналов (ICASSP), 2008 г.. С. 3869–3872. Дои:10.1109 / ICASSP.2008.4518498.
  3. ^ Daubechies, I .; Devore, R .; Fornasier, M .; Гюнтюрк, К. С. Н. (2010). «Минимизация методом наименьших квадратов с повторным взвешиванием для разреженного восстановления». Сообщения по чистой и прикладной математике. 63: 1–38. arXiv:0807.0575. Дои:10.1002 / cpa.20303.
  4. ^ Нежный, Джеймс (2007). «6.8.1 Решения, минимизирующие другие нормы остатков». Матричная алгебра. Тексты Springer в статистике. Нью-Йорк: Спрингер. Дои:10.1007/978-0-387-70873-7. ISBN  978-0-387-70872-0.
  5. ^ а б Уильям А. Пфейл,Статистические учебные пособия, Диссертация бакалавра наук, Вустерский политехнический институт, 2006
  6. ^ Fox, J .; Вайсберг, С. (2013),Надежная регрессия, Курс, Миннесотский университет

Рекомендации

внешняя ссылка