В дополнительный сажевый фильтр это фильтрация частиц алгоритм, введенный Питтом и Шепардом в 1999 году для исправления некоторых недостатков последовательная повторная выборка важности (SIR) при работе с плотностями наблюдения за хвостом.
Мотивация
Фильтры частиц аппроксимируют непрерывную случайную величину на частицы с дискретной вероятностной массой , сказать для равномерного распределения. Частицы, выбранные случайным образом, можно использовать для аппроксимации функции плотности вероятности непрерывной случайной величины, если значение .
Плотность эмпирического прогноза получается как взвешенное суммирование этих частиц:[1]
, и мы можем рассматривать его как «априорную» плотность. Обратите внимание, что предполагается, что частицы имеют одинаковый вес. .
Комбинирование предыдущей плотности и вероятность , эмпирическая плотность фильтрации может быть получена как:
, куда .
С другой стороны, истинная плотность фильтрации, которую мы хотим оценить, равна
.
Приоритетная плотность может использоваться для аппроксимации истинной плотности фильтрации :
- Фильтры частиц рисуют образцы из априорной плотности . Каждая выборка отбирается с равной вероятностью.
- Присвойте каждому образцу веса . Веса представляют собой функцию правдоподобия .
- Если число , чем образцы сходятся к желаемой истинной плотности фильтрации.
- В частицы пересчитываются в частицы с массой .
К недостаткам сажевых фильтров можно отнести:
- Если вес {} имеет большую дисперсию, сумма выборки должен быть достаточно большим, чтобы образцы приближались к эмпирической плотности фильтрации. Другими словами, несмотря на то, что вес широко распределяется, метод SIR будет неточным, а адаптация затруднена.
Поэтому для решения этой проблемы предлагается дополнительный сажевый фильтр.
Вспомогательный фильтр твердых частиц
Вспомогательная переменная
По сравнению с эмпирической плотностью фильтрации, которая имеет ,
мы теперь определяем , куда .
Осознавая, что образуется суммированием частицы, вспомогательная переменная представляет собой одну конкретную частицу. С помощью , мы можем сформировать набор образцов, который имеет распределение . Затем мы берем из этого набора образцов вместо прямо из . Другими словами, образцы взяты из с разной вероятностью. В конечном итоге образцы используются для приблизительного .
Возьмем, к примеру, метод SIR:
- Фильтры частиц рисуют образцы из .
- Присвойте каждому образцу вес .
- Контролируя и , веса настроены на равные.
- Точно так же частицы пересчитываются в частицы с массой .
Исходные фильтры для частиц отбирают образцы из априорной плотности, а вспомогательные фильтры извлекают из совместного распределения априорной плотности и вероятности. Другими словами, вспомогательные фильтры частиц позволяют избежать того обстоятельства, что частицы образуются в областях с низкой вероятностью. В результате образцы могут приблизительно соответствовать точнее.
Выбор вспомогательной переменной
Выбор вспомогательной переменной влияет на и контролирует распространение образцов. Возможный выбор возможно:
, куда и это среднее.
Мы пробуем из приблизить по следующей процедуре:
- Сначала присвоим вероятности индексам . Мы назвали эти вероятности весами первого этапа , которые пропорциональны .
- Затем рисуем образцы из со взвешенными индексами. Таким образом мы фактически берем образцы из .
- Кроме того, переназначаем веса второго этапа как вероятности образцы, где . Гири призваны компенсировать эффект .
- Наконец, частицы пересчитываются в частицы с весами .
Следуя процедуре, рисуем образцы из . С тесно связан со средним , это имеет высокую условную вероятность. В результате процедура отбора проб становится более эффективной, а значение можно уменьшить.
Другая точка зрения
Предположим, что отфильтрованные задний описывается следующим M взвешенные образцы:
Затем каждый шаг в алгоритм состоит из первого отрисовки образца индекса частицы который будет распространяться из на новый шаг . Эти индексы являются вспомогательными переменные используется только как промежуточный шаг, отсюда и название алгоритма. Индексы построены по вероятности какой-то контрольной точки. что так или иначе связано с переходной моделью (например, среднее значение, выборка и т. д.):
Это повторяется для , и используя эти индексы, теперь мы можем рисовать условные образцы:
Наконец, веса обновляются, чтобы учесть несоответствие между вероятностью фактической выборки и прогнозируемой точкой. :
Рекомендации
Источники