Распределение с тяжелым хвостом - Heavy-tailed distribution - Wikipedia

В теория вероятности, распределения с тяжелыми хвостами находятся распределения вероятностей хвосты которых не ограничены экспоненциально:[1] то есть у них хвосты тяжелее, чем у экспоненциальное распределение. Во многих приложениях интерес представляет правый хвост распределения, но у распределения может быть тяжелый левый хвост или оба хвоста могут быть тяжелыми.

Есть три важных подкласса распределений с тяжелыми хвостами: распределения с толстым хвостом, то длиннохвостые распределения и субэкспоненциальные распределения. На практике все обычно используемые распределения с тяжелыми хвостами относятся к субэкспоненциальному классу.

По-прежнему существует некоторое расхождение в использовании термина хвостатый. Используются еще два других определения. Некоторые авторы используют этот термин для обозначения тех дистрибутивов, которые не обладают всеми возможностями. моменты конечный; и некоторые другие к тем дистрибутивам, которые не имеют конечного отклонение. Определение, данное в этой статье, является наиболее общим и включает все дистрибутивы, охватываемые альтернативными определениями, а также такие дистрибутивы, как лог-нормальный которые обладают всеми моментами силы, но обычно считаются хвостатыми. (Иногда тяжелый хвост используется для любого распределения, которое имеет более тяжелые хвосты, чем нормальное распределение.)

Определения

Определение распределения с тяжелым хвостом

Распределение случайная переменная Икс с функция распределения F имеет тяжелый (правый) хвост, если функция, производящая момент из Икс, MИкс(т), бесконечна для всех т > 0.[2]

Это означает

[3]

Следствием этого является то, что

[2]

Это также записывается в терминах функции распределения хвостов

в качестве

Определение длиннохвостого распределения

Распределение случайная переменная Икс с функция распределения F Говорят, что у него длинный правый хвост[1] если для всех т > 0,

или эквивалентно

Это имеет интуитивную интерпретацию для правосторонней распределенной величины с длинным хвостом, согласно которой, если величина с длинным хвостом превышает некоторый высокий уровень, вероятность того, что она превысит любой другой более высокий уровень, приближается к 1.

Все распределения с длинным хвостом имеют «тяжелый хвост», но обратное неверно, и можно построить распределения с длинным хвостом, которые не являются длинными.

Субэкспоненциальные распределения

Субэкспонентность определяется в терминах свертки вероятностных распределений. Для двух независимых, одинаково распределенных случайные переменные с общей функцией распределения свертка с собой, квадрат свертки, используя Интеграция Лебега-Стилтьеса, к:

и п-кратная свертка определяется индуктивно по правилу:

Функция распределения хвостов определяется как .

Распределение на положительной полупрямой - субэкспоненциальный[1][4][5] если

Из этого следует[6] что для любого ,

Вероятностная интерпретация[6] из этого в сумме независимый случайные переменные с общим распределением ,

Это часто называют принципом большого одиночного прыжка.[7] или принцип катастрофы.[8]

Распределение в целом действительная линия субэкспоненциальна, если распределение является.[9] Здесь это индикаторная функция положительной полупрямой. В качестве альтернативы случайная величина поддерживается на реальной линии субэкспоненциально тогда и только тогда, когда субэкспоненциальный.

Все субэкспоненциальные распределения имеют длинный хвост, но можно построить примеры длиннохвостых распределений, которые не являются субэкспоненциальными.

Распространенные распределения с тяжелым хвостом

Все обычно используемые распределения с тяжелым хвостом являются субэкспоненциальными.[6]

К односторонним относятся:

К двусторонним относятся:

Связь с распределениями с толстым хвостом

А толстохвостое распределение - это распределение, для которого функция плотности вероятности при больших x стремится к нулю как степень . Поскольку такая степень всегда ограничена снизу функцией плотности вероятности экспоненциального распределения, распределения с толстыми хвостами всегда имеют тяжелые хвосты. Однако некоторые распределения имеют хвост, который стремится к нулю медленнее, чем экспоненциальная функция (это означает, что они имеют тяжелый хвост), но быстрее, чем степень (что означает, что они не имеют толстого хвоста). Примером может служить логнормальное распределение[противоречивый ]. Многие другие дистрибутивы с тяжелым хвостом, такие как логистика и Парето распределение, однако, также имеет жирный хвост.

Оценка хвостового индекса[когда определяется как? ]

Есть параметрические (см. Embrechts et al.[6]) и непараметрических (см., например, Новак[14]) подходы к проблеме оценки хвостового индекса.

Для оценки хвостового индекса с помощью параметрического подхода некоторые авторы используют Распределение GEV или же Распределение Парето; они могут применять оценку максимального правдоподобия (MLE).

Оценщик хвостового индекса Пиканда

С случайная последовательность независимых и одинаковых функций плотности , область максимального притяжения[15] обобщенной плотности экстремальных значений , куда . Если и , то Пиканды оценка хвостового индекса[6][15]

куда . Эта оценка сходится по вероятности к .

Оценка индекса хвоста Хилла

Позволять - последовательность независимых и одинаково распределенных случайных величин с функцией распределения , максимальная область притяжения обобщенное распределение экстремальных значений , куда . Примерный путь куда размер выборки. Если представляет собой последовательность промежуточного порядка, т.е. , и , то оценка индекса хвоста Хилла[16]

куда это -го статистика заказов из Эта оценка сходится по вероятности к , и асимптотически нормальна при условии ограничено на основе свойства регулярной вариации более высокого порядка[17] .[18] Согласованность и асимптотическая нормальность распространяются на большой класс зависимых и гетерогенных последовательностей,[19][20] независимо от того, наблюдается, или вычисленные остатки, или отфильтрованные данные из большого класса моделей и оценок, включая неправильно определенные модели и модели с ошибками, которые зависят.[21][22][23]

Оценка отношения хвостового индекса

Оценщик отношения (RE-эстиматор) хвостового индекса был введен Голди и Смитом.[24] Он построен аналогично оценке Хилла, но использует неслучайный «параметр настройки».

Сравнение оценок типа Хилла и RE можно найти в Новаке.[14]

Программного обеспечения

  • Aest, C инструмент для оценки индекса тяжелого хвоста.[25]

Оценка плотности с тяжелым хвостом

Непараметрические подходы к оценке функций плотности вероятности с тяжелыми и сверхтяжелыми хвостами были даны в Марковиче.[26] Это подходы, основанные на переменной полосе пропускания и оценках ядра с длинным хвостом; о предварительном преобразовании данных в новую случайную величину через конечные или бесконечные интервалы, что более удобно для оценки, а затем обратное преобразование полученной оценки плотности; и «подход наложения вместе», который обеспечивает определенную параметрическую модель для хвоста плотности и непараметрическую модель для аппроксимации режима плотности. Непараметрические оценщики требуют соответствующего выбора параметров настройки (сглаживания), таких как полоса пропускания ядерных оценщиков и ширина бина гистограммы. Хорошо известными методами такого отбора, основанными на данных, являются перекрестная проверка и ее модификации, методы, основанные на минимизации среднеквадратичной ошибки (MSE) и ее асимптотики, а также их верхних границ.[27] Может быть использован метод расхождения, который использует хорошо известные непараметрические статистики, такие как статистика Колмогорова-Смирнова, фон Мизеса и Андерсона-Дарлинга, в качестве метрики в пространстве функций распределения (dfs) и квантилей более поздних статистик в качестве известной неопределенности или значения расхождения. нашел в.[26] Bootstrap - это еще один инструмент для поиска параметров сглаживания с использованием приближений неизвестной MSE по различным схемам выбора повторной выборки, см., Например,[28]

Смотрите также

Рекомендации

  1. ^ а б c Асмуссен, С. Р. (2003). «Стационарные свойства GI / G / 1». Прикладная вероятность и очереди. Стохастическое моделирование и прикладная вероятность. 51. С. 266–301. Дои:10.1007/0-387-21525-5_10. ISBN  978-0-387-00211-8.
  2. ^ а б Рольски, Шмидли, Скмидт, Тюгельс, Стохастические процессы для страхования и финансов, 1999
  3. ^ С. Фосс, Д. Коршунов, С. Захарий, Введение в тяжелые хвосты и субэкспоненциальные распределения, Springer Science & Business Media, 21 мая 2013 г.
  4. ^ Чистяков, В. П. (1964). «Теорема о суммах независимых положительных случайных величин и ее приложения к разветвленным случайным процессам». ResearchGate. Получено 7 апреля, 2019.
  5. ^ Teugels, Йозеф Л. (1975). «Класс субэкспоненциальных распределений». Лувенский университет: Анналы вероятности. Получено 7 апреля, 2019.
  6. ^ а б c d е Embrechts P .; Klueppelberg C .; Микош Т. (1997). Моделирование экстремальных событий для страхования и финансов. Стохастическое моделирование и прикладная вероятность. 33. Берлин: Springer. Дои:10.1007/978-3-642-33483-2. ISBN  978-3-642-08242-9.
  7. ^ Foss, S .; Konstantopoulos, T .; Захари, С. (2007). «Дискретные и непрерывные модулированные во времени случайные блуждания с приращениями с тяжелыми хвостами» (PDF). Журнал теоретической вероятности. 20 (3): 581. arXiv:математика / 0509605. CiteSeerX  10.1.1.210.1699. Дои:10.1007 / s10959-007-0081-2.
  8. ^ Верман, Адам (9 января 2014 г.). «Катастрофы, заговоры и субэкспоненциальные распределения (Часть III)». Блог Rigor + Relevance. RSRG, Калтех. Получено 9 января, 2014.
  9. ^ Виллекенс, Э. (1986). «Субэкспонентность на реальной прямой». Технический отчет. К.У. Левен.
  10. ^ Фальк, М., Хюслер, Дж. И Рейсс, Р. (2010). Законы малых чисел: крайности и редкие события. Springer. п. 80. ISBN  978-3-0348-0008-2.CS1 maint: несколько имен: список авторов (связь)
  11. ^ Алвес, М.И.Ф., де Хаан, Л. и Невес, К. (10 марта 2006 г.). «Статистический вывод для распределений с тяжелыми и сверхтяжелыми хвостами» (PDF). Архивировано из оригинал (PDF) 23 июня 2007 г.. Получено 1 ноября, 2011.CS1 maint: несколько имен: список авторов (связь)
  12. ^ Джон П. Нолан (2009). «Стабильные распределения: модели для данных с тяжелыми хвостами» (PDF). Получено 2009-02-21.
  13. ^ Стивен Лин (2009). «Искаженное логнормальное каскадное распределение». Архивировано из оригинал на 2014-04-07. Получено 2009-06-12.
  14. ^ а б Новак С.Ю. (2011). Экстремальные методы с приложениями для финансирования. Лондон: CRC. ISBN  978-1-43983-574-6.
  15. ^ а б Пикандс III, Джеймс (январь 1975 г.). «Статистический вывод с использованием статистики экстремального порядка». Анналы статистики. 3 (1): 119–131. Дои:10.1214 / aos / 1176343003. JSTOR  2958083.
  16. ^ Hill B.M. (1975) Простой общий подход к выводу о хвосте распределения. Анна. Stat., V. 3, 1163–1174.
  17. ^ Холл П. (1982) О некоторых оценках показателя регулярной вариации. J. R. Stat. Soc. Сер. Б., т. 44, 37–42.
  18. ^ Haeusler, E. и J. L. Teugels (1985) Об асимптотической нормальности оценки Хилла для показателя регулярной вариации. Анна. Stat., V. 13, 743–756.
  19. ^ Hsing, T. (1991) Об оценке хвостового индекса с использованием зависимых данных. Анна. Stat., V. 19, 1547–1569.
  20. ^ Хилл, Дж. (2010) Об оценке хвостового индекса для зависимых, разнородных данных. Econometric Th., V. 26, 1398–1436.
  21. ^ Резник, С. и Старика, К. (1997). Асимптотическое поведение оценки Хилла для авторегрессионных данных. Comm. Статист. Стохастические модели 13, 703–721.
  22. ^ Линг, С. и Пэн, Л. (2004). Оценка Хилла для индекса хвоста модели ARMA. J. Statist. Plann. Вывод 123, 279–293.
  23. ^ Хилл, Дж. Б. (2015). Оценка хвостового индекса для отфильтрованного зависимого временного ряда. Стат. Грех. 25, 609–630.
  24. ^ Голди К.М., Смит Р.Л. (1987) Медленное изменение с остатком: теория и приложения. Кварта. J. Math. Oxford, v. 38, 45–71.
  25. ^ Crovella, M.E .; Такку, М. С. (1999). «Оценка индекса тяжелого хвоста на основе свойств масштабирования». Методология и вычисления в прикладной теории вероятностей. 1: 55–79. Дои:10.1023 / А: 1010012224103.
  26. ^ а б Маркович Н. М. (2007). Непараметрический анализ одномерных данных с тяжелыми хвостами: исследования и практика. Читестер: Уайли. ISBN  978-0-470-72359-3.
  27. ^ Палочка М.П., ​​Джонс М.С. (1995). Сглаживание ядра. Нью-Йорк: Чепмен и Холл. ISBN  978-0412552700.
  28. ^ Холл П. (1992). Расширение Bootstrap и Edgeworth. Springer. ISBN  9780387945088.