Марковская собственность - Markov property

Единая реализация трехмерного Броуновское движение для времен 0 ≤ t ≤ 2. Броуновское движение обладает марковским свойством, так как перемещение частицы не зависит от ее прошлых перемещений.

В теория вероятности и статистика, период, термин Марковская собственность относится к без памяти собственность случайный процесс. Он назван в честь русский математик Андрей Марков.[1]

Случайный процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса (обусловленных как прошлым, так и настоящим состояниями) зависит только от настоящего состояния, а не от последовательности событий, которые ему предшествовали. Процесс с этим свойством называется Марковский процесс. Период, термин сильное марковское свойство аналогично марковскому свойству, за исключением того, что значение слова «присутствует» определяется в терминах случайной величины, известной как время остановки.

Период, термин Марковское предположение используется для описания модели, в которой предполагается наличие марковского свойства, например скрытая марковская модель.

А Марковское случайное поле расширяет это свойство до двух или более измерений или до случайных величин, определенных для взаимосвязанной сети элементов.[2] Примером модели для такого поля является Модель Изинга.

Случайный процесс с дискретным временем, удовлетворяющий марковскому свойству, известен как Цепь Маркова.

Вступление

Случайный процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса (обусловленных как прошлыми, так и настоящими ценностями) зависит только от настоящего состояния; то есть, учитывая настоящее, будущее не зависит от прошлого. Процесс с этим свойством называется Марковский или Марковский процесс. Самый известный марковский процесс - это Цепь Маркова. Броуновское движение - еще один хорошо известный марковский процесс.

История

Определение

Позволять быть вероятностное пространство с фильтрация , для некоторых (полностью заказанный ) индексный набор ; и разреши быть измеримое пространство. А -значный случайный процесс адаптирован к фильтрации говорят, что обладает Марковская собственность если для каждого и каждый с ,

[3]

В случае, когда дискретное множество с дискретная сигма-алгебра и , это можно переформулировать следующим образом:

Альтернативные составы

В качестве альтернативы марковское свойство можно сформулировать следующим образом.

для всех и ограниченный и измеримый.[4]

Сильное марковское свойство

Предположим, что это случайный процесс на вероятностное пространство с естественная фильтрация . Тогда для любого время остановки на , мы можем определить

.

потом обладает сильным марковским свойством, если для каждого время остановки , при условии проведения мероприятия , у нас есть это для каждого , не зависит от данный .

Сильное марковское свойство влечет за собой обычное марковское свойство, поскольку, взяв время остановки , можно вывести обычное марковское свойство.[5]


В прогнозировании

В полях прогнозное моделирование и вероятностное прогнозирование, марковское свойство считается желательным, поскольку оно может позволить обосновать и решить проблему, которую в противном случае было бы невозможно решить из-за его несговорчивость. Такая модель известна как Марковская модель.

Примеры

Предположим, что в урне находятся два красных шара и один зеленый шар. Один мяч был разыгран вчера, один мяч был разыгран сегодня, а последний мяч будет разыгран завтра. Все розыгрыши проходят «без замены».

Предположим, вы знаете, что сегодняшний мяч был красным, но у вас нет информации о вчерашнем мяче. Вероятность того, что завтрашний мяч будет красным, равна 1/2. Это потому, что у этого случайного эксперимента остались только два результата:

ДеньРезультат 1Результат 2
Вчерашний денькрасныйЗеленый
Сегоднякрасныйкрасный
ЗавтраЗеленыйкрасный

С другой стороны, если вы знаете, что и сегодняшние, и вчерашние шары были красными, то завтра вы гарантированно получите зеленый шар.

Это несоответствие показывает, что распределение вероятностей завтрашнего цвета зависит не только от текущей стоимости, но также зависит от информации о прошлом. Этот стохастический процесс наблюдаемых цветов не обладает свойством Маркова. Используя тот же эксперимент, описанный выше, если выборку «без замены» изменить на выборку «с заменой», процесс наблюдаемых цветов будет иметь марковское свойство.[6]

Приложение марковского свойства в обобщенном виде находится в Цепь Маркова Монте-Карло вычисления в контексте Байесовская статистика.

Смотрите также

Рекомендации

  1. ^ Марков, А. А. (1954). Теория алгоритмов. [Перевод Жака Шорр-Кона и сотрудников PST] Выходные данные Москва, Академия наук СССР, 1954 [Иерусалим, Израильская программа научных переводов, 1961; можно получить в отделе технического обслуживания, Министерство торговли США ] Добавлен т.п. в русском переводе трудов Математического института АН СССР, т. 42. Оригинальное название: Теория алгоритмов. [QA248.M2943 Библиотека Дартмутского колледжа. Министерство торговли США, Управление технических услуг, номер OTS 60-51085.]
  2. ^ Додж, Ядола. (2006) Оксфордский словарь статистических терминов, Oxford University Press. ISBN  0-19-850994-4
  3. ^ Дарретт, Рик. Вероятность: теория и примеры. Четвертый выпуск. Издательство Кембриджского университета, 2010.
  4. ^ Эксендал, Бернт К. (2003). Стохастические дифференциальные уравнения: введение с приложениями. Спрингер, Берлин. ISBN  3-540-04758-1.
  5. ^ Этье, Стюарт Н. и Курц, Томас Г. Марковские процессы: характеризация и сходимость. Ряд Уилли в вероятности и математической статистике, 1986 г. (см. Стр. 158)
  6. ^ «Пример случайного процесса, не обладающего марковским свойством». Обмен стеком. Получено 2020-07-07.