Закон больших чисел - Law of large numbers

Иллюстрация закона больших чисел с использованием конкретной серии рулонов одного умри. По мере увеличения количества бросков в этом прогоне среднее значение всех результатов приближается к 3,5. Хотя каждый прогон будет показывать отличительную форму при небольшом количестве бросков (слева), при большом количестве бросков (справа) формы будут очень похожими.

В теория вероятности, то закон больших чисел (LLN) это теорема который описывает результат выполнения одного и того же эксперимента большое количество раз. Согласно закону, средний результатов, полученных в результате большого количества испытаний, должны быть близки к ожидаемое значение и будет иметь тенденцию приближаться к ожидаемому значению по мере выполнения большего количества испытаний.[1]

LLN важен, потому что он гарантирует стабильные долгосрочные результаты для средних значений некоторых случайных событий.[1][2] Например, пока казино может потерять деньги в одном вращении рулетка wheel, его прибыль будет иметь тенденцию к предсказуемому проценту за большое количество вращений. Любая выигрышная серия игрока в конечном итоге будет преодолена параметрами игры. Важно помнить, что закон применяется (как следует из названия) только тогда, когда большое количество наблюдений. Не существует принципа, согласно которому небольшое количество наблюдений будет совпадать с ожидаемым значением или что полоса одного значения будет немедленно «сбалансирована» другими (см. заблуждение игрока ).

Примеры

Например, один бросок честных шестигранных кубиков дает одно из чисел 1, 2, 3, 4, 5 или 6, каждое с равным вероятность. Таким образом, ожидаемое значение среднего бросков составляет:

Согласно закону больших чисел, если выпадает большое количество шестигранных игральных костей, среднее из их значений (иногда называемое выборочное среднее ), вероятно, будет близко к 3,5, с увеличением точности по мере того, как бросается больше кубиков.

Из закона больших чисел следует, что эмпирическая вероятность успеха в серии Бернулли испытания будет сходиться к теоретической вероятности. Для Случайная величина Бернулли, ожидаемое значение - это теоретическая вероятность успеха, а среднее значение п такие переменные (при условии, что они независимые и одинаково распределенные (i.i.d.) ) и есть относительная частота.

Например, честная монета бросок - это испытание Бернулли. Когда честная монета подбрасывается один раз, теоретическая вероятность того, что выпадет орел, равна12. Следовательно, согласно закону больших чисел, доля орлов в «большом» количестве подбрасываний монеты »должна быть« примерно12. В частности, доля голов после п сальто будет почти наверняка сходиться к12 так как п приближается к бесконечности.

Хотя доля орлов (и решек) приближается к 1/2, почти наверняка абсолютная разница количество орлов и решек станет большим по мере того, как станет большим количеством флипов. То есть вероятность того, что абсолютная разница является малым числом, приближается к нулю, когда количество переворотов становится большим. Кроме того, почти наверняка отношение абсолютной разницы к количеству флипов приблизится к нулю. Интуитивно ожидаемая разница растет, но медленнее, чем количество переворотов.

Еще один хороший пример LLN - это Метод Монте-Карло. Эти методы представляют собой широкий класс вычислительный алгоритмы которые полагаются на повторяющиеся случайная выборка для получения численных результатов. Чем больше количество повторений, тем лучше приближение. Причина, по которой этот метод важен, в основном состоит в том, что иногда трудно или невозможно использовать другие подходы.[3]

Ограничение

Среднее значение результатов, полученных в результате большого количества испытаний, в некоторых случаях может не совпадать. Например, среднее значение п результаты взяты из Распределение Коши или несколько Распределения Парето (α <1) не будет сходиться при п становится больше; причина в том тяжелые хвосты. Распределение Коши и распределение Парето представляют два случая: распределение Коши не имеет математического ожидания,[4] тогда как математическое ожидание распределения Парето (α <1) бесконечно.[5] Другой пример: случайные числа равны касательная угла, равномерно распределенного между -90 ° и + 90 °. В медиана равно нулю, но ожидаемого значения не существует, и действительно, среднее значение п такие переменные имеют то же распределение, что и одна такая переменная. Он не сходится по вероятности к нулю (или любому другому значению) как п уходит в бесконечность.

История

Распространение является примером закона больших чисел. Изначально есть растворенное вещество молекулы слева от барьера (пурпурная линия) и ни одного справа. Барьер удаляется, и растворенное вещество диффундирует, заполняя весь контейнер.
Верхний: В случае одиночной молекулы движение кажется довольно случайным.
Средний: При большем количестве молекул явно наблюдается тенденция к тому, что растворенное вещество заполняет контейнер все более и более равномерно, но также наблюдаются случайные колебания.
Дно: С огромным количеством молекул растворенного вещества (слишком много, чтобы увидеть) случайность по существу исчезла: растворенное вещество, кажется, плавно и систематически перемещается из областей с высокой концентрацией в области с низкой концентрацией. В реальных ситуациях химики могут описать диффузию как детерминированное макроскопическое явление (см. Законы Фика ), несмотря на его случайную природу.

Итальянский математик Джероламо Кардано (1501–1576) без доказательств заявили, что точность эмпирической статистики имеет тенденцию улучшаться с увеличением количества испытаний.[6] Затем это было формализовано как закон больших чисел. Специальная форма LLN (для двоичной случайной величины) была впервые доказана Джейкоб Бернулли.[7] Ему потребовалось более 20 лет, чтобы разработать достаточно строгое математическое доказательство, которое было опубликовано в его Ars Conjectandi (Искусство гадания) в 1713 году. Он назвал это своей «Золотой теоремой», но она стала широко известна как «Теорема Бернулли". Это не следует путать с Принцип Бернулли, названный в честь племянника Якоба Бернулли Даниэль Бернулли. В 1837 г. S.D. Пуассон далее описал его под названием "La Loi des Grands Nombres"(" закон больших чисел ").[8][9] В дальнейшем он был известен под обоими названиями, но наиболее часто использовался «закон больших чисел».

После того, как Бернулли и Пуассон опубликовали свои исследования, другие математики также внесли свой вклад в уточнение закона, в том числе Чебышев,[10] Марков, Борель, Кантелли и Колмогоров и Хинчин. Марков показал, что этот закон может применяться к случайной величине, которая не имеет конечной дисперсии при другом более слабом предположении, а Хинчин показал в 1929 году, что если ряд состоит из независимых одинаково распределенных случайных величин, достаточно, чтобы ожидаемое значение существует для выполнения слабого закона больших чисел.[11][12] Эти дальнейшие исследования привели к появлению двух известных форм LLN. Один называется «слабым» законом, а другой - «сильным» законом в отношении двух различных способов конвергенция совокупных выборочных средних до ожидаемого значения; в частности, как объясняется ниже, сильная форма подразумевает слабую.[11]

Формы

Есть две разные версии закон больших чисел которые описаны ниже. Их называют строгий закон большого количества и слабый закон большого количества.[13][1] Заявлено для случая, когда Икс1, Икс2, ... бесконечная последовательность независимые и одинаково распределенные (i.i.d.) Интегрируемые по Лебегу случайные величины с математическим ожиданием E (Икс1) = E (Икс2) = ...= µ, обе версии закона заявляют, что - с виртуальной достоверностью - выборочное среднее

сходится к ожидаемому значению

 

 

 

 

(закон. 1)

(Интегрируемость по Лебегу Иксj означает, что ожидаемое значение E (Иксj) существует согласно Интеграция Лебега и конечно. Оно делает не означают, что соответствующая вероятностная мера абсолютно непрерывный относительно Мера Лебега.)

Исходя из предположения конечности отклонение (для всех ) и отсутствие корреляции между случайными величинами, дисперсия среднего n случайных величин

Иногда предположение о конечном отклонение является не обязательно. Большая или бесконечная дисперсия замедлит сходимость, но LLN все равно сохраняется. Это предположение часто используется, потому что оно упрощает и сокращает доказательства.

Взаимная независимость случайных величин можно заменить на попарная независимость в обеих версиях закона.[14]

Разница между сильной и слабой версиями связана с утверждаемым способом конвергенции. Для интерпретации этих режимов см. Сходимость случайных величин.

Слабый закон

Моделирование, иллюстрирующее закон больших чисел. В каждом кадре монета, красная с одной стороны и синяя с другой, переворачивается, и в соответствующий столбец добавляется точка. Круговая диаграмма показывает соотношение красного и синего на данный момент. Обратите внимание, что, хотя сначала пропорция значительно варьируется, по мере увеличения количества испытаний она приближается к 50%.

В слабый закон больших чисел (также называется Хинчин закон) гласит, что выборочное среднее сходится по вероятности к ожидаемой стоимости[15]

 

 

 

 

(закон. 2)

То есть для любого положительного числа ε,

Интерпретируя этот результат, слабый закон утверждает, что для любого заданного ненулевого запаса, независимо от того, насколько он мал, с достаточно большой выборкой будет очень высокая вероятность того, что среднее значение наблюдений будет близко к ожидаемому значению; то есть в пределах поля.

Как упоминалось ранее, слабый закон применяется в случае i.i.d. случайные величины, но это применимо и в некоторых других случаях. Например, дисперсия может быть разной для каждой случайной переменной в ряду, при этом ожидаемое значение остается постоянным. Если отклонения ограничены, то применяется закон, как показано Чебышев еще в 1867 г. (Если ожидаемые значения меняются в течение ряда, то мы можем просто применить закон к среднему отклонению от соответствующих ожидаемых значений. Затем закон гласит, что это сходится по вероятности к нулю.) Фактически, доказательство Чебышева работает до тех пор, пока дисперсия среднего первого п значения стремятся к нулю как п уходит в бесконечность.[12] В качестве примера предположим, что каждая случайная величина в серии следует за Гауссово распределение со средним нулем, но с дисперсией, равной , который не ограничен. На каждом этапе среднее значение будет нормально распределенным (как среднее значение набора нормально распределенных переменных). Дисперсия суммы равна сумме дисперсий, которая равна асимптотический к . Следовательно, дисперсия среднего асимптотика и уходит в ноль.

Есть также примеры применения слабого закона, даже если ожидаемого значения не существует.

Сильный закон

В сильный закон больших чисел заявляет, что выборочное среднее сходится почти наверняка к ожидаемому значению[16]

 

 

 

 

(закон. 3)

Это,

Это означает, что вероятность того, что количество испытаний п уходит в бесконечность, среднее из наблюдений сходится к ожидаемому значению, равному единице.

Доказательство более сложное, чем доказательство слабого закона.[17] Этот закон оправдывает интуитивную интерпретацию ожидаемого значения (только для интегрирования Лебега) случайной величины при повторной выборке как «долгосрочное среднее».

Почти наверное сходимость также называется сильной сходимостью случайных величин. Эта версия называется усиленным законом, потому что случайные величины, которые сходятся сильно (почти наверняка), гарантированно сходятся слабо (по вероятности). Однако известно, что слабый закон выполняется в определенных условиях, когда сильный закон не выполняется, и тогда сходимость является только слабой (по вероятности). Увидеть # Различия между слабым и сильным законом.

Сам по себе усиленный закон больших чисел можно рассматривать как частный случай поточечно эргодическая теорема.

Сильный закон применяется к независимым одинаково распределенным случайным величинам, имеющим ожидаемое значение (например, слабый закон). Это было доказано Колмогоровым в 1930 году. Это применимо и в других случаях. Колмогоров также показал в 1933 году, что если переменные независимы и одинаково распределены, то среднее почти наверняка сходится на что нибудь (это можно считать еще одним утверждением сильного закона), необходимо, чтобы они имели ожидаемое значение (и тогда, конечно, среднее почти наверняка будет сходиться с ним).[18]

Если слагаемые независимы, но не распределены одинаково, то

при условии, что каждый Иксk имеет конечный второй момент и

Это заявление известно как Сильный закон Колмогоровасм. например Сен и певец (1993, Теорема 2.3.10).

Пример серии, в которой применяется слабый закон, но не сильный, - это когда Иксk плюс или минус (начиная с достаточно большого k так что знаменатель положительный) с вероятностью 1/2 для каждого.[18] Дисперсия Иксk затем Строгий закон Колмогорова неприменим, поскольку частичная сумма в его критерии до к = п асимптотичен и это безгранично.

Если мы заменим случайные величины на гауссовские переменные с такой же дисперсией, а именно тогда среднее значение в любой точке также будет нормально распределено. Ширина распределения среднего будет стремиться к нулю (асимптотика стандартного отклонения ), но для данного ε существует вероятность, которая не стремится к нулю при п, в то время как в среднем через некоторое время после п-ое испытание вернется к ε. Поскольку ширина распределения среднего не равна нулю, оно должно иметь положительную нижнюю границу. п(ε), что означает, что существует вероятность не менее п(ε), что среднее значение достигнет ε после п испытания. Это произойдет с вероятностью п(ε) / 2 перед некоторыми м что зависит от п. Но даже после м, остается вероятность не менее п(ε), что это произойдет. (Это, кажется, указывает на то, что п(ε) = 1, и среднее будет достигать ε бесконечное число раз.)

Различия между слабым законом и сильным законом

В слабый закон заявляет, что для указанного большого п, среднее вероятно будет рядом μ. Таким образом, остается возможность, что происходит бесконечное количество раз, хотя и с нечастыми интервалами. (Не обязательно для всех п).

В строгий закон показывает, что это почти наверняка не произойдет. В частности, это означает, что с вероятностью 1 мы имеем это для любого ε > 0 неравенство держит для всех достаточно больших п.[19]

Сильный закон не выполняется в следующих случаях, но слабый закон выполняется.[20][21][22]

1. Пусть X - экспоненциально распределенная случайная величина с параметром 1. Случайная величина не имеет ожидаемого значения согласно интегрированию Лебега, но использует условную сходимость и интерпретирует интеграл как Интеграл Дирихле, что является неправильным Интеграл Римана, мы можем сказать:

2. Пусть x будет геометрическое распределение с вероятностью 0,5. Случайная величина не имеет ожидаемого значения в общепринятом смысле, потому что бесконечное серии не является абсолютно сходящимся, но, используя условную сходимость, мы можем сказать:

3. Если кумулятивная функция распределения случайной величины

тогда он не имеет ожидаемого значения, но слабый закон верен.[23][24]

Единый закон больших чисел

Предположим ж(Икс,θ) это некоторые функция определены для θ ∈ Θ и непрерывна по θ. Тогда для любого фиксированного θ, последовательность {ж(Икс1,θ), ж(Икс2,θ), ...} будет последовательностью независимых и одинаково распределенных случайных величин, такой, что выборочное среднее этой последовательности сходится по вероятности к E [ж(Икс,θ)]. Это точечноθ) сходимость.

В единый закон больших чисел устанавливает условия, при которых происходит сходимость равномерно в θ. Если[25][26]

  1. Θ компактно,
  2. ж(Икс,θ) непрерывна на каждом θ ∈ Θ для почти все Иксs, и измеримая функция Икс на каждом θ.
  3. существует доминирующий функция d(Икс) такое, что E [d(Икс)] <∞, и

Тогда E [ж(Икс,θ)] непрерывна в θ, и

Этот результат полезен для получения согласованности большого класса оценок (см. Экстремальная оценка ).

Закон больших чисел Бореля

Закон больших чисел Бореля, названный в честь Эмиль Борель, заявляет, что если эксперимент повторяется большое количество раз, независимо при идентичных условиях, то доля раз, когда любое указанное событие происходит, приблизительно равна вероятности возникновения события в любом конкретном испытании; чем больше количество повторений, тем лучше приближение. Точнее, если E обозначает рассматриваемое событие, п вероятность его появления, и Nп(E) количество раз E происходит в первом п испытания, то с вероятностью один,[27]

Эта теорема укрепляет интуитивное понятие вероятности как долгосрочную относительную частоту возникновения события. Это частный случай любого из нескольких более общих законов больших чисел в теории вероятностей.

Неравенство Чебышева. Позволять Икс быть случайная переменная с конечным ожидаемое значение μ и конечное ненулевое отклонение σ2. Тогда для любого настоящий номер k > 0,

Доказательство слабого закона

Данный Икс1, Икс2, ... бесконечная последовательность i.i.d. случайные величины с конечным ожидаемым значением E(Икс1) = E(Икс2) = ... = µ <∞, нас интересует сходимость выборочного среднего

Слабый закон больших чисел гласит:

Теорема:

 

 

 

 

(закон. 2)

Доказательство с использованием неравенства Чебышева в предположении конечной дисперсии

Это доказательство использует предположение конечности отклонение (для всех ). Независимость случайных величин подразумевает отсутствие корреляции между ними, и мы имеем

Общее среднее значение μ последовательности - это среднее значение выборочного среднего:

С помощью Неравенство Чебышева на приводит к

Это может быть использовано для получения следующего:

Так как п приближается к бесконечности, выражение приближается к 1. И по определению сходимость по вероятности, мы получили

 

 

 

 

(закон. 2)

Доказательство с использованием сходимости характеристических функций.

От Теорема Тейлора для сложные функции, то характеристическая функция любой случайной величины, Икс, с конечным средним μ, можно записать как

Все Икс1, Икс2, ... имеют одну и ту же характеристическую функцию, поэтому обозначим это просто φИкс.

Среди основных свойств характеристических функций:

если Икс и Y независимы.

Эти правила можно использовать для вычисления характеристической функции с точки зрения φИкс:

ПределеЭтоμ - характеристическая функция постоянной случайной величины μ, и, следовательно, по Теорема Леви о непрерывности, сходится в распределении к μ:

μ - константа, из которой следует, что сходимость по распределению к μ и сходимость по вероятности к μ эквивалентны (см. Сходимость случайных величин.) Следовательно,

 

 

 

 

(закон. 2)

Это показывает, что выборочное среднее сходится по вероятности к производной характеристической функции в начале координат, пока последняя существует.

Последствия

Закон больших чисел обеспечивает ожидание неизвестного распределения от реализации последовательности, но также и любой особенности распределения вероятностей.[1] Применяя Закон больших чисел Бореля, можно легко получить функцию массы вероятности. Для каждого события в целевой функции вероятности и масс можно аппроксимировать вероятность возникновения события пропорциональностью того, сколько раз происходит любое указанное событие. Чем больше количество повторов, тем лучше приближение. Что касается непрерывного случая: , для небольшого положительного h. Таким образом, для больших n:

С помощью этого метода можно покрыть всю ось x сеткой (с размером сетки 2h) и получить гистограмму, которая называется гистограмма.

Смотрите также

Заметки

  1. ^ а б c d Деккинг, Мишель (2005). Современное введение в вероятность и статистику. Springer. стр.181 –190. ISBN  9781852338961.
  2. ^ Яо, Кай; Гао, Цзиньву (2016). «Закон больших чисел для неопределенных случайных величин». Транзакции IEEE в нечетких системах. 24 (3): 615–621. Дои:10.1109 / TFUZZ.2015.2466080. ISSN  1063-6706. S2CID  2238905.
  3. ^ Kroese, Dirk P .; Бреретон, Тим; Таймре, Томас; Ботев, Здравко И. (2014). «Почему метод Монте-Карло так важен сегодня». Междисциплинарные обзоры Wiley: вычислительная статистика. 6 (6): 386–392. Дои:10.1002 / wics.1314.
  4. ^ Деккинг, Мишель (2005). Современное введение в вероятность и статистику. Springer. стр.92. ISBN  9781852338961.
  5. ^ Деккинг, Мишель (2005). Современное введение в вероятность и статистику. Springer. стр.63. ISBN  9781852338961.
  6. ^ Млодинов, Л. Прогулка пьяницы. Нью-Йорк: Рэндом Хаус, 2008. стр. 50.
  7. ^ Якоб Бернулли, Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae в Civilibus, Moralibus & Oeconomicis, 1713, Глава 4, (Перевод на английский Оскар Шейнин)
  8. ^ Пуассон называет «закон больших чисел» (La Loi des Grands Nombres) в: S.D. Пуассон, Probabilité des jugements en matière criminelle et en matière civile, precédées des règles générales du calc des probabilitiés (Париж, Франция: Башелье, 1837 г.), п. 7. Он пытается доказать закон, состоящий из двух частей, на стр. 139–143 и стр. 277 и далее.
  9. ^ Взлом, Ян. (1983) "Трещины XIX века в концепции детерминизма", Журнал истории идей, 44 (3), 455-475 JSTOR  2709176
  10. ^ Чебичеф, П. (1846). "Démonstration élémentaire d'une proposition générale de la théorie des probabilités". Журнал für die reine und angewandte Mathematik. 1846 (33): 259–267. Дои:10.1515 / crll.1846.33.259. S2CID  120850863.
  11. ^ а б Сенета 2013.
  12. ^ а б Юрий Прохоров. «Закон больших чисел». Энциклопедия математики.
  13. ^ Бхаттачарья, Раби; Линь, Лижень; Патрангенару, Виктор (2016). Курс математической статистики и теории больших выборок. Тексты Springer в статистике. Нью-Йорк, Нью-Йорк: Springer New York. Дои:10.1007/978-1-4939-4032-5. ISBN  978-1-4939-4030-1.
  14. ^ Этемади, Н.З. (1981). «Элементарное доказательство сильного закона больших чисел». Wahrscheinlichkeitstheorie Verw Gebiete. 55 (1): 119–122. Дои:10.1007 / BF01013465. S2CID  122166046.
  15. ^ Loève 1977, Глава 1.4, стр. 14
  16. ^ Loève 1977, Глава 17.3, с. 251
  17. ^ «Сильный закон больших чисел - что нового». Terrytao.wordpress.com. Получено 2012-06-09.
  18. ^ а б Юрий Прохоров. «Сильный закон больших чисел». Энциклопедия математики.
  19. ^ Росс (2009)
  20. ^ Леманн, Эрих Л; Романо, Джозеф П. (30 марта 2006 г.). Слабый закон сходится к постоянному. ISBN  9780387276052.
  21. ^ «ЗАМЕЧАНИЕ О СЛАБОМ ЗАКОНЕ БОЛЬШИХ ЧИСЕЛ ДЛЯ ОБМЕННЫХ СЛУЧАЙНЫХ ПЕРЕМЕННЫХ» (PDF). Джувл Хун Хонг и Сунг Хо Ли. Архивировано из оригинал (PDF) на 2016-07-01. Получено 2014-06-28.
  22. ^ «слабый закон больших чисел: доказательство с использованием характеристических функций против доказательства с использованием усечения ПЕРЕМЕННЫХ».
  23. ^ Мукерджи, Саян. «Закон больших чисел» (PDF). Архивировано из оригинал (PDF) на 2013-03-09. Получено 2014-06-28.
  24. ^ Дж. Гейер, Чарльз. «Закон больших чисел» (PDF).
  25. ^ Ньюи и Макфадден 1994, Лемма 2.4
  26. ^ Дженнрих, Роберт И. (1969). "Асимптотические свойства нелинейных оценщиков методом наименьших квадратов". Анналы математической статистики. 40 (2): 633–643. Дои:10.1214 / aoms / 1177697731.
  27. ^ Аналитическая методика доказательства строгого закона больших чисел Бореля Wen, L. Am Math Month 1991

использованная литература

  • Grimmett, G.R .; Стирзакер, Д. Р. (1992). Вероятность и случайные процессы, 2-е издание. Кларендон Пресс, Оксфорд. ISBN  0-19-853665-8.
  • Ричард Дарретт (1995). Вероятность: теория и примеры, 2-е издание. Duxbury Press.
  • Мартин Якобсен (1992). Videregående Sandsynlighedsregning (Расширенная теория вероятностей), 3-е издание. HCØ-tryk, Копенгаген. ISBN  87-91180-71-6.
  • Лоэв, Мишель (1977). Теория вероятностей 1 (4-е изд.). Springer Verlag.
  • Ньюи, Уитни К .; Макфадден, Дэниел (1994). Оценка большой выборки и проверка гипотез. Справочник по эконометрике, т. IV, гл. 36. Elsevier Science. С. 2111–2245.
  • Росс, Шелдон (2009). Первый курс вероятности (8-е изд.). Пресса Прентис Холл. ISBN  978-0-13-603313-4.
  • Sen, P.K; Сингер, Дж. М. (1993). Методы большой выборки в статистике. Chapman & Hall, Inc.
  • Сенета, Юджин (2013), "Трехсотлетняя история закона больших чисел", Бернулли, 19 (4): 1088–1121, arXiv:1309.6488, Дои:10.3150 / 12-BEJSP12, S2CID  88520834

внешние ссылки