Граница Чернова - Chernoff bound

В теория вероятности, то Граница Чернова, названный в честь Герман Чернов но благодаря Герману Рубину,[1] дает экспоненциально убывающие оценки на хвостовые распределения сумм независимых случайных величин. Это более точная граница, чем известные хвостовые границы на основе первого или второго момента, такие как Неравенство Маркова или же Неравенство Чебышева, которые дают только степенные ограничения на затухание хвоста. Однако оценка Чернова требует, чтобы переменные были независимыми - условие, которое не требуется ни для неравенства Маркова, ни для неравенства Чебышева, хотя неравенство Чебышева требует, чтобы переменные были попарно независимыми.

Это связано с (исторически предшествующим) Неравенства Бернштейна и чтобы Неравенство Хёффдинга.

Общая оценка

Общая оценка Чернова для случайной величины Икс достигается применением Неравенство Маркова к еtX.[2] Для каждого :

Когда Икс это сумма п случайные переменные Икс1, ..., Иксп, получаем за любые т > 0,

В частности, оптимизация более т и предполагая, что Икся независимы, получаем,

 

 

 

 

(1)

По аналогии,

и так,

Конкретные границы Чернова достигаются вычислением для конкретных экземпляров основных переменных .

Пример

Позволять Икс1, ..., Иксп быть независимым Случайные величины Бернулли, сумма которого Икс, каждая из которых имеет вероятность п > 1/2 от 1. Для переменной Бернулли:

Так:

Для любого , принимая и дает:

и

а общая граница Чернова дает:

Вероятность одновременного появления более п/ 2 мероприятий {Иксk = 1} имеет точное значение:

Нижнюю границу этой вероятности можно вычислить на основе неравенства Чернова:

Действительно, заметив, что μ = нп, мы получаем мультипликативную форму оценки Чернова (см. ниже или следствие 13.3 в примечаниях Синклера к классу),[3]

Этот результат допускает различные обобщения, как показано ниже. Можно встретить много разновидностей границ Чернова: оригинал аддитивная форма (что дает оценку абсолютная ошибка ) или более практичный мультипликативная форма (что ограничивает относительная ошибка к среднему).

Аддитивная форма (абсолютная ошибка)

Следующая теорема связана с Василий Хёффдинг[4] и поэтому называется теоремой Чернова – Хёффдинга.

Теорема Чернова – Хёффдинга. Предполагать Икс1, ..., Иксп находятся i.i.d. случайные величины, принимающие значения в {0, 1}. Позволять п = E [Икс]/ n и ε > 0.
куда
это Дивергенция Кульбака – Лейблера между Бернулли распределил случайные величины с параметрами Икс и у соответственно. Если п1/2, тогда что значит

Более простая оценка получается ослаблением теоремы с помощью D(п + ε || п) ≥ 2ε2, что следует из выпуклость из D(п + ε || п) и тот факт, что

Этот результат является частным случаем Неравенство Хёффдинга. Иногда границы

которые сильнее для п < 1/8, также используются.

Мультипликативная форма (относительная ошибка)

Мультипликативная граница Чернова. Предполагать Икс1, ..., Иксп находятся независимый случайные величины, принимающие значения в {0, 1}. Позволять Икс обозначим их сумму и пусть μ = E [Икс] обозначают ожидаемое значение суммы. Тогда для любого δ > 0,

Аналогичную стратегию доказательства можно использовать, чтобы показать, что

Приведенная выше формула на практике часто бывает громоздкой,[5] поэтому часто используются следующие более свободные, но более удобные границы:

которые следуют из неравенства из список логарифмических неравенств.Или еще послабее:

Приложения

У оценок Чернова есть очень полезные приложения в установить балансировку и пакет маршрутизация в редкий сети.

Проблема балансировки множества возникает при проведении статистических экспериментов. Обычно при разработке статистического эксперимента, учитывая особенности каждого участника эксперимента, нам необходимо знать, как разделить участников на 2 непересекающиеся группы, чтобы каждая характеристика была как можно более сбалансирована между двумя группами. Обратитесь к этому раздел книги для получения дополнительной информации о проблеме.

Границы Чернова также используются для получения точных границ для задач маршрутизации с перестановками, которые уменьшают перегрузка сети при маршрутизации пакетов в разреженных сетях. Обратитесь к этому раздел книги для тщательного решения проблемы.

Границы Чернова используются в теория вычислительного обучения доказать, что алгоритм обучения наверное примерно правильно, т.е. с большой вероятностью алгоритм имеет небольшую ошибку на достаточно большом наборе обучающих данных.[6]

Границы Чернова можно эффективно использовать для оценки «уровня устойчивости» приложения / алгоритма, исследуя его пространство возмущений с рандомизацией.[7]Использование границы Чернова позволяет отказаться от гипотезы сильных и в большинстве случаев нереалистичных малых возмущений (величина возмущения мала). Уровень устойчивости может, в свою очередь, использоваться либо для подтверждения, либо для отклонения конкретного алгоритмического выбора, аппаратной реализации или соответствия решения, структурные параметры которого подвержены влиянию неопределенностей.

Граница матрицы

Рудольф Альсведе и Андреас Винтер ввел оценку Чернова для матричнозначных случайных величин.[8] Следующая версия неравенства содержится в работе Троппа.[9]

Позволять M1, ..., Mт - независимые матричные случайные величины такие, что и Обозначим через операторная норма матрицы . Если почти наверняка для всех , то для каждого ε > 0

Обратите внимание, что для того, чтобы сделать вывод, что отклонение от 0 ограничено ε с большой долей вероятности нам нужно выбрать количество образцов пропорционально логарифму . В общем, к сожалению, зависимость от неизбежно: возьмем, например, диагональную матрицу случайных знаков размерности . Операторная норма суммы т независимых выборок - это как раз максимальное отклонение среди d независимые случайные блуждания длины т. Легко видеть, что для достижения фиксированной границы максимального отклонения с постоянной вероятностью т должен расти логарифмически с d в этом сценарии.[10]

Следующую теорему можно получить, полагая M имеет низкий ранг, чтобы избежать зависимости от размеров.

Теорема без зависимости от размерностей

Позволять 0 < ε < 1 и M - случайная симметричная вещественная матрица с и почти наверняка. Предположим, что каждый элемент на опоре M имеет самый высокий ранг р. Набор

Если держится почти наверняка, тогда

куда M1, ..., Mт i.i.d. копии M.

Теорема с матрицами, которые не являются полностью случайными

Гарг, Ли, Сонг и Шривастава [11] доказал оценку типа Чернова для сумм матричнозначных случайных величин, отобранных посредством случайного блуждания на расширителе, подтвердив гипотезу, выдвинутую Вигдерсоном и Сяо.

Кынг и Сонг [12] доказал оценку типа Чернова для сумм лапласовской матрицы случайных остовных деревьев.

Вариант отбора проб

Следующий вариант оценки Чернова может использоваться для ограничения вероятности того, что большинство в популяции станет меньшинством в выборке, или наоборот.[13]

Предположим, что есть общая популяция А и часть населения BА. Отметьте относительный размер подгруппы населения (|B|/|А|) автор р.

Предположим, мы выбрали целое число k и случайная выборка SА размера k. Отметьте относительный размер подгруппы в выборке (|BS|/|S|) автор рS.

Тогда для каждой дроби d∈[0,1]:

В частности, если B большинство в А (т.е. р > 0,5) можно оценить вероятность того, что B останется большинство в S (рS> 0,5), взяв: d = 1 - 1 / (2 р):[14]

Эта граница, конечно, совсем не жесткая. Например, когда р= 0,5 получаем тривиальную оценку Вероятно > 0.

Доказательства

Теорема Чернова – Хёффдинга (аддитивная форма)

Позволять q = п + ε. Принимая а = nq в (1), мы получаем:

Теперь, зная, что Pr (Икся = 1) = п, Pr (Икся = 0) = 1 − п, у нас есть

Следовательно, мы можем легко вычислить нижнюю грань, используя исчисление:

Обнуляя уравнение и решая, мы имеем

так что

Таким образом,

В качестве q = п + ε > п, Мы видим, что т > 0, поэтому наша оценка выполняется на т. Решив для т, мы можем вернуться к приведенным выше уравнениям и найти, что

Теперь у нас есть желаемый результат:

Чтобы завершить доказательство для симметричного случая, мы просто определим случайную величину Yя = 1 − Икся, примените то же доказательство и вставьте его в нашу оценку.

Мультипликативная форма

Набор Pr (Икся = 1) = пя.В соответствии с (1),

Третья строка выше следует, потому что принимает значение ет с вероятностью пя и значение 1 с вероятностью 1 − пя. Это идентично вычислению выше в доказательстве Теорема для аддитивной формы (абсолютная ошибка).

Перезапись в качестве и напоминая, что (со строгим неравенством, если Икс > 0), мы установили . Тот же результат можно получить, напрямую заменив а в уравнении для оценки Чернова с (1 + δ)μ.[15]

Таким образом,

Если мы просто установим т = журнал (1 + δ) так что т > 0 за δ > 0, мы можем заменить и найти

Это доказывает желаемый результат.

Смотрите также

Рекомендации

  1. ^ Чернов, Герман (2014). «Карьера в статистике» (PDF). Инь Линь, Сихун; Дженест, Кристиан; Бэнкс, Дэвид Л .; Моленбергс, Герт; Скотт, Дэвид В .; Ван, Джейн-Линг (ред.). Прошлое, настоящее и будущее статистики. CRC Press. п. 35. ISBN  9781482204964.
  2. ^ Этот метод был впервые применен Сергей Бернштейн доказать родственную Неравенства Бернштейна.
  3. ^ Синклер, Алистер (осень 2011 г.). «Классные заметки по курсу» Случайность и вычисление"" (PDF). Архивировано из оригинал (PDF) 31 октября 2014 г.. Получено 30 октября 2014.
  4. ^ Хёффдинг, В. (1963). «Вероятностные неравенства для сумм ограниченных случайных величин» (PDF). Журнал Американской статистической ассоциации. 58 (301): 13–30. Дои:10.2307/2282952. JSTOR  2282952.
  5. ^ Митценмахер, Майкл; Упфал, Эли (2005). Вероятность и вычисления: рандомизированные алгоритмы и вероятностный анализ. Издательство Кембриджского университета. ISBN  978-0-521-83540-4.
  6. ^ М. Кернс, У. Вазирани. Введение в теорию вычислительного обучения. Глава 9 (Приложение), страницы 190–192. MIT Press, 1994.
  7. ^ C.Alippi: глава "Рандомизированные алгоритмы" в Интеллект для встроенных систем. Springer, 2014 г., 283 стр., ISBN  978-3-319-05278-6.
  8. ^ Ahlswede, R .; Уинтер А. (2003). «Сильный разговор для идентификации через квантовые каналы». IEEE Transactions по теории информации. 48 (3): 569–579. arXiv:Quant-ph / 0012127. Дои:10.1109/18.985947.CS1 maint: ref = harv (связь)
  9. ^ Тропп, Дж. (2010). «Удобные хвостовые границы для сумм случайных матриц». Основы вычислительной математики. 12 (4): 389–434. arXiv:1004.4389. Дои:10.1007 / s10208-011-9099-z.CS1 maint: ref = harv (связь)
  10. ^ Маген, А.; Зузиас, А. (2011).«Матричные границы Чернова низкого ранга и приближенное матричное умножение». arXiv:1005.2724 [cs.DM ].
  11. ^ Гарг, Анкит; Ли, Инь Тат; Песня, Чжао; Шривастава, Нихил (2018). Матричный расширитель Граница Чернова. STOC '18 Труды пятидесяти ежегодного симпозиума ACM по теории вычислений. arXiv:1704.03864.
  12. ^ Кынг, Расмус; Песня, Чжао (2018). Матричная граница Чернова для сильно рэлеевских распределений и спектральных распределителей из нескольких случайных остовных деревьев. FOCS '18 Симпозиум IEEE по основам информатики. arXiv:1810.08345.
  13. ^ Гольдберг, А. В .; Хартлайн, Дж. Д. (2001). «Конкурсные аукционы по продаже множества цифровых товаров». Алгоритмы - ESA 2001. Конспект лекций по информатике. 2161. п. 416. CiteSeerX  10.1.1.8.5115. Дои:10.1007/3-540-44676-1_35. ISBN  978-3-540-42493-2.; лемма 6.1
  14. ^ См. Графики: оценка как функция р когда k изменения и оценка как функция k когда р изменения.
  15. ^ См. Доказательство выше

дальнейшее чтение