Статистические выводы - Statistical inference

Статистические выводы это процесс использования анализ данных вывести свойства базового распределение вероятности.[1] Логический статистический анализ выводит свойства численность населения, например, путем проверки гипотез и получения оценок. Предполагается, что набор наблюдаемых данных отобранный от большего населения.

Выводную статистику можно противопоставить описательная статистика. Описательная статистика касается исключительно свойств наблюдаемых данных и не основывается на предположении, что данные поступают от большей совокупности. В машинное обучение, период, термин вывод иногда используется вместо этого для обозначения «сделать прогноз, оценивая уже обученную модель»;[2] в этом контексте вывод свойств модели называется обучение персонала или же учусь (скорее, чем вывод), а использование модели для прогнозирования называется вывод (вместо прогноз); смотрите также предсказательный вывод.

Вступление

Статистический вывод делает предположения о популяции, используя данные, полученные от населения с некоторой формой отбор проб. Учитывая гипотезу о популяции, для которой мы хотим сделать выводы, статистический вывод состоит из (первого) выбор а статистическая модель процесса, который генерирует данные и (второй) вывод предложений из модели.[нужна цитата ]

Кониси и Китагава заявляют: «Большинство проблем статистического вывода можно рассматривать как проблемы, связанные со статистическим моделированием».[3] Соответственно, Сэр Дэвид Кокс сказал: «Как [] перевод от предметной проблемы к статистической модели часто является наиболее важной частью анализа».[4]

В вывод статистического вывода - это статистический предложение.[5] Вот некоторые общие формы статистических предложений:

Модели и предположения

Любой статистический вывод требует некоторых предположений. А статистическая модель представляет собой набор предположений относительно генерации данных наблюдений и аналогичных данных. В описаниях статистических моделей обычно подчеркивается роль представляющих интерес количеств населения, о которых мы хотим сделать вывод.[6] Описательная статистика обычно используется в качестве предварительного шага перед тем, как делать более формальные выводы.[7]

Степень моделей / предположений

Статистики различают три уровня допущений моделирования;

  • Полностью параметрический: Предполагается, что распределения вероятностей, описывающие процесс генерации данных, полностью описываются семейством распределений вероятностей, включающим только конечное число неизвестных параметров.[6] Например, можно предположить, что распределение значений совокупности действительно нормальное, с неизвестным средним значением и дисперсией, и что наборы данных генерируются 'простая' случайная выборка. Семья обобщенные линейные модели - это широко используемый и гибкий класс параметрических моделей.
  • Непараметрический: Предположения, сделанные о процессе создания данных, намного меньше, чем в параметрической статистике, и могут быть минимальными.[8] Например, у каждого непрерывного распределения вероятностей есть медиана, которую можно оценить с помощью медианы выборки или Оценка Ходжеса – Лемана – Сена, который имеет хорошие свойства, когда данные возникают в результате простой случайной выборки.
  • Полупараметрический: Этот термин обычно подразумевает промежуточные допущения между полностью и непараметрическими подходами. Например, можно предположить, что распределение населения имеет конечное среднее значение. Более того, можно предположить, что средний уровень ответа в популяции действительно линейно зависит от некоторой ковариаты (параметрическое предположение), но не делать никаких параметрических предположений, описывающих дисперсию вокруг этого среднего значения (т.е. о наличии или возможной форме любого гетероскедастичность ). В более общем плане полупараметрические модели часто можно разделить на «структурные» и «случайные вариации» компоненты. Один компонент обрабатывается параметрически, а другой - непараметрически. Известный Модель Кокса представляет собой набор полупараметрических предположений.

Важность обоснованных моделей / предположений

Какой бы уровень предположения ни был сделан, правильно откалиброванный вывод в целом требует, чтобы эти предположения были правильными; т.е. что механизмы генерации данных действительно указаны правильно.

Неправильные предположения о 'простая' случайная выборка может опровергнуть статистический вывод.[9] Более сложные полу- и полностью параметрические предположения также вызывают озабоченность. Например, неправильное предположение о модели Кокса в некоторых случаях может привести к ошибочным выводам.[10] Неправильные предположения о нормальности в популяции также делают недействительными некоторые формы вывода на основе регрессии.[11] Использование любой Параметрическая модель скептически рассматривается большинством экспертов по выборке человеческих популяций: «большинство статистиков, занимающихся выборкой, когда они вообще имеют дело с доверительными интервалами, ограничиваются утверждениями о [оценках], основанных на очень больших выборках, где центральная предельная теорема гарантирует, что эти [ оценки] будут иметь почти нормальные распределения ".[12] В частности, нормальное распределение «было бы совершенно нереалистичным и катастрофически неразумным предположением, если бы мы имели дело с любым типом экономического населения».[12] Здесь центральная предельная теорема утверждает, что распределение выборочного среднего «для очень больших выборок» приблизительно нормально распределено, если распределение не является тяжелым хвостом.

Приблизительные распределения

Учитывая сложность определения точных распределений выборочной статистики, было разработано множество методов для их аппроксимации.

С конечными выборками результаты аппроксимации измерить, насколько близко предельное распределение приближается к статистическому распределение выборки: Например, с 10 000 независимых выборок нормальное распределение аппроксимирует (с точностью до двух знаков) распределение выборочное среднее для многих распределений населения Теорема Берри – Эссеена.[13]Тем не менее, для многих практических целей нормальное приближение обеспечивает хорошее приближение к распределению выборочного среднего при наличии 10 (или более) независимых выборок, согласно исследованиям моделирования и опыту статистиков.[13] Следуя работам Колмогорова в 1950-х годах, передовая статистика использует теория приближения и функциональный анализ для количественной оценки ошибки приближения. При таком подходе метрическая геометрия из распределения вероятностей изучается; этот подход позволяет количественно оценить ошибку аппроксимации, например, с помощью Дивергенция Кульбака – Лейблера, Расхождение Брегмана, а Расстояние Хеллингера.[14][15][16]

С бесконечно большими выборками, ограничивающие результаты словно Центральная предельная теорема описать предельное распределение выборочной статистики, если оно существует. Предельные результаты не являются утверждениями о конечных выборках и действительно не имеют отношения к конечным выборкам.[17][18][19] Однако асимптотическая теория предельных распределений часто используется для работы с конечными выборками. Например, ограничение результатов часто используется для оправдания обобщенный метод моментов и использование обобщенные оценочные уравнения, которые популярны в эконометрика и биостатистика. Величину разницы между предельным распределением и истинным распределением (формально «ошибка» приближения) можно оценить с помощью моделирования.[20] Эвристическое применение ограничения результатов конечными выборками - обычная практика во многих приложениях, особенно с низкоразмерными. модели с бревенчатый вероятность (например, с одним параметром экспоненциальные семейства ).

Модели на основе рандомизации

Для данного набора данных, созданного с помощью плана рандомизации, распределение статистики при рандомизации (при нулевой гипотезе) определяется путем оценки статистики теста для всех планов, которые могли быть сгенерированы с помощью плана рандомизации. Согласно частотному выводу, рандомизация позволяет выводам основываться на распределении рандомизации, а не на субъективной модели, и это важно, особенно при выборке обследований и планировании экспериментов.[21][22] Статистический вывод из рандомизированных исследований также более прост, чем во многих других ситуациях.[23][24][25] В Байесовский вывод, важна и рандомизация: в выборка обследования, использование отбор проб без замены обеспечивает возможность обмена выборки с населением; в рандомизированных экспериментах рандомизация гарантирует отсутствует наугад предположение для ковариантный Информация.[26]

Объективная рандомизация позволяет правильно проводить индуктивные процедуры.[27][28][29][30][31]Многие статистики предпочитают анализ данных на основе рандомизации, которые были получены с помощью четко определенных процедур рандомизации.[32] (Однако верно, что в областях науки с развитыми теоретическими знаниями и экспериментальным контролем, рандомизированные эксперименты могут увеличить стоимость экспериментов без улучшения качества выводов.[33][34]) Аналогичным образом результаты из рандомизированные эксперименты рекомендованы ведущими статистическими органами как позволяющие делать выводы с большей надежностью, чем наблюдения за теми же явлениями.[35]Однако хорошее наблюдательное исследование может быть лучше плохого рандомизированного эксперимента.

Статистический анализ рандомизированного эксперимента может быть основан на схеме рандомизации, указанной в протоколе эксперимента, и не требует субъективной модели.[36][37]

Однако в любой момент некоторые гипотезы нельзя проверить с помощью объективных статистических моделей, которые точно описывают рандомизированные эксперименты или случайные выборки. В некоторых случаях такие рандомизированные исследования неэкономичны или неэтичны.

Модельный анализ рандомизированных экспериментов

При анализе данных рандомизированных экспериментов стандартной практикой является обращение к статистической модели, например линейной или логистической модели.[38] Однако схема рандомизации определяет выбор статистической модели. Невозможно выбрать подходящую модель, не зная схемы рандомизации.[22] Серьезно вводящие в заблуждение результаты могут быть получены при анализе данных рандомизированных экспериментов при игнорировании протокола эксперимента; Общие ошибки включают забвение блокирования, используемого в эксперименте, и путаницу повторных измерений на одной и той же экспериментальной установке с независимыми повторами обработки, применяемой к различным экспериментальным единицам.[39]

Вывод рандомизации без модели

Методы, свободные от моделей, дополняют методы, основанные на моделях, которые используют редукционистские стратегии упрощения реальности. Первые объединяют, развивают, объединяют и обучают алгоритмы, динамически адаптируясь к контекстуальным особенностям процесса и изучая внутренние характеристики наблюдений.[38][40]

Например, простая линейная регрессия без модели основана либо на

  • а случайный дизайн, где пары наблюдений независимы и одинаково распределены (iid), или
  • а детерминированный дизайн, где переменные детерминированы, но соответствующие переменные отклика случайны и независимы с общим условным распределением, т. е. , который не зависит от индекса .

В любом случае вывод рандомизации без использования модели для характеристик общего условного распределения полагается на некоторые условия регулярности, например функциональная плавность. Например, рандомизационный вывод без использования модели для характеристики совокупности условное среднее, , можно последовательно оценить с помощью локального усреднения или локального полиномиального подбора в предположении, что гладко. Кроме того, полагаясь на асимптотическую нормальность или повторную выборку, мы можем построить доверительные интервалы для признака совокупности, в данном случае условное среднее, .[41]

Парадигмы для вывода

Установились различные школы статистического вывода. Эти школы - или «парадигмы» - не исключают друг друга, и методы, которые хорошо работают в рамках одной парадигмы, часто имеют привлекательные интерпретации в других парадигмах.

Bandyopadhyay & Forster[42] описывают четыре парадигмы: «(i) классическая статистика или статистика ошибок, (ii) байесовская статистика, (iii) статистика, основанная на правдоподобии, и (iv) статистика на основе информационных критериев Акаике». Классический (или частотник ) парадигма Байесовский парадигма правдоподобный парадигма, и AIC -основанные парадигмы кратко изложены ниже.

Заключение частотника

Эта парадигма калибрует правдоподобие предположений, рассматривая (условно) повторяющуюся выборку распределения населения для получения наборов данных, подобных тому, который имеется в наличии. Рассматривая характеристики набора данных при повторной выборке, частотные свойства статистического предложения могут быть определены количественно, хотя на практике такая количественная оценка может оказаться сложной задачей.

Примеры частотного вывода

Частичный вывод, объективность и теория принятия решений

Одна интерпретация частотный вывод (или классический вывод) состоит в том, что он применим только с точки зрения частотная вероятность; то есть с точки зрения повторной выборки из совокупности. Однако подход Неймана[43] разрабатывает эти процедуры с точки зрения предэкспериментальных вероятностей. То есть, перед проведением эксперимента, каждый выбирает правило для прихода к выводу, чтобы вероятность правильности контролировалась подходящим образом: такая вероятность не обязательно должна иметь частотную интерпретацию или интерпретацию повторной выборки. Напротив, байесовский вывод работает с точки зрения условных вероятностей (то есть вероятностей, обусловленных наблюдаемыми данными) по сравнению с предельными (но обусловленными неизвестными параметрами) вероятностями, используемыми в частотном подходе.

Частотные процедуры проверки значимости и доверительных интервалов могут быть построены без учета служебные функции. Однако некоторые элементы частотной статистики, такие как теория статистических решений, включить служебные функции.[нужна цитата ] В частности, частотные разработки оптимального вывода (такие как несмещенные оценки с минимальной дисперсией, или же равномерно наиболее мощное тестирование ) использовать функции потерь, которые играют роль (отрицательных) функций полезности. Для статистических теоретиков нет необходимости явно указывать функции потерь, чтобы доказать, что статистическая процедура обладает свойством оптимальности.[44] Однако функции потерь часто полезны для определения свойств оптимальности: например, несмещенные по медиане оценки оптимальны при абсолютная величина функции потерь, поскольку они минимизируют ожидаемые потери, и наименьших квадратов Оценщики оптимальны для возведенных в квадрат функций потерь, поскольку они минимизируют ожидаемые потери.

Статистики, использующие частотный вывод, должны сами выбрать интересующие параметры, а оценщики /статистика теста Для использования, отсутствие явно явных утилит и предшествующих распределений помогло частотным процедурам широко рассматриваться как «объективные».[45]

Байесовский вывод

Байесовское исчисление описывает степени веры, используя «язык» вероятности; убеждения положительны, объединены в одно и подчиняются аксиомам вероятности. Байесовский вывод использует доступные апостериорные убеждения в качестве основы для статистических предположений. Есть несколько разных оправданий для использования байесовского подхода.

Примеры байесовского вывода

Байесовский вывод, теория субъективности и принятия решений

Многие неформальные байесовские выводы основаны на «интуитивно разумных» обобщениях апостериорного анализа. Например, апостериорное среднее, медиана и мода, интервалы максимальной апостериорной плотности и байесовские факторы могут быть мотивированы таким образом. Пока пользователь вспомогательная функция Нет необходимости делать выводы для такого рода выводов, все эти выводы зависят (в некоторой степени) от ранее высказанных убеждений и обычно рассматриваются как субъективные выводы. (Методы предшествующего строительства, которые не требуют внешнего ввода, были предложил но еще не полностью разработан.)

Формально байесовский вывод калибруется со ссылкой на явно заявленную полезность или функцию потерь; «Правило Байеса» - это правило, которое максимизирует ожидаемую полезность, усредненную по апостериорной неопределенности. Таким образом, формальный байесовский вывод автоматически дает оптимальные решения в теория принятия решений смысл. Учитывая предположения, данные и полезность, байесовский вывод может быть сделан практически для любой проблемы, хотя не каждый статистический вывод должен иметь байесовскую интерпретацию. Анализы, которые формально не являются байесовскими, могут быть (логически) бессвязный; особенность байесовских процедур, в которых используются правильные априорные значения (т.е. интегрируемые с одним), заключается в том, что они гарантированно будут последовательный. Некоторые сторонники Байесовский вывод утверждать, что вывод должен происходят в рамках этой теории принятия решений, и что Байесовский вывод не следует заканчивать оценкой и обобщением апостериорных убеждений.

Вывод на основе правдоподобия

Правдоподобие приближается к статистике с помощью функция правдоподобия. Некоторые правдоподобные люди отвергают умозаключения, считая статистику лишь вычислительной поддержкой свидетельств. Другие, однако, предлагают вывод на основе функции правдоподобия, наиболее известной из которых является оценка максимального правдоподобия.

Вывод на основе AIC

В Информационный критерий Акаике (AIC) - это оценщик относительного качества статистические модели для заданного набора данных. Учитывая набор моделей для данных, AIC оценивает качество каждой модели относительно каждой из других моделей. Таким образом, AIC предоставляет средства для выбор модели.

AIC основана на теория информации: он предлагает оценку относительной информации, потерянной при использовании данной модели для представления процесса, который сгенерировал данные. (При этом речь идет о компромиссе между степень соответствия модели и простота модели.)

Другие парадигмы для вывода

Минимальная длина описания

Принцип минимальной длины описания (MDL) был разработан на основе идей в теория информации[46] и теория Колмогоровская сложность.[47] Принцип (MDL) выбирает статистические модели, которые максимально сжимают данные; вывод происходит без предположения о контрфактических или нефальсифицируемых «механизмах генерации данных» или вероятностные модели для данных, как это может быть сделано в частотном или байесовском подходах.

Однако, если «механизм генерации данных» действительно существует, то согласно Шеннон с теорема кодирования исходного кода он обеспечивает MDL-описание данных в среднем и асимптотически.[48] При минимизации длины описания (или описательной сложности) оценка MDL аналогична оценка максимального правдоподобия и максимальная апостериорная оценка (с помощью максимальная энтропия Байесовские априоры ). Однако MDL избегает предположения, что основная вероятностная модель известна; принцип MDL также может применяться без предположений, например, данные были получены в результате независимой выборки.[48][49]

Принцип MDL был применен в коммуникации -теория кодирования в теория информации, в линейная регрессия,[49] И в сбор данных.[47]

При оценке процедур вывода на основе MDL часто используются методы или критерии из теория сложности вычислений.[50]

Фидуциальный вывод

Фидуциальный вывод был подход к статистическому выводу, основанный на фидуциальная вероятность, также известное как «реперное распределение». В последующих работах этот подход был назван плохо определенным, крайне ограниченным в применимости и даже ошибочным.[51][52] Однако этот аргумент аналогичен тому, который показывает[53] что так называемый распределение уверенности не действительный распределение вероятностей и, поскольку это не сделало недействительным применение доверительные интервалы, это не обязательно отменяет выводы, сделанные на основе достоверных аргументов. Была сделана попытка переосмыслить ранние работы Фишера. исходный аргумент как частный случай теории вывода с использованием Верхняя и нижняя вероятности.[54]

Структурный вывод

Развивая идеи Фишера и Питмана с 1938 по 1939 год,[55] Джордж А. Барнард развитый "структурный вывод" или "основной вывод",[56] подход с использованием инвариантные вероятности на групповые семьи. Барнард переформулировал аргументы, лежащие в основе реперного вывода для ограниченного класса моделей, на которых «реперные» процедуры были бы хорошо определены и полезны.

Темы вывода

Приведенные ниже темы обычно входят в область статистические выводы.

  1. Статистические допущения
  2. Статистическая теория принятия решений
  3. Теория оценок
  4. Статистическая проверка гипотез
  5. Пересмотр мнений в статистике
  6. Дизайн экспериментов, то дисперсионный анализ, и регресс
  7. Выборка опроса
  8. Обобщение статистических данных

История

Аль-Кинди, Арабский математик в 9 веке впервые использовал статистический вывод в своих Рукопись по расшифровке криптографических сообщений, работа над криптоанализ и частотный анализ.[57]

Смотрите также

Примечания

  1. ^ Согласно Пирсу, принятие означает, что исследование этого вопроса на время прекращается. В науке все научные теории допускают пересмотр.

Рекомендации

Цитаты

  1. ^ Аптон, Г., Кук, И. (2008) Оксфордский статистический словарь, ОУП. ISBN  978-0-19-954145-4.
  2. ^ «Вывод TensorFlow Lite». Период, термин вывод относится к процессу выполнения модели TensorFlow Lite на устройстве для прогнозирования на основе входных данных.
  3. ^ Кониси и Китагава (2008), стр. 75.
  4. ^ Кокс (2006), стр. 197.
  5. ^ «Статистический вывод - математическая энциклопедия». www.encyclopediaofmath.org. Получено 2019-01-23.
  6. ^ а б Кокс (2006) стр.2
  7. ^ Эванс, Майкл; и другие. (2004). Вероятность и статистика: наука о неопределенности. Фримен и компания. п. 267. ISBN  9780716747420.
  8. ^ ван дер Ваарт, А.В. (1998) Асимптотическая статистика Издательство Кембриджского университета. ISBN  0-521-78450-6 (стр. 341)
  9. ^ Крускал 1988
  10. ^ Фридман, Д.А. (2008) «Анализ выживаемости: эпидемиологическая опасность?». Американский статистик (2008) 62: 110-119. (Перепечатано как Глава 11 (страницы 169–192) Freedman (2010)).
  11. ^ Берк, Р. (2003) Регрессионный анализ: конструктивная критика (передовые количественные методы в социальных науках) (v. 11) Публикации Sage. ISBN  0-7619-2904-5
  12. ^ а б Брюэр, Кен (2002). Вывод комбинированной выборки: взвешивание слонов Басу. Ходдер Арнольд. п. 6. ISBN  978-0340692295.
  13. ^ а б Йоргена Хоффмана-Йоргенсена Вероятность с точки зрения статистики, Том I. Страница 399[требуется полная цитата ]
  14. ^ Ле Кам (1986)[страница нужна ]
  15. ^ Эрик Торгерсон (1991) Сравнение статистических экспериментов, том 36 Энциклопедии математики. Издательство Кембриджского университета.[требуется полная цитата ]
  16. ^ Лизе, Фридрих и Миске, Клаус-Дж. (2008). Статистическая теория принятия решений: оценка, тестирование и выбор. Springer. ISBN  978-0-387-73193-3.
  17. ^ Колмогоров (1963, с. 369): «Концепция частоты, основанная на понятии предельной частоты при увеличении числа попыток до бесконечности, ничего не способствует обоснованию применимости результатов теории вероятностей к реальным практическим задачам, в которых мы всегда приходится иметь дело с конечным числом испытаний ".
  18. ^ «Действительно, предельные теоремы» как стремится к бесконечности », логически лишены содержания о том, что происходит в конкретном. Все, что они могут сделать, это предложить определенные подходы, эффективность которых затем необходимо проверить в конкретном случае ". - Ле Кам (1986) (стр. Xiv)
  19. ^ Pfanzagl (1994): «Главный недостаток асимптотической теории: от асимптотической теории мы ожидаем результатов, которые имеют приблизительное значение ... Асимптотическая теория может предложить предельные теоремы» (стр. Ix) «Для приложений важны приближения. , а не пределы ". (стр.188)
  20. ^ Пфанзагл (1994): «Принимая предельную теорему как приблизительно верную для больших размеров выборки, мы допускаем ошибку, размер которой неизвестен.. .] Реалистичная информация об оставшихся ошибках может быть получена путем моделирования. "(Стр. Ix)
  21. ^ Нейман, Дж. (1934) «О двух различных аспектах репрезентативного метода: методе стратифицированной выборки и методе целенаправленного отбора», Журнал Королевского статистического общества, 97 (4), 557–625 JSTOR  2342192
  22. ^ а б Хинкельманн и Кемпторн (2008)[страница нужна ]
  23. ^ Рекомендации ASA для первого курса статистики для не статистиков. (доступно на сайте ASA)
  24. ^ Дэвид А. Фридман и другие Статистика.
  25. ^ Мур и др. (2015).
  26. ^ Гельман А. и другие. (2013). Байесовский анализ данных (Чепмен и Холл ).
  27. ^ Пирс (1877-1878)
  28. ^ Пирс (1883)
  29. ^ Фридман, Пизани и Первес 1978.
  30. ^ Дэвид А. Фридман Статистические модели.
  31. ^ Рао, К. (1997) Статистика и правда: шанс работать, World Scientific. ISBN  981-02-3111-3
  32. ^ Пирс; Вольноотпущенник; Мур и др. (2015).[нужна цитата ]
  33. ^ Коробка, G.E.P. и друзья (2006) Улучшение почти всего: идеи и эссе, исправленное издание, Wiley. ISBN  978-0-471-72755-2
  34. ^ Кокс (2006), стр. 196.
  35. ^ Рекомендации ASA для первого курса статистики для не статистиков. (доступно на сайте ASA)
    • Дэвид А. Фридман и другие Статистика.
    • Мур и др. (2015).
  36. ^ Нейман, Ежи. 1923 [1990]. «О применении теории вероятностей к сельскохозяйственным экспериментам. Очерк принципов. Раздел 9». Статистическая наука 5 (4): 465–472. Пер. Дорота М. Домбровска и Теренс П. Скорость.
  37. ^ Хинкельманн и Кемпторн (2008)[страница нужна ]
  38. ^ а б Динов, Иво; Паланималаи, Сельвам; Кхаре, Ашвини; Кристу, Николас (2018). «Статистический вывод на основе рандомизации: инфраструктура повторной выборки и моделирования». Статистика обучения. 40 (2): 64–73. Дои:10.1111 / test.12156. ЧВК  6155997. PMID  30270947.
  39. ^ Хинкельманн и Кемпторн (2008) Глава 6.
  40. ^ Тан, Мин; Гао, Чао; Гутман, Стивен; Калинин, Александр; Мукерджи, Бхрамар; Гуань, Юаньфан; Динов, Иво (2019). «Модельные и безмодельные методы диагностики бокового амиотрофического склероза и кластеризации пациентов». Нейроинформатика. 17 (3): 407–421. Дои:10.1007 / s12021-018-9406-9. ЧВК  6527505. PMID  30460455.
  41. ^ Политис, Д.Н. (2019). «Безмодельный вывод в статистике: как и почему». Бюллетень IMS. 48.
  42. ^ Bandyopadhyay и Forster (2011). Цитата взята из введения к книге (стр. 3). См. Также «Раздел III: Четыре парадигмы статистики».
  43. ^ Нейман, Дж. (1937). «Очерк теории статистического оценивания на основе классической теории вероятностей». Философские труды Лондонского королевского общества A. 236 (767): 333–380. Дои:10.1098 / рста.1937.0005. JSTOR  91337.
  44. ^ Предисловие к Пфанзаглю.
  45. ^ Литтл, Родерик Дж. (2006). «Калиброванный Байесовский кодекс: дорожная карта Байеса / Frequentist». Американский статистик. 60 (3): 213–223. Дои:10.1198 / 000313006X117837. ISSN  0003-1305. JSTOR  27643780. S2CID  53505632.
  46. ^ Софи (2000)
  47. ^ а б Хансен и Ю (2001)
  48. ^ а б Хансен и Ю (2001), стр. 747.
  49. ^ а б Риссанен (1989), стр. 84
  50. ^ Джозеф Ф. Трауб, Г. В. Васильковский и Х. Возняковский. (1988)[страница нужна ]
  51. ^ Нейман (1956)
  52. ^ Забелл (1992)
  53. ^ Кокс (2006) стр.66
  54. ^ Хэмпел 2003.
  55. ^ Дэвисон, стр.12.[требуется полная цитата ]
  56. ^ Барнард, Г.А. (1995) «Основные модели и исходный аргумент», International Statistical Review, 63 (3), 309–323. JSTOR  1403482
  57. ^ Бромелинг, Лайл Д. (1 ноября 2011 г.). «Отчет о ранних статистических выводах в арабской криптологии». Американский статистик. 65 (4): 255–257. Дои:10.1198 / tas.2011.10191. S2CID  123537702.

Источники

дальнейшее чтение

внешняя ссылка