Байесовская сеть - Bayesian network

А Байесовская сеть (также известный как Сеть Байеса, сеть убеждений, или же сеть принятия решений) является вероятностным графическая модель который представляет собой набор переменных и их условные зависимости через ориентированный ациклический граф (DAG). Байесовские сети идеально подходят для анализа произошедшего события и прогнозирования вероятности того, что любая из нескольких возможных известных причин была способствующим фактором. Например, байесовская сеть может представлять вероятностные отношения между болезнями и симптомами. Учитывая симптомы, сеть может использоваться для вычисления вероятности наличия различных заболеваний.

Эффективные алгоритмы могут выполнять вывод и учусь в байесовских сетях. Байесовские сети, моделирующие последовательности переменных (например речевые сигналы или белковые последовательности ) называются динамические байесовские сети. Обобщения байесовских сетей, которые могут представлять и решать задачи принятия решений в условиях неопределенности, называются диаграммы влияния.

Графическая модель

Формально байесовские сети ориентированные ациклические графы (DAG), узлы которых представляют переменные в Байесовский смысл: они могут быть наблюдаемыми величинами, скрытые переменные, неизвестные параметры или гипотезы. Ребра представляют собой условные зависимости; узлы, которые не связаны (путь не соединяет один узел с другим), представляют переменные, которые условно независимый друг друга. Каждый узел связан с функция вероятности который принимает в качестве входных данных определенный набор значений для узла родитель переменных и дает (в качестве выходных данных) вероятность (или распределение вероятностей, если применимо) переменной, представленной узлом. Например, если родительские узлы представляют Булевы переменные, то функцию вероятности можно представить в виде таблицы записи, по одной записи для каждой из возможные родительские комбинации. Подобные идеи могут быть применены к неориентированным и, возможно, циклическим графам, таким как Марковские сети.

пример

Простая байесовская сеть с таблицы условной вероятности

Два события могут вызвать намокание травы: активный дождеватель или дождь. Дождь имеет прямое влияние на использование спринклера (а именно, когда идет дождь, спринклер обычно не работает). Эту ситуацию можно смоделировать с помощью байесовской сети (показано справа). Каждая переменная имеет два возможных значения: T (истина) и F (ложь).

В совместная функция вероятности является:

куда грамм = "Трава мокрая (истина / ложь)", S = "Спринклер включен (истина / ложь)" и р = "Дождь (истина / ложь)".

Модель может ответить на вопросы о наличии причины при наличии эффекта (так называемая обратная вероятность), например: «Какова вероятность того, что идет дождь, учитывая, что трава мокрая?» используя условная возможность формула и суммирование по всем мешающие переменные:

Используя разложение для совместной функции вероятности и условные вероятности из таблицы условной вероятности (CPT) Как указано на схеме, каждый член можно оценить в суммах в числителе и знаменателе. Например,

Тогда численные результаты (с индексами соответствующих значений переменных) будут

Чтобы ответить на интервенционный вопрос, например, «Какова вероятность того, что пойдет дождь, если намочить траву?» ответ определяется функцией совместного распределения после вмешательства

получается путем удаления множителя из распределения до вмешательства. Оператор do заставляет значение G быть истинным. На вероятность дождя не влияет действие:

Чтобы спрогнозировать влияние включения спринклера:

со сроком удалено, показывая, что действие влияет на траву, но не на дождь.

Эти прогнозы могут оказаться невозможными с учетом ненаблюдаемых переменных, как в большинстве проблем оценки политики. Эффект от действия однако все еще можно предсказать, когда выполняется критерий «черного хода».[1][2] В нем говорится, что если набор Z узлов можно заметить, что d-отделяется[3] (или блокирует) все обходные пути от Икс к Y тогда

Черный ход - это тот, который заканчивается стрелкой в Икс. Наборы, удовлетворяющие критерию «черного хода», называются «достаточными» или «допустимыми». Например, набор Z = р допустимо для предсказания эффекта S = Т на грамм, потому что р d- отделяет (единственный) черный ход S ← р → грамм. Однако если S не наблюдается, другого набора нет d- отделяет этот путь от эффекта включения оросителя (S = Т) на траве (грамм) нельзя предсказать из пассивных наблюдений. В таком случае п(грамм | делать(S = Т)) не "опознано". Это отражает тот факт, что при отсутствии интервенционных данных наблюдаемая зависимость между S и грамм возникает из-за причинной связи или является ложным (очевидная зависимость, возникающая из общей причины, р). (видеть Парадокс Симпсона )

Чтобы определить, идентифицируется ли причинная связь из произвольной байесовской сети с ненаблюдаемыми переменными, можно использовать три правила "делать-исчисление"[1][4] и проверьте, все ли делать члены могут быть удалены из выражения этого отношения, тем самым подтверждая, что желаемое количество можно оценить по частотным данным.[5]

Использование байесовской сети может сэкономить значительные объемы памяти за счет исчерпывающих таблиц вероятностей, если зависимости в совместном распределении редки. Например, наивный способ хранения условных вероятностей 10 двузначных переменных в виде таблицы требует места для хранения значения. Если локальное распределение переменных не зависит от более чем трех родительских переменных, байесовское сетевое представление хранит не более значения.

Одним из преимуществ байесовских сетей является то, что человеку интуитивно легче понять (разреженный набор) прямые зависимости и локальные распределения, чем полные совместные распределения.

Вывод и обучение

Байесовские сети выполняют три основные задачи вывода:

Вывод ненаблюдаемых переменных

Поскольку байесовская сеть представляет собой полную модель своих переменных и их взаимосвязей, ее можно использовать для ответа на вероятностные запросы о них. Например, сеть может использоваться для обновления информации о состоянии подмножества переменных, когда другие переменные ( доказательства переменные). Этот процесс вычисления задний Распределение переменных при наличии свидетельств называется вероятностным выводом. Задний дает универсальный достаточная статистика для приложений обнаружения, при выборе значений для подмножества переменных, которые минимизируют некоторую ожидаемую функцию потерь, например вероятность ошибки решения. Таким образом, байесовскую сеть можно рассматривать как механизм для автоматического применения Теорема Байеса к сложным проблемам.

Наиболее распространенные методы точного вывода: исключение переменных, который удаляет (путем интегрирования или суммирования) ненаблюдаемые переменные, не относящиеся к запросу, одну за другой, распределяя сумму по продукту; размножение кликового дерева, который кэширует вычисления, чтобы можно было запросить сразу несколько переменных и быстро распространить новые свидетельства; и рекурсивное кондиционирование и поиск И / ИЛИ, которые позволяют компромисс между пространством и временем и соответствовать эффективности исключения переменных, когда используется достаточно места. Все эти методы имеют сложность, экспоненциальную по сравнению с сетью. ширина дерева. Самый распространенный приблизительный вывод алгоритмы выборка по важности, стохастический MCMC моделирование, устранение мини-ковша, шаткое распространение убеждений, распространение общих убеждений и вариационные методы.

Обучение параметрам

Чтобы полностью определить байесовскую сеть и, таким образом, полностью представить совместное распределение вероятностей, необходимо указать для каждого узла Икс распределение вероятностей для Икс при условии ИКС'с родителями. Распределение Икс при условии, что его родители могут иметь любую форму. Обычно работают с дискретными или Гауссовские распределения поскольку это упрощает расчеты. Иногда известны только ограничения на распределение; затем можно использовать принцип максимальной энтропии для определения единственного распределения, с наибольшим энтропия учитывая ограничения. (Аналогично, в конкретном контексте динамическая байесовская сеть, условное распределение для временной эволюции скрытого состояния обычно задается, чтобы максимизировать скорость энтропии подразумеваемого случайного процесса.)

Часто эти условные распределения включают параметры, которые неизвестны и должны быть оценены на основе данных, например, с помощью максимальная вероятность подход. Прямая максимизация вероятности (или апостериорная вероятность ) часто бывает сложным с учетом ненаблюдаемых переменных. Классический подход к этой проблеме - алгоритм максимизации ожидания, который чередует вычисление ожидаемых значений ненаблюдаемых переменных, обусловленных наблюдаемыми данными, с максимизацией полной вероятности (или апостериорной), предполагающей, что ранее вычисленные ожидаемые значения верны. В условиях умеренной регулярности этот процесс сходится к значениям максимального правдоподобия (или максимальным апостериорным) значениям параметров.

Более полно байесовский подход к параметрам состоит в том, чтобы рассматривать их как дополнительные ненаблюдаемые переменные и вычислять полное апостериорное распределение по всем узлам, обусловленное наблюдаемыми данными, а затем интегрировать параметры. Этот подход может быть дорогостоящим и вести к моделям большого размера, что делает классические подходы к настройке параметров более гибкими.

Структурное обучение

В простейшем случае байесовская сеть определяется экспертом и затем используется для выполнения вывода. В других приложениях задача определения сети слишком сложна для человека. В этом случае структура сети и параметры локальных распределений должны быть изучены из данных.

Автоматическое изучение структуры графа байесовской сети (BN) - задача, решаемая в машинное обучение. Основная идея восходит к алгоритму восстановления, разработанному Ребане и Жемчужина[6] и основан на различии между тремя возможными шаблонами, разрешенными в 3-узловом DAG:

Узоры соединений
ШаблонМодель
Цепь
Вилка
Коллайдер

Первые 2 представляют собой одинаковые зависимости ( и независимы, учитывая ) и поэтому неотличимы. Коллайдер, однако, можно однозначно идентифицировать, поскольку и незначительно независимы, а все остальные пары зависимы. Таким образом, пока скелеты (графики без стрелок) этих трех троек идентичны, направление стрелок частично идентифицируется. Такое же различие применяется, когда и иметь общих родителей, за исключением того, что нужно сначала поставить условие на этих родителей. Были разработаны алгоритмы для систематического определения скелета нижележащего графа и последующего ориентирования всех стрелок, направление которых продиктовано наблюдаемой условной независимостью.[1][7][8][9]

Альтернативный метод структурного обучения использует поиск на основе оптимизации. Это требует функция подсчета очков и стратегия поиска. Обычная функция оценки апостериорная вероятность структуры с учетом обучающих данных, например BIC или BDeu. Требование времени исчерпывающий поиск возврат структуры, которая максимизирует оценку, сверхэкспоненциальный по количеству переменных. Стратегия локального поиска вносит постепенные изменения, направленные на улучшение оценки структуры. Алгоритм глобального поиска вроде Цепь Маркова Монте-Карло можно избежать попадания в ловушку локальные минимумы. Friedman et al.[10][11] обсудить использование взаимная информация между переменными и поиск структуры, которая максимизирует это. Они делают это, ограничивая набор родительских кандидатов до k узлов и тщательный поиск в них.

Особенно быстрый метод точного обучения BN - это преобразовать задачу в задачу оптимизации и решить ее, используя целочисленное программирование. Ограничения ацикличности добавляются к целочисленной программе (IP) во время решения в виде рубки.[12] Такой метод может обрабатывать задачи с количеством переменных до 100.

Чтобы справиться с проблемами с тысячами переменных, необходим другой подход. Один состоит в том, чтобы сначала выбрать один порядок, а затем найти оптимальную структуру BN по отношению к этому порядку. Это подразумевает работу над пространством поиска возможных порядков, что удобно, так как оно меньше пространства сетевых структур. Затем производится выборка и оценка нескольких заказов. Этот метод оказался лучшим из доступных в литературе при огромном количестве переменных.[13]

Другой метод состоит в сосредоточении внимания на подклассе разложимых моделей, для которых MLE иметь закрытую форму. Тогда можно обнаружить непротиворечивую структуру для сотен переменных.[14]

Изучение байесовских сетей с ограниченной шириной дерева необходимо для обеспечения точного, управляемого вывода, поскольку сложность вывода в наихудшем случае экспоненциально зависит от ширины дерева k (согласно гипотезе экспоненциального времени). Тем не менее, как глобальное свойство графа, оно значительно увеличивает сложность процесса обучения. В этом контексте можно использовать K-дерево для эффективного обучения.[15]

Статистическое введение

Данные данные и параметр , просто Байесовский анализ начинается с априорная вероятность (прежний) и вероятность вычислить апостериорная вероятность .

Часто приора на в свою очередь зависит от других параметров которые не упоминаются в вероятности. Итак, предыдущий должна быть заменена вероятностью , и предыдущий по вновь введенным параметрам требуется, что приводит к апостериорной вероятности

Это простейший пример иерархическая байесовская модель.[требуется разъяснение ]

Процесс можно повторить; например, параметры в свою очередь может зависеть от дополнительных параметров , которые требуют собственного приора. В конце концов, процесс должен завершиться с приоритетами, которые не зависят от не упомянутых параметров.

Вводные примеры

Учитывая измеренные величины каждый с нормально распределенный ошибки известных стандартное отклонение ,

Предположим, нас интересует оценка . Подход состоял бы в оценке используя максимальная вероятность подход; поскольку наблюдения независимы, вероятность факторизуется, и оценка максимального правдоподобия просто

Однако, если количества связаны между собой, например, человек сами были взяты из базового распределения, то эта взаимосвязь разрушает независимость и предлагает более сложную модель, например,

с неподходящие приоры , . Когда , это идентифицированная модель (т.е. существует единственное решение для параметров модели), а апостериорные распределения отдельных будет двигаться, или сокращаться от оценок максимального правдоподобия к их общему среднему значению. Этот усадка является типичным поведением в иерархических байесовских моделях.

Ограничения по приору

Необходима некоторая осторожность при выборе априорных значений в иерархической модели, особенно в отношении масштабных переменных на более высоких уровнях иерархии, таких как переменная в примере. Обычные приоры типа Джеффрис приор часто не работают, потому что апостериорное распределение не поддается нормализации и оценки делаются путем минимизации ожидаемый убыток будет недопустимый.

Определения и понятия

Было предложено несколько эквивалентных определений байесовской сети. Для следующего пусть грамм = (V,E) быть ориентированный ациклический граф (DAG) и пусть Икс = (Иксv), vV быть набором случайные переменные проиндексировано V.

Определение факторизации

Икс является байесовской сетью относительно грамм если его совместное функция плотности вероятности (относительно мера продукта ) может быть записано как произведение отдельных функций плотности в зависимости от их родительских переменных:[16]

где pa (v) - множество родителей v (то есть те вершины, которые указывают прямо на v через одно ребро).

Для любого набора случайных величин вероятность любого члена совместное распределение можно вычислить из условных вероятностей с помощью Правило цепи (учитывая топологический порядок из Икс) следующим образом:[16]

Используя приведенное выше определение, это можно записать как:

Разница между двумя выражениями заключается в условная независимость переменных из любых их не-потомков, учитывая значения их родительских переменных.

Местная марковская собственность

Икс является байесовской сетью относительно грамм если он удовлетворяет местная марковская собственность: каждая переменная условно независимый его не-потомков с учетом его родительских переменных:[17]

где де (v) - множество потомков и V де (v) - множество не потомков v.

Это можно выразить в терминах, аналогичных первому определению, как

Набор родителей - это подмножество множества не-потомков, потому что граф ациклический.

Развитие байесовских сетей

Разработка байесовской сети часто начинается с создания группы DAG. грамм такой, что Икс удовлетворяет локальному марковскому свойству относительно грамм. Иногда это причинный DAG. Условные распределения вероятностей каждой переменной с учетом ее родителей в грамм оцениваются. Во многих случаях, в частности, в случае дискретных переменных, если совместное распределение Икс является продуктом этих условных распределений, то Икс является байесовской сетью относительно грамм.[18]

Марковское одеяло

В Марковское одеяло узла - это набор узлов, состоящий из его родителей, его потомков и любых других родителей его потомков. Одеяло Маркова делает узел независимым от остальной сети; совместное распределение переменных в марковском бланкете узла является достаточным знанием для вычисления распределения узла. Икс является байесовской сетью относительно грамм если каждый узел условно независим от всех других узлов в сети, учитывая его Марковское одеяло.[17]

d-разделение

Это определение можно сделать более общим, определив «d» -разделение двух узлов, где d означает направленность.[1] Сначала мы определим «d» -разделение трассы, а затем мы определим «d» -разделение двух узлов в терминах этого.

Позволять п быть следом от узла ты к v. Трасса - это свободный от петель, неориентированный (т.е. все направления краев игнорируются) путь между двумя узлами. потом п как говорят d-отделены набором узлов Z если выполняется одно из следующих условий:

  • п содержит (но не обязательно полностью) направленную цепочку, или , так что средний узел м в Z,
  • п содержит вилку, , так что средний узел м в Z, или же
  • п содержит перевернутую вилку (или коллайдер), , так что средний узел м не в Z и не потомок м в Z.

Узлы ты и v находятся d-разделены по Z если все тропы между ними d-разделено. Если ты и v не d-разделены, они d-связаны.

Икс является байесовской сетью относительно грамм если для любых двух узлов ты, v:

куда Z это набор, который d-отделяется ты и v. (The Марковское одеяло - минимальный набор узлов, который d-отделяет узел v со всех остальных узлов.)

Причинные сети

Хотя байесовские сети часто используются для представления причинный отношений, этого не должно быть: направленный край от ты к v не требует этого Иксv быть причинно зависимым от Иксты. Об этом свидетельствует тот факт, что байесовские сети на графах:

эквивалентны: то есть они предъявляют точно такие же требования условной независимости.

Причинная сеть - это байесовская сеть с требованием, чтобы отношения были причинными. Дополнительная семантика причинных сетей указывает, что если узел Икс активно заставляет быть в данном состоянии Икс (действие написано как do (Икс = Икс)), то функция плотности вероятности изменится на функцию плотности сети, полученную путем отсечения ссылок от родителей Икс к Икс, и установка Икс к причиненной стоимости Икс.[1] Используя эту семантику, можно прогнозировать влияние внешнего вмешательства на основании данных, полученных до вмешательства.

Сложность вывода и алгоритмы аппроксимации

В 1990 году, работая в Стэнфордском университете над большими биоинформатическими приложениями, Купер доказал, что точный вывод в байесовских сетях возможен. NP-жесткий.[19] Этот результат побудил исследовать алгоритмы аппроксимации с целью разработки удобного приближения к вероятностному выводу. В 1993 году Дагум и Луби доказал два удивительных результата о сложности аппроксимации вероятностного вывода в байесовских сетях.[20] Во-первых, они доказали, что сговорчивость детерминированный алгоритм может аппроксимировать вероятностный вывод с точностью до абсолютная ошибка ɛ <1/2. Во-вторых, они доказали, что не поддается рандомизированный алгоритм может аппроксимировать вероятностный вывод с точностью до абсолютной ошибки ɛ <1/2 с доверительной вероятностью больше 1/2.

Примерно в то же время Рот доказал, что точный вывод в байесовских сетях на самом деле # P-complete (и поэтому так же сложно, как подсчитать количество выполненных заданий конъюнктивная нормальная форма формула (CNF) и приблизительный вывод с точностью до 2п1−ɛ для каждого ɛ > 0, даже для байесовских сетей с ограниченной архитектурой, NP-сложно.[21][22]

С практической точки зрения, эти результаты сложности предполагают, что, хотя байесовские сети были богатым представлением для приложений ИИ и машинного обучения, их использование в больших реальных приложениях должно было сдерживаться либо топологическими структурными ограничениями, такими как наивные байесовские сети, либо ограничениями. от условных вероятностей. Алгоритм ограниченной дисперсии[23] был первым доказуемым алгоритмом быстрого приближения для эффективного приближения вероятностного вывода в байесовских сетях с гарантиями приближения ошибки. Этот мощный алгоритм требовал, чтобы небольшое ограничение на условные вероятности байесовской сети было отделено от нуля и единицы с помощью 1 /п(п) где п(п) был любым полиномом от числа узлов в сетип.

Программного обеспечения

Известное программное обеспечение для байесовских сетей включает:

  • Еще один сэмплер Гиббса (JAGS) - Альтернатива WinBUGS с открытым исходным кодом. Использует выборку Гиббса.
  • OpenBUGS - Разработка WinBUGS с открытым исходным кодом.
  • SPSS Modeler - Коммерческое программное обеспечение, включающее реализацию для байесовских сетей.
  • Стэн (программное обеспечение) - Stan - это пакет с открытым исходным кодом для получения байесовского вывода с использованием семплера No-U-Turn (NUTS),[24] вариант гамильтониана Монте-Карло.
  • PyMC3 - Библиотека Python, реализующая встроенный предметно-ориентированный язык для представления байесовских сетей и различных семплеров (включая NUTS)
  • WinBUGS - Одна из первых вычислительных реализаций семплеров MCMC. Больше не поддерживается.

История

Термин байесовская сеть был введен Жемчужина Иудеи в 1985 году, чтобы подчеркнуть:[25]

  • часто субъективный характер вводимой информации
  • использование условий Байеса как основы для обновления информации
  • различие между причинным и доказательным способами рассуждения[26]

В конце 1980-х годов Pearl's Вероятностные рассуждения в интеллектуальных системах[27] и Неаполитанский с Вероятностные рассуждения в экспертных системах[28] обобщил их свойства и установил их как область исследования.

Смотрите также

Примечания

  1. ^ а б c d е Жемчужина, Иудея (2000). Причинная связь: модели, рассуждения и выводы. Издательство Кембриджского университета. ISBN  978-0-521-77362-1. OCLC  42291253.
  2. ^ "Критерий задней двери" (PDF). Получено 2014-09-18.
  3. ^ «г-разлука без слез» (PDF). Получено 2014-09-18.
  4. ^ Перл Дж (1994). «Вероятностное исчисление действий». В Лопес де Мантарас Р., Пул Д. (ред.). UAI'94 Труды Десятой международной конференции по неопределенности в искусственном интеллекте. Сан-Матео, Калифорния: Морган Кауфманн. С. 454–462. arXiv:1302.6835. Bibcode:2013arXiv1302.6835P. ISBN  1-55860-332-8.
  5. ^ Шпицер I, Перл Дж (2006). «Идентификация условных интервенционных распределений». В Dechter R, Richardson TS (ред.). Материалы двадцать второй конференции по неопределенности в искусственном интеллекте. Корваллис, Орегон: AUAI Press. С. 437–444. arXiv:1206.6876.
  6. ^ Ребане Дж., Перл Дж. (1987). «Восстановление причинных полидеревьев из статистических данных». Труды, 3-й семинар по неопределенности в ИИ. Сиэтл, Вашингтон. С. 222–228. arXiv:1304.2736.
  7. ^ Спиртес П., Глимур С. (1991). «Алгоритм быстрого восстановления разреженных причинных графов» (PDF). Компьютерный обзор социальных наук. 9 (1): 62–72. Дои:10.1177/089443939100900106. S2CID  38398322.
  8. ^ Спиртес П., Глимур С. Н., Шайнс Р. (1993). Причинно-следственная связь, прогнозирование и поиск (1-е изд.). Springer-Verlag. ISBN  978-0-387-97979-3.
  9. ^ Верма Т., Перл Дж. (1991). «Эквивалентность и синтез причинных моделей». В Bonissone P, Henrion M, Kanal LN, Lemmer JF (ред.). UAI '90 Труды шестой ежегодной конференции по неопределенности в искусственном интеллекте. Эльзевир. С. 255–270. ISBN  0-444-89264-8.
  10. ^ Фридман Н., Гейгер Д., Гольдшмидт М. (ноябрь 1997 г.). "Байесовские сетевые классификаторы". Машинное обучение. 29 (2–3): 131–163. Дои:10.1023 / А: 1007465528199.
  11. ^ Фридман Н., Линиал М., Нахман И., Пеер Д. (август 2000 г.). «Использование байесовских сетей для анализа данных выражения». Журнал вычислительной биологии. 7 (3–4): 601–20. CiteSeerX  10.1.1.191.139. Дои:10.1089/106652700750050961. PMID  11108481.
  12. ^ Куссенс Дж (2011). «Байесовское сетевое обучение с режущими плоскостями» (PDF). Материалы 27-й ежегодной конференции по неопределенности в искусственном интеллекте: 153–160. arXiv:1202.3713. Bibcode:2012arXiv1202.3713C.
  13. ^ Scanagatta M, de Campos CP, Corani G, Zaffalon M (2015). «Изучение байесовских сетей с тысячами переменных». NIPS-15: Достижения в системах обработки нейронной информации. 28. Curran Associates. С. 1855–1863.
  14. ^ Петижан Ф., Уэбб Г.И., Николсон А.Е. (2013). Масштабирование лог-линейного анализа до многомерных данных (PDF). Международная конференция по интеллектуальному анализу данных. Даллас, Техас, США: IEEE.
  15. ^ М. Сканагатта, Г. Корани, К. П. де Кампос и М. Заффалон. Изучение байесовских сетей с ограничением по ширине дерева с тысячами переменных. В NIPS-16: Достижения в системах обработки нейронной информации 29, 2016.
  16. ^ а б Рассел и Норвиг, 2003 г., п. 496.
  17. ^ а б Рассел и Норвиг, 2003 г., п. 499.
  18. ^ Неаполитанский RE (2004). Изучение байесовских сетей. Прентис Холл. ISBN  978-0-13-012534-7.
  19. ^ Купер Г.Ф. (1990). «Вычислительная сложность вероятностного вывода с использованием байесовских сетей доверия» (PDF). Искусственный интеллект. 42 (2–3): 393–405. Дои:10.1016 / 0004-3702 (90) 90060-д.
  20. ^ Дагум П, Лубы М (1993). «Аппроксимация вероятностного вывода в байесовских сетях доверия NP-трудна». Искусственный интеллект. 60 (1): 141–153. CiteSeerX  10.1.1.333.1586. Дои:10.1016 / 0004-3702 (93) 90036-б.
  21. ^ Д. Рот, О твердости приближенных рассуждений, IJCAI (1993)
  22. ^ Д. Рот, О твердости приближенных рассуждений, Искусственный интеллект (1996)
  23. ^ Дагум П, Лубы М (1997). «Оптимальный алгоритм приближения для байесовского вывода». Искусственный интеллект. 93 (1–2): 1–27. CiteSeerX  10.1.1.36.7946. Дои:10.1016 / с0004-3702 (97) 00013-1. Архивировано из оригинал на 2017-07-06. Получено 2015-12-19.
  24. ^ Хоффман, Мэтью Д.; Гельман, Андрей (2011). «Пробоотборник без разворота: адаптивная установка длины пути в гамильтониане Монте-Карло». arXiv:1111.4246. Bibcode:2011arXiv1111.4246H. Цитировать журнал требует | журнал = (помощь)
  25. ^ Жемчуг J (1985). Байесовские сети: модель самоактивирующейся памяти для доказательных рассуждений (Технический отчет UCLA CSD-850017). Материалы 7-й конференции Общества когнитивных наук, Калифорнийский университет, Ирвин, Калифорния. стр. 329–334. Получено 2009-05-01.
  26. ^ Байес Т, Прайс (1763 г.). «Очерк решения проблемы в доктрине шансов». Философские труды Королевского общества. 53: 370–418. Дои:10.1098 / рстл.1763.0053.
  27. ^ Перл Дж (1988-09-15). Вероятностные рассуждения в интеллектуальных системах. Сан-Франциско, Калифорния: Морган Кауфманн. п. 1988 г. ISBN  978-1558604797.
  28. ^ Неаполитанский RE (1989). Вероятностные рассуждения в экспертных системах: теория и алгоритмы. Вайли. ISBN  978-0-471-61840-9.

Рекомендации

Также отображается как Хекерман, Дэвид (март 1997 г.). «Байесовские сети для интеллектуального анализа данных». Интеллектуальный анализ данных и обнаружение знаний. 1 (1): 79–119. Дои:10.1023 / А: 1009730122752. S2CID  6294315.
Более ранняя версия отображается как Технический отчет MSR-TR-95-06, Microsoft Research, 1 марта 1995 г. Статья посвящена как параметрическому, так и структурному обучению в байесовских сетях.

дальнейшее чтение

внешняя ссылка