В статистика, Байесовская многомерная линейная регрессия этоБайесовский подход к многомерная линейная регрессия, т.е. линейная регрессия где прогнозируемый результат - это вектор коррелированных случайные переменные а не одну скалярную случайную величину. Более общую трактовку этого подхода можно найти в статье Оценщик MMSE.
Подробности
Рассмотрим проблему регрессии, в которой зависимая переменная быть предсказанным не единственное ценный скаляр, но м-длина вектор коррелированных действительных чисел. Как и в стандартной настройке регрессии, есть п наблюдения, где каждое наблюдение я состоит из k-1объясняющие переменные, сгруппированные в вектор
длины k (где фиктивная переменная со значением 1 было добавлено, чтобы учесть коэффициент пересечения). Это можно рассматривать как набор м связанные задачи регрессии для каждого наблюдения я:



где множество ошибок
все коррелированы. Точно так же ее можно рассматривать как задачу единственной регрессии, в которой результатом является вектор строки
а векторы коэффициентов регрессии располагаются рядом друг с другом следующим образом:

Матрица коэффициентов B это
матрица, где векторы коэффициентов
для каждой задачи регрессии расположены горизонтально:

Вектор шума
за каждое наблюдение яв совокупности является нормальным явлением, поэтому результаты данного наблюдения коррелируют:

Мы можем записать всю проблему регрессии в матричной форме как:

куда Y и E находятся
матрицы. В матрица дизайна Икс является
матрица с наблюдениями, сложенными вертикально, как в стандартной линейная регрессия настраивать:

Классики, частотники линейный метод наименьших квадратов решение состоит в том, чтобы просто оценить матрицу коэффициентов регрессии
с использованием Мур-Пенроуз псевдообратный:
.
Чтобы получить байесовское решение, нам нужно указать условное правдоподобие, а затем найти подходящее сопряженное априорное значение. Как и в одномерном случае линейная байесовская регрессия, мы обнаружим, что можем указать естественный условно-сопряженный априор (который зависит от масштаба).
Запишем нашу условную вероятность в виде[1]

запись ошибки
с точки зрения
и
дает

Мы ищем естественный сопряженный априор - совместную плотность
который имеет ту же функциональную форму, что и вероятность. Поскольку вероятность квадратична по
, мы перепишем вероятность, чтобы она была нормальной в
(отклонение от классической выборочной оценки).
Используя ту же технику, что и с Байесовская линейная регрессия, мы разлагаем экспоненциальный член, используя матричную форму метода суммы квадратов. Однако здесь нам также потребуется использовать матричное дифференциальное исчисление (Кронекер продукт и векторизация преобразования).
Во-первых, давайте применим сумму квадратов, чтобы получить новое выражение для вероятности:


Мы хотели бы разработать условную форму для априорных точек:

куда
является обратное распределение Вишарта и
это какая-то форма нормальное распределение в матрице
. Это достигается с помощью векторизация преобразование, которое преобразует вероятность из функции матриц
к функции векторов
.
Написать

Позволять

куда
обозначает Кронекер продукт матриц А и B, обобщение внешний продукт который умножает
матрица
матрица для создания
матрица, состоящая из каждой комбинации произведений элементов из двух матриц.
потом


что приведет к вероятности, которая нормальна для
.
С вероятностью в более понятной форме, теперь мы можем найти естественное (условное) сопряжение априорной точки.
Сопряженное предварительное распределение
Натуральный конъюгат до использования векторизованной переменной
имеет вид:[1]
,
куда

и

Заднее распространение
Используя вышеупомянутые априорность и вероятность, апостериорное распределение можно выразить как:[1]



куда
.Условия, касающиеся
могут быть сгруппированы (с
) с помощью:



,
с
.
Теперь это позволяет нам записать апостериор в более удобной форме:

.
Это принимает форму обратное распределение Вишарта раз а Матричное нормальное распределение:

и
.
Параметры этого апостериорного отдела определяются как:




Смотрите также
Рекомендации
- ^ а б c Питер Э. Росси, Грег М. Алленби, Роб Маккалок. Байесовская статистика и маркетинг. John Wiley & Sons, 2012, стр. 32.