В Алгоритм GHK (Гевеке, Хадживассилиу и Кин)[1] является выборка по важности метод моделирования вероятностей выбора в многомерная пробит модель. Эти смоделированные вероятности можно использовать для восстановления оценок параметров из уравнения максимального правдоподобия с использованием любого из обычных хорошо известных методов максимизации (Метод Ньютона, BFGS, так далее.). Тренироваться[2] имеет хорошо задокументированные шаги для реализации этого алгоритма для полиномиальной пробит-модели. Дальнейшее здесь применимо к бинарной многомерной пробит-модели.
Рассмотрим случай, когда кто-то пытается оценить вероятность выбора
куда
и где мы можем взять
как выбор и
как отдельные лица или наблюдения,
это среднее и
- ковариационная матрица модели. Вероятность соблюдения выбора
является
![{ Displaystyle { begin {align} Pr ( mathbf {y_ {i}} | mathbf {X_ {i} beta}, Sigma) = & int _ {A_ {J}} cdots int _ {A_ {1}} f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma) dy_ {1} ^ {*} точки dy_ {J} ^ {*} Pr ( mathbf {y_ {i}} | mathbf {X_ {i} beta}, Sigma) = & int mathbb {1} _ {y ^ { *} in A} f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma) d mathbf {y} _ {i} ^ {*} end {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/860572ea10cbdc87f0a60938975910aa54280a64)
Где
и,
![{ displaystyle A_ {j} = { begin {cases} (- infty, 0] & y_ {j} = 0 (0, infty) & y_ {j} = 1 end {cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a38b27c96032c1abf5d7b979d922b8144830765)
Пока не
мало (меньше или равно 2), нет решения в закрытой форме для интегралов, определенных выше (некоторая работа была проделана с
[3]). Альтернативой вычислению этих интегралов в замкнутой форме или квадратурными методами является использование моделирования. GHK - это метод моделирования для моделирования указанной выше вероятности с использованием методов выборки по важности.
Оценка
упрощается за счет признания того, что скрытая модель данных
можно переписать с использованием факторизации Холецкого,
. Это дает
где
условия распространяются
.
Используя эту факторизацию и тот факт, что
распределены независимо, можно смоделировать вытяжки из усеченного многомерного нормального распределения, используя вытяжки из одномерного случайного нормального.
Например, если область усечения
имеет нижний и верхний пределы, равные
(включая a, b =
) тогда задача становится
![{ displaystyle { begin {array} {lcl} a <& y_ {1} ^ {*} & <b a <& y_ {2} ^ {*} & <b vdots & vdots & vdots a <& y_ {J} ^ {*} & <b end {array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1af7817c1584f48331de905b7fa93110c4772912)
Примечание:
, заменяя:
![{ displaystyle { begin {array} {lcl} a <& x_ {1} beta _ {1} + c_ {11} eta _ {1} & <b a <& x_ {2} beta _ { 2} + c_ {21} eta _ {1} + c_ {22} eta _ {2} & <b vdots & vdots & vdots a <& x_ {J} beta _ {J } + sum _ {k = 1} ^ {J} c_ {J, k} eta _ {k} & <b end {array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a75d9b614304063e3c481f92a0a84213e123d7d6)
Переставив выше,
![{ displaystyle { begin {array} {ccc} { frac {a-x_ {1} beta _ {1}} {c_ {11}}} & < eta _ {1} <& { frac { b-x_ {1} beta _ {1}} {c_ {11}}} { frac {a- (x_ {2} beta _ {2} + c_ {21} eta _ {1} )} {c_ {22}}} & < eta _ {2} <& { frac {b- (x_ {2} beta _ {2} + c_ {21} eta _ {1})} { c_ {22}}} vdots & vdots & vdots { frac {a- (x_ {J} beta _ {J} + sum _ {k = 1} ^ {J-1}) c_ {J, k})} {c_ {J, J}}} & < eta _ {k} <& { frac {b- (x_ {J} beta _ {J} + sum _ {k = 1} ^ {J-1} c_ {J, k})} {c_ {J, J}}} end {array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f308d13a08bf11774ff05849a4ca4244bd03482d)
Теперь все, что нужно сделать, это итеративно извлечь из усеченного одномерного нормального распределения с указанными выше границами. Это можно сделать с помощью метода обратного CDF, и, учитывая усеченное нормальное распределение,
![{ displaystyle u = { frac { Phi ({ frac {x- mu} { sigma}}) - Phi ({ frac {a- mu} { sigma}})} { Phi ({ frac {b- mu} { sigma}}) - Phi ({ frac {a- mu} { sigma}})}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7be275a301d9ec26309cf008422e076945e51b40)
Где
будет числом от 0 до 1, потому что это CDF. Это предлагает генерировать случайные ничьи из усеченного распределения, которое нужно решить для
давая
![{ Displaystyle х = сигма F ^ {- 1} (и * (F ( бета) -F ( альфа)) + F ( альфа)) + му}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ee9ae497274ed47e439b2a6cc8cf6a35bc508d3)
куда
и
и
стандартный нормальный CDF. С помощью таких рисунков можно реконструировать
его упрощенным уравнением с использованием факторизации Холецкого. Эти отрисовки будут зависеть от предшествующих отрисовок, и с использованием свойств нормалей произведение условных PDF-файлов будет совместным распределением
,
![{ displaystyle q ( mathbf {y_ {i} ^ {*}} | mathbf {X_ {1} beta}, Sigma) = q (y_ {1} ^ {*} | mathbf {X_ {1) } beta}, Sigma) q (y_ {2} ^ {*} | y_ {1} ^ {*}, mathbf {X_ {1} beta}, Sigma) dots q (y_ {J} ^ {*} | y_ {1} ^ {*}, dots, y_ {J-1} ^ {*}, mathbf {X_ {1} beta}, Sigma)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a88317b44d31d5ca143ee0991831c908892560a4)
Где
- многомерное нормальное распределение.
Потому что
при условии
ограничен набором
установив факторизацию Холецкого, мы знаем, что
- усеченная многомерная нормаль. Функция распределения усеченный нормальный является,
![{ displaystyle { frac { phi ({ frac {x- mu} { sigma}})} { sigma ( Phi ({ frac {b- mu} { sigma}}) - Фи ({ frac {a- mu} { sigma}}))}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/759096cc8a977c76881f3f2acd8d572739826dfd)
Следовательно,
имеет распространение,
![{ displaystyle { begin {align} q ( mathbf {y_ {i} ^ {*}} | mathbf {X_ {i} beta}, Sigma) & = { frac {{ frac {1}) {c_ {11}}} phi _ {1} { Big (} { frac {y_ {j} ^ {*} - x_ {1} beta} {c_ {11}}} { Big)} } {{ Big (} Phi _ {1} { Big (} { frac {b-x_ {1} beta} {c_ {11}}} { Big)} - Phi _ {1} { Big (} { frac {a-x_ {1} beta} {c_ {11}}} { Big)} { Big)}}} times dots times { frac {{ frac {1} {c_ {JJ}}} phi _ {J} { Big (} { frac {y_ {J} ^ {*} - (x_ {J} beta + c_ {J1} eta _ { 1} + c_ {J2} eta _ {2} + dots + c_ {JJ-1} eta _ {J-1})} {c_ {JJ}}} { Big)}} {{ Big (} Phi _ {J} { Big (} { frac {b- (x_ {J} beta + c_ {J1} eta _ {1} + c_ {J2} eta _ {2} + точки + c_ {JJ-1} eta _ {J-1})} {c_ {JJ}}} { Big)} - Phi _ {J} { Big (} { frac {a- (x_ {J} beta + c_ {J1} eta _ {1} + c_ {J2} eta _ {2} + dots + c_ {JJ-1} eta _ {J-1}} {c_ {JJ }}} { Big)} { Big)}}} & = { frac { prod _ {j = 1} ^ {J} { frac {1} {c_ {jj}}} phi _ {j} { Big (} { frac {y_ {j} ^ {*} - sum _ {k = 1} ^ {k <j} c_ {jk} eta _ {k}} {c_ { jj}}} { Big)}} { prod _ {j = 1} ^ {J} { Big (} Phi _ {j} { Big (} { frac {b- sum _ {k = 1} ^ {k <j} c_ {jk} eta _ {k}} {c_ {jj}}} { Big)} - Phi { Big (} { frac {a- sum _ {k = 1} ^ {k <j} c_ {jk} eta _ {k}} {c_ {jj}}} { Big)} { Big)}}} end {выравнивается}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c27f5ac0e229f17f9aad8cde3a99cc7c32f121a5)
куда
стандартный нормальный pdf для выбора
.
Потому что
Вышеупомянутая стандартизация делает каждый термин средним 0, дисперсия 1.
Пусть знаменатель
и числитель
куда
- многомерный нормальный PDF.
Возвращаясь к исходной цели, чтобы оценить
![{ Displaystyle { begin {align} Pr ( mathbf {y_ {i}} | mathbf {X_ {i} beta}, Sigma) = & int _ {A_ {j}} f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma) dy_ {j} ^ {*} конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d3f340f53d74115ff9db8c12c6e837a31027b98)
Используя выборку по важности, мы можем оценить этот интеграл,
![{ Displaystyle { begin {align} Pr ( mathbf {y_ {i}} | mathbf {X_ {i} beta}, Sigma) = & int _ {A_ {j}} f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma) dy_ {j} ^ {*} = & int _ {A_ {j}} { frac {f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma)} {q ( mathbf {y_ {i} ^ { *}} | mathbf {X_ {i} beta}, Sigma)}} q ( mathbf {y_ {i} ^ {*}} | mathbf {X_ {i} beta}, Sigma) dy_ {j} ^ {*} = & int _ {A_ {j}} { frac {f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i}) beta}, Sigma)} { frac {f_ {N} ( mathbf {y} _ {i} ^ {*} | mathbf {X_ {i} beta}, Sigma)} { prod _ {j = 1} ^ {J} l_ {jj}}}} q ( mathbf {y_ {i} ^ {*}} | mathbf {X_ {i} beta}, Sigma) dy_ {j} ^ {*} = & mathbb {E} _ { mathbf {q}} { Big (} prod _ {j = 1} ^ {J} l_ {jj} { Big)} конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f9c8e7fa7de2ac8ed41b0dbfc913a7d2789c23db)
Это хорошо аппроксимируется
.
Рекомендации