А соотношение распределения (также известный как частное распределение) это распределение вероятностей построенный как распределение соотношение из случайные переменные имея два других известных дистрибутива. независимый ) случайные переменные Икс и Y, распределение случайной величины Z который образуется как отношение Z = Икс/Y это соотношение распределения.
Примером может служить Распределение Коши (также называемый распределение нормального отношения),[нужна цитата ] что происходит как отношение двух нормально распределенный переменные с нулевым средним. Два других распределения, часто используемых в тестовой статистике, также являются пропорциональными распределениями: т-распределение возникает из Гауссовский случайная величина, деленная на независимую чи-распределенный случайная величина, а F-распределение происходит от соотношения двух независимых распределенный хи-квадрат случайные величины. В литературе рассматривались более общие отношения распределения.[1][2][3][4][5][6][7][8][9]
Часто распределения соотношений хвостатый, и может быть сложно работать с такими дистрибутивами и разработать соответствующий статистический тест.Метод, основанный на медиана был предложен в качестве "обходного пути".[10]
Алгебра случайных величин
Отношение - это один из видов алгебры случайных величин: с распределением соотношений связаны распространение продукции, распределение суммы и распределение разницы. В более общем плане можно говорить о комбинациях сумм, разностей, произведений и соотношений. Многие из этих распределений описаны в Мелвин Д. Спрингер книга 1979 г. Алгебра случайных величин.[8]
Алгебраические правила, известные для обычных чисел, неприменимы к алгебре случайных величин, например, если продукт C = AB и соотношение D = C / A это не обязательно означает, что распределения D и B одинаковые. Действительно, наблюдается своеобразный эффект для Распределение Коши: Произведение и соотношение двух независимых распределений Коши (с одинаковым параметром масштаба и параметром местоположения, установленным на ноль) дадут одно и то же распределение.[8]Это становится очевидным, если рассматривать распределение Коши как соотношение двух гауссовских распределений нулевых средних: рассмотрим две случайные величины Коши,
и
каждое построено из двух гауссовых распределений
и
тогда
![{frac {C_ {1}} {C_ {2}}} = {frac {{G_ {1}} / {G_ {2}}} {{G_ {3}} / {G_ {4}}}} = {frac {G_ {1} G_ {4}} {G_ {2} G_ {3}}} = {frac {G_ {1}} {G_ {2}}} время {frac {G_ {4}} {G_ {3}}} = C_ {1} время C_ {3},](https://wikimedia.org/api/rest_v1/media/math/render/svg/04f03bf272bf40661df093d96d01bf149440fc39)
куда
. Первый член - это отношение двух распределений Коши, а последний член - произведение двух таких распределений.
Вывод
Способ получения соотношения распределения
из совместного распределения двух других случайных величин X, Y , с совместным pdf
, получается интегрированием следующего вида[3]
![p_ {Z} (z) = int _ {{- infty}} ^ {{+ infty}} | y |, p _ {{X, Y}} (zy, y), dy.](https://wikimedia.org/api/rest_v1/media/math/render/svg/45a3132a8ef80b6b3729c9b89221843b319a6cec)
Если две переменные независимы, то
и это становится
![{displaystyle p_ {Z} (z) = int _ {- infty} ^ {+ infty} | y |, p_ {X} (zy) p_ {Y} (y), dy.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3b7e4c02ed1d4e454837da36280e5fa0930e4c82)
Это может быть непросто. В качестве примера возьмем классическую задачу о соотношении двух стандартных гауссовских отсчетов. Совместный PDF-файл
![{displaystyle p_ {X, Y} (x, y) = {frac {1} {2pi}} exp (- {frac {x ^ {2}} {2}}) exp (- {frac {y ^ {2 }} {2}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/244cc3efb593a78c22f5a8f573a9ea1f714d8af3)
Определение
у нас есть
![{displaystyle p_ {Z} (z) = {frac {1} {2pi}} int _ {- infty} ^ {infty}, | y |, exp (- {frac {(zy) ^ {2}} {2 }}), exp (- {frac {y ^ {2}} {2}}), dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2bc6102b23e95697bdc21737dcb42c54fdfcfdbf)
![{displaystyle ;;;; = {frac {1} {2pi}} int _ {- infty} ^ {infty}, | y |, exp (- {frac {y ^ {2} (z ^ {2} +1 )} {2}}), dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a178c10d367007115bc8a5a490c6578794d114cb)
Используя известный определенный интеграл
мы получили
![{displaystyle p_ {Z} (z) = {гидроразрыв {1} {pi (z ^ {2} +1)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5141148625693af22ed9691b0250fe9bce7f5f2e)
которое является распределением Коши или распределением Стьюдента т распространение с п = 1
В Преобразование Меллина также был предложен для вывода распределений отношений.[8]
В случае положительных независимых переменных действуйте следующим образом. На диаграмме показано разделимое двумерное распределение
который имеет опору в положительном квадранте
и мы хотим найти pdf отношения
. Заштрихованный объем над линией
представляет собой кумулятивное распределение функции
умноженный на логическую функцию
. Плотность сначала интегрируется в горизонтальные полосы; горизонтальная полоса на высоте у простирается от Икс = От 0 до x = Ry и имеет возрастающую вероятность
.
Во-вторых, объединение горизонтальных полос вверх по всей у дает объем вероятности над линией
![{displaystyle F_ {R} (R) = int _ {0} ^ {infty} f_ {y} (y) left (int _ {0} ^ {Ry} f_ {x} (x) dxight) dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/691570dcff1be0156bc7ce0d4fd72eb8cf37f9a1)
Наконец, дифференцируйте
получить pdf
.
![{displaystyle f_ {R} (R) = {frac {d} {dR}} left [int _ {0} ^ {infty} f_ {y} (y) left (int _ {0} ^ {Ry} f_ { x} (x) dxight) dyight]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/692b61ad3c87cd15d2b1aa11783adcc25deb0fb2)
Перенесем дифференцирование внутрь интеграла:
![{displaystyle f_ {R} (R) = int _ {0} ^ {infty} f_ {y} (y) left ({frac {d} {dR}} int _ {0} ^ {Ry} f_ {x} (x) dxight) dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cda3e5f623515225013f82af22336ff28d2f9d25)
и с тех пор
![{displaystyle {frac {d} {dR}} int _ {0} ^ {Ry} f_ {x} (x) dx = yf_ {x} (Ry)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a85008cf947379877a6a0996d05ee7a3ddf5ac41)
тогда
![{displaystyle f_ {R} (R) = int _ {0} ^ {infty} f_ {y} (y); f_ {x} (Ry); y; dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17ab323e433361dca173630e572b06f813778202)
В качестве примера найдите pdf отношения р когда
![{displaystyle f_ {x} (x) = alpha e ^ {- alpha x}, ;;;; f_ {y} (y) = eta e ^ {- eta y}, ;;; x, ygeq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ba90b098a23371f7e75b29be3b7ef2e5bf0a726)
Оценка кумулятивного распределения коэффициента
У нас есть
![{displaystyle int _ {0} ^ {Ry} f_ {x} (x) dx = -e ^ {- alpha x} vert _ {0} ^ {Ry} = 1-e ^ {- alpha Ry}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/61593cd4e40558d8a9f759217e1512c631319a9a)
таким образом
![{displaystyle {egin {align} F_ {R} (R) & = int _ {0} ^ {infty} f_ {y} (y) left (1-e ^ {- alpha Ry} ight) dy = int _ { 0} ^ {infty} eta e ^ {- eta y} left (1-e ^ {- alpha Ry} ight) dy & = 1- {frac {alpha R} {eta + alpha R}} & = { frac {R} {{frac {eta} {alpha}} + R}} конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ce0a8acc152c68e407b6e62286a7321d6146fa3)
Дифференциация относительно р дает PDF-файл р
![{displaystyle f_ {R} (R) = {frac {d} {dR}} left ({frac {R} {{frac {eta} {alpha}} + R}} ight) = {frac {frac {eta} {alpha}} {left ({frac {eta} {alpha}} + Right) ^ {2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81b554f119d3fb1ee62c9a3cdc994cd2cc9e7bfc)
Моменты случайных соотношений
Из Преобразование Меллина теория, для распределений, существующих только на положительной полупрямой
, у нас есть айдентика продукта
при условии
независимы. В случае соотношения выборок вида
, чтобы использовать это тождество, необходимо использовать моменты обратного распределения. Набор
такой, что
Таким образом, если моменты
можно определить отдельно, то моменты
можно найти. Моменты
определяются из обратного pdf
, часто послушное упражнение. В простейшем случае
.
Для иллюстрации пусть
быть выбранным из стандартного гамма-распределения
момент
.
выбирается из обратного гамма-распределения с параметром
и имеет pdf
. Моменты этого pdf
![{displaystyle operatorname {E} [Z ^ {p}] = operatorname {E} [Y ^ {- p}] = {frac {Gamma (eta -p)} {Gamma (eta)}} ,; p <eta. }](https://wikimedia.org/api/rest_v1/media/math/render/svg/183100f28d21720a9011434eef53b9547324ef47)
Умножение соответствующих моментов дает
![{displaystyle имя оператора {E} [(X / Y) ^ {p}] = имя оператора {E} [X ^ {p}]; имя оператора {E} [Y ^ {- p}] = {frac {Gamma (alpha + p)} {Gamma (alpha)}} {frac {Gamma (eta -p)} {Gamma (eta)}} ,; p <eta.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4c849e320d085f73f456cbe534de3cd5f86cbf83)
Независимо известно, что соотношение двух гамма-отсчетов
следует распределению Beta Prime:
чьи моменты ![{displaystyle operatorname {E} [R ^ {p}] = {frac {mathrm {B} (alpha + p, eta -p)} {mathrm {B} (alpha, eta)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/09d4192aa7f63361b7a98afcbf8dce1db21cad90)
Подстановка
у нас есть
что согласуется с приведенным выше произведением моментов.
Средние и дисперсии случайных соотношений
в Распространение продукции раздел, и полученный из Преобразование Меллина Согласно теории (см. раздел выше), среднее значение произведения независимых переменных равно произведению их средних значений. В случае отношений имеем
![{displaystyle operatorname {E} (X / Y) = operatorname {E} (X) operatorname {E} (1 / Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/de6e958080d88f6eee78ac5333042b0d3dc83a3c)
что в терминах вероятностных распределений эквивалентно
![{displaystyle operatorname {E} (X / Y) = int _ {- infty} ^ {infty} xf_ {x} (x), dx imes int _ {- infty} ^ {infty} y ^ {- 1} f_ { y} (y), dy}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81491d7fca61ec2b85b9ebe0e87333de4412de0b)
Обратите внимание, что ![{displaystyle operatorname {E} (1 / Y) eq {frac {1} {operatorname {E} (Y)}} {ext {т.е. }} int _ {- infty} ^ {infty} y ^ {- 1} f_ {y} (y), dyeq {frac {1} {int _ {- infty} ^ {infty} yf_ {y} (y) , dy}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/057a7f64750c94e87d537e966b6210a57c1edcb5)
Дисперсия отношения независимых переменных равна
![{displaystyle {egin {выровнено} имя оператора {Var} (X / Y) & = имя оператора {E} ([X / Y] ^ {2}) - имя оператора {E ^ {2}} (X / Y) & = имя оператора {E} (X ^ {2}) имя оператора {E} (1 / Y ^ {2}) - имя оператора {E} ^ {2} (X) имя оператора {E} ^ {2} (1 / Y) конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4a0f882624693351c91d81e4e9c4bfb12fa1bdb2)
Распределения нормального отношения
Некоррелированное центральное нормальное соотношение
Когда Икс и Y независимы и имеют Гауссово распределение с нулевым средним, форма их распределения отношения Распределение Коши Это можно получить, задав
затем показывая, что
имеет круговую симметрию. Для двумерного некоррелированного гауссова распределения имеем
![{displaystyle {egin {align} p (x, y) & = {frac {1} {sqrt {2pi}}} e ^ {- {frac {1} {2}} x ^ {2}} imes {frac { 1} {sqrt {2pi}}} e ^ {- {frac {1} {2}} y ^ {2}} & = {frac {1} {2pi}} e ^ {- {frac {1} { 2}} (x ^ {2} + y ^ {2})} & = {frac {1} {2pi}} e ^ {- {frac {1} {2}} r ^ {2}} {ext {with}} r ^ {2} = x ^ {2} + y ^ {2} конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1ddbbd94aa36325d545412763be2f2363651f46)
Если
является функцией только р тогда
равномерно распределяется по
так что проблема сводится к нахождению распределения вероятностей Z под отображением
![{displaystyle Z = X / Y = гетта}](https://wikimedia.org/api/rest_v1/media/math/render/svg/80fdaa2450fded794202b93bac193347139694a1)
По сохранению вероятности имеем
![{displaystyle p_ {z} (z) | dz | = p_ {heta} (heta) | d heta |}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2f6b77518ac23aa3e228727c3e2efd149bcfb3c)
и с тех пор ![{displaystyle dz / d heta = 1 / cos ^ {2} heta}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3f725340f6f1d251b5fff4ef193171b922388d2a)
![{displaystyle p_ {z} (z) = {frac {p_ {heta} (heta)} {| dz / d heta |}} = {frac {1} {2pi}} {cos ^ {2} heta}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2afde76ef6869604149c4deb9f587d99c493e045)
и установка
мы получили
![{displaystyle p_ {z} (z) = {гидроразрыв {1 / 2pi} {1 + z ^ {2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4a778cc1c73e1b4b290984469ecf6eb731862678)
Здесь есть ложный множитель 2. Собственно, два значения
сопоставить с тем же значением z, плотность удваивается, и конечный результат
![{displaystyle p_ {z} (z) = {frac {1 / pi} {1 + z ^ {2}}}, ;; - infty <z <infty}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d036f53b472fe6470e5e146684aff3c3c12e7453)
Однако, когда два распределения имеют ненулевые средние, форма распределения отношения намного сложнее. Ниже он приводится в сжатой форме, представленной Дэвид Хинкли.[6]
Некоррелированное нецентральное нормальное соотношение
При отсутствии корреляции (кор (Икс,Y) = 0), функция плотности вероятности двух нормальных переменных Икс = N(μИкс, σИкс2) и Y = N(μY, σY2) соотношение Z = Икс/Y дается в точности следующим выражением, полученным из нескольких источников:[6]
![p_ {Z} (z) = {frac {b (z) cdot d (z)} {a ^ {3} (z)}} {frac {1} {{sqrt {2pi}} sigma _ {x} sigma _ {y}}} left [Phi left ({frac {b (z)}} {a (z)}} ight) -Phi left (- {frac {b (z)} {a (z)}} ight) ight] + {frac {1} {a ^ {2} (z) cdot pi sigma _ {x} sigma _ {y}}} e ^ {{- {frac {c} {2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ef0b4fa30467d39da33345eab941c44232fca5f4)
куда
![a (z) = {sqrt {{frac {1} {sigma _ {x} ^ {2}}} z ^ {2} + {frac {1} {sigma _ {y} ^ {2}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d93536799f0c83c8eb03a8cc43ad49953feb045b)
![b (z) = {frac {mu _ {x}} {sigma _ {x} ^ {2}}} z + {frac {mu _ {y}} {sigma _ {y} ^ {2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3fb66d89a8e189312b95f6a64bc2821c9e13060)
![c = {frac {mu _ {x} ^ {2}} {sigma _ {x} ^ {2}}} + {frac {mu _ {y} ^ {2}} {sigma _ {y} ^ {2 }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d424982ce295e5d824fe6bf13973a82b802ed918)
![d (z) = e ^ {{{гидроразрыв {b ^ {2} (z) -ca ^ {2} (z)} {2a ^ {2} (z)}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/75de6ab06573666def48687584b031d6cae95a34)
и
это нормальная кумулятивная функция распределения:
.
При определенных условиях возможно нормальное приближение с вариацией:[11]
![{displaystyle sigma _ {z} ^ {2} = {frac {mu _ {x} ^ {2}} {mu _ {y} ^ {2}}} влево ({frac {sigma _ {x} ^ {2 }} {mu _ {x} ^ {2}}} + {frac {sigma _ {y} ^ {2}} {mu _ {y} ^ {2}}} ight)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/15c8784d849ed21236d71b9ffab1664725782685)
Коррелированное центральное нормальное соотношение
Вышеприведенное выражение становится более сложным, когда переменные Икс и Y коррелированы. Если
и
получается более общее распределение Коши
![p_ {Z} (z) = {frac {1} {pi}} {frac {eta} {(z-alpha) ^ {2} + eta ^ {2}}},](https://wikimedia.org/api/rest_v1/media/math/render/svg/66827332c2ee802e8fe35ab807b7438cf6bb8ea9)
где ρ - коэффициент корреляции между Икс и Y и
![alpha = ho {frac {sigma _ {x}} {sigma _ {y}}},](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d1b62c0df21c638a410ef1e782c2e2965e27730)
![eta = {frac {sigma _ {x}} {sigma _ {y}}} {sqrt {1-ho ^ {2}}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/55c311beb5a8f464d4c37011f02fa57ed888fb09)
Сложное распределение также было выражено с помощью Куммера конфлюэнтная гипергеометрическая функция или Функция Эрмита.[9]
Коррелированное нецентральное нормальное соотношение
Приближение к коррелированному нецентральному нормальному отношению
Преобразование в лог-домен было предложено Кацем (1978) (см. Раздел биномиальных данных ниже). Пусть отношение будет
.
Возьмите журналы, чтобы получить
.
С
тогда асимптотически
.
С другой стороны, Гири (1930) предположил, что
![{displaystyle tapprox {frac {mu _ {y} T-mu _ {x}} {sqrt {sigma _ {y} ^ {2} T ^ {2} -2ho sigma _ {x} sigma _ {y} T + сигма _ {x} ^ {2}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b819eccf2f08c5cf2f7b8bf54beaa05a1ead9057)
имеет примерно стандартное распределение Гаусса:[1]Это преобразование было названо Преобразование Гири – Хинкли;[7] приближение хорошее, если Y вряд ли примет отрицательные значения, в основном
.
Точное коррелированное нецентральное нормальное соотношение
| Эта секция возможно содержит синтез материала что не достоверно упомянуть или же иметь отношение к основной теме. Соответствующее обсуждение можно найти на страница обсуждения. (Ноябрь 2019) (Узнайте, как и когда удалить этот шаблон сообщения) |
Гири показал, как коррелированное соотношение
можно преобразовать в форму, близкую к гауссовой, и разработать приближение для
зависит от вероятности отрицательных значений знаменателя
будучи исчезающе маленьким. Более поздний анализ коррелированных соотношений Филлера является точным, но требуется осторожность при использовании с современными математическими пакетами, и аналогичные проблемы могут возникнуть в некоторых уравнениях Марсальи. Фам-Гия подробно рассмотрел эти методы. Коррелированные результаты Хинкли точны, но ниже показано, что условие коррелированного отношения может быть просто преобразовано в некоррелированное, поэтому требуются только упрощенные уравнения Хинкли, приведенные выше, а не полная версия коррелированного отношения.
Пусть соотношение будет:
![{displaystyle z = {frac {x + mu _ {x}} {y + mu _ {y}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa35b004d4356b2bc6470d9dffff50076101cc92)
в котором
- коррелированные нормальные переменные с нулевым средним и дисперсиями
и
иметь средства
Написать
такой, что
стать некоррелированными и
имеет стандартное отклонение
![{displaystyle sigma _ {x} '= sigma _ {x} {sqrt {1-ho ^ {2}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/df1220ddb1e83b9359475805a15542b80a3f75af)
Соотношение:
![{displaystyle z = {frac {x '+ ho ysigma _ {x} / sigma _ {y} + mu _ {x}} {y + mu _ {y}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f5ea43e92c13473fb02b4590d088a859d7a68da)
инвариантен относительно этого преобразования и сохраняет тот же pdf.
член в числителе делается разделяемым путем расширения:
![{displaystyle {x '+ ho ysigma _ {x} / sigma _ {y} + mu _ {x}} = x' + mu _ {x} -ho mu _ {y} {frac {sigma _ {x}} {sigma _ {y}}} + ho (y + mu _ {y}) {frac {sigma _ {x}} {sigma _ {y}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d8d417a52d9a70f1045db4def04a2b067c7798a5)
получить
![{displaystyle z = {frac {x '+ mu _ {x}'} {y + mu _ {y}}} + ho {frac {sigma _ {x}} {sigma _ {y}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/840173e4230173ccd2dcf00adef78dcab9be3b6e)
в котором
и z теперь стало отношением некоррелированных нецентральных нормальных выборок с инвариантом z-компенсировать.
Наконец, чтобы быть точным, pdf отношения
для коррелированных переменных находится путем ввода измененных параметров
и
в уравнение Хинкли выше, которое возвращает PDF для коррелированного отношения с постоянным смещением
на
.
Контуры коррелированного двумерного распределения Гаусса (не в масштабе), дающего соотношение х / у
pdf отношения Гаусса
z и моделирование (точки) для
![{displaystyle sigma _ {x} = sigma _ {y} = 1, mu _ {x} = 0, mu _ {y} = 0,5, ho = 0,975}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0385fc68971c3bfa7149ed7cfc41db3b6d62ce7c)
На рисунках выше показан пример положительно коррелированного отношения с
в котором заштрихованные клинья представляют собой приращение площади, выбранной заданным соотношением
который накапливает вероятность там, где они перекрывают распределение. Теоретическое распределение, полученное из обсуждаемых уравнений в сочетании с уравнениями Хинкли, хорошо согласуется с результатом моделирования с использованием 5000 выборок. На верхнем рисунке легко понять, что для отношения
клин почти полностью обходит массу распределения, что совпадает с областью, близкой к нулю, в теоретической PDF. Наоборот, как
уменьшается к нулю, линия собирает более высокую вероятность.
Это преобразование будет признано таким же, как преобразование, использованное Гири (1932) как частичный результат в его уравнение viii но чье происхождение и ограничения вряд ли были объяснены. Таким образом, первая часть преобразования Гири к приближенной гауссовости в предыдущем разделе на самом деле точна и не зависит от положительности Y. Результат смещения также согласуется с коррелированным распределением гауссова отношения «Коши» с нулевым средним в первом разделе. Марсалья применил тот же результат, но использовал нелинейный метод для его достижения.
Комплексное нормальное соотношение
Отношение коррелированных циркулярно-симметричных сложный нормально распределенный переменные были определены Baxley et. al.[12] Совместное распространение х, у является
![{displaystyle f_ {x, y} (x, y) = {frac {1} {pi ^ {2} | Sigma |}} exp {Biggr (} - {egin {bmatrix} x yend {bmatrix}} ^ { H} Сигма ^ {- 1} {egin {bmatrix} x yend {bmatrix}} {Biggr)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1856240da0a7ac29f530eeacae06c910c0a9e606)
куда
![{displaystyle Sigma = {egin {bmatrix} sigma _ {x} ^ {2} & ho sigma _ {x} sigma _ {y} ho ^ {*} sigma _ {x} sigma _ {y} & sigma _ {y} ^ {2} конец {bmatrix}}, ;; x = x_ {r} + ix_ {i}, ;; y = y_ {r} + iy_ {i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a47c2637597e4c400bd62db916f04ff6627ae5fa)
является эрмитовым транспонированием и
![{displaystyle ho = ho _ {r} + iho _ {i} = operatorname {E} {igg (} {frac {xy ^ {*}} {sigma _ {x} sigma _ {y}}} {igg)} ;; in; left | mathbb {C} ight | leq 1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7651df1e8938a375f18488bcff1afddebbc60720)
PDF-файл
оказывается
![{displaystyle {egin {align} f_ {z} (z_ {r}, z_ {i}) & = {frac {1- | ho | ^ {2}} {pi sigma _ {x} ^ {2} sigma _ {y} ^ {2}}} {Biggr (} {frac {| z | ^ {2}} {sigma _ {x} ^ {2}}} + {frac {1} {sigma _ {y} ^ { 2}}} - 2 {frac {ho _ {r} z_ {r} -ho _ {i} z_ {i}} {sigma _ {x} sigma _ {y}}} {Biggr)} ^ {- 2 } & = {frac {1- | ho | ^ {2}} {pi sigma _ {x} ^ {2} sigma _ {y} ^ {2}}} {Biggr (} ;; {Biggr |} { гидроразрыв {z} {sigma _ {x}}} - {frac {ho ^ {*}} {sigma _ {y}}} {Biggr |} ^ {2} + {frac {1- | ho | ^ {2 }} {сигма _ {y} ^ {2}}} {Biggr)} ^ {- 2} конец {выровнено}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ce83b41cdca5c4dbb384d2a217db7f763ea5c2fa)
В обычном случае, если
мы получили
![{displaystyle f_ {z} (z_ {r}, z_ {i}) = {frac {1- | ho | ^ {2}} {pi left (;; | z-ho ^ {*} | ^ {2}) + 1- | ho | ^ {2} ight) ^ {2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aff4b3f9c8fe82494297780ea74aa1a6c8855251)
Также приведены другие результаты в закрытой форме для CDF.
Распределение соотношения коррелированных комплексных переменных, rho = 0,7 exp (i pi / 4).
График показывает pdf отношения двух комплексных нормальных переменных с коэффициентом корреляции
. Пик pdf возникает примерно при комплексном сопряжении уменьшенного
.
Равномерное распределение соотношения
С двумя независимыми случайными величинами, следующими за равномерное распределение, например,