Поточечная взаимная информация второго порядка совместной встречаемости - Second-order co-occurrence pointwise mutual information

В компьютерная лингвистика, поточечная взаимная информация второго порядка это семантическое сходство мера. Для оценки степени ассоциация между двумя заданными словами он использует точечная взаимная информация (PMI) для сортировки списков важных соседних слов двух целевых слов из большого корпус.

История

Метод PMI-IR[требуется разъяснение ] использовал AltaVista синтаксис запроса расширенного поиска для вычисления вероятности. Обратите внимание, что оператор поиска «NEAR» в AltaVista является важным оператором в методе PMI-IR.[нужна цитата ] Однако в AltaVista он больше не используется; это означает, что с точки зрения реализации невозможно использовать метод PMI-IR в той же форме в новых системах. В любом случае, с алгоритмической точки зрения преимущество использования SOC-PMI состоит в том, что он может вычислять сходство между двумя словами, которые не сосуществовать часто, потому что они встречаются с одними и теми же соседними словами. Например, Британский национальный корпус (BNC) использовался как источник частот и контекстов.

Методология

Метод рассматривает слова, общие в обоих списках, и объединяет их значения PMI (из противоположного списка) для вычисления относительного семантического сходства. Мы определяем точечная взаимная информация функция только для тех слов, которые имеют ,

куда говорит нам, сколько раз тип появился во всем корпусе, говорит нам, сколько раз слово появился со словом в контекстном окне и - общее количество токенов в корпусе. Теперь на слово , мы определяем набор слов, , отсортированные в порядке убывания значений PMI с и взял самый верхний слова, имеющие .

Набор , содержит слова ,

, куда и

А практическое правило используется для выбора значения . В -PMI суммирование функция слова определяется по отношению к другому слову. На слово относительно слова это:

куда который суммирует все положительные значения PMI слов в наборе также общий для слов в наборе . Другими словами, эта функция фактически агрегирует положительные значения PMI всех семантически близких слов которые также распространены в список. должен иметь значение больше 1. Итак, -PMI суммирование функция за слово относительно слова имея и -PMI суммирование функция за слово относительно слова имея находятся

и

соответственно.

Наконец, семантическое сходство PMI функция между двумя словами, и , определяется как

Семантическое сходство слов нормализовано, так что оно обеспечивает оценку сходства между и включительно. Алгоритм нормализации семантического сходства возвращает нормализованную оценку сходства между двумя словами. Он принимает в качестве аргументов два слова: и , и максимальное значение, , который возвращается функцией семантического сходства Sim (). Он возвращает оценку сходства от 0 до 1 включительно. Например, алгоритм возвращает 0,986 для слов кладбище и кладбище с (для метода SOC-PMI).

Рекомендации