Потеря шарнира - Hinge loss

График потери на шарнире (синий, измерено по вертикали) против потери нуля или единицы (измерено по вертикали; неправильная классификация, зеленый: y < 0) за т = 1 и переменная y (измеряется по горизонтали). Обратите внимание, что потеря петли ухудшает прогнозы. y < 1, что соответствует понятию запаса в машине опорных векторов.

В машинное обучение, то потеря петли это функция потерь используется для обучения классификаторы. Потери на шарнирах используются для классификации с "максимальной маржой", в первую очередь для опорные векторные машины (SVM).[1]

Для предполагаемого выхода т = ±1 и оценка классификатора y, шарнирная потеря предсказания y определяется как

Обратите внимание, что должен быть «сырым» выводом функции принятия решения классификатора, а не прогнозируемой меткой класса. Например, в линейных SVM , куда параметры гиперплоскость и - входная (ые) переменная (ы).

Когда т и y имеют такой же знак (значение y предсказывает правильный класс) и , потеря петли . Когда у них противоположные знаки, линейно возрастает с y, и аналогично, если , даже если у него такой же знак (правильный прогноз, но не с достаточным запасом).

Расширения

Хотя двоичные SVM обычно расширяются до мультиклассовая классификация в режиме один против всех или один против одного,[2]для этого конца также можно увеличить саму петлю. Было предложено несколько различных вариантов потери петель в нескольких классах.[3] Например, Краммер и Зингер.[4]определил его для линейного классификатора как[5]

Где целевая метка, и параметры модели.

Уэстон и Уоткинс дали аналогичное определение, но с суммой, а не с максимумом:[6][3]

В структурированный прогноз, потеря петель может быть расширена на структурированные выходные пространства. Структурированные SVM с изменением размера полей используйте следующий вариант, где ш обозначает параметры SVM, y прогнозы SVM, φ совместная функция функции, и Δ в Потеря Хэмминга:

Оптимизация

Потеря шарнира выпуклая функция, поэтому с ним могут работать многие обычные выпуклые оптимизаторы, используемые в машинном обучении. Это не так дифференцируемый, но имеет субградиент по параметрам модели ш линейной SVM с функцией оценки что дается

График трех вариантов потери шарнира в зависимости от z = ты: «обычный» вариант (синий), его квадратный (зеленый) и кусочно-гладкий вариант Ренни и Сребро (красный).

Однако, поскольку производная от потери шарнира при не определено, сглаженный версии могут быть предпочтительны для оптимизации, такие как Rennie и Srebro's[7]

или квадратично сглаженный

предложил Чжан.[8] В модифицированная потеря Хубера является частным случаем этой функции потерь с , конкретно .

Рекомендации

  1. ^ Rosasco, L .; De Vito, E.D .; Caponnetto, A .; Piana, M .; Верри, А. (2004). «Все ли функции потерь одинаковы?» (PDF). Нейронные вычисления. 16 (5): 1063–1076. CiteSeerX  10.1.1.109.6786. Дои:10.1162/089976604773135104. PMID  15070510.
  2. ^ Duan, K. B .; Кеэрти, С. С. (2005). «Какой метод мультиклассовой SVM лучше всего? Эмпирическое исследование» (PDF). Системы с несколькими классификаторами. LNCS. 3541. С. 278–285. CiteSeerX  10.1.1.110.6789. Дои:10.1007/11494683_28. ISBN  978-3-540-26306-7.
  3. ^ а б Доган, Урун; Гласмахер, Тобиас; Игель, Кристиан (2016). «Единый взгляд на классификацию опорных векторов с несколькими классами» (PDF). Журнал исследований в области машинного обучения. 17: 1–32.
  4. ^ Краммер, Коби; Певец, Йорам (2001). «Об алгоритмической реализации мультиклассовых векторных машин на базе ядра» (PDF). Журнал исследований в области машинного обучения. 2: 265–292.
  5. ^ Мур, Роберт С .; ДеНеро, Джон (2011). "L1 и я2 регуляризация для многоклассовых моделей потери шарнира " (PDF). Proc. Symp. по машинному обучению в обработке речи и языка.
  6. ^ Уэстон, Джейсон; Уоткинс, Крис (1999). «Машины опорных векторов для распознавания образов мультиклассов» (PDF). Европейский симпозиум по искусственным нейронным сетям.
  7. ^ Ренни, Джейсон Д. М .; Сребро, Натан (2005). Функции потерь для уровней предпочтений: регрессия с дискретно упорядоченными метками (PDF). Proc. IJCAI Междисциплинарный семинар по достижениям в обработке преференций.
  8. ^ Чжан, Тонг (2004). Решение крупномасштабных задач линейного прогнозирования с использованием алгоритмов стохастического градиентного спуска (PDF). ICML.