Перспективы регуляризации машин опорных векторов - Regularization perspectives on support-vector machines

Перспективы регуляризации машин опорных векторов предоставить способ интерпретации машины опорных векторов (SVM) в контексте других алгоритмов машинного обучения. Алгоритмы SVM классифицируют многомерный данные, с целью подгонки Обучающий набор данные хорошо, но также избегая переоснащение, так что решение обобщает к новым точкам данных. Регуляризация алгоритмы также стремятся соответствовать данным обучающего набора и избегать переобучения. Они делают это, выбирая функцию подгонки, которая имеет низкую ошибку на обучающем наборе, но также не слишком сложна, где сложные функции - это функции с высоким нормы в некоторых функциональное пространство. Конкретно, Тихоновская регуляризация алгоритмы выбирают функцию, которая минимизирует сумму ошибки обучающего набора и нормы функции. Ошибка обучающего набора может быть вычислена с различными функции потерь. Например, регуляризованный метод наименьших квадратов является частным случаем регуляризации Тихонова с использованием квадрат ошибки потери как функция потерь.[1]

Перспективы регуляризации на машинах опорных векторов интерпретируют SVM как частный случай регуляризации Тихонова, в частности регуляризации Тихонова с потеря петли для функции потерь. Это обеспечивает теоретическую основу для анализа алгоритмов SVM и сравнения их с другими алгоритмами с теми же целями: обобщать без переоснащение. SVM была впервые предложена в 1995 г. Коринна Кортес и Владимир Вапник, и геометрически оформленный как метод нахождения гиперплоскости что может разделить многомерный данные на две категории.[2] Эта традиционная геометрическая интерпретация SVM дает полезную интуицию о том, как работают SVM, но ее трудно соотнести с другими машинное обучение техники, позволяющие избежать переобучения, например регуляризация, ранняя остановка, редкость и Байесовский вывод. Однако, как только было обнаружено, что SVM также является особый случай теории регуляризации Тихонова, перспективы регуляризации SVM обеспечили теорию, необходимую для того, чтобы вписать SVM в более широкий класс алгоритмов.[1][3][4] Это позволило провести подробные сравнения между SVM и другими формами регуляризации Тихонова и теоретически обосновать, почему полезно использовать функцию потерь SVM, потерю петли.[5]

Теоретические основы

в теория статистического обучения рамки, алгоритм это стратегия выбора функция учитывая тренировочный набор входов и их этикетки (этикетки обычно ). Регуляризация стратегии избегать переоснащение выбрав функцию, которая соответствует данным, но не слишком сложна. Конкретно:

куда это пространство гипотез[6] функций, - функция потерь, это норма на пространстве гипотез функций, и это параметр регуляризации.[7]

Когда это воспроизводящее ядро ​​гильбертова пространства, существует функция ядра это можно записать как симметричный положительно определенный матрица . Посредством теорема о представителе,[8]

Особые свойства потери петли

Петли и функции потерь при неправильной классификации

Самая простая и интуитивно понятная функция потерь для категоризации - это потеря неправильной классификации, или потеря 0–1, которая равна 0, если и 1, если , т.е. Ступенчатая функция Хевисайда на . Однако эта функция потерь не является выпуклый, что затрудняет вычислительную минимизацию задачи регуляризации. Поэтому мы ищем выпуклые заменители потери 0–1. Потеря шарнира, , куда , обеспечивает такую выпуклая релаксация. На самом деле потеря петель - это самый плотный выпуклый верхняя граница к функции потерь ошибочной классификации 0–1,[4] и с бесконечными данными возвращает Байесовский -Оптимальное решение:[5][9]

Вывод

Можно показать, что проблема регуляризации Тихонова эквивалентна традиционным формулировкам SVM, выражая ее в терминах потерь на шарнирах.[10] С потерей шарнира

куда , проблема регуляризации принимает вид

Умножение на дает

с , что эквивалентно стандартной задаче минимизации SVM.

Примечания и ссылки

  1. ^ а б Росаско, Лоренцо. "Регуляризованные машины наименьших квадратов и опорные векторы" (PDF).
  2. ^ Кортес, Коринна; Владимир Вапник (1995). "Сети опорных векторов". Машинное обучение. 20 (3): 273–297. Дои:10.1007 / BF00994018.
  3. ^ Рифкин, Райан (2002). Все старое снова новое: свежий взгляд на исторические подходы в машинном обучении (PDF). MIT (кандидатская диссертация).
  4. ^ а б Ли, Юнкён; Вахба, Грейс (2012). «Машины с мультикатегориальными опорными векторами». Журнал Американской статистической ассоциации. 99 (465): 67–81. Дои:10.1198/016214504000000098.
  5. ^ а б Росаско Л., Де Вито Э., Капоннетто А., Пиана М., Верри А. (май 2004 г.). «Все ли функции потерь одинаковы». Нейронные вычисления. 5. 16 (5): 1063–1076. CiteSeerX  10.1.1.109.6786. Дои:10.1162/089976604773135104. PMID  15070510.CS1 maint: использует параметр авторов (связь)
  6. ^ Пространство гипотез - это набор функций, используемых для моделирования данных в задаче машинного обучения. Каждая функция соответствует гипотезе о структуре данных. Обычно функции в пространстве гипотез образуют Гильбертово пространство функций с нормой, образованной из функции потерь.
  7. ^ Подробнее о выборе параметра см., Например, Вахба, Грейс; Юнхуа Ван (1990). «Когда является оптимальным параметром регуляризации, нечувствительным к выбору функции потерь». Коммуникации в статистике - теория и методы. 19 (5): 1685–1700. Дои:10.1080/03610929008830285.
  8. ^ Видеть Шолкопф, Бернхард; Ральф Хербрих; Алекс Смола (2001). Обобщенная теорема о представителях. Теория вычислительного обучения: конспект лекций по информатике. Конспект лекций по информатике. 2111. С. 416–426. CiteSeerX  10.1.1.42.8617. Дои:10.1007/3-540-44581-1_27. ISBN  978-3-540-42343-0.
  9. ^ Лин, Йи (июль 2002 г.). «Машины опорных векторов и правило Байеса в классификации» (PDF). Интеллектуальный анализ данных и обнаружение знаний. 6 (3): 259–275. Дои:10.1023 / А: 1015469627679.
  10. ^ Для подробного вывода см. Рифкин, Райан (2002). Все старое снова новое: свежий взгляд на исторические подходы в машинном обучении (PDF). MIT (кандидатская диссертация).