Наверное, примерно правильное обучение - Probably approximately correct learning

В теория вычислительного обучения, наверное примерно правильно (PAC) обучение представляет собой основу для математического анализа машинное обучение. Он был предложен в 1984 г. Лесли Валиант.[1]

В этой структуре учащийся получает образцы и должен выбрать функцию обобщения (называемую гипотеза) из определенного класса возможных функций. Цель состоит в том, что с высокой вероятностью (часть "вероятно") выбранная функция будет иметь низкий ошибка обобщения («примерно правильная» часть). Учащийся должен уметь усвоить концепцию с учетом любого произвольного коэффициента приближения, вероятности успеха или распространение образцов.

Позже модель была расширена для обработки шума (неверно классифицированные образцы).

Важным нововведением в рамках PAC является введение теория сложности вычислений концепции машинного обучения. В частности, ожидается, что учащийся найдет эффективные функции (требования по времени и пространству ограничены многочлен размера примера), а сам учащийся должен реализовать эффективную процедуру (требующую, чтобы количество примеров ограничивалось полиномом размера концепции, модифицированным приближением и вероятность границы).

Определения и терминология

Чтобы дать определение чему-то, что можно изучить с помощью PAC, мы сначала должны ввести некоторую терминологию.[2][3]

Для следующих определений будут использованы два примера. Во-первых, проблема распознавание символов учитывая массив биты, кодирующие двоичное изображение. Другой пример - проблема поиска интервала, который правильно классифицирует точки внутри интервала как положительные, а точки вне диапазона как отрицательные.

Позволять быть набором, называемым пространство экземпляра или кодирование всех образцов. В задаче распознавания символов пространство экземпляра . В задаче об интервале пространство экземпляров, , - множество всех ограниченных интервалов в , где обозначает набор всех действительных чисел.

А концепция это подмножество . Одна концепция - это набор всех комбинаций битов в которые кодируют изображение буквы «П». Пример концепции из второго примера - это набор открытых интервалов, , каждая из которых содержит только положительные точки. А концептуальный класс это собрание концепций над . Это может быть набор всех подмножеств массива битов, которые скелетонизированный 4-связный (ширина шрифта 1).

Позволять быть процедурой, которая рисует пример, , используя распределение вероятностей и дает правильный ярлык , то есть 1, если и 0 в противном случае.

Теперь, учитывая , предположим, что есть алгоритм и многочлен в (и другие соответствующие параметры класса ) такой, что, учитывая размер выборки нарисованный в соответствии с , то с вероятностью не менее , выводит гипотезу со средней погрешностью меньше или равной на с таким же распределением . Далее, если приведенное выше утверждение для алгоритма верно для любой концепции и для каждого распределения над , и для всех тогда (эффективно) PAC обучаемый (или без распространения PAC обучаемый). Мы также можем сказать, что это Алгоритм обучения PAC для .

Эквивалентность

При некоторых условиях регулярности эти условия эквивалентны: [4]

  1. Концептуальный класс C можно ли выучить PAC.
  2. В Размер ВК из C конечно.
  3. C униформа Класс Гливенко-Кантелли.[требуется разъяснение ]
  4. C является сжимаемый в смысле Литтлстоуна и Вармута

Смотрите также

использованная литература

  1. ^ Л. Валиант. Теория изучаемого. Сообщения ACM, 27, 1984.
  2. ^ Кирнс и Вазирани, стр. 1-12,
  3. ^ Балас Каусик Натараджан, Машинное обучение, теоретический подход, издательство Morgan Kaufmann, 1991
  4. ^ Блумер, Ансельм; Эренфойхт, Анджей; Дэвид, Хаусслер; Манфред, Вармут (октябрь 1989 г.). «Обучаемость и измерение Вапника-Червоненкиса». Журнал Ассоциации вычислительной техники. 36 (4): 929–965. Дои:10.1145/76359.76371. S2CID  1138467.

https://users.soe.ucsc.edu/~manfred/pubs/lrnk-olivier.pdf

Моран, Шэй; Иегудаофф, Амир (2015). «Примеры схем сжатия для классов ВК». arXiv:1503.06960 [cs.LG ].

дальнейшее чтение