Устойчивость к ошибкам (обучение PAC) - Error tolerance (PAC learning)

Устойчивость к ошибкам (обучение PAC)

В PAC обучение, устойчивость к ошибкам относится к способности алгоритм чтобы узнать, были ли полученные примеры каким-либо образом повреждены. Фактически, это очень распространенная и важная проблема, поскольку во многих приложениях невозможно получить доступ к данным без шума. Шум может мешать процессу обучения на разных уровнях: алгоритм может получать данные, которые иногда ошибочно маркируются, или входные данные могут содержать ложную информацию, или классификация примеров может быть злонамеренно искажена.

Нотация и модель обучения Valiant

Далее пусть будь нашим -мерное пространство ввода. Позволять быть классом функций, которые мы хотим использовать, чтобы изучить -значная целевая функция определяется по . Позволять быть распределением входов по . Цель алгоритма обучения выбрать лучшую функцию так что это минимизирует . Предположим, у нас есть функция который может измерить сложность . Позволять быть оракулом, который при каждом вызове возвращает пример и его правильная этикетка .

Когда никакой шум не искажает данные, мы можем определить обучение в среде Valiant:[1][2]

Определение:Мы говорим что эффективно обучается с помощью в Доблестный установка, если существует алгоритм обучения который имеет доступ к и многочлен такой, что для любого и он выводит в ряде вызовов оракула, ограниченном , функция который с вероятностью удовлетворяет по крайней мере условие .

Далее мы определим обучаемость когда данные претерпели некоторые изменения.[3][4][5]

Классификация шума

В модели шума классификации[6] а уровень шума вводится. Тогда вместо который всегда возвращает правильную метку примера , алгоритм может вызвать только ошибочного оракула это перевернет этикетку с вероятностью . Как и в случае с Valiant, цель алгоритма обучения выбрать лучшую функцию так что это минимизирует . В приложениях трудно получить доступ к реальной стоимости , но мы предполагаем, что у нас есть доступ к его верхней границе .[7] Обратите внимание, что если мы допустим уровень шума , то обучение становится невозможным при любом количестве времени вычислений, потому что каждая метка не несет информации о целевой функции.

Определение:Мы говорим что эффективно обучается с помощью в модель шума классификации если существует алгоритм обучения который имеет доступ к и многочлен такой, что для любого , и он выводит в ряде вызовов оракула, ограниченном , функция который с вероятностью удовлетворяет по крайней мере условие .

Статистическое изучение запросов

Статистическое изучение запросов[8] это своего рода активное изучение проблема, в которой алгоритм обучения может решить, запрашивать ли информацию о вероятности что функция правильно маркирует пример , и получает ответ с точностью в пределах допуска . Формально, когда алгоритм обучения вызывает оракул , он получает как вероятность обратной связи , так что .

Определение:Мы говорим что эффективно обучается с помощью в модель обучения статистическим запросам если существует алгоритм обучения который имеет доступ к и многочлены , , и такой, что для любого справедливо следующее:

  1. можно оценить во время ;
  2. ограничен
  3. выводит модель такой, что , в ряде обращений к оракулу, ограниченному .

Обратите внимание, что параметр достоверности не фигурирует в определении обучения. Это потому, что основная цель заключается в том, чтобы позволить алгоритму обучения небольшую вероятность отказа из-за нерепрезентативной выборки. С этого момента всегда гарантирует соответствие критерию приближения , вероятность отказа больше не нужна.

Модель статистических запросов строго слабее, чем модель PAC: любой класс, эффективно обучаемый SQ, может эффективно обучаться PAC при наличии шума классификации, но существуют эффективные проблемы, которые можно изучить с помощью PAC, такие как паритет которые не могут быть эффективно обучены SQ.[8]

Вредоносная классификация

В модели вредоносной классификации[9] злоумышленник генерирует ошибки, чтобы помешать алгоритму обучения. Этот параметр описывает ситуации пакет ошибок, что может произойти, если в течение ограниченного времени передающее оборудование неоднократно выходит из строя. Формально алгоритм вызывает оракула который возвращает правильно помеченный пример взяты, как обычно, из раздачи над входным пространством с вероятностью , но он возвращается с вероятностью пример взят из дистрибутива, не относящегося к . Более того, этот злонамеренно выбранный пример может быть стратегически выбран противником, который знает , , , или текущий прогресс алгоритма обучения.

Определение:Учитывая границу за мы говорим, что эффективно обучается с помощью в модели вредоносной классификации, если существует алгоритм обучения который имеет доступ к и многочлен такой, что для любого , он выводит в ряде вызовов оракула, ограниченном , функция который с вероятностью удовлетворяет по крайней мере условие .

Ошибки во входных данных: неоднородный шум случайных атрибутов

В неоднородном шуме случайных атрибутов[10][11] модель, которую алгоритм изучает Логическая функция, злой оракул может перевернуть каждый -й бит примера независимо с вероятностью .

Этот тип ошибки может непоправимо помешать алгоритму, на самом деле имеет место следующая теорема:

В настройке неоднородного шума случайных атрибутов алгоритм может выводить функцию такой, что только если .

Смотрите также

Рекомендации

  1. ^ Валиант, Л. Г. (август 1985 г.). Изучение дизъюнкции союзов. В IJCAI (стр. 560–566).
  2. ^ Валиант, Лесли Г. "Теория обучаемого". Сообщения ACM 27.11 (1984): 1134–1142.
  3. ^ Лэрд, П. Д. (1988). Учимся на хороших и плохих данных. Kluwer Academic Publishers.
  4. ^ Кирнс, Майкл. «Эффективное устойчивое к шуму обучение на основе статистических запросов». Журнал ACM 45.6 (1998): 983–1006.
  5. ^ Бранк, Клиффорд А. и Майкл Дж. Паццани. «Исследование устойчивых к шуму реляционных алгоритмов обучения концепции». Материалы 8-го международного семинара по машинному обучению. 1991 г.
  6. ^ Кирнс, М. Дж., И Вазирани, У. В. (1994). Введение в теорию вычислительного обучения, глава 5. MIT press.
  7. ^ Англуин Д. и Лэрд П. (1988). Учимся на шумных примерах. Машинное обучение, 2 (4), 343–370.
  8. ^ а б Кернс, М. (1998). [www.cis.upenn.edu/~mkearns/papers/sq-journal.pdf Эффективное устойчивое к шуму обучение на основе статистических запросов]. Журнал ACM, 45 (6), 983–1006.
  9. ^ Кирнс, М., и Ли, М. (1993). [www.cis.upenn.edu/~mkearns/papers/malicious.pdf Обучение при наличии вредоносных ошибок]. SIAM Journal on Computing, 22 (4), 807–837.
  10. ^ Гольдман, С.А., и Роберт, Х. (1991). Слоан. Сложность случайного атрибута шума. Технический отчет WUCS 91 29, Вашингтонский университет, факультет компьютерных наук.
  11. ^ Слоан, Р. Х. (1989). Теория вычислительного обучения: новые модели и алгоритмы (Докторская диссертация, Массачусетский технологический институт).