Информационные нечеткие сети - Information fuzzy networks
Тема этой статьи может не соответствовать Википедии общее руководство по известности.Май 2010 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
Информационные нечеткие сети (IFN) это жадный машинное обучение алгоритм за контролируемое обучение. структура данных формируемый алгоритмом обучения, также называется информационной нечеткой сетью. конструкция IFN очень похожа на деревья решений ' конструкция. Однако IFN строит ориентированный граф а не дерево.IFN также использует условная взаимная информация метрика для выбора функций на этапе строительства, в то время как деревья решений обычно используют другие метрики, такие как энтропия или же Джини.
IFN и этапы процесса открытия знаний
- Дискретность непрерывных функций
- Выбор функции
- Создает модель для классификация
- Оценка добытого правила ассоциации и расставляя приоритеты
- Обнаружение аномалий
Атрибуты IFN
- Модель IFN частично решает проблему фрагментации, которая возникает в деревьях решений (чем глубже узел, тем меньше записей он представляет. Следовательно, количество записей может быть слишком низким для Статистическая значимость индикация), поскольку на каждом слое используется весь набор записей.
- Каждый узел внутри сети называется внутренним или скрытым узлом.
- В IFN каждая переменная может появляться только в одном слое, и в слое не может быть более одного атрибута. Не все атрибуты должны использоваться.
- Увеличение условного MI целевой переменной после построения сети равно сумме увеличения условного MI во всех слоях.
- В дуги от конечных узлов до узлов целевой переменной взвешиваются (конечные узлы - это узлы, напрямую подключенные к узлам целевой переменной). Вес условная взаимная информация из-за дуги.
- IFN сравнивали на нескольких общих наборах данных с c4.5 Древо решений алгоритм. В модели IFN обычно используется меньше переменных и меньше узлов. В точность IFN было меньше, чем в дереве решений. Модель IFN обычно более устойчива, а это означает, что небольшие изменения в обучающей выборке повлияют на нее меньше, чем в других моделях.
Алгоритм построения IFN
Вход: список входных переменных, которые можно использовать, список записей данных (обучающий набор) и минимальная статистическая значимость, используемая для принятия решения о том, разделять узел или нет (по умолчанию 0,1%).
- Создайте корневой узел и слой целевой переменной.
- Повторяйте цикл до тех пор, пока мы не израсходуем все атрибуты или пока не сможем улучшить условная взаимная информация больше с любым Статистическая значимость.
- Найдите атрибут с максимальным условная взаимная информация.
- Убедитесь, что вклад атрибута имеет статистическую значимость, используя тест отношения правдоподобия.
- Разделите любой узел в предыдущем слое, если вклад текущего атрибута имеет статистическую значимость. В противном случае создайте узел из этого узла в один из узлов значений целевой переменной в соответствии с принцип большинства.
- возвращает список переменных, выбранных для использования сетью и самой сетью.
внешняя ссылка
- Фаззификация и редукция множеств теоретико-информационных правил в области интеллектуального анализа данных и вычислительного интеллекта, А. Кандел, М. Ласт, и Х. Бунке (редакторы), Physica-Verlag, Studies in Fuzziness and Soft Computing, Vol. 68. С. 63–93, 2001.
- Сравнительное исследование искусственных нейронных сетей и информационных нечетких сетей по их использованию в тестировании программного обеспечения