Метод потенциальных функций
Материал из MachineLearning.
м (→См. также) |
|||
Строка 50: | Строка 50: | ||
=== Алгоритм === | === Алгоритм === | ||
- | ==== Вход ==== | + | ==== Вход и результат ==== |
+ | |||
+ | ===== Вход ===== | ||
Обучающая выборка из <tex>l</tex> пар «объект-ответ» — <tex>X^l=\left((x_1,y_1), \dots, (x_l,y_l) \right)</tex>. <br /> | Обучающая выборка из <tex>l</tex> пар «объект-ответ» — <tex>X^l=\left((x_1,y_1), \dots, (x_l,y_l) \right)</tex>. <br /> | ||
+ | |||
+ | ===== Результат ===== | ||
+ | Значения параметров <tex>\gamma_i \equiv \gamma(x_i)</tex> для всех <tex>i=\overline{1,l}</tex> <br /> <br /> | ||
==== Описание алгоритма ==== | ==== Описание алгоритма ==== | ||
- | + | 1. Инициализация: <tex>\gamma_i:=0</tex> для всех <tex>i=\overline{1,l}</tex>; <br /> | |
- | + | 2. Повторять пункты 3-4, пока <tex>Q(a,X^l) > \varepsilon</tex> (то есть пока процесс не стабилизируется): <br /> | |
- | + | 3. Выбрать очередной объект <tex>x_i</tex> из выборки <tex>X^l</tex>;<br /> | |
- | + | 4. Если <tex>a(x_i) \not= y_i</tex>, то <tex>\gamma_i:=\gamma_i+1</tex>;<br /> | |
- | + | 5. Вернуть значения <tex>\gamma_i</tex> для всех <tex>i=\overline{1,l}</tex>. | |
- | + | ||
- | |||
- | |||
== Преимущества и недостатки == | == Преимущества и недостатки == | ||
Строка 96: | Строка 98: | ||
[[Категория:Метрические алгоритмы классификации]] | [[Категория:Метрические алгоритмы классификации]] | ||
- | {{Задание|osa|Константин Воронцов| | + | {{Задание|osa|Константин Воронцов|27 января 2010}} |
Версия 09:26, 24 января 2010
Метод потенциальных функций - метрический классификатор, частный случай метода ближайших соседей. Позволяет с помощью простого алгоритма оценивать вес («важность») объектов обучающей выборки при решении задачи классификации.
Содержание[убрать] |
Постановка задачи классификации
Приведём краткую постановку задачи классификации в общем виде.
Пусть имеется пространство объектов и конечное множество классов
. На множестве
задана функция расстояния
. Каждый объект из
относится к некоторому классу из
посредством отображения
.
Пусть также задана обучающая выборка пар «объект—ответ»:
.
Требуется построить алгоритм , который по заданной выборке
аппроксимирует отображение
.
Идея метода
Общая идея метода иллюстрируется на примере электростатического взаимодействия элементарных частиц. Известно, что потенциал («мера воздействия») электрического поля элементарной заряженной частицы в некоторой точке пространства пропорционален отношению заряда частицы (Q) к расстоянию до частицы (r): .
Метод потенциальных функций реализует полную аналогию указанного выше примера. При классификации объект проверяется на близость к объектам из обучающей выборки. Считается, что объекты из обучающей выборки «заряжены» своим классом, а мера «важности» каждого из них при классификации зависит от его «заряда» и расстояния до классифицируемого объекта.
Основная формула
Перенумеруем объекты обучающей выборки относительно удаления от объекта
индексами
(
) — то есть таким образом, что
.
В общем виде, алгоритм ближайших соседей есть:
, где
— мера «важности» (вес) объекта
из обучающей выборки относительно классифицируемого
объекта.
Метод потенциальных функций заключается в выборе в качестве весовой функции следующего вида:
-
, где
-
-
— функция, убывающая с ростом аргумента. Константа
нужна чтобы избежать проблем с делением на ноль. Для простоты обычно полагают
.
-
— расстояние от объекта u до i-того ближайшего к u объекта —
.
-
— параметр, задающий «ширину потенциала» объекта
,
. Вводится по аналогии с шириной окна в методе парзеновского окна.
-
— параметр, задающий «заряд», то есть степень «важности» объекта
,
при классификации;
Выбор параметров
Как мы уже заметили, в основной формуле метода потенциальных функций используются две группы параметров: и
.
«Ширина окна потенциала» выбирается для каждого объекта из эмпирических соображений.
«Важность» объектов выборки можно подобрать, исходя из информации, содержащейся в выборке. Ниже приведён алгоритм, который позволяет «обучать» параметры
, то есть подбирать их значения по обучающей выборке
.
Алгоритм
Вход и результат
Вход
Обучающая выборка из пар «объект-ответ» —
.
Результат
Значения параметров для всех
Описание алгоритма
1. Инициализация:для всех
;
2. Повторять пункты 3-4, пока(то есть пока процесс не стабилизируется):
3. Выбрать очередной объектиз выборки
;
4. Если, то
;
5. Вернуть значениядля всех
.
Преимущества и недостатки
Преимущества метода потенциальных функций:
- Метод прост для понимания и алгоритмической реализации;
- Порождает потоковый алгоритм;
- Хранит лишь часть выборки, следовательно, экономит память.
Недостатки метода:
- Порождаемый алгоритм медленно сходится;
- Параметры
и
настраиваются слишком грубо;
- Значения параметров
зависят от порядка выбора объектов из выборки
.
Замечания
Полученные в результате работы алгоритма значения параметров позволяют выделить из обучающей выборки подмножество эталонов — наиболее значимых с точки зрения классификации объектов. Как нетрудно видеть, теоретически на роль эталона подходит любой объект
с ненулевой «значимостью»
.
См. также
- Классификация
- Метрический классификатор
- Метод ближайших соседей
- Метод парзеновского окна
- Сеть радиальных базисных функций
- Nearest neighbour search (en.wikipedia.org)
- Метод потенциальных функций (www.codenet.ru)
- Алгоритм распознавания на основе метода потенциальных функций (www.delphikingdom.com)
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |