Сеть радиальных базисных функций
Материал из MachineLearning.
(→Сеть радиальных базисных функций) |
|||
Строка 12: | Строка 12: | ||
== Сеть радиальных базисных функций == | == Сеть радиальных базисных функций == | ||
+ | Пусть теперь <tex>Y = {1, . . . ,M}</tex>, каждый класс <tex>y \in Y</tex> имеет свою плотность | ||
+ | распределения <tex>p_y(x)</tex> и представлен частью выборки <tex>X ^l _y = \{(x_i, y_i) \in X ^l | y_i = y \}</tex>. <br /> <br /> | ||
+ | '''Гипотеза''' <br /> | ||
+ | Функции правдоподобия классов <tex>p_y(x), y \in Y</tex> , представимы в виде | ||
+ | смесей <tex>k_y</tex> компонент. Каждая компонента имеет n-мерную гауссовскую плотность | ||
+ | с параметрами <br /> | ||
+ | <tex>\mu _{yj} = (\mu _{yj1}, \dots , \mu _{yjn}), \Sigma _{yj} = diag(\sigma ^2 _{yj1}, \dots , \sigma ^2 _{yjn})</tex> <br /> | ||
+ | <tex>j = 1, . . . , k_y</tex>:<br /><br /> | ||
+ | <tex> p_y(x) = \sum ^{k _y} _{j = 1} \omega _{yj} p _{yj}(x), </tex> | ||
+ | <tex>p_{yj}(x) = N(x; \mu _{yj} ,\Sigma _{yj}), </tex> | ||
+ | <tex> \Sigma ^{k_y} _{j = 1} \omega _{yj} = 1, \omega _{yj} > 0 ;</tex> <br /> <br /> | ||
+ | '''Алгоритм классификации'''<br /> | ||
+ | Запишем байесовское решающее правило, выразив плотность каждой компоненты <tex>p_{yj}(x)</tex> через взвешенное евклидово расстояние от объекта x до центра компоненты <tex>\mu _{yj}</tex> :<br /><br /> | ||
+ | <tex>a(x) = argmax _{y \in Y} \lambda _y P _y \sum ^{k_y} _{j = 1} N _{yj} exp(-1/2 \rho ^2 _{yj} (x, \mu _{yj}))</tex> <br /> <br /> | ||
+ | |||
+ | где <tex>N _{yj} = (2\pi)^{-n/2} (\sigma _{yj1},\dots , \sigma _{yjn})^{-1}</tex> - нормировочные множители. Алгоритм имеет вид | ||
+ | суперпозиции, состоящей из трёх уровней или слоёв (см рисунок).<br /> | ||
+ | Первый слой образован <tex>k_1 + \dots+ k_M</tex> гауссианами <tex>p_{yj}(x), y \in Y , j = 1, \dots, k_y</tex>. | ||
+ | На входе они принимают описание объекта x, на выходе выдают оценки близости | ||
+ | объекта x к центрам <tex>\mu _{yj}</tex> , равные значениям плотностей компонент в точке x.<br /> | ||
+ | Второй слой состоит из M сумматоров, вычисляющих взвешенные средние этих | ||
+ | оценок с весами <tex>w_{yj}</tex> . На выходе второго слоя появляются оценки принадлежности | ||
+ | объекта x каждому из классов, равные значениям плотностей классов <tex>p_{yj}(x)</tex>.<br /> | ||
+ | Третий слой образуется единственным блоком argmax, принимающим окончательное решение об отнесении объекта x к одному из классов.<br /> | ||
+ | Таким образом, при классификации объекта x оценивается его близость к каж- | ||
+ | дому из центров <tex>\mu _{yj}</tex> по метрике <tex>\rho _{yj}(x, \mu _{yj}), j = 1, \dots, k_y</tex>. Объект относится к тому | ||
+ | классу, к чьим центрам он располагается ближе.<br /><br /> | ||
+ | Описанный трёхуровневый алгоритм классификации называется ''сетью c радиальными базисными функциями'' или ''RBF-сетью'' (radial basis function network). Это одна из разновидностей нейронных сетей.<br /> | ||
== Обучение RBF-сети == | == Обучение RBF-сети == |
Версия 20:03, 5 января 2010
Радиальные функции - это функции , зависящие только от расстояния между x и фиксированной точ-
кой пространства X.
Гауссиан с диагональной матрицей можно записать в виде
где - нормировочный множитель,
- взвешенная евклидова метрика в n-мерном пространстве X:
,
.
Чем меньше расстояние , тем выше значение плотности в точке x. По-
этому плотность можно рассматривать как функцию близости вектора x к фик-
сированному центру .
Сеть радиальных базисных функций
Пусть теперь , каждый класс имеет свою плотность
распределения и представлен частью выборки .
Гипотеза
Функции правдоподобия классов , представимы в виде
смесей компонент. Каждая компонента имеет n-мерную гауссовскую плотность
с параметрами
:
Алгоритм классификации
Запишем байесовское решающее правило, выразив плотность каждой компоненты через взвешенное евклидово расстояние от объекта x до центра компоненты :
где - нормировочные множители. Алгоритм имеет вид
суперпозиции, состоящей из трёх уровней или слоёв (см рисунок).
Первый слой образован гауссианами .
На входе они принимают описание объекта x, на выходе выдают оценки близости
объекта x к центрам , равные значениям плотностей компонент в точке x.
Второй слой состоит из M сумматоров, вычисляющих взвешенные средние этих
оценок с весами . На выходе второго слоя появляются оценки принадлежности
объекта x каждому из классов, равные значениям плотностей классов .
Третий слой образуется единственным блоком argmax, принимающим окончательное решение об отнесении объекта x к одному из классов.
Таким образом, при классификации объекта x оценивается его близость к каж-
дому из центров по метрике . Объект относится к тому
классу, к чьим центрам он располагается ближе.
Описанный трёхуровневый алгоритм классификации называется сетью c радиальными базисными функциями или RBF-сетью (radial basis function network). Это одна из разновидностей нейронных сетей.
Обучение RBF-сети
Обучение сводится к восстановлению плотности каждого из классов с помощью EM-алгоритма. Результатом обучения являются центры и дис- персии компонент . Интересно отметить, что, оценивая дисперсии, мы фактически подбираем метрики , с помощью которых будут вычисляться рас-стояния до центров . При использовании Алгоритма 1.4 для каждого класса определяется оптимальное число компонент смеси.