Сеть радиальных базисных функций
Материал из MachineLearning.
(→Сеть радиальных базисных функций) |
|||
Строка 1: | Строка 1: | ||
- | '''Радиальные функции''' | + | '''Радиальные функции''' — это функции <tex>f(x)</tex>, зависящие только от расстояния между x и фиксированной точ- |
- | кой пространства X. <br /> | + | кой пространства X. <br /> <br /> |
Гауссиан <tex>p_j(x) = N(x; \mu _j ,\Sigma _j)</tex> с диагональной матрицей <tex>\Sigma _j</tex> можно записать в виде <br /> <br /> | Гауссиан <tex>p_j(x) = N(x; \mu _j ,\Sigma _j)</tex> с диагональной матрицей <tex>\Sigma _j</tex> можно записать в виде <br /> <br /> | ||
- | <tex>~p_j(x) = N_j exp(-1/2 \rho | + | <tex>~p_j(x) = N_j exp(-1/2 \rho ² _j (x, \mu _j)</tex> <br /> <br /> |
- | где <tex>N_j = (2\pi )^ {-n/2)(\sigma _{j1} | + | где <tex>N_j = (2\pi)^ {-n/2)(\sigma _{j1} … \sigma _{jn})^{-1}</tex> — нормировочный множитель,<br /> |
- | <tex>\rho _j(x, x')</tex> | + | <tex>\rho _j(x, x')</tex> — взвешенная евклидова метрика в n-мерном пространстве X:<br /> |
- | <tex>~\rho | + | <tex>~\rho ² (x, x') = \Sigma ^n _{d = 1} \sigma ^{-2} _{jd} |\xi _d — \xi _d '| ²</tex>, <br /> |
<tex> x = (\xi _1, . . . ,\xi _n), x' = (\xi _1 ', . . . , \xi _n')</tex>. <br /> <br /> | <tex> x = (\xi _1, . . . ,\xi _n), x' = (\xi _1 ', . . . , \xi _n')</tex>. <br /> <br /> | ||
Чем меньше расстояние <tex>\rho _j(x, \mu _j)</tex>, тем выше значение плотности в точке x. По- | Чем меньше расстояние <tex>\rho _j(x, \mu _j)</tex>, тем выше значение плотности в точке x. По- | ||
Строка 18: | Строка 18: | ||
смесей <tex>k_y</tex> компонент. Каждая компонента имеет n-мерную гауссовскую плотность | смесей <tex>k_y</tex> компонент. Каждая компонента имеет n-мерную гауссовскую плотность | ||
с параметрами <br /> | с параметрами <br /> | ||
- | <tex>\mu _{yj} = (\mu _{yj1}, \dots | + | <tex>\mu _{yj} = (\mu _{yj1}, \dots , \mu _{yjn}), \Sigma _{yj} = diag(\sigma ² _{yj1}, \dots , \sigma ² _{yjn})</tex> <br /> |
<tex>j = 1, . . . , k_y</tex>:<br /><br /> | <tex>j = 1, . . . , k_y</tex>:<br /><br /> | ||
<tex> p_y(x) = \sum ^{k _y} _{j = 1} \omega _{yj} p _{yj}(x), </tex> | <tex> p_y(x) = \sum ^{k _y} _{j = 1} \omega _{yj} p _{yj}(x), </tex> | ||
Строка 27: | Строка 27: | ||
Запишем байесовское решающее правило, выразив плотность каждой компоненты <tex>p_{yj}(x)</tex> через взвешенное евклидово расстояние от объекта x до центра компоненты <tex>\mu _{yj}</tex> :<br /><br /> | Запишем байесовское решающее правило, выразив плотность каждой компоненты <tex>p_{yj}(x)</tex> через взвешенное евклидово расстояние от объекта x до центра компоненты <tex>\mu _{yj}</tex> :<br /><br /> | ||
- | <tex>a(x) = argmax _{y \in Y} \lambda _y P _y \sum ^{k_y} _{j = 1} N _{yj} exp(-1/2 \rho | + | <tex>a(x) = argmax _{y \in Y} \lambda _y P _y \sum ^{k_y} _{j = 1} N _{yj} exp(-1/2 \rho ² _{yj} (x, \mu _{yj}))</tex> <br /> <br /> |
- | где <tex>N _{yj} = (2\pi)^{-n/2} (\sigma _{yj1},\dots , \sigma _{yjn})^{-1}</tex> | + | где <tex>N _{yj} = (2\pi)^{-n/2} (\sigma _{yj1},\dots , \sigma _{yjn})^{-1}</tex> — нормировочные множители. Алгоритм имеет вид |
- | суперпозиции, состоящей из трёх уровней или слоёв | + | суперпозиции, состоящей из трёх уровней или слоёв.<br /> |
Первый слой образован <tex>k_1 + \dots+ k_M</tex> гауссианами <tex>p_{yj}(x), y \in Y , j = 1, \dots, k_y</tex>. | Первый слой образован <tex>k_1 + \dots+ k_M</tex> гауссианами <tex>p_{yj}(x), y \in Y , j = 1, \dots, k_y</tex>. | ||
На входе они принимают описание объекта x, на выходе выдают оценки близости | На входе они принимают описание объекта x, на выходе выдают оценки близости |
Версия 20:11, 5 января 2010
Радиальные функции — это функции , зависящие только от расстояния между x и фиксированной точ-
кой пространства X.
Гауссиан с диагональной матрицей можно записать в виде
где — нормировочный множитель,
— взвешенная евклидова метрика в n-мерном пространстве X:
,
.
Чем меньше расстояние , тем выше значение плотности в точке x. По-
этому плотность можно рассматривать как функцию близости вектора x к фик-
сированному центру .
Сеть радиальных базисных функций
Пусть теперь , каждый класс имеет свою плотность
распределения и представлен частью выборки .
Гипотеза
Функции правдоподобия классов , представимы в виде
смесей компонент. Каждая компонента имеет n-мерную гауссовскую плотность
с параметрами
:
Алгоритм классификации
Запишем байесовское решающее правило, выразив плотность каждой компоненты через взвешенное евклидово расстояние от объекта x до центра компоненты :
где — нормировочные множители. Алгоритм имеет вид
суперпозиции, состоящей из трёх уровней или слоёв.
Первый слой образован гауссианами .
На входе они принимают описание объекта x, на выходе выдают оценки близости
объекта x к центрам , равные значениям плотностей компонент в точке x.
Второй слой состоит из M сумматоров, вычисляющих взвешенные средние этих
оценок с весами . На выходе второго слоя появляются оценки принадлежности
объекта x каждому из классов, равные значениям плотностей классов .
Третий слой образуется единственным блоком argmax, принимающим окончательное решение об отнесении объекта x к одному из классов.
Таким образом, при классификации объекта x оценивается его близость к каж-
дому из центров по метрике . Объект относится к тому
классу, к чьим центрам он располагается ближе.
Описанный трёхуровневый алгоритм классификации называется сетью c радиальными базисными функциями или RBF-сетью (radial basis function network). Это одна из разновидностей нейронных сетей.
Обучение RBF-сети
Обучение сводится к восстановлению плотности каждого из классов с помощью EM-алгоритма. Результатом обучения являются центры и дис- персии компонент . Интересно отметить, что, оценивая дисперсии, мы фактически подбираем метрики , с помощью которых будут вычисляться рас-стояния до центров . При использовании Алгоритма 1.4 для каждого класса определяется оптимальное число компонент смеси.