newrb

Спроектируйте радиальную базисную сеть

Описание

пример

net = newrb(P,T,goal,spread,MN,DF) берет два из этих аргументов:

  • P R- Q матрица Q входные векторы

  • T S- Q матрица Q целевые векторы класса

  • goal — Цель среднеквадратической ошибки

  • spread — Распространение радиальных основных функций

  • MN — Максимальное количество нейронов

  • DF — Количество нейронов, чтобы добавить между отображениями

Радиальные базисные сети могут использоваться, чтобы аппроксимировать функции. newrb добавляют нейроны к скрытому слою радиальной базисной сети, пока он не удовлетворяет заданной цели среднеквадратической ошибки.

Больший spread более сглаженное приближение функций. Слишком большое распространение означает, что много нейронов требуется, чтобы соответствовать быстро изменяющейся функции. Слишком маленькое распространение означает, что много нейронов требуются, чтобы соответствовать сглаженной функции, и сетевая сила не делает вывод хорошо. Вызовите newrb с различными распространениями, чтобы найти оптимальное значение для данной проблемы.

Примеры

свернуть все

В этом примере показано, как спроектировать радиальную базисную сеть.

Спроектируйте радиальную базисную сеть с входными параметрами P и цели T.

P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrb(P,T);

Симулируйте сеть для нового входа.

P = 1.5;
Y = sim(net,P)

Входные параметры

свернуть все

Входные векторы в виде R- Q матрица.

Целевые векторы класса в виде S- Q матрица.

Цель среднеквадратической ошибки в виде скаляра.

Распространение радиальных основных функций в виде скаляра.

Максимальное количество нейронов в виде скаляра.

Количество нейронов, чтобы добавить между отображениями в виде скаляра.

Выходные аргументы

свернуть все

Новая радиальная базисная сеть, возвращенная как сетевой объект

Алгоритмы

newrb создает сеть 2D слоя. Первый слой имеет radbas нейроны, и вычисляют его взвешенные входные параметры с dist и его сетевой вход с netprod. Второй слой имеет purelin нейроны, и вычисляют его взвешенный вход с dotprod и его сетевые входные параметры с netsum. Оба слоя имеют смещения.

Первоначально radbas слой не имеет никаких нейронов. Следующие шаги повторяются, пока среднеквадратическая ошибка сети не падает ниже goal.

  1. Сеть симулирована.

  2. Входной вектор с самой большой ошибкой найден.

  3. radbas нейрон добавляется с весами, равными тому вектору.

  4. purelin веса слоя перепроектированы, чтобы минимизировать ошибку.

Смотрите также

| | |

Представлено до R2006a