learnp

Вес перцептрона и функция обучения смещением

Синтаксис

[dW,LS] = learnp(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnp('code')

Описание

learnp - функция perceptron weight/bias обучения.

[dW,LS] = learnp(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) принимает несколько входы,

W

S-by- R матрица веса (или b, и S-by- 1 вектор смещения)

P

R-by- Q входные векторы (или ones(1,Q))

Z

S-by- Q взвешенные входные векторы

N

S-by- Q сетевые входные векторы

A

S-by- Q выходные векторы

T

S-by- Q целевой слой векторов

E

S-by- Q векторы ошибок слоя

gW

S-by- R градиент веса относительно эффективности

gA

S-by- Q выходной градиент относительно эффективности

D

S-by- S нейронные расстояния

LP

Параметры обучения, нет, LP = []

LS

Состояние обучения, первоначально должно быть = []

и возвращает

dW

S-by- R матрица изменения веса (или смещения)

LS

Новое состояние обучения

info = learnp('code') возвращает полезную информацию для каждого code вектор символов:

'pnames'

Имена параметров обучения

'pdefaults'

Параметры обучения по умолчанию

'needg'

Возвращает 1, если эта функция использует gW или gA

Примеры

Здесь вы задаете случайный вход P и E ошибок для слоя с двухэлементным входом и тремя нейронами.

p = rand(2,1);
e = rand(3,1);

Потому что learnp эти значения нужны только для вычисления изменения веса (см. «Алгоритм» ниже), используйте их для этого.

dW = learnp([],p,[],[],[],[],e,[],[],[],[],[])

Алгоритмы

learnp вычисляет изменение веса dW для данного нейрона из входных данных нейрона P и E ошибок согласно правилу обучения перцептрон:

dw = 0, if e = 0
     = p', if e = 1
     = -p', if e = -1

Это может быть суммировано как

dw = e*p'

Ссылки

Розенблатт, Ф. Принципы нейродинамики, Вашингтон, округ Колумбия, Спартанская пресса, 1961

См. также

| |

Представлено до R2006a