Функция обучения с весом Кохонена
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnk('code')
learnk - функция обучения весу Кохонена.
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) принимает несколько входы,
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW |
|
gA |
|
D |
|
LP | Параметры обучения, нет, |
LS | Состояние обучения, первоначально должно быть = |
и возвращает
dW |
|
LS | Новое состояние обучения |
Обучение происходит согласно learnk"s параметр обучения, показанный здесь с его значением по умолчанию.
LP.lr - 0.01 | Скорость обучения |
info = learnk(' возвращает полезную информацию для каждого code')code вектор символов:
'pnames' | Имена параметров обучения |
'pdefaults' | Параметры обучения по умолчанию |
'needg' | Возвращает 1, если эта функция использует |
Здесь вы задаете случайный вход P, выход A, и весовой матрицы W для слоя с двухэлементным входом и тремя нейронами. Также задайте скорость обучения LR.
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.lr = 0.5;
Потому что learnk эти значения нужны только для вычисления изменения веса (см. «Алгоритм» ниже), используйте их для этого.
dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])
Подготовить веса слоя i пользовательской сети для обучения с learnk,
Задайте net.trainFcn на 'trainr'. (net.trainParam автоматически становится trainr"параметры по умолчанию.)
Задайте net.adaptFcn на 'trains'. (net.adaptParam автоматически становится trains"параметры по умолчанию.)
Установите каждую net.inputWeights{i,j}.learnFcn на 'learnk'.
Установите каждую net.layerWeights{i,j}.learnFcn на 'learnk'. (Каждое свойство параметра весового обучения автоматически устанавливается на learnk"параметры по умолчанию.)
Чтобы обучить сеть (или включить ее для адаптации),
Задайте net.trainParam (или net.adaptParam) свойства по желанию.
Функции train (или adapt).
learnk вычисляет изменение веса dW для данного нейрона из входных данных нейрона P, выход A, и скорость обучения LR согласно правилу обучения Кохонена:
dw = lr*(p'-w), если a ~= 0; = 0, в противном случае
Kohonen, T., Self-Organizing and Associative Memory, New York, Springer-Verlag, 1984