Функция изучения веса Кохонена
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnk('code')
learnk - функция изучения веса Кохонена.
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) принимает несколько входов,
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW |
|
gA |
|
D |
|
LP | Параметры обучения, нет, |
LS | Состояние обучения, первоначально должно быть = |
и возвращает
dW |
|
LS | Новое состояние обучения |
Обучение происходит в соответствии с learnkПараметр learning, показанный здесь со значением по умолчанию.
LP.lr - 0.01 | Уровень обучения |
info = learnk(' возвращает полезную информацию для каждого code')code символьный вектор:
'pnames' | Названия параметров обучения |
'pdefaults' | Параметры обучения по умолчанию |
'needg' | Возвращает 1, если эта функция используется |
Здесь определяется случайный ввод P, вывод Aи весовая матрица W для слоя с двухэлементным входом и тремя нейронами. Также определите уровень обучения LR.
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.lr = 0.5;
Поскольку learnk только эти значения необходимы для вычисления изменения веса (см. «Алгоритм» ниже), используйте их для этого.
dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])
Подготовка весов слоя i пользовательской сети для изучения с помощью learnk,
Набор net.trainFcn кому 'trainr'. (net.trainParam автоматически становится trainrПараметры по умолчанию.)
Набор net.adaptFcn кому 'trains'. (net.adaptParam автоматически становится trainsПараметры по умолчанию.)
Установить каждый net.inputWeights{i,j}.learnFcn кому 'learnk'.
Установить каждый net.layerWeights{i,j}.learnFcn кому 'learnk'. (Для каждого свойства параметра weight learning автоматически устанавливается значение learnkПараметры по умолчанию.)
Обучение сети (или возможность ее адаптации),
Набор net.trainParam (или net.adaptParam) требуемые свойства.
Звонить train (или adapt).
learnk вычисляет изменение веса dW для данного нейрона из входа нейрона P, вывод Aи скорость обучения LR согласно правилу обучения Кохонена:
dw = lr*(p'-w), если a ~= 0; = 0, в противном случае
Кохонен, Т., Самоорганизующаяся и ассоциативная память, Нью-Йорк, Спрингер-Верлаг, 1984