Мягкая макс. передаточная функция

A = softmax(N,FP)
softmax нейронная передаточная функция. Передаточные функции вычисляют выход слоя от его сетевого входа.
A = softmax(N,FP) берет N и дополнительные параметры функции,
N |
|
FP | Struct параметров функции (проигнорирован) |
и возвращает A, S- Q матрица softmax конкурентоспособной функции применилась к каждому столбцу N.
информация = softmax (' возвращает информацию об этой функции. Следующие коды заданы: code')
softmax('name') возвращает имя этой функции.
softmax('output',FP) возвращает [min max] выведите область значений.
softmax('active',FP) возвращает [min max] активный входной диапазон.
softmax('fullderiv') возвращается 1 или 0, в зависимости от ли dA_dN S- S- Q или S- Q.
softmax('fpnames') возвращает имена параметров функции.
softmax('fpdefaults') возвращает параметры функции по умолчанию.
Здесь вы задаете сетевой входной вектор N, вычислите выход и постройте обоих со столбчатыми графиками.
n = [0; 1; -0.5; 0.5];
a = softmax(n);
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')
Присвойте эту передаточную функцию слою i из сети.
net.layers{i}.transferFcn = 'softmax';
a = softmax(n) = exp(n)/sum(exp(n))