Мягкая макс. передаточная функция

A = softmax(N,FP)
softmax является нейронной передаточной функцией. Передаточные функции вычисляют вывод слоя от его сетевого входа.
A = softmax(N,FP) берет N и дополнительные параметры функции,
N |
|
FP | Struct параметров функции (проигнорирован) |
и возвращает A, S-by-Q матрица softmax конкурентоспособной функции применился к каждому столбцу N.
возвращает информацию об этой функции. Следующие коды заданы: info = softmax('code')
softmax('name') возвращает имя этой функции.
softmax('output',FP) возвращает [min max] область значений вывода.
softmax('active',FP) возвращает [min max] активный входной диапазон.
softmax('fullderiv') возвращается 1 или 0, в зависимости от того, является ли dA_dN S-by-S-by-Q или S-by-Q.
softmax('fpnames') возвращает имена параметров функции.
softmax('fpdefaults') возвращает параметры функции по умолчанию.
Здесь вы задаете сетевой входной вектор N, вычисляете вывод и строите обоих с гистограммами.
n = [0; 1; -0.5; 0.5];
a = softmax(n);
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')
Присвойте эту передаточную функцию слою i сети.
net.layers{i}.transferFcn = 'softmax';
a = softmax(n) = exp(n)/sum(exp(n))