exponenta event banner

softmax

Мягкая максимальная передаточная функция

Описание

пример

Совет

Чтобы использовать активацию softmax для глубокого обучения, используйте softmaxLayer или dlarray способ softmax.

A = softmax(N) принимает Sоколо-Q матрица чистых входных (колонных) векторов, Nи возвращает значение Sоколо-Q матрица, A, конкурентной функции softmax, применяемой к каждому столбцу N.

softmax является нейронной передаточной функцией. Передаточные функции вычисляют выходной сигнал слоя по его входному сигналу.

info = softmax(code) возвращает информацию об этой функции. Дополнительные сведения см. в описании аргумента кода.

Примеры

свернуть все

В этом примере показано, как вычислить и построить график мягкой максимальной передаточной функции входной матрицы.

Создайте матрицу ввода, n. Затем вызовите softmax и постройте график результатов.

n = [0; 1; -0.5; 0.5];
a = softmax(n);
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')

Присвоение этой передаточной функции слою i сети.

net.layers{i}.transferFcn = 'softmax';

Входные аргументы

свернуть все

Чистые векторы входных столбцов, указанные как Sоколо-Q матрица.

Информация, которую требуется извлечь из функции, указывается как одно из следующих значений:

  • 'name' возвращает имя этой функции.

  • 'output' возвращает значение [min max] выходной диапазон.

  • 'active' возвращает значение [min max] активный диапазон ввода.

  • 'fullderiv' возвращает 1 или 0, в зависимости от того, dA_dN является Sоколо-Sоколо-Q или Sоколо-Q.

  • 'fpnames' возвращает имена параметров функции.

  • 'fpdefaults' возвращает параметры функции по умолчанию.

Выходные аргументы

свернуть все

Выходная матрица, возвращенная как Sоколо-Q матрица конкурентной функции softmax, применяемая к каждому столбцу N.

Конкретная информация о функции в соответствии с опцией, указанной в code аргумент, возвращаемый в виде строки, вектора или скаляра.

Алгоритмы

a = softmax(n) = exp(n)/sum(exp(n))

См. также

|

Представлен до R2006a