softmax

Мягкая макс передаточная функция

Описание

пример

Совет

Чтобы использовать активацию softmax для глубокого обучения, используйте softmaxLayer или dlarray способ softmax.

A = softmax(N) принимает S-by- Q матрица сетевых входных (столбцовых) векторов, N, и возвращает S-by- Q матрица, A, конкурентной функции softmax, применяемой к каждому столбцу N.

softmax является нейронной передаточной функцией. Передаточные функции вычисляют выход слоя из его чистого входа.

info = softmax(code) возвращает информацию об этой функции. Для получения дополнительной информации см. описание code аргумента.

Примеры

свернуть все

Этот пример показов, как вычислить и построить график мягкого максимума передаточной функции матрицы входа.

Создайте матрицу входа, n. Затем вызовите softmax функция и постройте график результатов.

n = [0; 1; -0.5; 0.5];
a = softmax(n);
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')

Присвойте эту передаточную функцию слою i сети.

net.layers{i}.transferFcn = 'softmax';

Входные параметры

свернуть все

Сетевой вход векторов-столбцов, заданная как S-by- Q матрица.

Информация, которую вы хотите получить из функции, заданная как одно из следующего:

  • 'name' возвращает имя этой функции.

  • 'output' возвращает [min max] выходная область значений.

  • 'active' возвращает [min max] активная входная область значений.

  • 'fullderiv' возвращает 1 или 0, в зависимости от того dA_dN является S-by- S-by- Q или S-by- Q.

  • 'fpnames' возвращает имена параметров функции.

  • 'fpdefaults' возвращает параметры функции по умолчанию.

Выходные аргументы

свернуть все

Выходная матрица, возвращенная как S-by- Q матрица конкурентной функции softmax, применяемая к каждому столбцу N.

Конкретная информация о функции, согласно опции, указанной в code аргумент, возвращенный как строка, вектор или скаляр.

Алгоритмы

a = softmax(n) = exp(n)/sum(exp(n))

См. также

|

Представлено до R2006a