softmax

Мягкая макс. передаточная функция

Описание

пример

Совет

Чтобы использовать softmax активацию для глубокого обучения, использовать softmaxLayer или dlarray метод softmax.

A = softmax(N) берет S- Q матрица сетевого входа (столбец) векторы, N, и возвращает S- Q матрица, A, из softmax конкурентоспособной функции применился к каждому столбцу N.

softmax нейронная передаточная функция. Передаточные функции вычисляют выход слоя от его сетевого входа.

info = softmax(code) возвращает информацию об этой функции. Для получения дополнительной информации см. описание аргумента code.

Примеры

свернуть все

В этом примере показано, как вычислить и построить мягкую макс. передаточную функцию входной матрицы.

Создайте входную матрицу, n. Затем вызовите softmax функционируйте и постройте результаты.

n = [0; 1; -0.5; 0.5];
a = softmax(n);
subplot(2,1,1), bar(n), ylabel('n')
subplot(2,1,2), bar(a), ylabel('a')

Присвойте эту передаточную функцию слою i из сети.

net.layers{i}.transferFcn = 'softmax';

Входные параметры

свернуть все

Сетевые входные вектор-столбцы в виде S- Q матрица.

Информация вы хотите получить из функции в виде одного из следующего:

  • 'name' возвращает имя этой функции.

  • 'output' возвращает [min max] выведите область значений.

  • 'active' возвращает [min max] активный входной диапазон.

  • 'fullderiv' возвращается 1 или 0, в зависимости от ли dA_dN S- S- Q или S- Q.

  • 'fpnames' возвращает имена параметров функции.

  • 'fpdefaults' возвращает параметры функции по умолчанию.

Выходные аргументы

свернуть все

Выходная матрица, возвращенная как S- Q матрица softmax конкурентоспособной функции применилась к каждому столбцу N.

Определенная информация о функции, согласно опции указана в code аргумент, возвращенный или как строка, вектор или как скаляр.

Алгоритмы

a = softmax(n) = exp(n)/sum(exp(n))

Смотрите также

|

Представлено до R2006a