Эта тема представляет часть типичного многоуровневого мелкого сетевого рабочего процесса. Для получения дополнительной информации и другие шаги, смотрите Многоуровневые Мелкие Нейронные сети и Обучение Обратной связи.
Элементарный нейрон с входными параметрами R показывают ниже. Каждый вход взвешивается с соответствующим w. Сумма взвешенных входных параметров и смещения формирует вход к передаточной функции f. Нейроны могут использовать любую дифференцируемую передаточную функцию f, чтобы сгенерировать их выход.
Многоуровневые сети часто используют сигмоидальную журналом передаточную функцию logsig
.
Функциональный logsig
генерирует выходные параметры между 0 и 1, когда сетевой вход нейрона идет от отрицательного до положительной бесконечности.
В качестве альтернативы многоуровневые сети могут использовать коричнево-сигмоидальную передаточную функцию tansig
.
Сигмоидальные выходные нейроны часто используются в проблемах распознавания образов, в то время как линейные выходные нейроны используются в функции подходящие проблемы. Линейная передаточная функция purelin
показан ниже.
Эти три передаточных функции, описанные здесь, являются обычно используемыми передаточными функциями для многоуровневых сетей, но другие дифференцируемые передаточные функции могут создаваться и использоваться при желании.
Одноуровневая сеть S
logsig
нейроны, имеющие входные параметры R, показывают ниже в полных деталях слева и со схемой слоя справа.
Сети feedforward часто имеют один или несколько скрытых слоев сигмоидальных нейронов, сопровождаемых выходным слоем линейных нейронов. Несколько слоев нейронов с нелинейными передаточными функциями позволяют сети изучать нелинейные отношения между векторами ввода и вывода. Линейный выходной слой чаще всего используется в подборе кривой функции (или нелинейная регрессия) проблемы.
С другой стороны, если вы хотите ограничить выходные параметры сети (такой как между 0 и 1), затем выходной слой должен использовать сигмоидальную передаточную функцию (такую как logsig
). Дело обстоит так, когда сеть используется в проблемах распознавания образов (в котором решение принимается сетью).
Для многоуровневых сетей номер слоя определяет верхний индекс на матрице веса. Соответствующее обозначение используется в 2D слое tansig
/purelin
сеть показана затем.
Эта сеть может использоваться в качестве общей функции approximator. Это может аппроксимировать любую функцию конечным числом разрывов произвольно хорошо, учитывая достаточные нейроны в скрытом слое.
Теперь, когда архитектура многоуровневой сети была задана, процесс проектирования описан в следующих разделах.