Изучить, как установить опции с помощью trainingOptions
функционируйте, смотрите Настроенные Параметры и Обучите Сверточную нейронную сеть. После того, как вы идентифицируете некоторые хорошие стартовые опции, можно автоматизировать развертку гиперпараметров или попробовать Байесовую оптимизацию с помощью Experiment Manager.
Исследуйте сетевую робастность путем генерации соперничающих примеров. Можно затем использовать быстрый метод знака градиента (FGSM) соперничающее обучение обучить сеть, устойчивую к соперничающим возмущениям.
Deep Network Designer | Спроектируйте, визуализируйте и обучите нейронные сети для глубокого обучения |
trainingOptions | Опции для обучения глубокой нейронной сети |
trainNetwork | Обучите глубокую нейронную сеть |
Настройте параметры и обучите сверточную нейронную сеть
Узнать, как настраивать параметры обучения для сверточной нейронной сети.
Глубокое обучение Используя байесовую оптимизацию
В этом примере показано, как применить Байесовую оптимизацию к глубокому обучению и найти оптимальные сетевые гиперпараметры и опции обучения для сверточных нейронных сетей.
Обучите нейронные сети для глубокого обучения параллельно
В этом примере показано, как запустить несколько экспериментов глубокого обучения на вашей локальной машине.
Обучите сеть Используя пользовательский учебный цикл
В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с пользовательским расписанием скорости обучения.
В этом примере показано, как сравнить точность обучения нейронные сети с ReLU, текучим ReLU, ЭЛУ и слоями активации свиста.
Адаптируйте код, сгенерированный в Deep Network Designer для использования в Experiment Manager
Используйте Experiment Manager, чтобы настроить гиперпараметры сети, обученной в Deep Network Designer.
Советы глубокого обучения и приемы
Узнать, как улучшить точность нейронных сетей для глубокого обучения.
Обучите устойчивую нейронную сеть для глубокого обучения с якобиевской регуляризацией
В этом примере показано, как обучить нейронную сеть, которая устойчива к соперничающим примерам с помощью якобиевской схемы [1] регуляризации.
Задайте пользовательскую функцию инициализации веса
В этом примере показано, как создать пользовательское Он, инициализация веса функционирует для слоев свертки, сопровождаемых текучими слоями ReLU.
Сравните инициализаторы веса слоя
В этом примере показано, как обучить нейронные сети для глубокого обучения с различными инициализаторами веса.