Чтобы узнать, как задать опции с помощью trainingOptions
function, see Set Up Parameters and Train Convolutional Neural Network. После того, как вы определите некоторые хорошие опции запуска, можно автоматизировать зачистку гиперпараметров или попробовать байесовскую оптимизацию с помощью Experiment Manager.
Исследуйте робастность сети, генерируя состязательные примеры. Затем можно использовать состязательное обучение метода FGSM для обучения сети, устойчивой к состязательным возмущениям.
Deep Network Designer | Проектирование, визуализация и обучение нейронных сетей для глубокого обучения |
trainingOptions | Опции для обучения глубокой нейронной сети |
trainNetwork | Обучите глубокую нейронную сеть |
Настройте параметры и обучите сверточную нейронную сеть
Узнать, как настроить параметры обучения для сверточной нейронной сети.
Глубокое обучение с использованием байесовской оптимизации
Этот пример показывает, как применить байесовскую оптимизацию к глубокому обучению и найти оптимальные сетевые гиперпараметры и опции обучения для сверточных нейронных сетей.
Обучите Нейронные сети для глубокого обучения параллельно
В этом примере показано, как запустить несколько экспериментов по глубокому обучению на локальной машине.
Обучите сеть с помощью пользовательского цикла обучения
В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с пользовательским расписанием скорости обучения.
В этом примере показано, как сравнить точность обучения сетей со слоями активации ReLU, утечки ReLU, ELU и swish.
Адаптируйте код, сгенерированный в Deep Network Designer, для использования в Experiment Manager
Используйте Experiment Manager для настройки гиперпараметров сети, обученной в Deep Network Designer.
Советы и рекомендации по глубокому обучению
Узнать, как улучшить точность нейронных сетей для глубокого обучения.
Обучите устойчивую нейронную сеть для глубокого обучения с якобской регуляризацией
Этот пример показывает, как обучить нейронную сеть, которая устойчива к состязательным примерам, используя якобианскую схему регуляризации [1].