Как настроить параметры с помощью trainingOptions см. раздел Настройка параметров и сверточная нейронная сеть поезда. После определения хороших параметров запуска можно автоматизировать подметку гиперпараметров или попробовать байесовскую оптимизацию с помощью Диспетчера экспериментов.
Исследование надежности сети путем создания примеров состязательности. Затем можно использовать метод быстрых градиентных знаков (FGSM) для обучения сети, устойчивой к состязательным возмущениям.
| Конструктор глубоких сетей | Проектирование, визуализация и обучение сетей глубокого обучения |
trainingOptions | Варианты обучения нейронной сети глубокого обучения |
trainNetwork | Обучить нейронной сети глубокого обучения |
Настройка параметров и сверточная нейронная сеть поезда
Узнайте, как настроить параметры обучения для сверточной нейронной сети.
Глубокое обучение с использованием байесовской оптимизации
В этом примере показано, как применить байесовскую оптимизацию к глубокому обучению и найти оптимальные сетевые гиперпараметры и варианты обучения для сверточных нейронных сетей.
Параллельно тренировать сети глубокого обучения
В этом примере показано, как выполнять несколько экспериментов глубокого обучения на локальном компьютере.
Сеть поездов, использующая индивидуальный цикл обучения
В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с помощью пользовательского графика обучения.
Этот пример показывает, как сравнить точность учебных сетей с ReLU, прохудившимся ReLU, ЭЛУ и слоями активаций свиста.
Используйте Диспетчер экспериментов для настройки гиперпараметров сети, обученной в Deep Network Designer.
Советы и рекомендации по углубленному обучению
Узнайте, как повысить точность сетей глубокого обучения.
Обучение надежной сети глубокого обучения с якобинской регуляризацией
Этот пример показывает, как обучить нейронную сеть, которая устойчива к состязательным примерам, используя якобинскую схему регуляризации [1].