Импорт глубокого обучения, экспорт и индивидуальная настройка

Импортируйте, экспортируйте, и настройте нейронные сети для глубокого обучения и настройте слои, учебные циклы и функции потерь

Импортируйте сети и сетевые архитектуры от TensorFlow™-Keras, Caffe и формата модели ONNX™ (Open Neural Network Exchange). Можно также экспортировать обученную сеть Deep Learning Toolbox™ в формат модели ONNX.

Можно задать собственный слой глубокого обучения для проблемы. Можно задать пользовательскую функцию потерь с помощью пользовательского выхода слои и задать пользовательские слои с или без настраиваемых параметров. Например, можно использовать пользовательский взвешенный слой классификации со взвешенной потерей перекрестной энтропии для проблем классификации с неустойчивым распределением классов. После определения пользовательского слоя можно проверять, что слой допустим, совместимый графический процессор, и выходные параметры правильно задал градиенты.

Если trainingOptions функция не обеспечивает опции обучения, в которых вы нуждаетесь для своей задачи, или пользовательские выходные слои не поддерживают функции потерь, в которых вы нуждаетесь, затем можно задать пользовательский учебный цикл. Для сетей, которые не могут быть созданы с помощью графиков слоев, можно задать пользовательские сети как функцию. Чтобы узнать больше, смотрите, Задают Пользовательские Учебные Циклы, Функции потерь и Сети.

Функции

развернуть все

importKerasNetworkИмпортируйте предварительно обученную сеть Keras и веса
importKerasLayersИмпортируйте слои из сети Keras
importCaffeNetworkИмпортируйте предварительно обученные модели сверточной нейронной сети из Caffe
importCaffeLayersИмпортируйте слои сверточной нейронной сети из Caffe
importONNXNetworkИмпортируйте предварительно обученную сеть ONNX
importONNXLayersИмпортируйте слои из сети ONNX
exportONNXNetworkЭкспорт сети в формат модели ONNX
findPlaceholderLayersНайдите слои заполнителя в сетевой архитектуре импортированными из Keras или ONNX
replaceLayerЗамените слой в графике слоев
assembleNetworkСоберите нейронную сеть для глубокого обучения от предварительно обученных слоев
PlaceholderLayerСлой, заменяющий неподдерживаемый слой Keras, слой ONNX или неподдерживаемую функциональность от functionToLayerGraph
checkLayerПроверяйте валидность пользовательского слоя
setLearnRateFactorУстановите изучают фактор уровня настраиваемого параметра слоя
setL2FactorУстановитесь коэффициент регуляризации L2 настраиваемого параметра слоя
getLearnRateFactorДоберитесь изучают фактор уровня настраиваемого параметра слоя
getL2FactorПолучите фактор регуляризации L2 настраиваемого параметра слоя
dlnetworkНейронная сеть для глубокого обучения для пользовательских учебных циклов
forwardВычислите нейронную сеть для глубокого обучения выход для обучения
predictВычислите нейронную сеть для глубокого обучения выход для вывода
adamupdateОбновите параметры с помощью адаптивной оценки момента (Адам)
rmspropupdate Обновите параметры с помощью корневого среднеквадратического распространения (RMSProp)
sgdmupdate Обновите параметры с помощью стохастического градиентного спуска с импульсом (SGDM)
dlupdate Обновите параметры с помощью пользовательской функции
dlarrayМассив глубокого обучения для пользовательских учебных циклов
dlgradientВычислите градиенты для пользовательских учебных циклов с помощью автоматического дифференцирования
dlfevalОцените модель глубокого обучения для пользовательских учебных циклов
dlmtimesПакетное умножение матриц для глубокого обучения
dimsМетки размерности dlarray
finddimНайдите размерности с заданной меткой
stripdimsУдалите dlarray метки
extractdataИзвлеките данные из dlarray
functionToLayerGraphПреобразуйте функцию модели глубокого обучения в график слоев
dlconvСвертка глубокого обучения
dltranspconvГлубокое обучение транспонировало свертку
lstmДолгая краткосрочная память
gruЗакрытый текущий модуль
fullyconnectСуммируйте все взвешенные входные данные и примените смещение
reluПримените исправленную линейную модульную активацию
leakyreluПримените текучую исправленную линейную модульную активацию
batchnormНормируйте каждый канал входных данных
crosschannelnormМежканальный квадрат - нормирует использующие локальные ответы
avgpoolОбъедините данные к средним значениям по пространственным размерностям
maxpoolОбъедините данные к максимальному значению
maxunpoolНе объедините выход максимальной операции объединения
softmaxПримените softmax активацию, чтобы образовать канал размерность
crossentropyПотеря перекрестной энтропии для задач классификации
sigmoidПримените сигмоидальную активацию
mseПоловина среднеквадратической ошибки

Темы

Пользовательские слои

Задайте пользовательские слои глубокого обучения

Узнать, как задавать пользовательские слои глубокого обучения.

Проверяйте пользовательскую валидность слоя

Узнать, как проверять валидность пользовательских слоев глубокого обучения.

Задайте пользовательский слой глубокого обучения с настраиваемыми параметрами

В этом примере показано, как задать слой PReLU и использовать его в сверточной нейронной сети.

Задайте пользовательский слой глубокого обучения с несколькими входными параметрами

В этом примере показано, как задать пользовательский взвешенный слой сложения и использовать его в сверточной нейронной сети.

Задайте пользовательскую классификацию Выходной слой

В этом примере показано, как задать пользовательскую классификацию выходной слой с ошибкой суммы квадратов (SSE) потеря и использовать его в сверточной нейронной сети.

Задайте пользовательский взвешенный слой классификации

В этом примере показано, как задать и создать пользовательскую взвешенную классификацию выходной слой со взвешенной потерей перекрестной энтропии.

Задайте пользовательскую регрессию Выходной слой

В этом примере показано, как задать пользовательскую регрессию выходной слой с потерей средней абсолютной погрешности (MAE) и использовать его в сверточной нейронной сети.

Укажите, что пользовательский слой назад функционирует

В этом примере показано, как задать слой PReLU и задать пользовательскую обратную функцию.

Задайте пользовательский Выходной слой обратная функция потерь

В этом примере показано, как задать взвешенный слой классификации и задать пользовательскую обратную функцию потерь.

Сетевое обучение и блок

Обучите Порождающую соперничающую сеть (GAN)

В этом примере показано, как обучить порождающую соперничающую сеть (GAN) генерировать изображения.

Обучите Условную порождающую соперничающую сеть (CGAN)

В этом примере показано, как обучить условную порождающую соперничающую сеть (CGAN) генерировать изображения.

Обучите сиамскую сеть для сокращения размерности

В этом примере показано, как обучить сиамскую сеть, чтобы сравнить рукописные цифры с помощью сокращения размерности.

Обучите сиамскую сеть, чтобы сравнить изображения

В этом примере показано, как обучить сиамскую сеть, чтобы идентифицировать подобные изображения рукописных символов.

Задайте пользовательские учебные циклы, функции потерь и сети

Узнать, как задать и настроить циклы обучения глубокому обучению, функции потерь и сети с помощью автоматического дифференцирования.

Задайте опции обучения в пользовательском учебном цикле

Узнать, как задавать общие опции обучения в пользовательском учебном цикле.

Обучите сеть Используя пользовательский учебный цикл

В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с пользовательским расписанием скорости обучения.

Обновите статистику нормализации партии. в пользовательском учебном цикле

В этом примере показано, как обновить сетевое состояние в пользовательском учебном цикле.

Сделайте Предсказания Используя Объект dlnetwork

В этом примере показано, как сделать предсказания с помощью dlnetwork объект путем разделения данных в мини-пакеты.

Обучите сеть Используя функцию модели

В этом примере показано, как создать и обучить нейронную сеть для глубокого обучения при помощи функций, а не графика слоев или dlnetwork.

Обновите статистику нормализации партии. Используя функцию модели

В этом примере показано, как обновить сетевое состояние в сети, заданной как функция.

Сделайте предсказания Используя функцию модели

В этом примере показано, как сделать предсказания с помощью функции модели путем разделения данных в мини-пакеты.

Сравните инициализаторы веса слоя

В этом примере показано, как обучить нейронные сети для глубокого обучения с различными инициализаторами веса.

Задайте пользовательскую функцию инициализации веса

В этом примере показано, как создать пользовательское Он, инициализация веса функционирует для слоев свертки, сопровождаемых текучими слоями ReLU.

Соберите сеть от предварительно обученных слоев Keras

В этом примере показано, как импортировать слои из предварительно обученной сети Keras, замените неподдерживаемые слои на пользовательские слои и соберите слои в сеть, готовую к предсказанию.

Несколько - вход и несколько - Выходные сети

Несколько - вход и несколько - Выходные сети

Узнать, как задавать и обучать нейронные сети для глубокого обучения с несколькими входными параметрами или несколькими выходными параметрами.

Обучите сеть с несколькими Выходными параметрами

В этом примере показано, как обучить нейронную сеть для глубокого обучения с несколькими выходными параметрами, которые предсказывают и метки и углы вращений рукописных цифр.

Соберите несколько - Выходная сеть для предсказания

Вместо того, чтобы использовать функцию модели в предсказании, можно собрать сеть в DAGNetwork готовый к предсказанию с помощью functionToLayerGraph и assembleNetwork функции.

Автоматическое дифференцирование

Автоматический фон дифференцирования

Узнать, как автоматическое дифференцирование работает.

Используйте автоматическое дифференцирование в Deep Learning Toolbox

Как использовать автоматическое дифференцирование в глубоком обучении.

Список Функций с Поддержкой dlarray

Просмотрите список функций та поддержка dlarray объекты.

CAM градиента показывает почему позади решений глубокого обучения

В этом примере показано, как использовать взвешенную градиентом активацию класса, сопоставляющую (CAM градиента) метод, чтобы изучить, почему нейронная сеть для глубокого обучения принимает свои решения классификации.

Рекомендуемые примеры