Импорт глубокого обучения, экспорт и индивидуальная настройка

Импортируйте, экспортируйте, и настройте нейронные сети для глубокого обучения и настройте слои, учебные циклы и функции потерь

Импортируйте сети и сетевую архитектуру от TensorFlow™-Keras, Caffe и формата модели ONNX™ (Open Neural Network Exchange). Можно также экспортировать обученную сеть Deep Learning Toolbox™ в формат модели ONNX.

Можно задать собственный слой глубокого обучения для проблемы. Можно задать пользовательскую функцию потерь с помощью пользовательского выхода слои и задать пользовательские слои с или без learnable параметров. Например, можно использовать пользовательский взвешенный слой классификации со взвешенной перекрестной энтропийной потерей для проблем классификации с неустойчивым распределением классов. После определения пользовательского слоя можно проверять, что слой допустим, совместимый графический процессор, и выходные параметры правильно задал градиенты.

Если trainingOptions функция не обеспечивает опции обучения, в которых вы нуждаетесь для своей задачи, или пользовательские выходные слои не поддерживают функции потерь, в которых вы нуждаетесь, затем можно задать пользовательский учебный цикл. Для сетей, которые не могут быть созданы с помощью графиков слоя, можно задать пользовательские сети как функцию. Чтобы узнать больше, смотрите, Задают Пользовательские Учебные Циклы, Функции потерь и Сети.

Функции

развернуть все

importKerasNetworkИмпортируйте предварительно обученную сеть Keras и веса
importKerasLayersИмпортируйте слои из сети Keras
importCaffeNetworkИмпортируйте предварительно обученные модели сверточной нейронной сети из Caffe
importCaffeLayersИмпортируйте слои сверточной нейронной сети из Caffe
importONNXNetworkИмпортируйте предварительно обученную сеть ONNX
importONNXLayersИмпортируйте слои из сети ONNX
exportONNXNetworkЭкспорт сети в формат модели ONNX
findPlaceholderLayersНайдите слои заполнителя в сетевой архитектуре импортированными из Keras или ONNX
replaceLayerЗамените слой в графике слоя
assembleNetworkСоберите нейронную сеть для глубокого обучения от предварительно обученных слоев
PlaceholderLayerСлой, заменяющий неподдерживаемый слой Keras, слой ONNX или неподдерживаемую функциональность от functionToLayerGraph
checkLayerПроверяйте валидность пользовательского слоя
setLearnRateFactorУстановите изучают фактор уровня слоя learnable параметр
setL2FactorУстановитесь коэффициент регуляризации L2 слоя learnable параметр
getLearnRateFactorДоберитесь изучают фактор уровня слоя learnable параметр
getL2FactorПолучите фактор регуляризации L2 слоя learnable параметр
dlnetworkНейронная сеть для глубокого обучения для пользовательских учебных циклов
forwardВычислите нейронную сеть для глубокого обучения выход для обучения
predictВычислите нейронную сеть для глубокого обучения выход для вывода
adamupdate Обновите параметры с помощью адаптивной оценки момента (Адам)
rmspropupdate Обновите параметры с помощью корневого среднеквадратического распространения (RMSProp)
sgdmupdate Обновите параметры с помощью стохастического градиентного спуска с импульсом (SGDM)
dlupdate Обновите параметры с помощью пользовательской функции
dlarrayМассив глубокого обучения для пользовательских учебных циклов
dlgradientВычислите градиенты для пользовательских учебных циклов с помощью автоматического дифференцирования
dlfevalОцените модель глубокого обучения для пользовательских учебных циклов
dimsМетки размерности dlarray
finddimНайдите размерности с заданной меткой
stripdimsУдалите метки dlarray
extractdataИзвлеките данные из dlarray
functionToLayerGraphПреобразуйте функцию модели глубокого обучения в график слоя
dlconvСвертка глубокого обучения
dltranspconvГлубокое обучение транспонировало свертку
lstmДолгая краткосрочная память
fullyconnectСуммируйте все взвешенные входные данные и примените смещение
reluПримените исправленную линейную модульную активацию
leakyreluПримените текучую исправленную линейную модульную активацию
batchnormНормируйте каждый канал входных данных
avgpoolОбъедините данные к средним значениям по пространственным размерностям
maxpoolОбъедините данные к максимальному значению
maxunpoolНе объедините выход максимальной операции объединения
softmaxПримените softmax активацию, чтобы образовать канал размерность
crossentropyКатегориальная перекрестная энтропийная потеря
sigmoidПримените сигмоидальную активацию
mseПоловина среднеквадратической ошибки

Темы

Пользовательские слои

Задайте пользовательские слои глубокого обучения

Узнать, как задавать пользовательские слои глубокого обучения

Проверяйте пользовательскую валидность слоя

Узнать, как проверять валидность пользовательских слоев глубокого обучения.

Задайте пользовательский слой глубокого обучения параметрами Learnable

В этом примере показано, как задать слой PReLU и использовать его в сверточной нейронной сети.

Задайте пользовательский слой глубокого обучения с несколькими входными параметрами

В этом примере показано, как задать пользовательский взвешенный слой сложения и использовать его в сверточной нейронной сети.

Задайте пользовательскую классификацию Выходной слой

В этом примере показано, как задать пользовательскую классификацию выходной слой с ошибкой суммы квадратов (SSE) потеря и использовать его в сверточной нейронной сети.

Задайте пользовательский взвешенный слой классификации

В этом примере показано, как задать и создать пользовательскую взвешенную классификацию выходной слой со взвешенной перекрестной энтропийной потерей.

Задайте пользовательскую регрессию Выходной слой

В этом примере показано, как задать пользовательскую регрессию выходной слой с потерей средней абсолютной погрешности (MAE) и использовать его в сверточной нейронной сети.

Сетевое обучение и блок

Обучите Порождающую соперничающую сеть (GAN)

В этом примере показано, как обучить порождающую соперничающую сеть (GAN) генерировать изображения.

Обучите сиамскую сеть для сокращения размерности

В этом примере показано, как обучить сиамскую сеть, чтобы сравнить рукописные цифры с помощью сокращения размерности.

Обучите сиамскую сеть, чтобы сравнить изображения

В этом примере показано, как обучить сиамскую сеть, чтобы идентифицировать подобные изображения рукописных символов.

Задайте пользовательские учебные циклы, функции потерь и сети

Узнать, как задать и настроить циклы обучения глубокому обучению, функции потерь и сети с помощью автоматического дифференцирования.

Задайте опции обучения в пользовательском учебном цикле

Узнать, как задавать общие опции обучения в пользовательском учебном цикле.

Обучите сеть Используя пользовательский учебный цикл

В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с пользовательским расписанием темпа обучения.

Сделайте Прогнозы Используя Объект dlnetwork

В этом примере показано, как сделать прогнозы с помощью dlnetwork объект путем разделения данных в мини-пакеты.

Обучите сеть Используя функцию модели

В этом примере показано, как создать и обучить нейронную сеть для глубокого обучения при помощи функций, а не графика слоя или dlnetwork.

Сделайте прогнозы Используя функцию модели

В этом примере показано, как сделать прогнозы с помощью функции модели путем разделения данных в мини-пакеты.

Задайте пользовательскую функцию инициализации веса

В этом примере показано, как создать пользовательское Он, инициализация веса функционирует для слоев свертки, сопровождаемых текучими слоями ReLU.

Соберите сеть от предварительно обученных слоев Keras

В этом примере показано, как импортировать слои из предварительно обученной сети Keras, замените неподдерживаемые слои на пользовательские слои и соберите слои в сеть, готовую к прогнозу.

Несколько - вход и несколько - Выходные сети

Несколько - вход и несколько - Выходные сети

Узнать, как задавать и обучать нейронные сети для глубокого обучения с несколькими входными параметрами или несколькими выходными параметрами.

Обучите сеть с несколькими Выходными параметрами

В этом примере показано, как обучить нейронную сеть для глубокого обучения с несколькими выходными параметрами, которые предсказывают и метки и углы вращений рукописных цифр.

Соберите несколько - Выходная сеть для прогноза

Вместо того, чтобы использовать функцию модели в прогнозе, можно собрать сеть в DAGNetwork готовый к прогнозу с помощью functionToLayerGraph и assembleNetwork функции.

Автоматическое дифференцирование

Автоматический фон дифференцирования

Узнать, как автоматическое дифференцирование работает.

Используйте автоматическое дифференцирование в Deep Learning Toolbox

Как использовать автоматическое дифференцирование в глубоком обучении.

Список Функций с Поддержкой dlarray

Просмотрите список функций та поддержка dlarray объекты.

CAM градиента показывает почему позади решений глубокого обучения

CAM градиента объясняет, почему сеть принимает решение.

Рекомендуемые примеры

Для просмотра документации необходимо авторизоваться на сайте