Поддерживаемые сети и слои

Поддерживаемые предварительно обученные сети

GPU Coder™ поддерживает генерацию кода для ряда и сверточных нейронных сетей направленного графа без петель (DAG) (CNNs или ConvNets). Можно сгенерировать код для любой обученной сверточной нейронной сети, слои которой поддерживаются для генерации кода. Смотрите Поддерживаемые Слои. Можно обучить сверточную нейронную сеть или на центральном процессоре, графическом процессоре или на нескольких графических процессорах при помощи Deep Learning Toolbox™ или использовать одну из перечисленных в таблице предварительно обученных сетей и сгенерировать код CUDA®.

Сетевое имяОписаниеcuDNNTensorRTБиблиотека ARM® Compute для Мали графический процессор
AlexNet

Сверточная нейронная сеть AlexNet. Для предварительно обученной модели AlexNet смотрите alexnet.

Синтаксис alexnet('Weights','none') не поддержан для генерации кода.

ДаДаДа
Сеть Caffe

Модели сверточной нейронной сети от Caffe. Для импорта предварительно обученной сети от Caffe смотрите importCaffeNetwork.

ДаДаДа
Даркнет 19

Даркнет 19 сверточных нейронных сетей. Для получения дополнительной информации смотрите darknet19.

Синтаксис darknet19('Weights','none') не поддержан для генерации кода.

ДаДаДа
Даркнет 53

Даркнет 53 сверточных нейронных сети. для получения дополнительной информации смотрите darknet53.

Синтаксис darknet53('Weights','none') не поддержан для генерации кода.

ДаДаДа
DeepLab v3 +

DeepLab v3 + сверточная нейронная сеть. Для получения дополнительной информации смотрите deeplabv3plusLayers.

ДаДаНет
DenseNet-201

Сверточная нейронная сеть DenseNet-201. Для предварительно обученной модели DenseNet-201 смотрите densenet201.

Синтаксис densenet201('Weights','none') не поддержан для генерации кода.

ДаДаДа
GoogLeNet

Сверточная нейронная сеть GoogLeNet. Для предварительно обученной модели GoogLeNet смотрите googlenet.

Синтаксис googlenet('Weights','none') не поддержан для генерации кода.

ДаДаДа
Inception-v3

Сверточная нейронная сеть Inception-v3. Для предварительно обученной модели Inception-v3 смотрите inceptionv3.

Синтаксис inceptionv3('Weights','none') не поддержан для генерации кода.

ДаДаДа
Inception-ResNet-v2

Сверточная нейронная сеть Inception-ResNet-v2. Для предварительно обученной модели Inception-ResNet-v2 смотрите inceptionresnetv2.

ДаДаНет
Mobilenet-v2

Сверточная нейронная сеть MobileNet-v2. Для предварительно обученной модели MobileNet-v2 смотрите mobilenetv2.

Синтаксис mobilenetv2('Weights','none') не поддержан для генерации кода.

ДаДаДа
NASNet-большой

NASNet-большая сверточная нейронная сеть. Для предварительно обученной NASNet-большой-модели смотрите nasnetlarge.

ДаДаНет
NASNet-мобильный

NASNet-мобильная сверточная нейронная сеть. Для предварительно обученной модели NASNet-Mobile смотрите nasnetmobile.

ДаДаНет
ResNet

ResNet-18, ResNet-50 и сверточные нейронные сети ResNet-101. Для предварительно обученных моделей ResNet смотрите resnet50, resnet18, и resnet101.

Синтаксис resnetXX('Weights','none') не поддержан для генерации кода.

ДаДаДа
SegNet

Мультикласс pixelwise сеть сегментации. Для получения дополнительной информации смотрите segnetLayers.

ДаДаНет
SqueezeNet

Маленькая глубокая нейронная сеть. Для предварительно обученных моделей SqueezeNet смотрите squeezenet.

Синтаксис squeezenet('Weights','none') не поддержан для генерации кода.

ДаДаДа
VGG-16

Сверточная нейронная сеть VGG-16. Для предварительно обученной модели VGG-16 смотрите vgg16.

Синтаксис vgg16('Weights','none') не поддержан для генерации кода.

ДаДаДа
VGG-19

Сверточная нейронная сеть VGG-19. Для предварительно обученной модели VGG-19 смотрите vgg19.

Синтаксис vgg19('Weights','none') не поддержан для генерации кода.

ДаДаДа
Xception

Сверточная нейронная сеть Xception. Для предварительно обученной модели Xception смотрите xception.

Синтаксис xception('Weights','none') не поддержан для генерации кода.

ДаДаДа
YOLO v2

Вы только смотрите однажды сверточная нейронная сеть версии 2 на основе детектора объектов. Для получения дополнительной информации смотрите yolov2Layers

ДаДаДа

Поддерживаемые слои

Следующие слои поддерживаются для генерации кода GPU Coder для целевых библиотек глубокого обучения, заданных в таблице.

Если вы устанавливаете Интерфейс GPU Coder пакета поддержки для Библиотек Глубокого обучения, можно использовать coder.getDeepLearningLayers видеть список слоев, поддержанных для определенной библиотеки глубокого обучения. Например, coder.getDeepLearningLayers('cudnn') показывает список слоев, поддержанных для генерации кода при помощи библиотеки NVIDIA® cuDNN.

Введите слои

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

imageInputLayer

Deep Learning Toolbox

Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных.

Генерация кода не поддерживает 'Normalization' заданное использование указателя на функцию.

ДаДаДа

sequenceInputLayer

Deep Learning Toolbox

Последовательность ввела входные данные о последовательности слоя к сети.

Для генерации кода только поддерживаются векторные входные типы. 2D и 3-D вход последовательности изображений не поддержан.

Генерация кода не поддерживает 'Normalization' заданное использование указателя на функцию.

ДаДаНет

Свертка и полносвязные слоя

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

convolution2dLayer

Deep Learning Toolbox

2D сверточный слой применяет скользящие сверточные фильтры к входу.

ДаДаДа

groupedConvolution2dLayer

Deep Learning Toolbox

2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои в отделимом мудром каналом (также известный мудрыми глубиной отделимый) свертка.

Генерация кода для графического процессора ARM Mali не поддержана для 2D сгруппированного слоя свертки, который имеет NumGroups набор свойств как 'channel-wise' или значение, больше, чем два.

ДаДаДа

transposedConv2dLayer

Deep Learning Toolbox

Транспонированный 2D слой свертки сверхдискретизировал карты функции.

ДаДаДа

fullyConnectedLayer

Deep Learning Toolbox

Полносвязный слой умножает вход на матрицу веса и затем добавляет вектор смещения.

ДаДаНет

Слои последовательности

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

sequenceInputLayer

Deep Learning Toolbox

Последовательность ввела входные данные о последовательности слоя к сети.

Для генерации кода только поддерживаются векторные входные типы. 2D и 3-D вход последовательности изображений не поддержан.

Генерация кода не поддерживает 'Normalization' заданное использование указателя на функцию.

ДаДаНет

lstmLayer

Deep Learning Toolbox

Слой LSTM изучает долгосрочные зависимости между временными шагами в данных о последовательности и временных рядах.

Для генерации кода, StateActivationFunction свойство должно быть установлено в 'tanh'.

Для генерации кода, GateActivationFunction свойство должно быть установлено в 'sigmoid'.

ДаДаНет

bilstmLayer

Deep Learning Toolbox

Двунаправленный слой LSTM (BiLSTM) изучает двунаправленные долгосрочные зависимости между временными шагами данных о последовательности или временных рядов. Эти зависимости могут быть полезными, когда это необходимо, сеть, чтобы извлечь уроки из полных временных рядов на каждом временном шаге.

Для генерации кода, StateActivationFunction свойство должно быть установлено в 'tanh'.

Для генерации кода, GateActivationFunction свойство должно быть установлено в 'sigmoid'.

ДаДаНет

flattenLayer

Deep Learning Toolbox

Сглаживать слой сворачивает пространственные размерности входа в размерность канала.

ДаНетНет

wordEmbeddingLayer

Text Analytics Toolbox™

Слой встраивания слова сопоставляет словари с векторами.

ДаДаНет

Слои активации

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

reluLayer

Deep Learning Toolbox

Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется.

ДаДаДа

leakyReluLayer

Deep Learning Toolbox

Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр.

ДаДаДа

clippedReluLayer

Deep Learning Toolbox

Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения.

ДаДаДа

eluLayer

Deep Learning Toolbox

Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах.

ДаДаНет

tanhLayer

Deep Learning Toolbox

Гиперболическая касательная (tanh) слой активации применяет функцию tanh на входные параметры слоя.

ДаДаДа

Нормализация, уволенный и слои обрезки

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

batchNormalizationLayer

Deep Learning Toolbox

Слой нормализации партии. нормирует каждый входной канал через мини-пакет.

ДаДаДа

crossChannelNormalizationLayer

Deep Learning Toolbox

Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию.

ДаДаДа

dropoutLayer

Deep Learning Toolbox

Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью.

ДаДаДа

crop2dLayer

Deep Learning Toolbox

2D слой обрезки применяет 2D обрезку к входу.

ДаДаДа

Объединение и необъединение слоев

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

averagePooling2dLayer

Deep Learning Toolbox

Средний слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисление средних значений каждой области.

ДаДаДа

globalAveragePooling2dLayer

Deep Learning Toolbox

Глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа.

ДаДаДа

maxPooling2dLayer

Deep Learning Toolbox

Макс. слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисления максимума каждой области.

ДаДаДа

globalMaxPooling2dLayer

Deep Learning Toolbox

Глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума размерностей высоты и ширины входа.

ДаДаДа

maxUnpooling2dLayer

Deep Learning Toolbox

Макс. слой необъединения не объединяет выход макс. слоя объединения.

ДаДаНет

Слои комбинации

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

additionLayer

Deep Learning Toolbox

Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети.

ДаДаДа

depthConcatenationLayer

Deep Learning Toolbox

Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала).

ДаДаДа

concatenationLayer

Deep Learning Toolbox

Слой конкатенации берет входные параметры и конкатенирует их в заданном измерении.

ДаДаНет

Слои обнаружения объектов

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

anchorBoxLayer

Computer Vision Toolbox™

Слой поля привязки хранит поля привязки для карты функции, используемой в сетях обнаружения объектов.

ДаДаДа

ssdMergeLayer

Computer Vision Toolbox

Слой слияния SSD объединяет выходные параметры карт функции для последующей регрессии и расчета классификации потерь.

ДаДаНет

YOLOv2OutputLayer

Computer Vision Toolbox

Создайте выходной слой для сети обнаружения объектов YOLO v2.

ДаДаДа

YOLOv2ReorgLayer

Computer Vision Toolbox

Создайте слой перестройки для сети обнаружения объектов YOLO v2.

ДаДаДа

YOLOv2TransformLayer

Computer Vision Toolbox

Создайте преобразовывают слой для сети обнаружения объектов YOLO v2.

ДаДаДа

Выходной слой

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

softmaxLayer

Deep Learning Toolbox

softmax слой применяет функцию softmax к входу.

ДаДаДа

classificationLayer

Deep Learning Toolbox

Слой классификации вычисляет потерю перекрестной энтропии для многоклассовых задач классификации со взаимоисключающими классами.

ДаДаДа

regressionLayer

Deep Learning Toolbox

Слой регрессии вычисляет половину потери среднеквадратической ошибки для проблем регрессии.

ДаДаДа

pixelClassificationLayer

Computer Vision Toolbox

Слой классификации пикселей обеспечивает категориальную метку для каждого пикселя изображения или вокселя.

ДаДаДа

dicePixelClassificationLayer

Computer Vision Toolbox

Слой классификации пикселей Dice обеспечивает категориальную метку для каждого пикселя изображения, или воксель с помощью обобщил Dice Loss.

ДаДаДа

Output Layer

Deep Learning Toolbox

Все выходные слои включая пользовательскую классификацию или регрессию выводят слои, созданные при помощи nnet.layer.ClassificationLayer или nnet.layer.RegressionLayer.

Для примера, показывающего, как задать пользовательскую классификацию выходной слой и задать функцию потерь, смотрите, Задают Пользовательскую Классификацию Выходной Слой (Deep Learning Toolbox).

Для примера, показывающего, как задать пользовательскую регрессию выходной слой и задать функцию потерь, смотрите, Задают Пользовательскую Регрессию Выходной Слой (Deep Learning Toolbox).

ДаДаДа

Keras и ONNX Layers

Имя слояПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор

nnet.keras.layer.FlattenCStyleLayer

Deep Learning Toolbox

Сгладьте активации в 1D C-стиль принятия (упорядоченный по строкам) порядок.

ДаДаДа

nnet.keras.layer.GlobalAveragePooling2dLayer

Deep Learning Toolbox

Глобальный средний слой объединения для пространственных данных.

ДаДаДа

nnet.keras.layer.SigmoidLayer

Deep Learning Toolbox

Сигмоидальный слой активации.

ДаДаДа

nnet.keras.layer.TanhLayer

Deep Learning Toolbox

Гиперболический слой активации касательной.

ДаДаДа

nnet.keras.layer.ZeroPadding2dLayer

Deep Learning Toolbox

Нулевой дополнительный слой для 2D входа.

ДаДаДа

nnet.onnx.layer.ElementwiseAffineLayer

Deep Learning Toolbox

Слой, который выполняет поэлементное масштабирование входа, сопровождаемого сложением.

ДаДаДа

nnet.onnx.layer.FlattenLayer

Deep Learning Toolbox

Сглаживает пространственные размерности входного тензора к размерностям канала.

ДаДаДа

nnet.onnx.layer.IdentityLayer

Deep Learning Toolbox

Слой, который реализует единичный оператор ONNX.

ДаДаДа

Поддерживаемые классы

Следующие классы поддерживаются для генерации кода GPU Coder для целевых библиотек глубокого обучения, заданных в таблице.

ИмяПродуктОписаниеcuDNNTensorRTARM вычисляет библиотеку для Мали графический процессор
yolov2ObjectDetector

Computer Vision Toolbox

Обнаружьте объекты с помощью детектора объектов YOLO v2

  • Только detect метод yolov2ObjectDetector поддерживается для генерации кода.

  • roi аргумент к detect метод должен быть codegen константой (coder.const()) и 1x4 вектор.

  • Только Threshold, SelectStrongest, MinSize, MaxSize, и MiniBatchSize Пары "имя-значение" поддерживаются.

  • Высота, ширина, канал и пакетный размер входного изображения должны быть фиксированным размером.

  • Минимальное пакетное значение размера, переданное, чтобы обнаружить метод, должно быть фиксированным размером.

  • Метки выход возвращены как массив ячеек из символьных векторов, такой как {'автомобиль', 'шина'}.

ДаДаДа
ssdObjectDetector

Computer Vision Toolbox

Объект обнаружить объекты с помощью основанного на SSD детектора.

  • Только detect метод ssdObjectDetector поддерживается для генерации кода.

  • roi аргумент к detect метод должен быть codegen константой (coder.const()) и 1x4 вектор.

  • Только Threshold, SelectStrongest, MinSize, MaxSize, и MiniBatchSize Пары "имя-значение" поддерживаются. Все Пары "имя-значение" должны быть константами времени компиляции.

  • Канал и пакетный размер входного изображения должны быть фиксированным размером.

  • labels выходной параметр возвращен как категориальный массив.

  • В сгенерированном коде вход перемасштабируется к размеру входного слоя сети. Но ограничительная рамка, что detect возвраты метода в отношении исходного входного размера.

  • Ограничительные рамки не могут численно совпадать с результатами симуляции.

ДаДаНет

Смотрите также

| | | | | | |

Похожие темы