Сгенерируйте код и создайте статическую библиотеку для Ряда или Сети DAG
cnncodegen(
генерирует Код С++ CUDA® и создает статическую библиотеку для заданного сетевого объекта и целевую библиотеку при помощи значений по умолчанию для всех свойств.net
,'targetlib',libraryname
)
cnncodegen(
генерирует Код С++ CUDA и создает статическую библиотеку для заданного сетевого объекта и целевую библиотеку с опциями генерации дополнительного кода, заданными одним или несколькими net
,'targetlib',libraryname
,Name,Value
)Name,Value
парные аргументы.
Использование cnncodegen
сгенерировать Код С++ для предварительно обученной сети для развертывания на процессоре ARM®.
Получите предварительно обученную модель GoogLeNet при помощи googlenet
(Deep Learning Toolbox) функция. Эта функция требует Модели Deep Learning Toolbox™ для Сети GoogLeNet. Если вы не установили этот пакет поддержки, функция обеспечивает ссылку на загрузку. В качестве альтернативы см. https://www.mathworks.com/matlabcentral/fileexchange/64456-deep-learning-toolbox-model-for-googlenet-network.
net = googlenet;
Сгенерируйте код при помощи cnncodegen
с 'targetlib'
установите на 'arm-compute'
. Для 'arm-compute'
, необходимо обеспечить 'ArmArchitecture'
параметр.
cnncodegen(net,'targetlib','arm-compute'... ,'targetparams',struct('ArmComputeVersion','19.02','ArmArchitecture','armv8'));
Сгенерируйте Код С++ CUDA от SeriesNetwork
объект создается для архитектуры YOLO, обученной классификации набора данных PASCAL. Этот пример требует продукта GPU Coder™ и Интерфейса GPU Coder для Библиотек Глубокого обучения.
Получите предварительно обученную сеть YOLO и преобразуйте ее в SeriesNetwork
объект.
url = 'https://www.mathworks.com/supportfiles/gpucoder/cnn_models/Yolo/yolonet.mat'; websave('yolonet.mat',url); net = coder.loadDeepLearningNetwork('yolonet.mat');
SeriesNetwork
объект net
содержит 58 слоев. Эти слои являются слоями свертки, сопровождаемыми текучим ReLU
и полносвязные слоя в конце сетевой архитектуры. Можно использовать net.Layers
видеть все слои в этой сети.
Используйте cnncodegen
функция, чтобы сгенерировать код CUDA.
cnncodegen(net,'targetlib','cudnn');
Генератор кода генерирует .cu
и заголовочные файлы в '/pwd/codegen'
папка. Серийная сеть сгенерирована как класс C++ под названием CnnMain
, содержа массив 58 классов слоя. setup()
метод этого класса настраивает указатели и выделяет ресурсы для каждого расположенного на слое объекта. predict()
метод вызывает предсказание для каждого из этих 58 слоев в сети. cleanup()
метод выпускает все ресурсы памяти и системные ресурсы, выделенные для каждого расположенного на слое объекта. Все бинарные веса (cnn_**_w
) и файлы смещения (cnn_**_b
) поскольку слои свертки сети хранятся в codegen
папка. Файлы скомпилированы в статическую библиотеку cnnbuild.a
(на Linux®) или cnnbuild.lib
(на Windows®).
net
— Имя ряда или сетевого объекта DAGПредварительно обученный SeriesNetwork
или DAGNetwork
объект.
libraryname
— Целевая библиотека глубокого обученияЦелевая библиотека и целевая платформа, чтобы сгенерировать код для в виде одного из значений в этой таблице.
Значение | Описание |
---|---|
'arm-compute' | Предназначайтесь для процессора ARM CPU, поддерживающего Требует MATLAB® Coder™ Interface для библиотек глубокого обучения. |
'arm-compute-mali' | Цель процессор ARM GPU при помощи ARM Вычисляет Библиотеку для компьютерного зрения и машинного обучения. Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
'cudnn' | Предназначайтесь для NVIDIA® графические процессоры при помощи библиотеки CUDA Deep Neural Network (cuDNN). Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
'mkldnn' | Предназначайтесь для процессора CPU Intel® при помощи Math Kernel Library Intel для Глубоких нейронных сетей (MKL-DNN). Требует интерфейса MATLAB Coder для библиотек глубокого обучения. |
'tensorrt' | Предназначайтесь для NVIDIA графические процессоры при помощи NVIDIA TensorRT™, высокоэффективного оптимизатора вывода глубокого обучения и библиотеки времени выполнения. Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
cnncodegen(net,'targetlib','mkldnn','codegenonly',0,'batchsize',1)
генерирует Код С++ для процессора Intel при помощи MKL-DNN и создает статическую библиотеку для сетевого объекта в net
.'batchsize'
размерПоложительное ненулевое целочисленное значение, задающее количество наблюдений, чтобы работать с в одном вызове сети predict()
метод. При вызове network->predict()
, размер входных данных должен совпадать с batchsize
значение задано во время cnncodegen
.
Если libraryname
'arm-compute'
или 'arm-compute-mali'
, значение batchsize
должен быть 1
.
'codegenonly'
— Опция, чтобы сгенерировать только кодБулев флаг, который, когда включено, генерирует Код С++ CUDA, не генерируя и создавая make-файл.
'targetparams'
— Специфичные для библиотеки параметрыСпецифичные для библиотеки параметры, заданные как 1
- 1
структура, содержащая поля, описана в этих таблицах.
Параметры для ARM вычисляют библиотеку (центральный процессор)
Поле | Описание |
---|---|
ArmComputeVersion | Версия ARM Вычисляет Библиотеку по целевому компьютеру в виде |
ArmArchitecture | Архитектура ARM поддержана на целевом компьютере в виде
|
Параметры для ARM вычисляют библиотеку (Мали графический процессор)
Поле | Описание |
---|---|
ArmComputeVersion | Версия ARM Вычисляет Библиотеку по целевому компьютеру в виде |
Параметры для библиотеки NVIDIA cuDNN
Поле | Описание |
---|---|
AutoTuning | Включите или отключите автоматическую настраивающую опцию. Включение автоматической настройки позволяет cuDNN библиотеке находить самые быстрые алгоритмы свертки. Это увеличивает эффективность для больших сетей, таких как SegNet и ResNet. Значением по умолчанию является Примечание Если |
DataType | Задайте точность входа типа данных тензора к сети. При выполнении вывода в 32-битных плаваниях используйте
|
CalibrationResultFile | Местоположение MAT-файла, содержащего калибровочные данные. Значением по умолчанию является |
Параметры для библиотеки NVIDIA TensorRT
Поле | Описание |
---|---|
DataType | Задайте точность входа типа данных тензора к сети или тензору выход слоя. При выполнении вывода в 32-битных плаваниях используйте
|
DataPath | Местоположение набора данных изображений используется во время перекалибровки. Значением по умолчанию является Когда вы выбираете |
NumCalibrationBatches | Числовое значение, задающее количество пакетов для NVIDIA рекомендует, чтобы приблизительно 500 изображений были достаточны для калибровки. Обратитесь к документации TensorRT для получения дополнительной информации. |
'computecapability'
— Вычислите версиюЭто свойство влияет на графический процессор, предназначающийся только.
Вектор символов или строковый скаляр, задающий графический процессор NVIDIA, вычисляют возможность скомпилировать для. Аргумент берет формат major#.minor#
.
Возможными значениями является '3.2'|'3.5'|'3.7'|'5.0'|'5.2'|'5.3'|'6.0'|'6.1'|'6.2'|'7.0'|'7.1'|'7.2'
.
Значением по умолчанию является '3.5'
.
Изменение поведения в будущем релизе
В будущем релизе, cnncodegen
функция сгенерирует Код С++ и создаст статическую библиотеку только для ARM процессор GPU Мали. Можно продолжить использовать 'arm-compute-mali'
значение для 'targetlib'
аргумент, чтобы предназначаться для графического процессора ARM Mali при помощи ARM Вычисляет Библиотеку для компьютерного зрения и машинного обучения.
Для всех других целей используйте codegen
команда.
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.