Сгенерируйте код и создайте статическую библиотеку для Ряда или Сети DAG
cnncodegen( генерирует Код С++ CUDA® и создает статическую библиотеку для заданного сетевого объекта и целевую библиотеку при помощи значений по умолчанию для всех свойств.net,'targetlib',libraryname)
cnncodegen( генерирует Код С++ CUDA и создает статическую библиотеку для заданного сетевого объекта и целевую библиотеку с опциями генерации дополнительного кода, заданными одним или несколькими net,'targetlib',libraryname,Name,Value)Name,Value парные аргументы.
Используйте cnncodegen сгенерировать Код С++ для предварительно обученной сети для развертывания на процессоре ARM®.
Получите предварительно обученную модель GoogLeNet при помощи googlenet функция. Эта функция требует Модели Deep Learning Toolbox™ для Сети GoogLeNet. Если вы не установили этот пакет поддержки, функция обеспечивает ссылку на загрузку. В качестве альтернативы см. https://www.mathworks.com/matlabcentral/fileexchange/64456-deep-learning-toolbox-model-for-googlenet-network.
net = googlenet;
Сгенерируйте код при помощи cnncodegen с 'targetlib' установите на 'arm-compute'. Для 'arm-compute', необходимо обеспечить 'ArmArchitecture' параметр.
cnncodegen(net,'targetlib','arm-compute'... ,'targetparams',struct('ArmComputeVersion','19.02','ArmArchitecture','armv8'));
Сгенерируйте Код С++ CUDA от SeriesNetwork объект создается для архитектуры YOLO, обученной классификации набора данных PASCAL. Этот пример требует продукта GPU Coder™ и Интерфейса GPU Coder для Библиотек Глубокого обучения.
Получите предварительно обученную сеть YOLO и преобразуйте ее в SeriesNetwork объект.
url = 'https://www.mathworks.com/supportfiles/gpucoder/cnn_models/Yolo/yolonet.mat'; websave('yolonet.mat',url); net = coder.loadDeepLearningNetwork('yolonet.mat');
SeriesNetwork объект net содержит 58 слоев. Эти слои являются слоями свертки, сопровождаемыми текучим ReLU и полносвязные слоя в конце сетевой архитектуры. Можно использовать net.Layers видеть все слои в этой сети.
Используйте cnncodegen функция, чтобы сгенерировать код CUDA.
cnncodegen(net,'targetlib','cudnn');
Генератор кода генерирует .cu и заголовочные файлы в '/pwd/codegen' папка. Серийная сеть сгенерирована как класс C++ под названием CnnMain, содержа массив 58 классов слоя. setup() метод этого класса настраивает указатели и выделяет ресурсы для каждого расположенного на слое объекта. predict() метод вызывает предсказание для каждого из этих 58 слоев в сети. cleanup() метод выпускает все ресурсы памяти и системные ресурсы, выделенные для каждого расположенного на слое объекта. Все бинарные веса (cnn_**_w) и файлы смещения (cnn_**_b) поскольку слои свертки сети хранятся в codegen папка. Файлы скомпилированы в статическую библиотеку cnnbuild.a (на Linux®) или cnnbuild.lib (на Windows®).
net — Имя ряда или сетевого объекта DAGПредварительно обученный SeriesNetwork или DAGNetwork объект.
libraryname — Целевая библиотека глубокого обученияЦелевая библиотека и целевая платформа, чтобы сгенерировать код для в виде одного из значений в этой таблице.
| Значение | Описание |
|---|---|
'arm-compute' | Предназначайтесь для процессора ARM CPU, поддерживающего Требует MATLAB® Coder™ Interface для библиотек глубокого обучения. |
'arm-compute-mali' | Цель процессор ARM GPU при помощи ARM Вычисляет Библиотеку для компьютерного зрения и машинного обучения. Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
'cudnn' | Предназначайтесь для NVIDIA® графические процессоры при помощи библиотеки CUDA Deep Neural Network (cuDNN). Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
'mkldnn' | Предназначайтесь для процессора CPU Intel® при помощи Math Kernel Library Intel для Глубоких нейронных сетей (MKL-DNN). Требует интерфейса MATLAB Coder для библиотек глубокого обучения. |
'tensorrt' | Предназначайтесь для NVIDIA графические процессоры при помощи NVIDIA TensorRT™, высокоэффективного оптимизатора вывода глубокого обучения и библиотеки времени выполнения. Требует продукта GPU Coder и Интерфейса GPU Coder для Библиотек Глубокого обучения. |
Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.
cnncodegen(net,'targetlib','mkldnn','codegenonly',0,'batchsize',1) генерирует Код С++ для процессора Intel при помощи MKL-DNN и создает статическую библиотеку для сетевого объекта в net.'batchsize' размерПоложительное ненулевое целочисленное значение, задающее количество наблюдений, чтобы работать с в одном вызове сети predict() метод. При вызове network->predict(), размер входных данных должен совпадать с batchsize значение задано во время cnncodegen.
Если libraryname 'arm-compute' или 'arm-compute-mali', значение batchsize должен быть 1.
'codegenonly' — Опция, чтобы сгенерировать только кодБулев флаг, который, когда включено, генерирует Код С++ CUDA, не генерируя и создавая make-файл.
'targetparams' — Специфичные для библиотеки параметрыСпецифичные для библиотеки параметры, заданные как 1- 1 структура, содержащая поля, описана в этих таблицах.
Параметры для ARM вычисляют библиотеку (центральный процессор)
Поле | Описание |
|---|---|
ArmComputeVersion | Версия ARM Вычисляет Библиотеку по целевому компьютеру в виде |
ArmArchitecture | Архитектура ARM поддержана на целевом компьютере в виде
|
Параметры для ARM вычисляют библиотеку (Мали графический процессор)
Поле | Описание |
|---|---|
ArmComputeVersion | Версия ARM Вычисляет Библиотеку по целевому компьютеру в виде |
Параметры для библиотеки NVIDIA cuDNN
Поле | Описание |
|---|---|
AutoTuning | Включите или отключите автоматическую настраивающую опцию. Включение автоматической настройки позволяет cuDNN библиотеке находить самые быстрые алгоритмы свертки. Это увеличивает производительность для больших сетей, таких как SegNet и ResNet. Значением по умолчанию является ПримечаниеЕсли |
DataType | Задайте точность входа типа данных тензора к сети. При выполнении вывода в 32-битных плаваниях используйте
|
CalibrationResultFile | Местоположение MAT-файла, содержащего калибровочные данные. Значением по умолчанию является |
Параметры для библиотеки NVIDIA TensorRT
Поле | Описание |
|---|---|
DataType | Задайте точность входа типа данных тензора к сети или тензору выход слоя. При выполнении вывода в 32-битных плаваниях используйте
|
DataPath | Местоположение набора данных изображений используется во время перекалибровки. Значением по умолчанию является Когда вы выбираете |
NumCalibrationBatches | Числовое значение, задающее количество пакетов для NVIDIA рекомендует, чтобы приблизительно 500 изображений были достаточны для калибровки. Обратитесь к документации TensorRT для получения дополнительной информации. |
'computecapability' — Вычислите версиюЭто свойство влияет на графический процессор, предназначающийся только.
Вектор символов или строковый скаляр, задающий графический процессор NVIDIA, вычисляют возможность скомпилировать для. Аргумент берет формат major#.minor#.
Возможными значениями является '3.2'|'3.5'|'3.7'|'5.0'|'5.2'|'5.3'|'6.0'|'6.1'|'6.2'|'7.0'|'7.1'|'7.2'.
Значением по умолчанию является '3.5'.
codegen | coder.loadDeepLearningNetwork
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.