Deep Learning HDL Toolbox™ поддерживает генерацию кода для серийных сверточных нейронных сетей (CNNs или ConvNets). Можно сгенерировать код для любого обученного CNN, вычислительные слои которого поддерживаются для генерации кода. Для полного списка смотрите Поддерживаемые Слои. Можно использовать одну из предварительно обученных сетей, перечисленных в таблице, чтобы сгенерировать код для целевого Intel® или Xilinx® Платы FPGA.
Сеть | Сетевое описание | Ввод | Один тип данных (с поставкой потоков битов) | Тип данных INT8 (с Поставкой Потоков битов) | Область применения | ||||
ZCU102 | ZC706 | Arria10 SoC | ZCU102 | ZC706 | Arria10 SoC | Классификация | |||
AlexNet | Сверточная нейронная сеть AlexNet. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
LogoNet | Сетью распознавания логотипа (LogoNet) является MATLAB® разработанная идентификационная сеть логотипа. Для получения дополнительной информации смотрите Сеть Распознавания Логотипа. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
DigitsNet | Сеть классификации цифр. Смотрите Создают Простую сеть глубокого обучения для Классификации | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Детектор линий разметки | Сверточная нейронная сеть LaneNet. Для получения дополнительной информации смотрите, Развертывают Сеть Передачи обучения для Обнаружения Маршрута. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
VGG-16 | Сверточная нейронная сеть VGG-16. Для предварительно обученной модели VGG-16 смотрите | Серийная сеть | Нет. Сеть превышает размер памяти DDR PL | Нет. Сеть превышает емкость памяти модуля FC. | Да | Да | Нет. Сеть превышает емкость памяти модуля FC. | Да | Классификация |
VGG-19 | Сверточная нейронная сеть VGG-19. Для предварительно обученной модели VGG-19 смотрите | Серийная сеть | Нет. Сеть превышает размер памяти DDR PL | Нет. Сеть превышает емкость памяти модуля FC. | Да | Да | Нет. Сеть превышает емкость памяти модуля FC. | Да | Классификация |
Даркнет 19 | Cверточная нейронная сеть DarkNet-19. Для предварительно обученного даркнета 19 моделей смотрите | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Классификация радаров | Сверточная нейронная сеть, которая использует micro-Doppler подписи, чтобы идентифицировать и классифицировать объект. Для получения дополнительной информации смотрите Велосипедиста и Пешеходную Классификацию при помощи FPGA. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация и программно определяемое радио (SDR) |
Дефектное обнаружение snet_defnet | snet_defnet пользовательская сеть AlexNet, используемая, чтобы идентифицировать и классифицировать дефекты. Для получения дополнительной информации смотрите Дефектное Обнаружение. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Дефектное обнаружение snet_blemdetnet | snet_blemdetnet пользовательская сверточная нейронная сеть, используемая, чтобы идентифицировать и классифицировать дефекты. Для получения дополнительной информации смотрите Дефектное Обнаружение. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Обнаружение YOLO v2 Транспортного средства | Вы смотрите только, если (YOLO) детектор объектов, который декодирует предсказания от сверточной нейронной сети и генерирует ограничительные рамки вокруг объектов. Для получения дополнительной информации смотрите, что Обнаружение Транспортного средства Использует YOLO v2, Развернутый на FPGA. | Серийная Сеть базирующейся | Да | Да | Да | Да | Да | Да | Обнаружение объектов |
DarkNet-53 | Cверточная нейронная сеть DarkNet-53. Для предварительно обученной модели DarkNet-53 смотрите darknet53 . | Сеть Directed acyclic graph (DAG) базирующейся | Нет. Сеть превышает размер памяти DDR PL. | Нет. Сетевой полносвязный слой превышает емкость памяти. | Да | Да | Нет. Сетевой полносвязный слой превышает емкость памяти. | Да | Классификация |
ResNet-18 | Сверточная нейронная сеть ResNet-18. Для предварительно обученной модели ResNet-18 смотрите resnet18 . | Сеть Directed acyclic graph (DAG) базирующейся | Да | Да | Да | Да | Да | Классификация | |
ResNet-50 | Сверточная нейронная сеть ResNet-50. Для предварительно обученной модели ResNet-50 смотрите resnet50 . | Сеть Directed acyclic graph (DAG) базирующейся | Нет. Сеть превышает размер памяти DDR PL. | Нет. Сеть превышает размер памяти DDR PL. | Да | Да | Да | Да | Классификация |
Находящийся в ResNet YOLO v2 | Вы смотрите только, если (YOLO) детектор объектов, который декодирует предсказания от сверточной нейронной сети и генерирует ограничительные рамки вокруг объектов. Для получения дополнительной информации смотрите, что Обнаружение Транспортного средства Использует Сетевой Основанный YOLO v2 DAG, Развернутый на FPGA. | Сеть Directed acyclic graph (DAG) базирующейся | Да | Да | Да | Да | Да | Да | Обнаружение объектов |
MobileNetV2 | Сверточная нейронная сеть MobileNet-v2. Для предварительно обученной модели MobileNet-v2 смотрите mobilenetv2 . | Сеть Directed acyclic graph (DAG) базирующейся | Да | Нет. Полносвязный слой превышает размер памяти DDR PL. | Да | Нет | Нет. Полносвязный слой превышает размер памяти DDR PL. | Нет | Классификация |
GoogLeNet | Сверточная нейронная сеть GoogLeNet. Для предварительно обученной модели GoogLeNet смотрите googlenet . |
Deep Learning HDL Toolbox поддерживает слои, перечисленные в этих таблицах.
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Описание и ограничения | Совместимый INT8 |
SW | Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных. | Да. Запуски как один тип данных в SW. |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Свертка (Conv) | 2D сверточный слой применяет скользящие сверточные фильтры к входу. При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да | |
HW | Свертка (Conv) | 2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для отделимого мудрого каналом (также известный мудрыми глубиной отделимый) свертка. Генерация кода теперь поддерживается для 2D сгруппированного слоя свертки, который имеет При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да | |
HW | Полностью соединенный (FC) | Полносвязный слой умножает вход на матрицу веса, и затем добавляет вектор смещения. При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Слой сплавлен. | Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется. Слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да | |
HW | Слой сплавлен. | Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр. Текучий слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да | |
HW | Слой сплавлен. | Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в то значение потолка усечения. Отсеченный слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Слой сплавлен. | Слой нормализации партии. нормирует каждый входной канал через мини-пакет. Слой нормализации партии. поддерживается только, когда ему предшествует слой свертки. | Да | |
HW | Свертка (Conv) | Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию.
| Да. Запуски как один тип данных в HW. | |
NoOP на выводе | NoOP на выводе | Слой уволенного случайным образом обнуляет входные элементы в данной вероятности. | Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Свертка (Conv) | Макс. слой объединения выполняет субдискретизацию путем деления входа слоя на прямоугольные области объединения и вычисление максимума каждой области. При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да | |
HW | Свертка (Conv) | Средний слой объединения выполняет субдискретизацию путем деления входа слоя на прямоугольные области объединения и вычисление средних значений каждой области. При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да | |
HW | Свертка (Conv) или Полностью соединенный (FC). Когда входной размер активации ниже, чем порог памяти, выходной формат слоя является FC. | Глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа. При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Наследуйтесь входу. | Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети. Вы можете теперь сгенерированный код для этого слоя с При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да | |
HW | Наследуйтесь входу. | Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала). При генерации кода для сети с помощью этого слоя применяются эти ограничения:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Описание и ограничения | Совместимый INT8 |
SW и HW | softmax слой применяет функцию softmax к входу. Если softmax слой реализован в оборудовании:
| Да. Запуски как один тип данных в SW. | |
SW | Слой классификации вычисляет потерю перекрестной энтропии для проблем классификации мультикласса, которые имеют взаимоисключающие классы. | Да | |
SW | Слой регрессии вычисляет половину потери среднеквадратической ошибки для проблем регрессии. | Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
nnet.keras.layer.FlattenCStyleLayer | HW | Слой будет сплавлен | Сгладьте активации на 1D слои, принимающие C-стиль (упорядоченный по строкам) порядок.
| Да |
nnet.keras.layer.ZeroPadding2dLayer | HW | Слой будет сплавлен. | Нулевой дополнительный слой для 2D входа.
| Да |
Эти платы поддерживаются Deep Learning HDL Toolbox:
Xilinx Zynq®- 7 000 ZC706
Intel Arria® 10 SoC
Xilinx Zynq UltraScale +™ MPSoC ZCU102
Deep Learning HDL Toolbox был протестирован с:
Набор проекта Xilinx Vivado 2020.1
Intel Куарт главные 18.1