Deep Learning HDL Toolbox™ поддерживает генерацию кода для серийных сверточных нейронных сетей (CNNs или ConvNets). Можно сгенерировать код для любой обученной сверточной нейронной сети, вычислительные слои которой поддерживаются для генерации кода. Смотрите Поддерживаемые Слои. Можно использовать одну из перечисленных в таблице предварительно обученных сетей и сгенерировать код для целевого Intel® или плат Xilinx® FPGA.
Сеть | Сетевое описание | Ввод | Один тип данных (с поставкой потоков битов) | Тип данных INT8 (с Поставкой Потоков битов) | Область применения | ||||
ZCU102 | ZC706 | Arria10 SoC | ZCU102 | ZC706 | Arria10 SoC | Классификация | |||
AlexNet | Сверточная нейронная сеть AlexNet. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
LogoNet | Сеть распознавания логотипа (LogoNet) является разработанной идентификационной сетью логотипа MATLAB®. Для получения дополнительной информации смотрите Сеть Распознавания Логотипа. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
MNIST | Классификация цифр MNIST. Смотрите создают простую сеть глубокого обучения для классификации | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Детектор линий разметки | Сверточная нейронная сеть LaneNet. Для получения дополнительной информации смотрите, Развертывают Сеть Передачи обучения для Обнаружения Маршрута | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
VGG-16 | Сверточная нейронная сеть VGG-16. Для предварительно обученной модели VGG-16 смотрите | Серийная сеть | Нет. Сеть превышает размер памяти DDR PL | Нет. Сеть превышает емкость памяти модуля FC. | Да | Да | Нет. Сеть превышает емкость памяти модуля FC. | Да | Классификация |
VGG-19 | Сверточная нейронная сеть VGG-19. Для предварительно обученной модели VGG-19 смотрите | Серийная сеть | Нет. Сеть превышает размер памяти DDR PL | Нет. Сеть превышает емкость памяти модуля FC. | Да | Да | Нет. Сеть превышает емкость памяти модуля FC. | Да | Классификация |
Даркнет 19 | Cверточная нейронная сеть DarkNet-19. Для предварительно обученного даркнета 19 моделей смотрите | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Классификация радаров | Сверточная нейронная сеть, которая использует micro-Doppler подписи, чтобы идентифицировать и классифицировать объект. Для получения дополнительной информации смотрите Велосипедиста и Пешеходную Классификацию при помощи FPGA. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация и программно определяемое радио (SDR) |
Дефектное обнаружение snet_defnet | snet_defnet пользовательская сеть AlexNet, используемая, чтобы идентифицировать и классифицировать дефекты. Для получения дополнительной информации смотрите Дефектное Обнаружение. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Дефектное обнаружение snet_blemdetnet | snet_blemdetnet пользовательская сверточная нейронная сеть, используемая, чтобы идентифицировать и классифицировать дефекты. Для получения дополнительной информации смотрите Дефектное Обнаружение. | Серийная сеть | Да | Да | Да | Да | Да | Да | Классификация |
Обнаружение YOLO v2 Транспортного средства | Вы смотрите только, если (YOLO) детектор объектов, который декодирует предсказания от сверточной нейронной сети и генерирует ограничительные рамки вокруг объектов. Для получения дополнительной информации смотрите, что Обнаружение Транспортного средства Использует YOLO v2, Развернутый на FPGA | Серийная Сеть базирующейся | Да | Да | Да | Да | Да | Да | Обнаружение объектов |
DarkNet-53 | Cверточная нейронная сеть DarkNet-53. Для предварительно обученной модели DarkNet-53 смотрите darknet53 . | Сеть Directed acyclic graph (DAG) базирующейся | Нет. Сеть превышает размер памяти DDR PL. | Нет. Сеть превышает размер памяти DDR PL. | Да | Да | Да | Да | Классификация |
ResNet-18 | Сверточная нейронная сеть ResNet-18. Для предварительно обученной модели ResNet-18 смотрите resnet18 . | Сеть Directed acyclic graph (DAG) базирующейся | Да | Да | Да | Да | Да | Классификация | |
ResNet-50 | Сверточная нейронная сеть ResNet-50. Для предварительно обученной модели ResNet-50 смотрите resnet50 . | Сеть Directed acyclic graph (DAG) базирующейся | Нет. Сеть превышает размер памяти DDR PL. | Нет. Сеть превышает размер памяти DDR PL. | Да | Да | Да | Да | Классификация |
Находящийся в ResNet YOLO v2 | Вы смотрите только, если (YOLO) детектор объектов, который декодирует предсказания от сверточной нейронной сети и генерирует ограничительные рамки вокруг объектов. Для получения дополнительной информации смотрите, что Обнаружение Транспортного средства Использует Сетевой Основанный YOLO v2 DAG, Развернутый на FPGA. | Сеть Directed acyclic graph (DAG) базирующейся | Да | Да | Да | Да | Да | Да | Обнаружение объектов |
MobileNetV2 | Сверточная нейронная сеть MobileNet-v2. Для предварительно обученной модели MobileNet-v2 смотрите mobilenetv2 . | Сеть Directed acyclic graph (DAG) базирующейся | Да | Да | Да | Нет | Нет | Нет | Классификация |
Следующие слои поддерживаются Deep Learning HDL Toolbox.
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Описание и ограничения | Совместимый INT8 |
SW | Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных. | Да. Запуски как один тип данных в SW. |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Свертка (Conv) | 2D сверточный слой применяет скользящие сверточные фильтры к входу. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да | |
HW | Свертка (Conv) | 2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для отделимого мудрого каналом (также известный мудрыми глубиной отделимый) свертка. Генерация кода теперь поддерживается для 2D сгруппированного слоя свертки, который имеет Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да | |
HW | Полностью соединенный (FC) | Полносвязный слой умножает вход на матрицу веса, и затем добавляет вектор смещения. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Слой сплавлен. | Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется. Слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да | |
HW | Слой сплавлен. | Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр. Текучий слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да | |
HW | Слой сплавлен. | Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в то значение потолка усечения. Отсеченный слой ReLU поддерживается только, когда ему предшествует любой из этих слоев:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Слой сплавлен. | Слой нормализации партии. нормирует каждый входной канал через мини-пакет. Слой нормализации партии. только поддерживается только, когда ему предшествует слой свертки. | Да | |
HW | Свертка (Conv) | Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию.
| Да. Запуски как один тип данных в HW. | |
NoOP на выводе | NoOP на выводе | Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью. | Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Свертка (Conv) | Макс. слой объединения выполняет вниз выборку путем деления входа на прямоугольные области объединения и вычисление максимума каждой области. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да | |
HW | Свертка (Conv) | Средний слой объединения выполняет вниз выборку путем деления входа на прямоугольные области объединения и вычисление средних значений каждой области. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да | |
HW | Свертка (Conv) или Полностью соединенный (FC). Когда входной размер активации ниже, чем порог памяти, выходной формат слоя является FC. | Глобальный средний слой объединения выполняет вниз выборку путем вычисления среднего значения размерностей высоты и ширины входа. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
HW | Наследуйтесь входу. | Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети. Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Да | |
HW | Наследуйтесь входу. | Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала). Эти ограничения применяются при генерации кода для сети с помощью этого слоя:
| Нет |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Описание и ограничения | Совместимый INT8 |
SW | softmax слой применяет функцию softmax к входу. | Да. Запуски как один тип данных в SW. | |
SW | Слой классификации вычисляет потерю перекрестной энтропии для много проблем классификации класса со взаимоисключающими классами. | Да | |
SW | Слой регрессии вычисляет половину потери среднеквадратической ошибки для проблем регрессии. | Да |
Слой | Оборудование типа слоя (HW) или программное обеспечение (SW) | Выходной формат слоя | Описание и ограничения | Совместимый INT8 |
nnet.keras.layer.FlattenCStyleLayer | HW | Слой будет сплавлен | Сгладьте активации на 1D слои, принимающие C-стиль (упорядоченный по строкам) порядок.
| Да |
nnet.keras.layer.ZeroPadding2dLayer | HW | Слой будет сплавлен. | Нулевой дополнительный слой для 2D входа.
| Да |
Эти платы поддерживаются Deep Learning HDL Toolbox:
Xilinx Zynq®-7000 ZC706.
Intel Arria® 10 SoC.
Xilinx Zynq UltraScale +™ MPSoC ZCU102.
Deep Learning HDL Toolbox был протестирован с:
Набор проекта Xilinx Vivado 2020.1
Intel Куарт главные 18.1