Создание выходного уровня для сети обнаружения объектов YOLO v2
yolov2OutputLayer функция создает YOLOv2OutputLayer , который представляет выходной уровень для просмотра только один раз в сети обнаружения объектов версии 2 (YOLO v2). Выходной слой предоставляет уточненные положения ограничивающих рамок для целевых объектов.
создает layer = yolov2OutputLayer(anchorBoxes)YOLOv2OutputLayer объект, layer, который представляет уровень вывода для сети обнаружения объектов YOLO v2. Слой выводит уточненные расположения ограничивающих рамок, которые прогнозируются с использованием предопределенного набора опорных рамок, заданных на входе.
задает дополнительные свойства, используя пары имя-значение и входные данные из предыдущего синтаксиса. Заключите каждое имя свойства в отдельные кавычки. Например, layer = yolov2OutputLayer(anchorBoxes,Name,Value)yolov2OutputLayer('Name','yolo_Out') создает выходной слой с именем yolo _ Out.
Чтобы повысить точность прогнозирования, можно:
Обучение сети с помощью большего количества изображений. Набор учебных данных можно расширить путем увеличения объема данных. Дополнительные сведения о применении увеличения данных для набора учебных данных см. в разделе Препроцессные изображения для глубокого обучения (панель инструментов глубокого обучения).
Выполнение многомасштабного обучения с помощью trainYOLOv2ObjectDetector функция. Для этого укажите 'TrainingImageSize«аргумент» trainYOLOv2ObjectDetector функция для обучения сети.
Выберите поля привязки, соответствующие набору данных для обучения сети. Вы можете использовать estimateAnchorBoxes функция для вычисления полей привязки непосредственно на основе данных обучения.
[1] Иосиф. Р., С. К. Диввала, Р. Б. Гиршик и Ф. Али. «Вы смотрите только один раз: унифицированное обнаружение объектов в реальном времени». В материалах Конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), стр. 779-788. Лас-Вегас, NV: CVPR, 2016.
[2] Иосиф. Р и Ф. Али. «YOLO 9000: лучше, быстрее, сильнее». В материалах Конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), стр. 6517-6525. Гонолулу, HI: CVPR, 2017.