Обнаружение объектов с помощью детектора объектов YOLO v2, сконфигурированного для монокулярной камеры
обнаруживает объекты в изображении bboxes
= detect(detector
,I
)I
Использование детектора объектов версии 2 (YOLO v2), настроенного для монокулярной камеры, выполняется только один раз. Местоположения обнаруженных объектов возвращаются как набор ограничивающих рамок.
При использовании этой функции используйте CUDA®-активный NVIDIA® Настоятельно рекомендуется использовать графический процессор. Графический процессор значительно сокращает время расчетов. Для использования графический процессор требуется Parallel Computing Toolbox™. Для получения информации о поддерживаемых вычислительных возможностях смотрите Поддержку GPU by Release (Parallel Computing Toolbox).
[___,
возвращает категориальный массив меток, назначенных ограничивающим рамкам, в дополнение к выходным аргументам из предыдущего синтаксиса. Метки, используемые для классов объектов, определяются во время обучения с помощью labels
] = detect(detector
,I
)trainYOLOv2ObjectDetector
функция.
[___] = detect(___,
обнаруживает объекты в прямоугольной области поиска, заданной roi
)roi
. Используйте выходные аргументы из любого из предыдущих синтаксисов. Задайте входные параметры из любого из предыдущих синтаксисов.
обнаруживает объекты в пределах ряда изображений, возвращаемых detectionResults
= detect(detector
,ds
)read
функция входного datastore.
[___] = detect(___,
также задает опции, использующие одну или несколько Name,Value
)Name,Value
пара аргументов в дополнение к входным параметрам в любом из предыдущих синтаксисов.
configureDetectorMonoCamera
| evaluateDetectionMissRate
| evaluateDetectionPrecision
| selectStrongestBboxMulticlass
| trainYOLOv2ObjectDetector