Обнаружение объектов с помощью детектора объектов YOLO v2, сконфигурированного для монокулярной камеры
обнаруживает объекты в изображении bboxes = detect(detector,I)I Использование детектора объектов версии 2 (YOLO v2), настроенного для монокулярной камеры, выполняется только один раз. Местоположения обнаруженных объектов возвращаются как набор ограничивающих рамок.
При использовании этой функции используйте CUDA®-активный NVIDIA® Настоятельно рекомендуется использовать графический процессор. Графический процессор значительно сокращает время расчетов. Для использования графический процессор требуется Parallel Computing Toolbox™. Для получения информации о поддерживаемых вычислительных возможностях смотрите Поддержку GPU by Release (Parallel Computing Toolbox).
[___, возвращает категориальный массив меток, назначенных ограничивающим рамкам, в дополнение к выходным аргументам из предыдущего синтаксиса. Метки, используемые для классов объектов, определяются во время обучения с помощью labels] = detect(detector,I)trainYOLOv2ObjectDetector функция.
[___] = detect(___, обнаруживает объекты в прямоугольной области поиска, заданной roi)roi. Используйте выходные аргументы из любого из предыдущих синтаксисов. Задайте входные параметры из любого из предыдущих синтаксисов.
обнаруживает объекты в пределах ряда изображений, возвращаемых detectionResults = detect(detector,ds)read функция входного datastore.
[___] = detect(___, также задает опции, использующие одну или несколько Name,Value)Name,Value пара аргументов в дополнение к входным параметрам в любом из предыдущих синтаксисов.
configureDetectorMonoCamera | evaluateDetectionMissRate | evaluateDetectionPrecision | selectStrongestBboxMulticlass | trainYOLOv2ObjectDetector