обнаружить

Обнаружьте объекты с помощью детектора объекта YOLO v2, сконфигурированного для монокулярной камеры

Синтаксис

bboxes = detect(detector,I)
[bboxes,scores] = detect(detector,I)
[___,labels] = detect(detector,I)
[___] = detect(___,roi)
[___] = detect(___,Name,Value)

Описание

bboxes = detect(detector,I) обнаруживает объекты в изображении, I с помощью вас смотрит только однажды версия 2 (YOLO v2) объектный детектор, сконфигурированный для монокулярной камеры. Местоположения обнаруженных объектов возвращены как набор ограничительных рамок.

При использовании этой функции, использования графического процессора CUDA®-enabled NVIDIA® с вычислить возможностью 3,0 или выше настоятельно рекомендован. Графический процессор значительно уменьшает время вычисления. Использование графического процессора требует Parallel Computing Toolbox™.

пример

[bboxes,scores] = detect(detector,I) также возвращает музыку уверенности обнаружения к каждой ограничительной рамке.

пример

[___,labels] = detect(detector,I) возвращает категориальный массив меток, присвоенных ограничительным рамкам в дополнение к выходным аргументам от предыдущего синтаксиса. Метки, используемые для классов объектов, заданы во время обучения с помощью функции trainYOLOv2ObjectDetector.

[___] = detect(___,roi) обнаруживает объекты в прямоугольной поисковой области, заданной roi. Используйте выходные аргументы от любого из предыдущих синтаксисов. Задайте входные параметры от любого из предыдущих синтаксисов.

пример

[___] = detect(___,Name,Value) также задает опции с помощью одного или нескольких аргументов пары Name,Value в дополнение к входным параметрам в любом из предыдущих синтаксисов.

Примеры

свернуть все

Сконфигурируйте детектор объекта YOLO v2 для обнаружения автомобилей в видео, записанном монокулярной камерой.

Загрузите объект yolov2ObjectDetector, предварительно обученный обнаружить автомобили.

vehicleDetector = load('yolov2VehicleDetector.mat','detector');
detector = vehicleDetector.detector;

Смоделируйте монокулярный датчик камеры путем создания объекта monoCamera. Этот объект содержит камеру intrinsics и местоположение камеры на автомобиле, оборудованном датчиком.

focalLength = [309.4362 344.2161];    % [fx fy]
principalPoint = [318.9034 257.5352]; % [cx cy]
imageSize = [480 640];                % [mrows ncols]
height = 2.1798;                      % Height of camera above ground, in meters
pitch = 14;                           % Pitch of camera, in degrees
intrinsics = cameraIntrinsics(focalLength,principalPoint,imageSize);

sensor = monoCamera(intrinsics,height,'Pitch',pitch);

Сконфигурируйте детектор для использования с камерой. Ограничьте ширину обнаруженных объектов к 1.5-2.5 метрам. Сконфигурированный детектор является объектом yolov2ObjectDetectorMonoCamera.

vehicleWidth = [1.5 2.5];
detectorMonoCam = configureDetectorMonoCamera(detector,sensor,vehicleWidth);

Настройте читателя видеофайла и считайте входное видео монокуляра.

videoFile = '05_highway_lanechange_25s.mp4';
obj.reader = vision.VideoFileReader(videoFile,'VideoOutputDataType','uint8');

Создайте видеоплеер, чтобы отобразить видео и выходные обнаружения.

obj.videoPlayer = vision.DeployableVideoPlayer();

Обнаружьте автомобили в видео при помощи детектора. Задайте порог обнаружения как 0,6. Аннотируйте видео ограничительными рамками для обнаружений, меток и очков уверенности обнаружения.

cont = ~isDone(obj.reader);
while cont
    I = step(obj.reader);
    [bboxes,scores,labels] = detect(detectorMonoCam,I,'Threshold',0.6); % Run the YOLO v2 object detector
    
    if ~isempty(bboxes)
        displayLabel = strcat(cellstr(labels),':',num2str(scores));
        I = insertObjectAnnotation(I,'rectangle',bboxes,displayLabel);
    end
    step(obj.videoPlayer, I);    
    cont = ~isDone(obj.reader) && isOpen(obj.videoPlayer); % Exit the loop if the video player figure window is closed
end

Входные параметры

свернуть все

Детектор объекта YOLO v2 сконфигурирован для монокулярной камеры, заданной как объект yolov2ObjectDetectorMonoCamera. Чтобы создать этот объект, используйте функцию configureDetectorMonoCamera с объектом monoCamera и обученным объектом trainYOLOv2ObjectDetector как входные параметры.

Протестируйте изображение, заданное как действительное, неразреженное, полутоновый, или изображение RGB.

Область значений тестового изображения должна быть тем же самым, когда область значений изображений раньше обучала детектор объекта YOLO v2. Например, если бы детектор был обучен на изображениях uint8, тестовое изображение должно также иметь пиксельные значения в области значений [0, 255]. В противном случае используйте im2uint8 или функцию rescale, чтобы повторно масштабировать пиксельные значения в тестовом изображении.

Типы данных: uint8 | uint16 | int16 | double | single | logical

Поисковая видимая область, заданная как четырехэлементный вектор формы [x y width height]. Вектор задает левый верхний угол и размер видимой области в пикселях.

Аргументы в виде пар имя-значение

Укажите необязательные аргументы в виде пар ""имя, значение"", разделенных запятыми. Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Пример: detect(detector,I,'Threshold',0.25)

Порог обнаружения, заданный как пара, разделенная запятой, состоящая из 'Threshold' и скаляра в области значений [0, 1]. Удалены обнаружения, которые имеют очки меньше, чем это пороговое значение. Чтобы уменьшать ложные положительные стороны, увеличьте это значение.

Выберите самую сильную ограничительную рамку для каждого обнаруженного объекта, заданного как пара, разделенная запятой, состоящая из 'SelectStrongest' и true или false.

  • tRUE Возвращает самую сильную ограничительную рамку на объект. Вызовы метода функция selectStrongestBboxMulticlass, которая использует немаксимальное подавление, чтобы устранить перекрывающиеся ограничительные рамки на основе их очков уверенности.

    По умолчанию функция selectStrongestBboxMulticlass вызвана можно следующим образом

     selectStrongestBboxMulticlass(bbox,scores,...
                                   'RatioType','Min',...
                                   'OverlapThreshold',0.5);

  • ложь Возвратите все обнаруженные ограничительные рамки. Можно затем записать собственный метод, чтобы устранить перекрывающиеся ограничительные рамки.

Минимальный размер области, заданный как пара, разделенная запятой, состоящая из 'MinSize' и вектор формы [height width]. Модули находятся в пикселях. Минимальный размер области задает размер самой маленькой области, содержащей объект.

По умолчанию 'MinSize' 1 на 1.

Максимальный размер области, заданный как пара, разделенная запятой, состоящая из 'MaxSize' и вектор формы [height width]. Модули находятся в пикселях. Максимальный размер области задает размер самой большой области, содержащей объект.

По умолчанию 'MaxSize' установлен в высоту и ширину входного изображения, I. Чтобы уменьшать время вычисления, установите это значение к известному максимальному размеру области для объектов, которые могут быть обнаружены во входном тестовом изображении.

Аппаратный ресурс, на котором можно запустить детектор, заданный как пара, разделенная запятой, состоящая из 'ExecutionEnvironment' и 'auto', 'gpu' или 'cpu'.

  • 'auto' Используйте графический процессор, если это доступно. В противном случае используйте центральный процессор.

  • 'gpu' — Используйте графический процессор. Чтобы использовать графический процессор, у вас должны быть Parallel Computing Toolbox и CUDA-поддерживающий NVIDIA графический процессор с вычислить возможностью 3,0 или выше. Если подходящий графический процессор не доступен, функция возвращает ошибку.

  • 'cpu' — Используйте центральный процессор.

Выходные аргументы

свернуть все

Местоположение объектов обнаружило во входном изображении, возвращенном как M-by-4 матрица, где M является количеством ограничительных рамок. Каждая строка bboxes содержит четырехэлементный вектор формы [x y width height]. Этот вектор задает левый верхний угол и размер той соответствующей ограничительной рамки в пикселях.

Очки уверенности обнаружения, возвращенные как M-by-1 вектор, где M является количеством ограничительных рамок. Более высокий счет указывает на более высокую уверенность в обнаружении.

Метки для ограничительных рамок, возвращенных как M-by-1 категориальный массив меток M. Вы задаете имена классов, используемые, чтобы маркировать объекты, когда вы обучаете вход detector.

Введенный в R2019a