В этом примере показано, как отследить пешеходов, использующих камеру, смонтированную в движущемся автомобиле.
В этом примере показано, как выполнить автоматическое обнаружение и отслеживание людей в видео от движущейся камеры. Это демонстрирует гибкость системы слежения, адаптированной к движущейся камере, которая идеальна для автомобильных приложений безопасности. В отличие от примера отслеживания транспортных средств, Дорожка Несколько Транспортных средств Используя Камеру, этот пример содержит дополнительные алгоритмические шаги. Эти шаги включают людей обнаружение и настроенная стоимость для присвоения обнаружений к дорожкам.
Рабочий процесс отслеживания состоит из следующих шагов:
Задайте внутренние параметры камеры и положение монтирования камеры.
Загрузите и сконфигурируйте предварительно обученный детектор людей.
Настройте мультиобъектное средство отслеживания.
Запустите детектор для каждого видеокадра.
Вычислите затраты для присвоений обнаружений к дорожкам.
Обновите средство отслеживания результатами обнаружения.
Отобразите результаты отслеживания в видео.
В этом примере мы используем предварительно обученный детектор людей ACF и конфигурируем этот детектор, чтобы включить информацию о камере. По умолчанию детектор сканирует целое изображение в нескольких шкалах. Путем знания параметров камеры мы можем сконфигурировать детектор, чтобы только обнаружить людей на наземной плоскости в разумных шкалах.
% Load the monoCamera object that contains the camera information. d = load('TrackingDemoMonoCameraSensor.mat', 'sensor'); % Load a pretrained ACF people detector. The ACF detector uses "Aggregate % Channel Features", which is fast to compute in practice. The 'caltech' % model is trained on caltech pedestrian dataset, which can detect people % at the minimum resolution of 50x21 pixels. detector = peopleDetectorACF('caltech'); % Configure the detector using the sensor information. The detector only % tries to find people at image regions above the ground plane. This can % reduce computation and prevent spurious detections. % The width of common pedestrian is between 0.5 to 1.5 meters. Only a % bounding box of width within this range is considered as a detection % candidate in image. pedWidth = [0.5, 1.5]; % Configure the detector using the monoCamera sensor and desired width. detector = configureDetectorMonoCamera(detector, d.sensor, pedWidth); % Initialize an multi-object tracker including setting the filter, % the detection-to-track assignment threshold, the coasting and % confirmation parameters. You can find the |setupTracker| function at the % end of this example. [tracker, positionSelector] = setupTracker();
На каждом временном шаге запустите детектор, вычислите затраты присвоения обнаружения к дорожке, обновите средство отслеживания результатами обнаружения и отобразите результаты отслеживания в видео.
% Setup Video Reader and Player videoFile = 'pedtracking.mp4'; videoReader = VideoReader(videoFile); videoPlayer = vision.DeployableVideoPlayer(); currentStep = 0; snapshot = []; snapTimeStamp = 107; cont = hasFrame(videoReader); while cont % Update frame counters. currentStep = currentStep + 1; % Read the next frame. frame = readFrame(videoReader); % Run the detector and package the returned results into an object % required by multiObjectTracker. You can find the |detectObjects| % function at the end of this example. detections = detectObjects(detector, frame, currentStep); % Using the list of objectDetections, return the tracks, updated for % 'currentStep' time. After the first frame, a helper function % |detectionToTrackCost| is called to compute the customized cost % matrix between all tracks and all detections. if currentStep == 1 costMatrix = zeros(0, numel(detections)); [confirmedTracks,~,allTracks] = updateTracks(tracker, detections, currentStep, ... costMatrix); else costMatrix = detectionToTrackCost(allTracks, detections, ... positionSelector, tracker.AssignmentThreshold); [confirmedTracks,~,allTracks] = updateTracks(tracker, detections, currentStep, ... costMatrix); end % Remove the tracks for people that are far away. confirmedTracks = removeNoisyTracks(confirmedTracks, positionSelector, d.sensor.Intrinsics.ImageSize); % Insert tracking annotations. frameWithAnnotations = insertTrackBoxes(frame, confirmedTracks, positionSelector, d.sensor); % Display the annotated frame. videoPlayer(frameWithAnnotations); % Take snapshot for publishing at snapTimeStamp seconds if currentStep == snapTimeStamp snapshot = frameWithAnnotations; end % Exit the loop if the video player figure is closed by user. cont = hasFrame(videoReader) && isOpen(videoPlayer); end
Покажите выслеженным людям и отобразите расстояние до автомобиля, оборудованного датчиком.
if ~isempty(snapshot) figure imshow(snapshot) end
Рабочий процесс отслеживания, представленный здесь, может быть легко интегрирован в Визуальное Восприятие Используя Монокулярную Камеру, где люди или шаг обнаружения транспортного средства могут быть улучшены со средством отслеживания. Чтобы узнать о дополнительных возможностях отслеживания в Automated Driving Toolbox™, смотрите monoCamera
и multiObjectTracker
.
функция setupTracker создает multiObjectTracker
отслеживать несколько объектов с Фильтрами Калмана. При создании multiObjectTracker
рассмотрите следующее:
FilterInitializationFcn
: Вероятное движение и модели измерения. В этом случае объекты, как ожидают, будут иметь постоянное скоростное движение. Смотрите раздел 'Define a Kalman filter'.
AssignmentThreshold
: как далеко обнаружения могут упасть от дорожек. Если существуют обнаружения, которые не присвоены дорожкам, но должны быть, увеличить это значение. Если существуют обнаружения, которые присвоены дорожкам, которые слишком далеки, уменьшают это значение. Этот пример использует отношение перекрытия ограничительной рамки в качестве стоимости присвоения с пороговым набором к 0,999.
DeletionThreshold
: Параметры для удаления подтвержденной дорожки. Подтвержденная дорожка удалена, если она не присвоена никакое обнаружение (пропущен) в, по крайней мере, P из Q последние обновления средства отслеживания. Значением по умолчанию для этого параметра являются 5 промахов из 5 обновлений.
ConfirmationThreshold
: Параметры для подтверждения дорожки. Новый трек инициализируется каждым неприсвоенным обнаружением. Некоторые из этих обнаружений могут быть ложными, таким образом, все дорожки инициализируются как Tentative
. Чтобы подтвердить дорожку, это должно быть обнаружено, по крайней мере, M времена в обновлениях средства отслеживания N. Выбор M и N зависит от видимости объектов. Этот пример использует значение по умолчанию 3 обнаружений из 5 обновлений.
HasCostMatrixInput
: Верный, если стоившая матрица обеспечивается, как введено. Установите это свойство на true, чтобы передать матрицу стоимости как часть входных параметров к updateTracks
.
Выходные параметры setupTracker
:
tracker
- multiObjectTracker, который сконфигурирован для этого случая.
positionSelector
- Матрица A, которая задает, какими элементами Вектора состояния является положение: position = positionSelector * State
function [tracker, positionSelector] = setupTracker() % Create the tracker object. tracker = multiObjectTracker('FilterInitializationFcn', @initBboxFilter, ... 'AssignmentThreshold', 0.999, ... 'DeletionThreshold', 5, ... 'ConfirmationThreshold', [3 5], ... 'HasCostMatrixInput', true); % The State vector is: [x; vx; y; vy; w; vw; h; vh] % [x;y;w;h] = positionSelector * State positionSelector = [1 0 0 0 0 0 0 0; ... 0 0 1 0 0 0 0 0; ... 0 0 0 0 1 0 0 0; ... 0 0 0 0 0 0 1 0]; end
функция initBboxFilter задает Фильтр Калмана, чтобы отфильтровать измерение ограничительной рамки.
function filter = initBboxFilter(Detection) % Step 1: Define the motion model and state. % Use a constant velocity model for a bounding box on the image. % The state is [x; vx; y; vy; w; wv; h; hv] % The state transition matrix is: % [1 dt 0 0 0 0 0 0; % 0 1 0 0 0 0 0 0; % 0 0 1 dt 0 0 0 0; % 0 0 0 1 0 0 0 0; % 0 0 0 0 1 dt 0 0; % 0 0 0 0 0 1 0 0; % 0 0 0 0 0 0 1 dt; % 0 0 0 0 0 0 0 1] % Assume dt = 1. This example does not consider time-variant transition % model for linear Kalman filter. dt = 1; cvel =[1 dt; 0 1]; A = blkdiag(cvel, cvel, cvel, cvel); % Step 2: Define the process noise. % The process noise represents the parts of the process that the model % does not take into account. For example, in a constant velocity model, % the acceleration is neglected. G1d = [dt^2/2; dt]; Q1d = G1d*G1d'; Q = blkdiag(Q1d, Q1d, Q1d, Q1d); % Step 3: Define the measurement model. % Only the position ([x;y;w;h]) is measured. % The measurement model is H = [1 0 0 0 0 0 0 0; ... 0 0 1 0 0 0 0 0; ... 0 0 0 0 1 0 0 0; ... 0 0 0 0 0 0 1 0]; % Step 4: Map the sensor measurements to an initial state vector. % Because there is no measurement of the velocity, the v components are % initialized to 0: state = [Detection.Measurement(1); ... 0; ... Detection.Measurement(2); ... 0; ... Detection.Measurement(3); ... 0; ... Detection.Measurement(4); ... 0]; % Step 5: Map the sensor measurement noise to a state covariance. % For the parts of the state that the sensor measured directly, use the % corresponding measurement noise components. For the parts that the % sensor does not measure, assume a large initial state covariance. That way, % future detections can be assigned to the track. L = 100; % Large value stateCov = diag([Detection.MeasurementNoise(1,1), ... L, ... Detection.MeasurementNoise(2,2), ... L, ... Detection.MeasurementNoise(3,3), ... L, ... Detection.MeasurementNoise(4,4), ... L]); % Step 6: Create the correct filter. % In this example, all the models are linear, so use trackingKF as the % tracking filter. filter = trackingKF(... 'StateTransitionModel', A, ... 'MeasurementModel', H, ... 'State', state, ... 'StateCovariance', stateCov, ... 'MeasurementNoise', Detection.MeasurementNoise, ... 'ProcessNoise', Q); end
функция detectObjects обнаруживает людей в изображении.
function detections = detectObjects(detector, frame, frameCount) % Run the detector and return a list of bounding boxes: [x, y, w, h] bboxes = detect(detector, frame); % Define the measurement noise. L = 100; measurementNoise = [L 0 0 0; ... 0 L 0 0; ... 0 0 L/2 0; ... 0 0 0 L/2]; % Formulate the detections as a list of objectDetection reports. numDetections = size(bboxes, 1); detections = cell(numDetections, 1); for i = 1:numDetections detections{i} = objectDetection(frameCount, bboxes(i, :), ... 'MeasurementNoise', measurementNoise); end end
функция removeNoisyTracks удаляет шумные дорожки. Дорожка считается шумной, если ее предсказанная ограничительная рамка слишком мала. Как правило, это подразумевает, что человек далеко.
function tracks = removeNoisyTracks(tracks, positionSelector, imageSize) if isempty(tracks) return end % Extract the positions from all the tracks. positions = getTrackPositions(tracks, positionSelector); % The track is 'invalid' if the predicted position is about to move out % of the image, or the bounding box is too small. invalid = ( positions(:, 1) < 1 | ... positions(:, 1) + positions(:, 3) > imageSize(2) | ... positions(:, 3) <= 5 | ... positions(:, 4) <= 10 ); tracks(invalid) = []; end
insertTrackBoxes вставляет ограничительные рамки в изображение и отображает положение дорожки перед автомобилем в мировых единицах измерения.
function I = insertTrackBoxes(I, tracks, positionSelector, sensor) if isempty(tracks) return end % Allocate memory. labels = cell(numel(tracks), 1); % Retrieve positions of bounding boxes. bboxes = getTrackPositions(tracks, positionSelector); for i = 1:numel(tracks) box = bboxes(i, :); xyImageLoc = [box(1)+box(3)/2, box(2)+box(4)]; % Constrain the image point to be within the image boarder. xyImageLoc(1) = min(max(xyImageLoc(1), 1), size(I, 2)); xyImageLoc(2) = min(xyImageLoc(2), size(I, 1)); % Convert to vehicle coordinates using monoCamera object xyVehicle = imageToVehicle(sensor, xyImageLoc); labels{i} = sprintf('x=%.1f,y=%.1f',xyVehicle(1),xyVehicle(2)); end I = insertObjectAnnotation(I, 'rectangle', bboxes, labels, 'Color', 'yellow', ... 'FontSize', 10, 'TextBoxOpacity', .8, 'LineWidth', 2); end
detectionToTrackCost вычисляет индивидуально настраиваемую стоимость для присвоения обнаружений к дорожкам.
Назначение обнаружений объектов в текущем кадре существующим трекам осуществляется путем минимизации затрат. Стоимость вычисляется с помощью bboxOverlapRatio
функция и эта стоимость являются отношением перекрытия между предсказанным и обнаруженной ограничительной рамкой. В этом примере человек принят, чтобы постепенно перемещаться в последовательные системы координат, из-за высокой частоты кадров видео и низкой скорости движения человека.
Во-первых, этот пример вычисляет стоимость присвоения каждого обнаружения к каждой дорожке при помощи bboxOverlapRatio
мера. Когда люди перемещаются к или далеко от камеры, одна только центроидная точка не может точно описать их движение. Стоимость учитывает расстояние на плоскости изображения и шкалу ограничительных рамок. Это предотвращает обнаружения присвоения, которые являются далеко от камеры до дорожек, которые ближе к камере, даже если предсказанные и обнаруженные центроиды совпадают. Выбор этой функции стоимости упрощает расчет, не обращаясь к более сложной динамической модели. Результаты хранятся в M матрицей N, где M является количеством дорожек, и N является количеством обнаружений.
Значение для стоимости не присвоения обнаружения к дорожке зависит от области значений значений, возвращенных функцией стоимости. Это значение должно быть настроено экспериментально. Установка его слишком низко увеличивает вероятность создания нового трека и может привести к фрагментации дорожки. Установка его слишком высоко может привести к одноколейному пути, соответствующему серии отдельных движущихся объектов. Возможные записи присвоения могут быть исключены из оптимизации, значение которой выше стоимости неприсвоения и набора к Inf
.
function costMatrix = detectionToTrackCost(tracks, detections, ... positionSelector, threshold) if isempty(tracks) || isempty(detections) costMatrix = zeros(length(tracks), length(detections)); return end % Compute the overlap ratio between the predicted boxes and the % detected boxes, and compute the cost of assigning each detection % to each track. The cost is minimum when the predicted bbox is % perfectly aligned with the detected bbox (overlap ratio is one). % Retrieve positions of bounding boxes. trackBboxes = getTrackPositions(tracks, positionSelector); % Check that the width and height are positive before computing the box % overlap ratio. trackBboxes(:, 3) = max(eps, trackBboxes(:, 3)); trackBboxes(:, 4) = max(eps, trackBboxes(:, 4)); % Extract the detected bounding box from all the detections. allDetections = [detections{:}]; bboxes = reshape([allDetections(:).Measurement], 4, length(detections))'; % Compute all pairwise assignment costs. costMatrix = 1 - bboxOverlapRatio(trackBboxes, bboxes); % Set unrealistic assignment cost to Inf if there is little box % overlap. costMatrix(costMatrix(:) > threshold) = Inf; end
VideoReader
| acfObjectDetectorMonoCamera
| monoCamera
| multiObjectTracker
| objectDetection
| trackingKF
| vision.DeployableVideoPlayer