exponenta event banner

Слияние для автомобильной безопасности

Этот пример показывает, как сплавлять гусеницы с двух транспортных средств, чтобы обеспечить более полную оценку окружающей среды, которую может видеть каждое транспортное средство. В примере показано использование фузера уровня дорожки и формата данных дорожки объекта. В этом примере используются сценарий вождения и модели из Automated Driving Toolbox™, а также модели слежения и отслеживания из Sensor Fusion и Tracking Toolbox™.

Мотивация

Применение в области автомобильной безопасности основано на объединении данных от различных сенсорных систем, установленных на транспортном средстве. Отдельные транспортные средства предохраняют датчики, используя либо централизованный трекер, либо более децентрализованный подход и сплавляя дорожки, производимые отдельными датчиками. В дополнение к слиянию данных между транспортными средствами слияние данных из нескольких транспортных средств обеспечивает дополнительные преимущества, которые включают лучшее покрытие, ситуационную осведомленность и безопасность. [1] Этот подход слияния межавтомобильных датчиков использует преимущества различных датчиков и обеспечивает лучшее покрытие для каждого транспортного средства, поскольку он использует данные, обновленные датчиками на других транспортных средствах в этом районе. Правительства и производители транспортных средств давно признали необходимость обмена информацией между транспортными средствами в целях повышения безопасности автомобилей. Например, была создана Специальная служба связи ближнего действия (DSRC) для предоставления услуг связи для обмена информацией между транспортными средствами. [2]

Хотя слияние датчиков между несколькими транспортными средствами является выгодным, большинство транспортных средств должны отвечать определенным требованиям безопасности, даже если доступны только внутренние датчики. Следовательно, транспортное средство, вероятно, будет оснащено трекером и/или гусеничным фузером, которые обеспечивают ситуационную осведомленность на уровне одного транспортного средства. В результате, допущение, сделанное в этом примере, состоит в том, что транспортные средства совместно информируют о ситуации, транслируя дорожки и выполняя слияние дорожек.

Этот пример демонстрирует преимущества сплавления гусениц с двух транспортных средств для повышения ситуационной осведомленности и безопасности. Следует отметить, что этот пример не моделирует системы связи. Вместо этого в примере предполагается, что система связи обеспечивает полосу пропускания, необходимую для передачи дорожек между двумя транспортными средствами.

Архитектура Track-to-Track

На следующей блок-схеме показаны основные функции двух транспортных средств.

Транспортное средство 1 имеет два датчика, каждый из которых обеспечивает обнаружение локального трекера. Трекер использует детекции от локальных датчиков для отслеживания объектов и выводит эти локальные дорожки на фузер трассы транспортного средства. Транспортное средство 2 имеет один датчик, который подает обнаруженные сигналы на местный трекер на транспортном средстве 2. Локальные пути от транспортного средства 2 являются входными данными для локального путевого фузера на транспортном средстве 2.

Гусеничный фузер на каждом транспортном средстве сращивает местные пути транспортного средства с путями, полученными от гусеничного фузера другого транспортного средства. После каждого обновления путевой фузер на каждом транспортном средстве передает свои слитые дорожки, которые поступают в следующее обновление путевого фузера на другом транспортном средстве.

В этом примере используется trackerJPDA (Sensor Fusion and Tracking Toolbox) объект для определения каждого трекера транспортного средства.

% Create trackers for each vehicle
v1Tracker = trackerJPDA('TrackerIndex',1, 'DeletionThreshold', [4 4]); % Vehicle 1 tracker
v2Tracker = trackerJPDA('TrackerIndex',2, 'DeletionThreshold', [4 4]); % Vehicle 2 tracker
posSelector = [1 0 0 0 0 0; 0 0 1 0 0 0];

Следует отметить, что в этой архитектуре плавкие дорожки из одного транспортного средства используются для обновления плавких дорожек на другом транспортном средстве. Эти слитые дорожки затем передаются обратно первому транспортному средству. Чтобы избежать распространения слухов, будьте внимательны, как дорожки из другого транспортного средства используются для обновления путевого фузера.

Рассмотрим следующий пример распространения слухов: на каком-то этапе обновления транспортное средство 1 отслеживает объект с помощью своих внутренних датчиков. Транспортное средство 1 затем сплавляет дорожку объекта и передает ее транспортному средству 2, которое теперь сплавляет дорожку со своими собственными дорожками и получает информацию об объекте. До этого момента именно это и является целью объединения дорожек: повышение ситуационной осведомленности о транспортном средстве 2 с помощью информации от транспортного средства 1. Поскольку транспортное средство 2 теперь знает об объекте, оно также начинает транслировать дорожку, возможно, в интересах другого транспортного средства (не показано в примере).

Однако транспортное средство 1 теперь принимает информацию о дорожке от транспортного средства 2 об объекте, который на самом деле отслеживает только транспортное средство 1. Таким образом, путевой фьюзер на транспортном средстве 1 должен знать, что дорожки, которые он получает от транспортного средства 2 относительно этого объекта, фактически не содержат никакой новой информации, обновленной независимым источником. Чтобы сделать различие между дорожками, которые содержат новую информацию, и дорожками, которые просто повторяют информацию, необходимо определить транспортное средство 2 как внешний источник для путевого фузера на транспортном средстве 1. Аналогично, транспортное средство 1 должно быть определено как внешний источник для путевого фузера на транспортном средстве 2. Кроме того, необходимо определить только те дорожки, которые обновляются фузером дорожек на основе информации из внутреннего источника в виде самоотчетов. При этом путевой фузер в каждом транспортном средстве может игнорировать обновления от дорожек, которые отскакивают назад и вперед между путевыми фузерами без какой-либо новой информации в них.

Локальный трекер каждого транспортного средства отслеживает объекты относительно опорного кадра транспортного средства, называемого эго-кадром. Слияние дорожек выполняется в кадре сценария, который является кадром глобального уровня. Помощник egoToScenario функция преобразует дорожки из эго-кадра в кадр сценария. Аналогично, функция scenarioToEgo преобразует дорожки из кадра сценария в любой из эго-кадров. Оба преобразования основаны на StateParameters имущества objectTrack(Панель инструментов слияния и отслеживания датчиков). Обратите внимание, что при trackFuser объект вычисляет расстояние центральной дорожки (в кадре сценария) до локальной дорожки (в любом кадре), использует StateParameters локальной дорожки для выполнения преобразования координат.

Для достижения вышеуказанных целей trackFuser определения, определить следующие источники в качестве fuserSourceConfiguration(Панель инструментов слияния и отслеживания датчиков).

% Define sources for each vehicle
v1TrackerConfiguration = fuserSourceConfiguration('SourceIndex',1,'IsInternalSource',true, ...   % v1Tracker is internal to v1Fuser
    "CentralToLocalTransformFcn", @scenarioToEgo, 'LocalToCentralTransformFcn', @egoToScenario); % Coordinate transformation
v2FuserConfiguration = fuserSourceConfiguration('SourceIndex',4,'IsInternalSource',false);       % v2Fuser is external to v2Fuser
v1Sources = {v1TrackerConfiguration; v2FuserConfiguration};
v2TrackerConfiguration = fuserSourceConfiguration('SourceIndex',2,'IsInternalSource',true, ...   % v2Tracker is internal to v2Fuser
    "CentralToLocalTransformFcn", @scenarioToEgo, 'LocalToCentralTransformFcn', @egoToScenario); % Coordinate transformation
v1FuserConfiguration = fuserSourceConfiguration('SourceIndex',3,'IsInternalSource',false);       % v1Fuser is external to v2Fuser
v2Sources = {v2TrackerConfiguration; v1FuserConfiguration};

Теперь можно определить каждый путевой фузер транспортного средства как trackFuser(Панель инструментов слияния и отслеживания датчиков).

stateParams = struct('Frame','Rectangular','Position',[0 0 0],'Velocity',[0 0 0]);
v1Fuser = trackFuser('FuserIndex',3,...
    'MaxNumSources',2,'SourceConfigurations',v1Sources,...
    'StateFusion','Intersection','DeletionThreshold',[3 3],...
    'StateParameters',stateParams);
v2Fuser = trackFuser('FuserIndex',4,...
    'MaxNumSources',2,'SourceConfigurations',v2Sources,'StateFusion',...
    'Intersection','DeletionThreshold',[3 3],...
    'StateParameters',stateParams);

% Initialize the following variables
fusedTracks1 = objectTrack.empty(0,1);
fusedTracks2 = objectTrack.empty(0,1);
wasFuser1Updated = false;
wasFuser2Updated = false;

Определение сценария

Следующий сценарий показывает, что два автомобиля едут по улице. Ведущее место занимает транспортное средство 1, оснащенное двумя датчиками дальнего обзора: радаром ближнего радиуса действия и датчиком зрения. Транспортное средство 2, двигающееся в 10 метрах позади транспортного средства 1, оснащено дальним радиолокатором. Правая сторона улицы содержит припаркованные транспортные средства. Между транспортными средствами стоит пешеход. Этот пешеход показан в виде точки на расстоянии приблизительно X = 60 метров.

Благодаря короткому расстоянию между транспортным средством 2 и транспортным средством 1 большая часть зоны действия радиолокационного датчика транспортного средства 2 перекрыта транспортным средством 1. В результате большинство дорожек, которые поддерживает путевой фьюзер на транспортном средстве 2, сначала инициализируются дорожками, транслируемыми из транспортного средства 1.

% Create the drivingScenario object and the two vehicles
[scenario, vehicle1, vehicle2] = createDrivingScenario;

% Create all the sensors
[sensors, numSensors, attachedVehicle] = createSensors(scenario);

% Create display
[f,plotters] = createT2TDisplay(scenario, sensors, attachedVehicle);

Следующий график погони виден с точки зрения второго транспортного средства. Стрелка указывает положение пешехода, которое почти полностью перекрыто припаркованными транспортными средствами и первым транспортным средством.

% Define each vehicle as a vehicle, sensors, a tracker, and plotters
v1 = struct('Actor', {vehicle1}, 'Sensors', {sensors(attachedVehicle==1)}, 'Tracker', {v1Tracker}, 'DetPlotter', {plotters.veh1DetPlotter}, 'TrkPlotter', {plotters.veh1TrkPlotter});
v2 = struct('Actor', {vehicle2}, 'Sensors', {sensors(attachedVehicle==2)}, 'Tracker', {v2Tracker}, 'DetPlotter', {plotters.veh2DetPlotter}, 'TrkPlotter', {plotters.veh2TrkPlotter});

Моделирование и результаты

Следующий код запускает моделирование.

running = true;

% For repeatable results, set the random number seed
s = rng;
rng(2019)
snaptimes = [0.5, 2.6, 4.4, 6.3, inf];
snaps = cell(numel(snaptimes,1));
i = 1;
f.Visible = 'on';
while running && ishghandle(f)
    time  = scenario.SimulationTime;
    
    % Detect and track at the vehicle level
    [tracks1,wasTracker1Updated] = detectAndTrack(v1,time,posSelector);
    [tracks2,wasTracker2Updated] = detectAndTrack(v2,time,posSelector);
    
    % Keep the tracks from the previous fuser update
    oldFusedTracks1 = fusedTracks1;
    oldFusedTracks2 = fusedTracks2;
    
    % Update the fusers
    if wasTracker1Updated || wasFuser2Updated
        tracksToFuse1 = [tracks1;oldFusedTracks2];
        if isLocked(v1Fuser) || ~isempty(tracksToFuse1)
            [fusedTracks1,~,~,info1] = v1Fuser(tracksToFuse1,time);
            wasFuser1Updated = true;
            pos = getTrackPositions(fusedTracks1,posSelector);
            plotTrack(plotters.veh1FusePlotter,pos);
        else
            wasFuser1Updated = false;
            fusedTracks1 = objectTrack.empty(0,1);
        end
    else
        wasFuser1Updated = false;
        fusedTracks1 = objectTrack.empty(0,1);
    end
    if wasTracker2Updated || wasFuser1Updated
        tracksToFuse2 = [tracks2;oldFusedTracks1];
        if isLocked(v2Fuser) || ~isempty(tracksToFuse2)
            [fusedTracks2,~,~,info2] = v2Fuser(tracksToFuse2,time);
            wasFuser2Updated = true;
            pos = getTrackPositions(fusedTracks2,posSelector);
            ids = string([fusedTracks2.TrackID]');
            plotTrack(plotters.veh2FusePlotter,pos,ids);
        else
            wasFuser2Updated = false;
            fusedTracks2 = objectTrack.empty(0,1);
        end
    else
        wasFuser2Updated = false;
        fusedTracks2 = objectTrack.empty(0,1);
    end
    
    % Update the display
    updateT2TDisplay(plotters, scenario, sensors, attachedVehicle)
    
    % Advance the scenario one time step and exit the loop if the scenario is complete
    running = advance(scenario);
    
    % Snap a shot at required times
    if time >= snaptimes(i)
        snaps{i} = getframe(f);
        i = i + 1;
    end
end

Figure contains 2 axes and other objects of type uipanel. Axes 1 contains 5 objects of type patch, line. These objects represent radar, vision, Detections, Local Tracks, Fuser Tracks. Axes 2 contains 9 objects of type patch, line, text. These objects represent radar, Detections, Local Tracks, Fuser Tracks.

На рисунке показаны сцена и результаты отслеживания в конце сценария.

Отслеживание в начале моделирования

Когда начинается моделирование, транспортное средство 1 обнаруживает транспортные средства, припаркованные на правой стороне улицы, затем подтверждаются пути, связанные с припаркованными транспортными средствами. В это время единственным объектом, обнаруженным и отслеживаемым трекером транспортного средства 2, является транспортное средство 1 непосредственно перед ним. Как только путевой фузер транспортного средства 1 подтверждает наличие дорожек, он передает их в широковещательном режиме, и путевой фузер транспортного средства 2 сплавляет их. В результате транспортное средство 2 узнает о припаркованных транспортных средствах, прежде чем оно сможет обнаружить их самостоятельно.

showsnap(snaps, 1)

Figure Snap #1 contains an axes. The axes contains an object of type image.

Отслеживание пешехода со стороны улицы

По мере продолжения моделирования транспортное средство 2 также способно обнаруживать и отслеживать транспортные средства, припаркованные сбоку, и сплавлять их с путями, идущими от транспортного средства 1. Транспортное средство 2 способно обнаруживать и отслеживать пешехода около 4 секунд при моделировании, а транспортное средство 2 сплавляет дорожку, связанную с пешеходом, около 4,4 секунд при моделировании (см. снимок 2). Однако транспортное средство 2 занимает около двух секунд, прежде чем оно сможет обнаружить и отследить пешехода с помощью собственных датчиков (см. снимок 3). Эти две секунды могут оказать огромное влияние на безопасность пешехода, если этот пешеход начнет переходить улицу.

showsnap(snaps, 2)

Figure Snap #2 contains an axes. The axes contains an object of type image.

showsnap(snaps, 3)

Figure Snap #3 contains an axes. The axes contains an object of type image.

Как избежать распространения слухов

Наконец, обратите внимание, как когда транспортные средства пропускают объекты и эти объекты выходят из поля их зрения, слитые дорожки, связанные с этими объектами, сбрасываются обоими трекерами (см. снимок 4). Удаление дорожек демонстрирует, что слитые дорожки, транслируемые туда и обратно между двумя транспортными средствами, не используются для распространения слухов.

showsnap(snaps, 4)

Figure Snap #4 contains an axes. The axes contains an object of type image.

% Restart the driving scenario to return the actors to their initial positions.
restart(scenario);

% Release all the sensor objects so they can be used again.
for sensorIndex = 1:numSensors
    release(sensors{sensorIndex});
end

% Return the random seed to its previous value
rng(s)

Резюме

В этом примере показано, как слияние «дорожка-дорожка» может повысить ситуационную осведомленность и повысить безопасность автомобильных приложений. Вы видели, как настроить trackFuser для выполнения слияния дорожек и определения источников как внутренних или внешних с помощью fuserSourceConfiguration объект. Таким образом, вы избегаете распространения слухов и сохраняете только слитые дорожки, которые действительно наблюдаются каждым транспортным средством, подлежащим обслуживанию.

Ссылки

[1] Бхаранидхар Дураисами, Тило Шварц и Кристиан Вулер, «Алгоритмы слияния уровней для приложений автомобильной безопасности», Международная конференция по обработке сигналов, обработке изображений и распознаванию образов, IEEE, 2013.

[2] Федеральная комиссия по связи, «Специализированная служба связи малой дальности», https://www.fcc.gov/wireless/bureau-divisions/mobility-division/dedicated-short-range-communications-dsrc-service.

Вспомогательные функции

createDrivingScenario

function [scenario, egoVehicle, secondVehicle] = createDrivingScenario
% createDrivingScenario Returns the drivingScenario defined in the Designer

% Construct a drivingScenario object.
scenario = drivingScenario('SampleTime', 0.05);

% Add all road segments
roadCenters = [50.8 0.5 0; 253.4 1.5 0];
roadWidth = 12;
road(scenario, roadCenters, roadWidth);

roadCenters = [100.7 -100.6 0; 100.7 103.7 0];
road(scenario, roadCenters);

roadCenters = [201.1 -99.2 0; 199.7 99.5 0];
road(scenario, roadCenters);

% Add the ego vehicle
egoVehicle = vehicle(scenario, 'ClassID', 1, 'Position', [65.1 -0.9 0]);
waypoints = [71 -0.5 0; 148.7 -0.5 0];
speed = 12;
trajectory(egoVehicle, waypoints, speed);

% Add the second vehicle
secondVehicle = vehicle(scenario, 'ClassID', 1, 'Position', [55.1 -0.9 0]);
waypoints = [61 -0.5 0; 138.7 -0.5 0];
speed = 12;
trajectory(secondVehicle, waypoints, speed);

% Add the parked cars
vehicle(scenario, 'ClassID', 1, 'Position', [111.0 -3.6 0]);
vehicle(scenario, 'ClassID', 1, 'Position', [140.6 -3.6 0]);
vehicle(scenario, 'ClassID', 1, 'Position', [182.6 -3.6 0]);
vehicle(scenario, 'ClassID', 1, 'Position', [211.3 -4.1 0]);

% Add pedestrian
actor(scenario, 'ClassID', 4, 'Length', 0.5, 'Width', 0.5, ...
    'Height', 1.7, 'Position', [130.3 -2.7 0], 'RCSPattern', [-8 -8;-8 -8]);

% Add parked truck
vehicle(scenario, 'ClassID', 2, 'Length', 8.2, 'Width', 2.5, ...
    'Height', 3.5, 'Position', [117.5 -3.5 0]);
end

createSensors

function [sensors, numSensors, attachedVehicle] = createSensors(scenario)
% createSensors Returns all sensor objects to generate detections
% Units used in createSensors and createDrivingScenario
% Distance/Position - meters
% Speed             - meters/second
% Angles            - degrees
% RCS Pattern       - dBsm

% Assign into each sensor the physical and radar profiles for all actors
profiles = actorProfiles(scenario);
sensors{1} = radarDetectionGenerator('SensorIndex', 1, ...
    'SensorLocation', [3.7 0], 'MaxRange', 50, 'FieldOfView', [60 5], ...
    'ActorProfiles', profiles, 'HasOcclusion', true, 'HasFalseAlarms', false);
sensors{2} = visionDetectionGenerator('SensorIndex', 2, ...
    'MaxRange', 100, 'SensorLocation', [1.9 0], 'DetectorOutput', 'Objects only', ...
    'ActorProfiles', profiles);
sensors{3} = radarDetectionGenerator('SensorIndex', 3, ...
    'SensorLocation', [3.7 0], 'MaxRange', 120, 'FieldOfView', [30 5], ...
    'ActorProfiles', profiles, 'HasOcclusion', true, 'HasFalseAlarms', false);
attachedVehicle = [1;1;2];
numSensors = numel(sensors);
end

scenarioToEgo

function trackInEgo = scenarioToEgo(trackInScenario)
% Performs coordinate transformation from scenario to ego coordinates
% trackInScenario has StateParameters defined to transform it from scenario
% coordinates to ego coordinates
% We assume a constant velocity model with state [x;vx;y;vy;z;vz]
egoPosInScenario = trackInScenario.StateParameters.Position;
egoVelInScenario = trackInScenario.StateParameters.Velocity;
stateInScenario = trackInScenario.State;
stateShift = [egoPosInScenario(1);egoVelInScenario(1);egoPosInScenario(2);egoVelInScenario(2);egoPosInScenario(3);egoVelInScenario(3)];
stateInEgo = stateInScenario - stateShift;
trackInEgo = objectTrack('UpdateTime',trackInScenario.UpdateTime,'State',stateInEgo,'StateCovariance',trackInScenario.StateCovariance,'StateParameters',trackInScenario.StateParameters);
end

egoToScenario

function trackInScenario = egoToScenario(trackInEgo)
% Performs coordinate transformation from ego to scenario coordinates
% trackInEgo has StateParameters defined to transform it from ego
% coordinates to scenario coordinates
% We assume a constant velocity model with state [x;vx;y;vy;z;vz]
egoPosInScenario = trackInEgo.StateParameters.Position;
egoVelInScenario = trackInEgo.StateParameters.Velocity;
stateInScenario = trackInEgo.State;
stateShift = [egoPosInScenario(1);egoVelInScenario(1);egoPosInScenario(2);egoVelInScenario(2);egoPosInScenario(3);egoVelInScenario(3)];
stateInEgo = stateInScenario + stateShift;
trackInScenario = objectTrack('UpdateTime',trackInEgo.UpdateTime,'State',stateInEgo,'StateCovariance',trackInEgo.StateCovariance,'StateParameters',trackInEgo.StateParameters);
end

detectAndTrack

function [tracks,wasTrackerUpdated] = detectAndTrack(agent,time,posSelector)
% Create detections from the vehicle
poses = targetPoses(agent.Actor);
[detections,isValid] = vehicleDetections(agent.Actor.Position,agent.Sensors,poses,time,agent.DetPlotter);

% Update tracks for the vehicle
if isValid
    agent.Tracker.StateParameters = struct(...
        'Frame','Rectangular', ...
        'Position', agent.Actor.Position, ...
        'Velocity', agent.Actor.Velocity);
    tracks = agent.Tracker(detections,time);
    tracksInScenario = tracks;
    for i = 1:numel(tracks)
        tracksInScenario(i) = egoToScenario(tracks(i));
    end
    pos = getTrackPositions(tracksInScenario,posSelector);
    plotTrack(agent.TrkPlotter,pos)
    wasTrackerUpdated = true;
else
    tracks = objectTrack.empty(0,1);
    wasTrackerUpdated = false;
end
end

function [objectDetections,isValid] = vehicleDetections(position, sensors, poses, time, plotter)
% Provides the detections for each vehicle. 

numSensors = numel(sensors);
objectDetections = {};
isValidTime      = false(1, numSensors);

% Generate detections for each sensor
for sensorIndex = 1:numSensors
    sensor = sensors{sensorIndex};
    [objectDets, ~, isValidTime(sensorIndex)] = sensor(poses, time);
    objectDets = cellfun(@(d) setAtt(d), objectDets, 'UniformOutput', false);
    
    if isa(sensors{sensorIndex},'radarDetectionGenerator')
        objectDets = helperClusterDetections(objectDets, 5);
    end
    numObjects = numel(objectDets);
    objectDetections = [objectDetections; objectDets(1:numObjects)]; %#ok<AGROW>
end
isValid = any(isValidTime);

% Plot detections
if numel(objectDetections)>0
    detPos = cellfun(@(d)d.Measurement(1:2), objectDetections, 'UniformOutput', false);
    detPos = cell2mat(detPos')' + position(1:2);
    plotDetection(plotter, detPos);
end
end

function d = setAtt(d)
% Set the attributes to be struct
d.ObjectAttributes = struct;
end

function detectionClusters = helperClusterDetections(detections, vehicleSize)
% helperClusterDetections  Helper to cluster detections in the example
N = numel(detections);
distances = zeros(N);
for i = 1:N
    for j = i+1:N
        if detections{i}.SensorIndex == detections{j}.SensorIndex
            distances(i,j) = norm(detections{i}.Measurement(1:2) - detections{j}.Measurement(1:2));
        else
            distances(i,j) = inf;
        end
    end
end
leftToCheck = 1:N;
i = 0;
detectionClusters = cell(N,1);
while ~isempty(leftToCheck)    
    % Remove the detections that are in the same cluster as the one under
    % consideration
    underConsideration = leftToCheck(1);
    clusterInds = (distances(underConsideration, leftToCheck) < vehicleSize);
    detInds = leftToCheck(clusterInds);
    clusterDets = [detections{detInds}];
    clusterMeas = [clusterDets.Measurement];
    meas = mean(clusterMeas, 2);
    i = i + 1;
    detectionClusters{i} = detections{detInds(1)};
    detectionClusters{i}.Measurement = meas;
    leftToCheck(clusterInds) = [];    
end
detectionClusters(i+1:end) = [];

% Since the detections are now for clusters, modify the noise to represent
% that they are of the whole car
for i = 1:numel(detectionClusters)
    measNoise = eye(6);
    measNoise(1:2,1:2) = vehicleSize^2 * eye(2);
    measNoise(4:5,4:5) = eye(2) * vehicleSize^2;
    detectionClusters{i}.MeasurementNoise = measNoise;
end
end

См. также

Приложения

Объекты

  • (Панель инструментов слияния и отслеживания датчиков) | (Панель инструментов слияния и отслеживания датчиков) | (Панель инструментов слияния и отслеживания датчиков)

Связанные темы