Фартук является заданной областью в аэропорту, предназначенном, чтобы вместить самолет в целях загрузить или разгрузить пассажиров, почту или груз, заправку, парковку или обслуживание [1]. Фартуки аэропорта являются обычно очень динамическими и разнородными средами, где персонал фартука и транспортные средства действуют в непосредственной близости друг от друга. Из-за такой природы фартуков, это представляет более высокий риск для несчастных случаев наземного обслуживания включающий самолет, а также наземный персонал. Основанные на лидаре системы наблюдения в фартуках были предложены как эффективный метод улучшить изображение ситуации и служить мерой, чтобы смягчить высокий риск в фартуках [2].
Этот пример показывает вам, как симулировать данные о Лидаре для сцены трафика фартука и наземного трафика дорожки с помощью GGIW-PHD (Гэмма Госсиэн Инверс Уишарт PHD) расширенное объектное средство отслеживания.
В этом примере вы симулируете сценарий, где самолет вводит в область логического элемента. Самолет ведется в его место для парковки тремя marshallers, один на каждой стороне самолета и один перед ним. Вы симулируете наземный трафик около места для парковки самолета. После того, как самолет припаркован, наземный трафик, а также marshallers начинает двигать самолет. В дополнение к самолету, вводящему в область логического элемента, вы также симулируете два самолета, уже припаркованные в логическом элементе. Сценарий, используемый в этом примере, был создан при помощи Tracking Scenario Designer и экспортирован в функцию MATLAB®, чтобы соединить его с нисходящими функциональностями. Экспортируемая функция была изменена в MATLAB, чтобы задать Mesh
свойство для каждой платформы и завершать траектории ко времени окончания сценария. Mesh
свойство Platform
позволяет вам задавать геометрию платформы для симуляции лидара. В этом примере вы задаете геометрию для самолета как tracking.scenario.airplaneMesh
. Другие объекты в сцене представлены с помощью кубоидов. Для получения дополнительной информации о, как создать сценарий, обратитесь к createScenario
функция в конце этого примера.
scenario = createScenario;
Чтобы чувствовать сцену, вы используете полный датчик лидара поля зрения с помощью monostaticLidarSensor
Система object™. Датчик имеет 64 канала вертикального изменения и смонтирован на терминале на высоте 8 метров от земли. Разрешение азимута датчика задано как 0,32 градуса. Под этой настройкой датчик производит в общей сложности 72 000 точек на скан. Этот набор высокого разрешения точек данных обычно называют как облако точек. Данные из датчика симулированы на уровне 5 Гц путем определения UpdateRate
из датчика.
% Create a lidar sensor lidar = monostaticLidarSensor( ... 'SensorIndex',1,... 'UpdateRate',5,... 'HasINS',true,... 'AzimuthLimits',[-180 180],... 'ElevationLimits',[-10 27],... 'AzimuthResolution',0.32,... 'ElevationResolution',0.5781,... 'DetectionCoordinates','scenario',... 'MountingLocation',[50 -15 -8],... 'MountingAngles',[-90 0 0],... 'MaxRange',150,... 'RangeAccuracy',0.002); % Get access to terminal platform terminal = scenario.Platforms{1}; % Mount the lidar on the platform terminal.Sensors = lidar;
Можно наблюдать сцену и симулированные данные о лидаре из вида с высоты птичьего полета, а также с крыши терминала в анимации ниже. Облако точек обозначается цветными точками, где цвет изменяется от синего до желтого с высотой. Заметьте, что лидар возвращается, содержат отражения средой, такие как земля.
Можно также заметить в анимации, что датчик лидара возвращает несколько измерений на объект. Обычные мультиобъектные средства отслеживания, такие как trackerGNN
(GNN) средство отслеживания, trackerJPDA
Средство отслеживания (JPDA) принимает, что каждый датчик сообщает об одном измерении на объект. Чтобы использовать обычные средства отслеживания для отслеживания объектов с помощью лидара, облако точек от потенциальных объектов обычно предварительно обрабатывается и кластеризируется в новый тип измерений. Эти новые измерения обычно задают позиционные, а также размерные аспекты объекта, например, измерения ограничительной рамки. Для полного рабочего процесса при использовании обычных средств отслеживания с данными о лидаре обратитесь к Транспортным средствам Дорожки Используя Лидар: От Облака точек до примера Списка Дорожек. Этот рабочий процесс сегментирующихся данных о лидаре и кластеризирующийся в ограничительные рамки подвержен кластеризирующимся недостаткам, когда объекты становятся слишком близкими. Это особенно верно в случае сред фартука. Альтернативный путь к отслеживаемым объектам с помощью данных о лидаре состоит в том, чтобы использовать расширенные объектные средства отслеживания. В отличие от обычных средств отслеживания, расширенные объектные средства отслеживания спроектированы к отслеживаемым объектам, которые производят больше чем одно измерение на датчик.
Расширенное объектное средство отслеживания
В этом примере вы используете GGIW (Гэмма Госсиэн Инверс Уишарт) реализация средства отслеживания плотности гипотезы вероятности (PHD). Эта модель GGIW использует три распределения, чтобы задать целевую модель: Распределение Гаусса, чтобы описать кинематику центра движения цели, такого как его положение и скорость; распределение Инверсии Уишарта (IW), чтобы описать эллипсоидальную степень цели; Гамма распределение, чтобы описать ожидаемое количество измерений от цели. Для получения дополнительной информации о фильтре GGIW-PHD обратитесь к [3].
Расширенное средство отслеживания объекта PHD использует алгоритм разделения, чтобы обработать входной набор измерения. Алгоритм разделения ответственен за определение нескольких возможная гипотеза сегментации для измерений датчика. Когда количество общей гипотезы для сегментации является обычно очень большими, методами приближенных вычислений как Разделение Расстояния (см. partitionDetections
), Разделение Предсказания и Максимизация ожидания (EM) используются [3]. Делящий расстояние алгоритм работает похожий на основанные на расстоянии методы кластеризации с различием, что это производит несколько возможных разделов. Алгоритм разделения предсказания и EM использует предсказания от средства отслеживания об объектах ввести разделение измерений в несколько возможных кластеров. Этот метод, чтобы использовать предсказания от средства отслеживания важен, когда объекты - пространственно друг близко к другу такой как в среде фартука. В этом примере вы используете класс помощника helperPartitioningAlgorithm
разделить набор измерений с помощью предсказаний от средства отслеживания. Вы получаете эти предсказания путем использования predictTracksToTime
функция trackerPHD
.
% A handle object to pass predicted tracks into partitioning algorithm partitioner = helperPartitioningAlgorithm; % A function which takes detections as inputs and return partitions partitioningFcn = @(detections)partitionDetections(partitioner,detections);
Чтобы установить средство отслеживания PHD, вы сначала задаете настройку датчика с помощью trackingSensorConfiguration
объект. Вы используете свойства симулированного датчика лидара задать свойства настройки. Вы также задаете функцию initFilter, который инициализирует постоянную скорость ggiwphd
фильтр. Эта функция переносит initcvggiwphd
и увеличивает уверенность в Гамма распределении и Инверсии распределение Уишарта цели. Это также конфигурирует фильтр, чтобы работать большое количество обнаружений путем определения MaxNumDetections
свойство фильтра ggiwphd.
% Sensor's field of view defined in same order as returned % by sensor's transform function sensorLimits = [lidar.AzimuthLimits;lidar.ElevationLimits;0 lidar.MaxRange]; % Sensor's resolution defined in same order as limits sensorResolution = [lidar.AzimuthResolution;lidar.ElevationResolution;lidar.MaxRange]; % Parameters to transform state of the track by transform function. trackToSensorTransform = struct('Frame','spherical',... 'OriginPosition',lidar.MountingLocation(:),... 'Orientation',rotmat(quaternion(lidar.MountingAngles,'eulerd','ZYX','frame'),'frame'),... 'IsParentToChild',true,... 'HasVelocity',false); % A function to initiate a PHD filter by this sensor filterInitFcn = @initFilter; config = trackingSensorConfiguration(1,... 'IsValidTime',true,...% update with sensor on each step call 'FilterInitializationFcn',filterInitFcn,...% Function to initialize a PHD filter 'SensorTransformFcn',@cvmeas,...% Transformation function from state to az,el,r 'SensorTransformParameters',trackToSensorTransform,...% Parameters for transform function 'SensorLimits',sensorLimits,... 'SensorResolution',sensorResolution,... 'DetectionProbability',0.95... % Probability of detecting the target );
Затем вы собираете эту информацию и создаете расширенное средство отслеживания объекта PHD с помощью trackerPHD
Система object™.
tracker = trackerPHD('SensorConfigurations',config,... 'PartitioningFcn',partitioningFcn,... 'AssignmentThreshold',30,...% -log-likelihood beyond which a measurment cell initializes new components 'ConfirmationThreshold',0.9,...% Threshold to call a component as confirmed track 'ExtractionThreshold',0.75,...% Threshold to call a component as track 'MergingThreshold',25,...% Threshold to merge components with same Label 'LabelingThresholds',[1.1 0.1 0.05]); % Prevents track-splitting
Метрики
Затем вы настраиваете метрический калькулятор GOSPA с помощью trackGOSPAMetric
класс, чтобы оценить эффективность средства отслеживания. Метрика GOSPA стремится анализировать эффективность средства отслеживания путем обеспечения одной величины затрат. Нижнее значение стоимости представляет лучшую эффективность отслеживания. Чтобы использовать метрику GOSPA, функция расстояния задана между дорожкой и истиной. Эта функция расстояния вычисляет стоимость, чтобы присвоить дорожку и истину друг другу. Это также используется, чтобы представлять локализацию или точность уровня дорожки оценки. Расстояние между дорожкой и истиной в этом примере задано с помощью 'Custom'
функция расстояния trackTruthDistance, включенный в Функции Поддержки ниже. Когда средство отслеживания GGIW-PHD оценивает геометрический центр, пользовательская функция расстояния использует позицию геометрического центра платформы, чтобы задать позиционную ошибку.
gospaObj = trackGOSPAMetric('Distance','custom','DistanceFcn',@trackTruthDistance);
Вы используете класс помощника helperAirportTrackingDisplay
визуализировать основную истину, симулированные данные и оцененные дорожки.
display = helperAirportTrackingDisplay;
Затем вы запускаете сценарий, симулируете, возвращается из датчика лидара, и обработайте их использующий средство отслеживания. Вы также вычисляете метрику GOSPA для дорожек с помощью доступной основной истины. Этот пример принимает, что предварительная обработка данных о лидаре, чтобы демонтировать лидар возвращается из среды, такой как земля, и терминал уже выполняется. Поэтому возвращается из среды, удалены с помощью доступной информации об основной истине из симуляции о лидаре, возвращается.
% Initialize tracks confTracks = struct.empty(0,1); % Ground truth for metric platforms = scenario.Platforms; trackablePlatforms = platforms(cellfun(@(x)x.ClassID,platforms) > 0); % Initialize metric values gospaMetrics = zeros(0,4); % Number of tracks recording for MATLAB vs MEX numTrackML = zeros(0,1); % Advance scenario while advance(scenario) time = scenario.SimulationTime; % Call lidarDetect on terminal to simulate point cloud returns. [ptCloud, ~, groundTruthIdx] = lidarDetect(terminal,time); % Pack returns as objectDetection. Included in Supporting Functions detections = packAsObjectDetection(ptCloud, groundTruthIdx, time); % Provide predicted tracks for prediction partitioning if isLocked(tracker) predictedTracks = predictTracksToTime(tracker,'all',time); partitioner.PredictedTrackList = predictedTracks; end % Call tracker step using detections and time confTracks = tracker(detections, time); % Calculate OSPA metric truthStruct = cellfun(@(x)x.pose,trackablePlatforms); [~,gospa,~,loc,missT,falseT] = gospaObj(confTracks, trackablePlatforms); gospaMetrics(end+1,:) = [gospa loc missT falseT]; %#ok<SAGROW> % Update the display display(scenario, ptCloud, confTracks); end
Затем вы оцениваете эффективность каждого средства отслеживания с помощью визуализации, а также количественных метрик. В анимации ниже, дорожки представлены синими квадратами, аннотируемыми их тождествами (TrackID
T
он эллипсоид вокруг объекта описывает степень, оцененную фильтром GGIW-PHD.
Отследите обслуживание
Пока самолет не припаркован, средство отслеживания может отследить все объекты, кроме marshaller справа от самолета. Это вызвано тем, что marshaller остался необнаруженным датчиком в его исходном положении. После того, как самолет припаркован, средство отслеживания может реагировать на движение объектов оценить их положение, а также скорость. Средство отслеживания может обеспечить дорожку на всех объектах приблизительно до 34 секунд. После этого marshaller слева закрывается позади реактивных двигателей самолета, и его дорожка пропущена средством отслеживания из-за нескольких промахов. Когда наземный трафик приближается к самолету, средство отслеживания может отследить их как отдельные объекты и не перепутало их измерения с еще одним. Это было возможно потому что предсказания средства отслеживания об объектах, которым помогают в разделении набора измерения правильно.
Можно также количественно анализировать эту эффективность средства отслеживания с помощью метрики GOSPA и ее компонентов. Заметьте, что ложный компонент дорожки метрики остается нуль, который указывает, что никакие ложные дорожки не были подтверждены. Ненулевой пропущенный целевой компонент представляет необнаруженный marshaller. Заметьте, что, как только средство отслеживания устанавливает дорожку на том объекте, компонент раскрывается, чтобы обнулить. Пропущенный целевой компонент повышается до ненулевого значения снова, которое представляет отбрасывание дорожки, должное возразить поглощению газов.
figure; order = ["Total GOSPA","Localization","Missed Target","False Tracks"]; for i = 1:4 ax = subplot(2,2,i); plot(gospaMetrics(:,i),'LineWidth',2); title(order(i)); xlabel('Time'); ylabel('Metric'); grid on; end
Точность уровня дорожки
Точность уровня дорожки относится к точности в оценке состояния каждого объекта, такого как его положение, скорость и размерности. Можно заметить, что, который дорожки лежат на основной истине объектов. Когда объект начинает перемещаться, вектор скорости построен, представляя направление и величину скорость. Заметьте, что предполагаемая скорость находится в том же направлении как объектное движение. Фильтр GGIW-PHD принимает, что измерения от цели распределяются в предполагаемой эллипсоидальной степени цели. Это приводит к фильтру, оценивающему размер объекта с помощью заметных или незакрытых областей объектов. Заметьте, что дорожки на припаркованных наземных транспортных средствах имеют смещение в своем положении к заметным сторонам.
Погрешности уровня дорожки могут также быть количественно оценены с помощью компонента локализации метрики GOSPA. Общая метрика GOSPA является объединенной метрикой всех своих компонентов и следовательно получает эффект точности локализации, пропущенных целей и ложных дорожек.
В этом примере вы изучили, как симулировать данные о лидаре для сценария фартука и обработать их с расширенным средством отслеживания объекта GGIW-PHD. Вы также изучили, как оценить эффективность средства отслеживания с помощью метрики GOSPA и ее связанных компонентов.
packAsObjectDetection
function detections = packAsObjectDetection(ptCloud, groundTruthIdx, time) % Get x,y,z locations from the cell array loc = ptCloud{1}'; % Points which are nan reflect those rays which did not intersect with any % object nanPoints = any(isnan(loc),1); % groundTruthIdx{1} represents the ground truth of the points. The first % column represents PlatformID and second column represents ClassID. % ClassID for environment is specified as 0. envPoints = groundTruthIdx{1}(:,2) == 0; % nanPoints or envPoints are remove toRemove = nanPoints | envPoints'; % Keep valid return loc = loc(:,~toRemove); % Pack each return as objectDetection. n = sum(~toRemove); % Allocate memory detections = repmat({objectDetection(time,[0;0;0],'MeasurementNoise',1e-2*eye(3))},n,1); % Fill measurements for i = 1:n detections{i}.Measurement = loc(:,i); end end
createScenario
function scenario = createScenario % Create Scenario scenario = trackingScenario; scenario.UpdateRate = 0; planeMesh = tracking.scenario.airplaneMesh; % Create platforms Terminal = platform(scenario,'ClassID',0); Terminal.Dimensions = struct( ... 'Length', 100, ... 'Width', 29, ... 'Height', 20, ... 'OriginOffset', [0 0 10]); Aircraft = platform(scenario,'ClassID',1,'Mesh',planeMesh); Aircraft.Dimensions = struct( ... 'Length', 39, ... 'Width', 34, ... 'Height', 13.4, ... 'OriginOffset', [39/2 0 13.4/2]); Aircraft.Signatures{1} = ... rcsSignature(... 'Pattern', [20 20;20 20], ... 'Azimuth', [-180 180], ... 'Elevation', [-90;90], ... 'Frequency', [0 1e+20]); Aircraft.Trajectory = waypointTrajectory(... [73.2829 -80.5669 0;60.7973 -37.3337 0],... [0;11.25],... 'GroundSpeed',[8;0],... 'Course',[106.1085;106.1085],... 'Orientation',quaternion([106.1085 0 0;106.1085 0 0],'eulerd','ZYX','frame')); delayTrajectory(Aircraft,0.1,70); Ground = platform(scenario,'ClassID',0); Ground.Trajectory.Position = [0 0 0]; Ground.Dimensions = struct('Length',500,... 'Width',500,... 'Height',1,... 'OriginOffset',[0 0 -0.5]); Plane = platform(scenario,'ClassID',1,'Mesh',planeMesh); Plane.Dimensions = struct( ... 'Length', 40, ... 'Width', 30, ... 'Height', 10, ... 'OriginOffset', [0 0 5]); Plane.Signatures{1} = ... rcsSignature(... 'Pattern', [20 20;20 20], ... 'Azimuth', [-180 180], ... 'Elevation', [-90;90], ... 'Frequency', [0 1e+20]); Plane.Trajectory.Position = [-11 -50.3 0]; Plane.Trajectory.Orientation = quaternion([90 0 0], 'eulerd','zyx','frame'); Marshall = platform(scenario,'ClassID',6); Marshall.Dimensions = struct( ... 'Length', 0.24, ... 'Width', 0.45, ... 'Height', 1.7, ... 'OriginOffset', [0 0 0.85]); s = [57.3868 -25.5244 0;59.41 -32.53 0]; s2 = [57.3868 -25.5244 0;60.5429 -36.4531 0]; Marshall.Trajectory = waypointTrajectory( ... s2, ... [0;8], ... 'Course', [-75;-75], ... 'GroundSpeed', [0;0], ... 'ClimbRate', [0;0], ... 'Orientation', quaternion([0.793353340291235 0 0 -0.608761429008721;0.793353340291235 0 0 -0.608761429008721])); delayTrajectory(Marshall, 12, 70); Marshall1 = platform(scenario,'ClassID',6); Marshall1.Dimensions = struct( ... 'Length', 0.24, ... 'Width', 0.45, ... 'Height', 1.7, ... 'OriginOffset', [0 0 0.85]); Marshall1.Trajectory = waypointTrajectory( ... [50 -100 0;56.5 -89.3 0;56.8 -73.6 0;60.9 -59.5 0], ... [0;6.28880678506828;14.2336975651715;38.5523666710762], ... 'Course', [52.5692412453125;71.0447132029417;101.247131543705;107.567935050594], ... 'GroundSpeed', [2;2;2;0], ... 'ClimbRate', [0;0;0;0], ... 'Orientation', quaternion([0.896605327597113 0 0 0.442830539286162;0.813888868238491 0 0 0.581020576363237;0.634412633965184 0 0 0.772994572985708;0.590831447702589 0 0 0.806795017588522])); delayTrajectory(Marshall1, 12, 70); Marshall2 = platform(scenario,'ClassID',6); Marshall2.Dimensions = struct( ... 'Length', 0.24, ... 'Width', 0.45, ... 'Height', 1.7, ... 'OriginOffset', [0 0 0.85]); Marshall2.Trajectory = waypointTrajectory( ... [135.1 -87.7 0;118.3 -87.7 0;112.2 -73.3 0;80.8 -47.6 0], ... [0;10.3490919743252;18.1872070129823;42], ... 'Course', [155.957629971433;124.12848387907;114.734795167842;153.606988602699], ... 'GroundSpeed', [2;2;2;0], ... 'ClimbRate', [0;0;0;0], ... 'Orientation', quaternion([0.896605327597113 0 0 0.442830539286162;0.813888868238491 0 0 0.581020576363237;0.634412633965184 0 0 0.772994572985708;0.590831447702589 0 0 0.806795017588522])); delayTrajectory(Marshall2, 12, 70); Loader = platform(scenario,'ClassID',2); Loader.Dimensions = struct( ... 'Length', 10, ... 'Width', 4, ... 'Height', 4, ... 'OriginOffset', [0 0 2]); Loader.Trajectory = waypointTrajectory( ... [25.2 -42.2 0;39.4500 -42.3000 0;53.7 -42.4 0], ... [0;5;10], ... 'Course',[-0.4021;-0.4021;-0.4021],... 'Orientation',[quaternion([-0.4021 0 0],'eulerd','ZYX','frame');quaternion([-0.4021 0 0],'eulerd','ZYX','frame');quaternion([-0.4021 0 0],'eulerd','ZYX','frame')],... 'GroundSpeed',[0;5.8;0],... 'ClimbRate',[0;0;0],... 'AutoPitch', false, ... 'AutoBank', false); delayTrajectory(Loader, 12, 70); Loader2 = platform(scenario,'ClassID',2); Loader2.Dimensions = struct( ... 'Length', 10, ... 'Width', 4, ... 'Height', 4, ... 'OriginOffset', [0 0 2]); Loader2.Trajectory = waypointTrajectory( ... [27.142823040363762 -75 0;42.5614 -71.9000 0;57.98 -68.8 0], ... [0;5;10], ... 'Course', [11.368107148451321;11.368107148451321;11.368107148451321], ... 'Orientation',quaternion([11.368107148451321 0 0;11.368107148451321 0 0;11.368107148451321 0 0],'eulerd','ZYX','frame'),... 'GroundSpeed', [0;5.824096001626275;0], ... 'ClimbRate', [0;0;0], ... 'AutoPitch', false, ... 'AutoBank', false); delayTrajectory(Loader2, 50, 70); Power = platform(scenario,'ClassID',2); Power.Dimensions = struct( ... 'Length', 5, ... 'Width', 2, ... 'Height', 1, ... 'OriginOffset', [0 0 0.5]); Power.Trajectory = waypointTrajectory( ... [27.2312963703295 -20.7687036296705 0;40.1656 -27.6344 0;53.1 -34.5 0], ... [0;5;10], ... 'Course', [-27.9596882700088;-27.9596882700088;-27.9596882700088], ... 'Orientation',[quaternion([-27.9596882700088 0 0],'eulerd','ZYX','frame');quaternion([-27.9596882700088 0 0],'eulerd','ZYX','frame');quaternion([-27.9596882700088 0 0],'eulerd','ZYX','frame')],... 'GroundSpeed', [0;5.8574;0], ... 'ClimbRate', [0;0;0], ... 'AutoPitch', false, ... 'AutoBank', false); delayTrajectory(Power, 20, 70); Refueller = platform(scenario,'ClassID',2); Refueller.Dimensions = struct( ... 'Length', 7, ... 'Width', 3, ... 'Height', 2, ... 'OriginOffset', [0 0 1]); Refueller.Trajectory = waypointTrajectory( ... [92.3 -31.6 0;83.3 -36.7 0;74.3 -41.8 0], ... [0;5;10], ... 'Course', [-150.4612;-150.4612;-150.4612], ... 'Orientation',[quaternion([-150.4612 0 0],'eulerd','ZYX','frame');quaternion([-150.4612 0 0],'eulerd','ZYX','frame');quaternion([-150.4612 0 0],'eulerd','ZYX','frame')],... 'GroundSpeed', [0;4.137825515896000;0], ... 'ClimbRate', [0;0;0], ... 'AutoPitch', false, ... 'AutoBank', false); delayTrajectory(Refueller, 20, 70); Car = platform(scenario,'ClassID',2); Car.Dimensions = struct( ... 'Length', 4.7, ... 'Width', 1.8, ... 'Height', 1.4, ... 'OriginOffset', [0 0 0.7]); Car.Trajectory = waypointTrajectory( ... [111.1 -44.8 0;93.8100 -48.1725 0;76.5200 -51.5450 0], ... [0;7.046336423986581;14.092672847973162], ... 'Course', [-169.250904745059;-169.250904745059;-169.250904745059], ... 'Orientation',[quaternion([-169.250904745059 0 0],'eulerd','ZYX','frame');quaternion([-169.250904745059 0 0],'eulerd','ZYX','frame');quaternion([-169.250904745059 0 0],'eulerd','ZYX','frame')],... 'GroundSpeed', [0;5;0], ... 'ClimbRate', [0;0;0], ... 'AutoPitch', false, ... 'AutoBank', false); delayTrajectory(Car, 20, 70); Plane1 = platform(scenario,'ClassID',1,'Mesh',planeMesh); Plane1.Dimensions = struct( ... 'Length', 40, ... 'Width', 30, ... 'Height', 10, ... 'OriginOffset', [0 0 5]); Plane1.Signatures{1} = ... rcsSignature(... 'Pattern', [20 20;20 20], ... 'Azimuth', [-180 180], ... 'Elevation', [-90;90], ... 'Frequency', [0 1e+20]); Plane1.Trajectory.Position = [110 0 0]; Plane1.Trajectory.Orientation = quaternion([180 0 0], 'eulerd','zyx','frame'); function delayTrajectory(plat, tOffset, tEnd) traj = plat.Trajectory; wp = traj.Waypoints; toa = traj.TimeOfArrival; g = traj.GroundSpeed; c = traj.Course; cr = traj.ClimbRate; o = traj.Orientation; tEnd = max(toa(end),tEnd); wp = [repmat(wp(1,:),1,1);wp;repmat(wp(end,:),1,1)]; toa = [0;toa + tOffset;tEnd]; g = [0;g;0]; c = [c(1);c;c(end)]; cr = [0;cr;0]; o = [repmat(o(1),1,1);o;repmat(o(end),1,1)]; newTraj = waypointTrajectory(wp,toa,...; 'Course',c,... 'GroundSpeed',g,... 'ClimbRate',cr,... 'Orientation',o); plat.Trajectory = newTraj; end end
initFilter
function filter = initFilter (varargin) % This function interacts with the tracker in two signatures % filter = initFilter() is called during prediction stages to add % components to PHD. % % filter = initFilter(detections) is called during correction stages to add % components to the PHD from detection sets which have a low-likelihood % against existing tracks. All detections in the input have the assumption % to belong to the same target. % Adds zero components during prediction stages filter = initcvggiwphd(varargin{:}); % If called with a detection if nargin == 1 % Get expected size expSize = filter.ScaleMatrices/(filter.DegreesOfFreedom - 4); % Higher the dof, higher the certainty in dimensions dof = 50; filter.DegreesOfFreedom = dof; filter.ScaleMatrices = (dof-4)*expSize; % Get expected number of detections expNumDets = filter.Shapes/filter.Rates; % shape/rate^2 = uncertainty; uncertainty = (expNumDets/4)^2; filter.Shapes = expNumDets^2/uncertainty; filter.Rates = expNumDets/uncertainty; end % GammaForgettingFactors acts like process noise % for measurement rate filter.GammaForgettingFactors(:) = 1.03; % Temporal Decay acts like process noise for % dimensions. Lower the decay, higher the variance increase filter.TemporalDecay = 500; % Specify MaxNumDetections filter.MaxNumDetections = 10000; end
trackTruthDistance
function dist = trackTruthDistance(track, truth) % The tracks estimate the center of the object. Compute the origin position rOriginToCenter = -truth{1}.Dimensions.OriginOffset(:); rot = quaternion([truth{1}.Orientation],'eulerd','ZYX','frame'); actPos = truth{1}.Position(:) + rotatepoint(rot,rOriginToCenter')'; % Estimated track position estPos = track.State(1:2:end); % Error distance is between position. dist = norm(actPos(:) - estPos); end
[1] Вебер, Людвиг. Международная организация гражданской авиации. Kluwer Law International BV, 2017.
[2] Mund, Иоганнес, Лотар Мейер и Хартмут Фрик. "Требования к производительности LiDAR и Оптимизированное Расположение Датчика для Точки Облачное Уменьшение рисков в Фартуках Аэропорта". Продолжения 6-й Международной конференции по вопросам Исследования в Воздушных перевозках. 2014.
[3] Granström, Карл, и др. "На расширенном целевом отслеживании с помощью фильтров PHD". (2012).