Радарная классификация целей Используя машинное обучение и глубокое обучение

То В этом примере показано, как классифицировать радар, возвращается с обоими подходами машинного и глубокого обучения. Подход машинного обучения использует извлечение признаков рассеивания вейвлета вместе с машиной опорных векторов. Кроме того, два подхода глубокого обучения проиллюстрированы: использование передачи обучения SqueezeNet и рекуррентная нейронная сеть Долгой краткосрочной памяти (LSTM). Обратите внимание на то, что набор данных, используемый в этом примере, не требует усовершенствованных методов, но рабочий процесс описан, потому что методы могут быть расширены к более сложным задачам.

Введение

Целевая классификация является важной функцией в современных радиолокационных системах. Этот пример использует машинное и глубокое обучение, чтобы классифицировать радарное эхо от цилиндра и конуса. Несмотря на то, что этот пример использует синтезируемые выборки I/Q, рабочий процесс применим к действительному радару, возвращается.

Синтез ЭПР

Следующий раздел показывает, как создать синтезируемые данные, чтобы обучить алгоритмы обучения.

Следующий код симулирует шаблон ЭПР цилиндра с радиусом 1 метра и высотой 10 метров. Рабочая частота радара составляет 850 МГц.

c = 3e8;
fc = 850e6;
[cylrcs,az,el] = rcscylinder(1,1,10,c,fc);
helperTargetRCSPatternPlot(az,el,cylrcs);

Шаблон может затем быть применен к радарной цели обратного рассеяния, чтобы симулировать, возвращается из углов различных аспектов.

cyltgt = phased.BackscatterRadarTarget('PropagationSpeed',c,...
    'OperatingFrequency',fc,'AzimuthAngles',az,'ElevationAngles',el,'RCSPattern',cylrcs);

Следующий график показывает, как симулировать 100, возвращается из цилиндра в зависимости от времени. Это принято, что цилиндр под движениями движение, которое вызывает маленькие колебания вокруг вида скуки, в результате угол обзора, изменяется от одной выборки до следующего.

rng default;
N = 100;
az = 2*randn(1,N);                  
el = 2*randn(1,N);
cylrtn = cyltgt(ones(1,N),[az;el]);  


plot(mag2db(abs(cylrtn)));
xlabel('Time Index')
ylabel('Target Return (dB)');
title('Target Return for Cylinder');

Возврат конуса может быть сгенерирован так же. Чтобы создать набор обучающих данных, вышеупомянутый процесс повторяется для 5 произвольно выбранных цилиндрических радиусов. Кроме того, для каждого радиуса, 10 профилей движения симулированы путем варьирования инцидентного угла после 10 случайным образом сгенерированных кривых синусоиды вокруг опорного направления. В каждом профиле движения существует 701 выборка, таким образом, существуют 701 50 выборки. Процесс повторяется для цилиндрической цели, которая приводит к 701 100 матрица обучающих данных с 50 цилиндрами и 50 коническими профилями. В наборе тестов мы используем 25 цилиндров и 25 конических профилей, чтобы создать 701 50 набор обучающих данных. Из-за долгого времени вычисления обучающие данные предварительно вычислены и загружены ниже.

load('RCSClassificationReturnsTraining');
load('RCSClassificationReturnsTest');

Как пример, следующий график показывает возврат для одного из профилей движения от каждой формы. Графики показывают, как изменение значений в зависимости от времени и для инцидентных углов азимута и для цели возвращается.

subplot(2,2,1)
plot(cylinderAspectAngle(1,:))
ylim([-90 90])
grid on
title('Cylinder Aspect Angle vs. Time'); xlabel('Time Index'); ylabel('Aspect Angle (degrees)');
subplot(2,2,3)
plot(RCSReturns.Cylinder_1); ylim([-50 50]);
grid on
title('Cylinder Return'); xlabel('Time Index'); ylabel('Target Return (dB)');
subplot(2,2,2)
plot(coneAspectAngle(1,:)); ylim([-90 90]); grid on;
title('Cone Aspect Angle vs. Time'); xlabel('Time Index'); ylabel('Aspect Angle (degrees)');
subplot(2,2,4);
plot(RCSReturns.Cone_1); ylim([-50 50]); grid on;
title('Cone Return'); xlabel('Time Index'); ylabel('Target Return (dB)');

Рассеивание вейвлета

В вейвлете, рассеивающем экстрактор функции, данные распространены через серию вейвлета, преобразовывает, нелинейность и усреднение, чтобы произвести представления низкого отклонения временных рядов. Время вейвлета, рассеивая выражения сигнализирует, что представления, нечувствительные к, переключают входной сигнал на нижний регистр, не жертвуя классом discriminability.

Основные параметры, чтобы задать в сети рассеивания времени вейвлета являются шкалой независимого от времени, количество вейвлета преобразовывает, и количество вейвлетов на октаву в каждом из наборов фильтров вейвлета. Во многих приложениях каскад двух наборов фильтров достаточен, чтобы достигнуть хорошей эффективности. В этом примере мы создаем сеть рассеивания времени вейвлета с этими двумя наборами фильтров: 4 вейвлета на октаву в первом наборе фильтров и 2 вейвлета на октаву во втором наборе фильтров. Шкала инвариантности установлена в 701 выборку, длину данных.

sn = waveletScattering('SignalLength',701,'InvarianceScale',701,'QualityFactors',[4 2]);

Затем мы получаем рассеивающиеся преобразования и наборов обучающих данных и наборов тестов.

sTrain = sn.featureMatrix(RCSReturns{:,:},'transform','log');
sTest = sn.featureMatrix(RCSReturnsTest{:,:},'transform','log');

В данном примере используйте среднее значение рассеивающихся коэффициентов, взятых с собой каждый путь.

TrainFeatures = squeeze(mean(sTrain,2))';
TestFeatures = squeeze(mean(sTest,2))';

Создайте метки для обучения и изучения

TrainLabels = repelem(categorical({'Cylinder','Cone'}),[50 50])';
TestLabels = repelem(categorical({'Cylinder','Cone'}),[25 25])';

Обучение модели

Подбирайте модель машины опорных векторов с квадратичным ядром к рассеивающимся функциям и получите точность перекрестной проверки.

template = templateSVM('KernelFunction', 'polynomial', ...
    'PolynomialOrder', 2, ...
    'KernelScale', 'auto', ...
    'BoxConstraint', 1, ...
    'Standardize', true);
classificationSVM = fitcecoc(...
    TrainFeatures, ...
    TrainLabels, ...
    'Learners', template, ...
    'Coding', 'onevsone', ...
    'ClassNames', categorical({'Cylinder','Cone'}));
partitionedModel = crossval(classificationSVM, 'KFold', 5);
[validationPredictions, validationScores] = kfoldPredict(partitionedModel);
validationAccuracy = (1 - kfoldLoss(partitionedModel, 'LossFun', 'ClassifError'))*100
validationAccuracy = 100

Целевая классификация

Используя обученный SVM, классифицируйте рассеивающиеся функции, полученные из набора тестов.

predLabels = predict(classificationSVM,TestFeatures);
accuracy = sum(predLabels == TestLabels )/numel(TestLabels)*100
accuracy = 100

Постройте матрицу беспорядка.

figure('Units','normalized','Position',[0.2 0.2 0.5 0.5]);
ccDCNN = confusionchart(TestLabels,predLabels);
ccDCNN.Title = 'Confusion Chart';
ccDCNN.ColumnSummary = 'column-normalized';
ccDCNN.RowSummary = 'row-normalized';

Для наборов более комплексных данных рабочий процесс глубокого обучения может улучшать производительность.

Передача обучения с CNN

SqueezeNet является глубокой сверточной нейронной сетью (CNN), обученной изображениям в 1 000 классов, как используется в Крупном масштабе ImageNet визуальной проблеме распознавания (ILSVRC). В этом примере мы снова используем предварительно обученный SqueezeNet, чтобы классифицировать радар, возвращает принадлежность одному из двух классов.

Загрузите SqueezeNet.

snet = squeezenet;

SqueezeNet состоит из 68 слоев. Как весь DCNNs, SqueezeNet располагает каскадом сверточные операторы, сопровождаемые нелинейностью и объединением или усреднением. SqueezeNet ожидает вход изображений размера 227 227 3, который вы видите со следующим кодом.

snet.Layers(1)
ans = 
  ImageInputLayer with properties:

                      Name: 'data'
                 InputSize: [227 227 3]

   Hyperparameters
          DataAugmentation: 'none'
             Normalization: 'zerocenter'
    NormalizationDimension: 'auto'
                      Mean: [1×1×3 single]

Кроме того, SqueezeNet сконфигурирован к распознанным 1 000 различных классов, которые вы видите со следующим кодом.

snet.Layers(68)
ans = 
  ClassificationOutputLayer with properties:

            Name: 'ClassificationLayer_predictions'
         Classes: [1000×1 categorical]
    ClassWeights: 'none'
      OutputSize: 1000

   Hyperparameters
    LossFunction: 'crossentropyex'

В последующем разделе мы изменим избранные слои SqueezeNet для того, чтобы применить его к нашей проблеме классификации.

Непрерывный вейвлет преобразовывает

SqueezeNet спроектирован, чтобы отличить различия в изображениях и классифицировать результаты. Поэтому для того, чтобы использовать SqueezeNet, чтобы классифицировать радар, возвращается, мы должны преобразовать 1D радар, возвращают временные ряды в изображение. Распространенный способ сделать это должно использовать представление частоты времени (TFR). Существует много вариантов для представления частоты времени сигнала и какой является самым соответствующим, зависит от характеристик сигнала. Чтобы определить, какой TFR может подходить для этой проблемы, случайным образом выберите и постройте некоторых, радар возвращается из каждого класса.

rng default;
idxCylinder = randperm(50,2);
idxCone = randperm(50,2)+50;

Очевидно, что радар возвращается ранее показанный, характеризуются путем замедления различных изменений, акцентированных большими переходными уменьшениями, аналогичными описанному ранее. Вейвлет преобразовывает, идеально подходит для разреженного представления таких сигналов. Вейвлеты уменьшаются, чтобы локализовать переходные процессы с высоким временным разрешением и фрагментом, чтобы получить медленно различную структуру сигнала. Получите и постройте непрерывное преобразование вейвлета одного из цилиндра, возвращается.

cwt(RCSReturns{:,idxCylinder(1)},'VoicesPerOctave',8)

CWT одновременно получает и медленно различный (низкая частота) колебания и переходные процессы. Контрастируйте CWT цилиндра возвращаются с одним из конической цели.

cwt(RCSReturns{:,idxCone(2)},'VoicesPerOctave',8);

Из-за очевидной важности переходных процессов в определении, происходит ли целевой возврат из цилиндра или конической цели, мы выбираем CWT как идеальный TFR, чтобы использовать. После получения CWT для каждого целевого возврата мы заставляем изображения из CWT каждого радара возвратиться. Эти изображения изменены, чтобы быть совместимыми с входным слоем SqueezeNet, и мы усиливаем SqueezeNet, чтобы классифицировать получившиеся изображения.

Отобразите подготовку

Функция помощника, helpergenWaveletTFImg, получает CWT для каждого радара, возвращаются, изменяет CWT, чтобы быть совместимым с SqueezeNet и пишет CWT как jpeg файл. Запускать helpergenWaveletTFImg, выберите parentDir где у вас есть разрешение записи. Этот пример использует tempdir, но можно использовать любую папку на машине, где у вас есть разрешение записи. Функция помощника создает Training и Test установите папки под parentDir а также создание Cylinder и Cone подпапки под обоими Training и Test. Эти папки заполняются с изображениями jpeg, которые будут использоваться в качестве входных параметров к SqueezeNet.

parentDir = tempdir;
helpergenWaveletTFImg(parentDir,RCSReturns,RCSReturnsTest)
Generating Time-Frequency Representations...Please Wait
   Creating Cylinder Time-Frequency Representations ... Done
   Creating Cone Time-Frequency Representations ... Done
   Creating Cylinder Time-Frequency Representations ... Done
   Creating Cone Time-Frequency Representations ... Done

Теперь используйте imageDataStore управлять доступом к файлу от папок для того, чтобы обучить SqueezeNet. Создайте хранилища данных и для обучения и для тестовых данных.

trainingData= imageDatastore(fullfile(parentDir,'Training'), 'IncludeSubfolders', true,...
    'LabelSource', 'foldernames');
testData = imageDatastore(fullfile(parentDir,'Test'),'IncludeSubfolders',true,...
    'LabelSource','foldernames');

Для того, чтобы использовать SqueezeNet с этой бинарной проблемой классификации, мы должны изменить пару слоев. Во-первых, мы изменяем последний learnable слой в SqueezeNet (слой 64), чтобы иметь то же количество сверток 1 на 1 как наше новое количество классов, 2.

lgraphSqueeze = layerGraph(snet);
convLayer = lgraphSqueeze.Layers(64);
numClasses = numel(categories(trainingData.Labels));
newLearnableLayer = convolution2dLayer(1,numClasses, ...
        'Name','binaryconv', ...
        'WeightLearnRateFactor',10, ...
        'BiasLearnRateFactor',10);
lgraphSqueeze = replaceLayer(lgraphSqueeze,convLayer.Name,newLearnableLayer);
classLayer = lgraphSqueeze.Layers(end);
newClassLayer = classificationLayer('Name','binary');
lgraphSqueeze = replaceLayer(lgraphSqueeze,classLayer.Name,newClassLayer);

Наконец, установите опции для переобучения SqueezeNet. Установите начальную букву, изучают уровень 1e-4, определяют максимальный номер эпох к 15 и мини-пакетного размера к 10. Используйте стохастический градиентный спуск с импульсом.

ilr = 1e-4;
mxEpochs = 15;
mbSize =10;
opts = trainingOptions('sgdm', 'InitialLearnRate', ilr, ...
    'MaxEpochs',mxEpochs , 'MiniBatchSize',mbSize, ...
    'Plots', 'training-progress','ExecutionEnvironment','cpu');

Обучите сеть. Если у вас есть совместимый графический процессор, trainNetwork автоматически использует графический процессор, и обучение должно завершиться меньше чем через одну минуту. Если у вас нет совместимого графического процессора, trainNetwork использует центральный процессор, и обучение должно занять приблизительно пять минут. Учебные времена действительно варьируются на основе многих факторов. В этом случае обучение происходит на CPU путем установки ExecutionEnvironment параметр к cpu.

CWTnet = trainNetwork(trainingData,lgraphSqueeze,opts);
Initializing input data normalization.
|========================================================================================|
|  Epoch  |  Iteration  |  Time Elapsed  |  Mini-batch  |  Mini-batch  |  Base Learning  |
|         |             |   (hh:mm:ss)   |   Accuracy   |     Loss     |      Rate       |
|========================================================================================|
|       1 |           1 |       00:00:06 |       60.00% |       2.6639 |      1.0000e-04 |
|       5 |          50 |       00:01:08 |      100.00% |       0.0001 |      1.0000e-04 |
|      10 |         100 |       00:02:11 |      100.00% |       0.0002 |      1.0000e-04 |
|      15 |         150 |       00:03:12 |      100.00% |   2.2264e-05 |      1.0000e-04 |
|========================================================================================|

Используйте обучивший сеть, чтобы предсказать, что цель возвращается в протянутом наборе тестов.

predictedLabels = classify(CWTnet,testData,'ExecutionEnvironment','cpu');
accuracy = sum(predictedLabels == testData.Labels)/50*100
accuracy = 100

Постройте график беспорядка наряду с точностью и отзывом. В этом случае 100% тестовых выборок классифицируются правильно.

figure('Units','normalized','Position',[0.2 0.2 0.5 0.5]);
ccDCNN = confusionchart(testData.Labels,predictedLabels);
ccDCNN.Title = 'Confusion Chart';
ccDCNN.ColumnSummary = 'column-normalized';
ccDCNN.RowSummary = 'row-normalized';

LSTM

В итоговом разделе этого примера описан рабочий процесс LSTM. Сначала слои LSTM заданы:

LSTMlayers = [ ...
    sequenceInputLayer(1)
    bilstmLayer(100,'OutputMode','last')
    fullyConnectedLayer(2)
    softmaxLayer
    classificationLayer
    ];
options = trainingOptions('adam', ...
    'MaxEpochs',30, ...
    'MiniBatchSize', 150, ...
    'InitialLearnRate', 0.01, ...
    'GradientThreshold', 1, ...
    'plots','training-progress', ...
    'Verbose',false,'ExecutionEnvironment','cpu');
trainLabels = repelem(categorical({'cylinder','cone'}),[50 50]);
trainLabels = trainLabels(:);
trainData = num2cell(table2array(RCSReturns)',2);
testData = num2cell(table2array(RCSReturnsTest)',2);
testLabels = repelem(categorical({'cylinder','cone'}),[25 25]);
testLabels = testLabels(:);
RNNnet = trainNetwork(trainData,trainLabels,LSTMlayers,options);

Точность для этой системы также построена.

predictedLabels = classify(RNNnet,testData,'ExecutionEnvironment','cpu');
accuracy = sum(predictedLabels == testLabels)/50*100
accuracy = 100

Заключение

Этот пример представляет рабочий процесс для выполнения радарной классификации целей с помощью методов машинного и глубокого обучения. Несмотря на то, что этот пример использовал синтезируемые данные, чтобы сделать обучение и тестирование, это может быть легко расширено, чтобы вместить действительный радар, возвращается. Из-за характеристик сигнала методы вейвлета использовались и для машинного обучения и для подходов CNN.

С этим набором данных мы были также получены, чтобы достигнуть подобной точности, только подав необработанные данные в LSTM. В более сложных наборах данных необработанные данные могут быть слишком по сути переменными для модели, чтобы узнать об устойчивых функциях из необработанных данных, и вам, вероятно, придется обратиться к извлечению признаков до использования LSTM.

Для просмотра документации необходимо авторизоваться на сайте