Используя наименьшее количество среднего квадратичного (LMS) и нормированные LMS-алгоритмы, извлеките желаемый сигнал из поврежденного шумом сигнала путем отфильтровывания шума. Оба из этих алгоритмов доступны с dsp.LMSFilter
Система object™.
Желаемый сигнал (выход от процесса) является синусоидой с 1 000 выборок.
n = (1:1000)'; s = sin(0.075*pi*n);
Чтобы выполнить адаптацию, фильтр требует двух сигналов:
Ссылочный сигнал
Сигнал с шумом, который содержит и желаемый сигнал и добавленный шумовой компонент
Создайте шумовой сигнал с авторегрессивным шумом (заданный как v1
). В авторегрессивном шуме шум во время t зависит только от предыдущих значений и случайного воздействия.
v = 0.8*randn(1000,1); % Random noise part. ar = [1,1/2]; % Autoregression coefficients. v1 = filter(1,ar,v); % Noise signal. Applies a 1-D digital % filter.
Чтобы сгенерировать сигнал с шумом, который содержит и желаемый сигнал и шум, добавьте шумовой v1
сигнала к желаемому
s
сигнала. Поврежденная шумом синусоида
x
:
x = s + v1;
Адаптивная обработка фильтра стремится восстановить s
от x
путем удаления v1
. Завершать сигналы должно было выполнить адаптивную фильтрацию, процесс адаптации требует ссылочного сигнала.
Задайте сигнал скользящего среднего значения v2
это коррелируется с v1
. v2
сигнала ссылочный сигнал для этого примера.
ma = [1, -0.8, 0.4 , -0.2]; v2 = filter(ma,1,v);
Два подобных, шестой порядок адаптивные фильтры — LMS и NLMS — формируют основание этого примера. Установите порядок как переменную в MATLAB™ и создайте фильтры.
L = 7; lms = dsp.LMSFilter(L,'Method','LMS'); nlms = dsp.LMSFilter(L,'Method','Normalized LMS');
Подобный LMS-алгоритмам имеют размер шага, который определяет объем коррекции, примененной, когда фильтр адаптируется от одной итерации до следующего. Размер шага, который является слишком маленькими увеличениями время для фильтра, чтобы сходиться на наборе коэффициентов. Размер шага, который является слишком большой силой, заставляет адаптирующийся фильтр отличать и никогда не достигать сходимости. В этом случае получившийся фильтр не может быть устойчивым.
Как показывает опыт, меньшие размеры шага улучшают точность, которой фильтр сходится, чтобы совпадать с характеристиками неизвестной системы, за счет времени, которое требуется, чтобы адаптироваться.
maxstep
функция dsp.LMSFilter
объект определяет максимальный размер шага, подходящий для каждого адаптивного алгоритма фильтра LMS, который гарантирует, что фильтр сходится к решению. Часто, обозначение для размера шага является µ.
[mumaxlms,mumaxmselms] = maxstep(lms,x)
mumaxlms = 0.2088
mumaxmselms = 0.1214
[mumaxnlms,mumaxmsenlms] = maxstep(nlms,x)
mumaxnlms = 2
mumaxmsenlms = 2
Первый выход maxstep
функция является значением, необходимым для среднего значения коэффициентов, чтобы сходиться, в то время как второй выход является значением, необходимым для среднеквадратических коэффициентов, чтобы сходиться. Выбор большого размера шага часто вызывает большие изменения от значений сходимости, так обычно выбирайте меньшие размеры шага.
lms.StepSize = mumaxmselms/30
lms = dsp.LMSFilter with properties: Method: 'LMS' Length: 7 StepSizeSource: 'Property' StepSize: 0.0040 LeakageFactor: 1 InitialConditions: 0 AdaptInputPort: false WeightsResetInputPort: false WeightsOutput: 'Last' Show all properties
nlms.StepSize = mumaxmsenlms/20
nlms = dsp.LMSFilter with properties: Method: 'Normalized LMS' Length: 7 StepSizeSource: 'Property' StepSize: 0.1000 LeakageFactor: 1 InitialConditions: 0 AdaptInputPort: false WeightsResetInputPort: false WeightsOutput: 'Last' Show all properties
Вы настроили параметры адаптивных фильтров и теперь готовы отфильтровать сигнал с шумом. Ссылочный сигнал v2 является входом к адаптивным фильтрам. x является желаемым сигналом в этой настройке.
Посредством адаптации y, выхода фильтров, пытается эмулировать x максимально тесно.
Поскольку v2 коррелируется только с шумовым компонентом v1 x, это может только действительно эмулировать v1. Сигнал ошибки (желаемый x), минус фактический выход y, составляет оценку части x, который не коррелируется с v2 — s, сигнал извлечь из x.
[ylms,elms,wlms] = lms(v2,x); [ynlms,enlms,wnlms] = nlms(v2,x);
Для сравнения вычислите оптимального КИХ Винеровский фильтр.
bw = firwiener(L-1,v2,x); % Optimal FIR Wiener filter yw = filter(bw,1,v2); % Estimate of x using Wiener filter ew = x - yw; % Estimate of actual sinusoid
Постройте получившуюся denoised синусоиду для каждого фильтра — Винеровского фильтра, адаптивного фильтра LMS, и адаптивного фильтра NLMS — чтобы сравнить производительность различных методов.
plot(n(900:end),[ew(900:end), elms(900:end),enlms(900:end)]) legend('Wiener filter denoised sinusoid',... 'LMS denoised sinusoid','NLMS denoised sinusoid') xlabel('Time index (n)') ylabel('Amplitude')
Как контрольная точка, включайте сигнал с шумом как пунктирную линию в графике.
hold on plot(n(900:end),x(900:end),'k:') xlabel('Time index (n)') ylabel('Amplitude') hold off
Наконец, сравните Винеровские коэффициенты фильтра с коэффициентами адаптивных фильтров. При адаптации адаптивные фильтры пытаются сходиться к Винеровским коэффициентам.
[bw.' wlms wnlms]
ans = 7×3
1.0273 0.8761 1.0202
0.3390 0.1368 0.3225
0.1201 0.0095 0.1227
0.0425 -0.0038 0.0495
0.1098 0.0503 0.0773
0.0534 -0.0094 0.0295
0.0146 -0.0054 -0.0179
Можно сбросить внутренние состояния фильтра в любое время путем вызова reset
функция на объекте фильтра.
Например, эти последовательные вызовы производят тот же выход после сброса объекта.
[ylms,elms,wlms] = lms(v2,x); [ynlms,enlms,wnlms] = nlms(v2,x);
Если вы не сбрасываете объект фильтра, фильтр использует конечные состояния и коэффициенты от предыдущего запуска как начальные условия и набор данных для следующего запуска.
Чтобы анализировать сходимость адаптивных фильтров, используйте кривые обучения. Тулбокс предоставляет методы, чтобы сгенерировать кривые обучения, но вам нужна больше чем одна итерация эксперимента, чтобы получить значительные результаты.
Эта демонстрация использует 25 демонстрационной реализации шумных синусоид.
n = (1:5000)'; s = sin(0.075*pi*n); nr = 25; v = 0.8*randn(5000,nr); v1 = filter(1,ar,v); x = repmat(s,1,nr) + v1; v2 = filter(ma,1,v);
Теперь вычислите среднеквадратическую ошибку. Чтобы ускорить вещи, вычислите ошибку каждые 10 выборок.
Во-первых, сбросьте адаптивные фильтры, чтобы избегать использования коэффициентов, которые это уже вычислило и состояния, которые это сохранило. Затем постройте кривые обучения для LMS и адаптивных фильтров NLMS.
reset(lms); reset(nlms); M = 10; % Decimation factor mselms = msesim(lms,v2,x,M); msenlms = msesim(nlms,v2,x,M); %plot(1:M:n(end),[mselms,msenlms]) plot(1:M:n(end),mselms,'b',1:M:n(end),msenlms,'g') legend('LMS learning curve','NLMS learning curve') xlabel('Time index (n)') ylabel('MSE')
В этом графике вы видите расчетные кривые обучения для LMS и адаптивных фильтров NLMS.
Для LMS и алгоритмов NLMS, функции в тулбоксе помогают вам вычислить теоретические кривые обучения, наряду с минимальной среднеквадратической ошибкой (MMSE), избыточной среднеквадратической ошибкой (EMSE) и средним значением коэффициентов.
MATLAB может не торопиться, чтобы вычислить кривые. Фигура, показанная после кода, строит предсказанные и фактические кривые LMS.
reset(lms); [mmselms,emselms,meanwlms,pmselms] = msepred(lms,v2,x,M); x = 1:M:n(end); y1 = mmselms*ones(500,1); y2 = emselms*ones(500,1); y3 = pmselms; y4 = mselms; plot(x,y1,'m',x,y2,'b',x,y3,'k',x,y4,'g') legend('MMSE','EMSE','Predicted LMS learning curve',... 'LMS learning curve') xlabel('Time index (n)') ylabel('MSE')