exponenta event banner

Сравнение алгоритмов адаптивного фильтра RLS и LMS

Алгоритмы наименьших средних квадратов (LMS) представляют собой простейшие и наиболее легко применяемые адаптивные алгоритмы. С другой стороны, алгоритмы рекурсивных наименьших квадратов (RLS) известны своей отличной производительностью и большей верностью, но они имеют повышенную сложность и вычислительную стоимость. По производительности RLS приближается к фильтру Калмана в приложениях адаптивной фильтрации с несколько сниженной требуемой пропускной способностью в процессоре сигналов. По сравнению с алгоритмом LMS, подход RLS предлагает более быструю сходимость и меньшую ошибку по отношению к неизвестной системе за счет необходимости большего количества вычислений.

Следует отметить, что пути и идентификаторы сигналов одинаковы, независимо от того, использует ли фильтр RLS или LMS. Разница заключается в адаптирующем участке.

Фильтры LMS адаптируют свои коэффициенты до тех пор, пока разница между требуемым сигналом и фактическим сигналом не будет минимизирована (наименьшие средние квадраты сигнала ошибки). Это состояние, когда веса фильтра сходятся к оптимальным значениям, то есть сходятся достаточно близко к фактическим коэффициентам неизвестной системы. Этот класс алгоритмов адаптируется на основе ошибки в текущий момент времени. Адаптивный фильтр RLS - это алгоритм, который рекурсивно находит коэффициенты фильтра, которые минимизируют взвешенную линейную функцию затрат наименьших квадратов, относящуюся к входным сигналам. Эти фильтры адаптируются на основе общей ошибки, вычисленной с начала.

Фильтры LMS используют градиентный подход для выполнения адаптации. Начальные веса предполагаются небольшими, в большинстве случаев очень близкими к нулю. На каждом этапе веса фильтра обновляются на основе градиента среднеквадратической ошибки. Если градиент положительный, веса фильтра уменьшаются, так что ошибка не увеличивается положительно. Если градиент отрицательный, вес фильтра увеличивается. Размер шага, с которым изменяются веса, должен быть выбран соответствующим образом. Если размер шага очень мал, алгоритм сходится очень медленно. Если размер шага очень велик, алгоритм сходится очень быстро, и система может быть не стабильной при минимальном значении ошибки. Для того, чтобы иметь стабильную систему, размер β шага должен находиться в следующих пределах:

0 < λ < 2λ max,

где λ max - наибольшее собственное значение входной автокорреляционной матрицы.

Фильтры RLS минимизируют функцию затрат C путем соответствующего выбора коэффициентов фильтра w (n) и обновления фильтра по мере поступления новых данных. Функция затрат задается следующим уравнением:

C (wn) =∑i=0nλn−ie2 (i),

где

  • wn - коэффициенты адаптивного фильтра RLS.

  • e (i) - Ошибка между требуемым сигналом d и оценкой требуемого сигнала dest в текущем временном индексе. Сигнал dest является выходом фильтра RLS, и поэтому неявно зависит от текущих коэффициентов фильтра.

  • λ - Коэффициент забывания, дающий экспоненциально меньший вес старым образцам, заданным в диапазоне 0 < λ ≤ 1. Когда λ = 1, все предыдущие ошибки считаются равными по весу в общей ошибке. Когда λ приближается к нулю, прошлые ошибки играют меньшую роль в сумме. Например, когда λ = 0,1, алгоритм RLS умножает значение ошибки из 50 выборок в прошлом на коэффициент ослабления 0,150 = 1 x 10 50, значительно ослабляя влияние прошлых ошибок на текущую общую ошибку.

    В случаях, когда значение ошибки может исходить от ложной входной точки данных или точек, коэффициент забывания позволяет алгоритму RLS уменьшить значимость старых данных ошибки путем умножения старых данных на коэффициент забывания.

В этой таблице приведены основные различия между двумя типами алгоритмов:

Алгоритм LMSАлгоритм RLS
Простота и простота применения.Повышенная сложность и вычислительные затраты.
Требуется больше времени, чтобы сойтись.Более быстрая сходимость.
Адаптация основана на градиентном подходе, который обновляет веса фильтра, чтобы сойтись с оптимальными весами фильтра.Адаптация основана на рекурсивном подходе, который находит коэффициенты фильтра, которые минимизируют взвешенную линейную функцию стоимости наименьших квадратов, относящуюся к входным сигналам.
Большая ошибка устойчивого состояния по отношению к неизвестной системе.Меньшая ошибка устойчивого состояния по отношению к неизвестной системе.
Не учитывает прошлые данные.Учет прошлых данных от начала до текущей точки данных.
Целью является минимизация текущей среднеквадратической ошибки между требуемым сигналом и выходным сигналом.Целью является минимизация суммарной взвешенной квадратичной ошибки между требуемым сигналом и выходным сигналом.
Память не задействована. Старые значения ошибок не играют никакой роли в общей рассмотренной ошибке.

Имеет бесконечную память. Все данные об ошибках учитываются в общей ошибке. При использовании коэффициента забывания старые данные могут быть отменены по сравнению с новыми данными.

Поскольку 0 ≤ λ < 1, применение коэффициента эквивалентно взвешиванию более старой ошибки.

Адаптивные фильтры FIR на основе LMS в системе DSP Toolbox™:

Адаптивные фильтры FIR на основе RLS в панели системных инструментов DSP:

В пределах, можно использовать любой из алгоритмов адаптивного фильтра для решения проблемы адаптивного фильтра, заменив адаптивную часть приложения новым алгоритмом.

См. также

Объекты

Связанные темы

Ссылки

[1] Хейс, Монсон Х., Статистическая цифровая обработка и моделирование сигналов. Хобокен, Нью-Джерси: John Wiley & Sons, 1996, pp.493-552.

[2] Хайкин, Саймон, теория адаптивных фильтров. Река Верхнее Седло, Нью-Джерси: Прентис-Холл, Инк., 1996.