Алгоритмы наименьших средних квадратов (LMS) представляют собой простейшие и наиболее легко применяемые адаптивные алгоритмы. С другой стороны, алгоритмы рекурсивных наименьших квадратов (RLS) известны своей отличной производительностью и большей верностью, но они имеют повышенную сложность и вычислительную стоимость. По производительности RLS приближается к фильтру Калмана в приложениях адаптивной фильтрации с несколько сниженной требуемой пропускной способностью в процессоре сигналов. По сравнению с алгоритмом LMS, подход RLS предлагает более быструю сходимость и меньшую ошибку по отношению к неизвестной системе за счет необходимости большего количества вычислений.
Следует отметить, что пути и идентификаторы сигналов одинаковы, независимо от того, использует ли фильтр RLS или LMS. Разница заключается в адаптирующем участке.
Фильтры LMS адаптируют свои коэффициенты до тех пор, пока разница между требуемым сигналом и фактическим сигналом не будет минимизирована (наименьшие средние квадраты сигнала ошибки). Это состояние, когда веса фильтра сходятся к оптимальным значениям, то есть сходятся достаточно близко к фактическим коэффициентам неизвестной системы. Этот класс алгоритмов адаптируется на основе ошибки в текущий момент времени. Адаптивный фильтр RLS - это алгоритм, который рекурсивно находит коэффициенты фильтра, которые минимизируют взвешенную линейную функцию затрат наименьших квадратов, относящуюся к входным сигналам. Эти фильтры адаптируются на основе общей ошибки, вычисленной с начала.
Фильтры LMS используют градиентный подход для выполнения адаптации. Начальные веса предполагаются небольшими, в большинстве случаев очень близкими к нулю. На каждом этапе веса фильтра обновляются на основе градиента среднеквадратической ошибки. Если градиент положительный, веса фильтра уменьшаются, так что ошибка не увеличивается положительно. Если градиент отрицательный, вес фильтра увеличивается. Размер шага, с которым изменяются веса, должен быть выбран соответствующим образом. Если размер шага очень мал, алгоритм сходится очень медленно. Если размер шага очень велик, алгоритм сходится очень быстро, и система может быть не стабильной при минимальном значении ошибки. Для того, чтобы иметь стабильную систему, размер β шага должен находиться в следующих пределах:
2λ max,
где λ max - наибольшее собственное значение входной автокорреляционной матрицы.
Фильтры RLS минимизируют функцию затрат C путем соответствующего выбора коэффициентов фильтра w (n) и обновления фильтра по мере поступления новых данных. Функция затрат задается следующим уравнением:
i),
где
wn - коэффициенты адаптивного фильтра RLS.
e (i) - Ошибка между требуемым сигналом d и оценкой требуемого сигнала dest в текущем временном индексе. Сигнал dest является выходом фильтра RLS, и поэтому неявно зависит от текущих коэффициентов фильтра.
λ - Коэффициент забывания, дающий экспоненциально меньший вес старым образцам, заданным в диапазоне 0 < λ ≤ 1. Когда λ = 1, все предыдущие ошибки считаются равными по весу в общей ошибке. Когда λ приближается к нулю, прошлые ошибки играют меньшую роль в сумме. Например, когда λ = 0,1, алгоритм RLS умножает значение ошибки из 50 выборок в прошлом на коэффициент ослабления 0,150 = 1 x 10 − 50, значительно ослабляя влияние прошлых ошибок на текущую общую ошибку.
В случаях, когда значение ошибки может исходить от ложной входной точки данных или точек, коэффициент забывания позволяет алгоритму RLS уменьшить значимость старых данных ошибки путем умножения старых данных на коэффициент забывания.
В этой таблице приведены основные различия между двумя типами алгоритмов:
| Алгоритм LMS | Алгоритм RLS |
|---|---|
| Простота и простота применения. | Повышенная сложность и вычислительные затраты. |
| Требуется больше времени, чтобы сойтись. | Более быстрая сходимость. |
| Адаптация основана на градиентном подходе, который обновляет веса фильтра, чтобы сойтись с оптимальными весами фильтра. | Адаптация основана на рекурсивном подходе, который находит коэффициенты фильтра, которые минимизируют взвешенную линейную функцию стоимости наименьших квадратов, относящуюся к входным сигналам. |
| Большая ошибка устойчивого состояния по отношению к неизвестной системе. | Меньшая ошибка устойчивого состояния по отношению к неизвестной системе. |
| Не учитывает прошлые данные. | Учет прошлых данных от начала до текущей точки данных. |
| Целью является минимизация текущей среднеквадратической ошибки между требуемым сигналом и выходным сигналом. | Целью является минимизация суммарной взвешенной квадратичной ошибки между требуемым сигналом и выходным сигналом. |
| Память не задействована. Старые значения ошибок не играют никакой роли в общей рассмотренной ошибке. | Имеет бесконечную память. Все данные об ошибках учитываются в общей ошибке. При использовании коэффициента забывания старые данные могут быть отменены по сравнению с новыми данными. Поскольку 0 ≤ λ < 1, применение коэффициента эквивалентно взвешиванию более старой ошибки. |
Адаптивные фильтры FIR на основе LMS в системе DSP Toolbox™:
| Адаптивные фильтры FIR на основе RLS в панели системных инструментов DSP:
|
В пределах, можно использовать любой из алгоритмов адаптивного фильтра для решения проблемы адаптивного фильтра, заменив адаптивную часть приложения новым алгоритмом.
[1] Хейс, Монсон Х., Статистическая цифровая обработка и моделирование сигналов. Хобокен, Нью-Джерси: John Wiley & Sons, 1996, pp.493-552.
[2] Хайкин, Саймон, теория адаптивных фильтров. Река Верхнее Седло, Нью-Джерси: Прентис-Холл, Инк., 1996.