Алгоритмы наименьших средних квадратов (LMS) представляют простейшие и наиболее легко применяемые адаптивные алгоритмы. Рекурсивные алгоритмы методом наименьших квадратов (RLS), с другой стороны, известны своей превосходной эффективностью и большей точностью, но они имеют повышенную сложность и вычислительные затраты. По эффективности RLS приближается к фильтру Калмана в приложениях адаптивной фильтрации с несколько сниженной необходимой пропускной способностью в процессоре сигналов. По сравнению с LMS-алгоритмом, подход RLS предлагает более быструю сходимость и меньшую ошибку относительно неизвестной системы за счет необходимости больших расчетов.
Обратите внимание, что пути и идентификации сигнала одинаковы, использует ли фильтр RLS или LMS. Это различие заключается в адаптационном фрагменте.
Фильтры LMS адаптируют свои коэффициенты до тех пор, пока различие между желаемым сигналом и фактическим сигналом не будет сведена к минимуму (наименьшие средние квадраты сигнала ошибки). Это состояние, когда веса фильтров сходятся к оптимальным значениям, то есть они сходятся достаточно близко к фактическим коэффициентам неизвестной системы. Этот класс алгоритмов адаптируется на основе ошибки в текущем времени. Адаптивный фильтр RLS является алгоритмом, который рекурсивно находит коэффициенты фильтра, которые минимизируют взвешенную функцию линейного метода наименьших квадратов стоимости, относящуюся к входным сигналам. Эти фильтры адаптируются на основе общей ошибки, вычисленной с самого начала.
Фильтры LMS используют основанный на градиентах подход для выполнения адаптации. Начальные веса приняты маленькими, в большинстве случаев очень близкими к нулю. На каждом этапе веса фильтра обновляются на основе градиента средней квадратной ошибки. Если градиент положительный, веса фильтра уменьшаются, так что ошибка не увеличивается положительно. Если градиент отрицателен, веса фильтров увеличиваются. Размер шага, с которым изменяются веса, должен быть выбран соответствующим образом. Если размер шага очень мал, алгоритм сходится очень медленно. Если размер шага очень велик, алгоритм сходится очень быстро, и система может быть не стабильной при минимальном значении ошибки. Чтобы иметь стабильную систему, размер шага μ должен быть в этих пределах:
где λ max - самое большое собственное значение входной автокорреляционной матрицы.
Фильтры RLS минимизируют функцию затрат, C путем соответствующего выбора коэффициентов фильтра w (n) и обновления фильтра по мере поступления новых данных. Функция стоимости задается этим уравнением:
где
w n - коэффициенты адаптивного фильтра RLS.
e (i) - ошибка между желаемым d сигнала и оценкой желаемого dest сигнала при текущем временном индексе. dest сигнала является выходом RLS-фильтра, и поэтому неявно зависит от коэффициентов текущего фильтра.
.r- Коэффициент забывания, который дает экспоненциально меньший вес старшим выборкам, указанный в области значений 0 <, ≤ 1. Когда λ = 1, все предыдущие ошибки учитываются равным весом в общей ошибке. По мере приближения и нулю, прошлые ошибки играют меньшую роль в сумме. Для примера, когда λ = 0,1, алгоритм RLS умножает значение ошибки от 50 выборок в прошлом на коэффициент ослабления 0,150 = 1 x 10−50, значительно снимая акцент на влиянии прошлых ошибок на текущую общую ошибку.
В случаях, когда значение ошибки может исходить из ложных входных данных точки или точек, коэффициент забывания позволяет алгоритму RLS уменьшить значимость старых данных об ошибке путем умножения старых данных на коэффициент забывания.
В этой таблице суммируются ключевые различия между двумя типами алгоритмов:
LMS-алгоритм | Алгоритм RLS |
---|---|
Простой и может быть легко применен. | Повышенная сложность и вычислительные затраты. |
Требуется больше времени, чтобы сойтись. | Более быстрое сходимость. |
Адаптация основана на основанном на градиентах подходе, который обновляет веса фильтров, чтобы сходиться к оптимальным весам фильтров. | Адаптация основана на рекурсивном подходе, который находит коэффициенты фильтра, которые минимизируют взвешенную функцию линейного метода наименьших квадратов стоимости, относящуюся к входным сигналам. |
Большая ошибка устойчивого состояния относительно неизвестной системы. | Меньшая ошибка устойчивого состояния по сравнению с неизвестной системой. |
Не учитывает прошлые данные. | Учитывает прошлые данные от начала до текущей точки данных. |
Цель состоит в том, чтобы минимизировать текущую среднюю квадратную ошибку между желаемым сигналом и выходом. | Цель состоит в том, чтобы минимизировать общую взвешенную квадратичную невязку между желаемым сигналом и выходом. |
Память не задействована. Старые значения ошибок не играют роли в общей учитываемой ошибке. | Имеет бесконечную память. Все данные об ошибках учитываются в общей ошибке. Используя коэффициент забывания, старые данные могут быть отменены по сравнению с более новыми данными. Поскольку 0 ≤ λ < 1, применение коэффициента эквивалентно взвешиванию более старой ошибки. |
Адаптивные фильтры конечные импульсные характеристики на основе LMS в DSP System Toolbox™:
| Адаптивные фильтры конечные импульсные характеристики на основе RLS в DSP System Toolbox:
|
В пределах можно использовать любой из алгоритмов адаптивного фильтра, чтобы решить задачу адаптивного фильтра, заменив адаптивный фрагмент приложения на новый алгоритм.
[1] Hayes, Monson H., Statistical Digital Signal Processing and Modeling. Hoboken, NJ: John Wiley & Sons, 1996, pp.493-552.
[2] Haykin, Simon, Adaptive Filter Theory. Upper Saddle River, NJ: Prentice-Hall, Inc., 1996.