Сравните RLS и адаптивные алгоритмы фильтра LMS

Алгоритмы наименьшее количество средних квадратичных (LMS) представляют самое простое и наиболее легко применили адаптивные алгоритмы. Алгоритмы рекурсивных наименьших квадратов (RLS), с другой стороны, известны своей превосходной производительностью и большей точностью, но идутся увеличенная сложность и вычислительная стоимость. В производительности RLS приближается к Фильтру Калмана в адаптивных приложениях фильтрации в несколько уменьшаемой необходимой пропускной способности в сигнальном процессоре. По сравнению с LMS-алгоритмом подход RLS предлагает более быструю сходимость и меньшую ошибку относительно неизвестной системы, за счет требования большего количества расчетов.

Обратите внимание на то, что пути прохождения сигнала и идентификации являются тем же самым, использует ли фильтр RLS или LMS. Различие заключается в адаптирующемся фрагменте.

Фильтры LMS адаптируют свои коэффициенты до различия между желаемым сигналом, и фактический сигнал минимален (наименьшее количество средних квадратичных сигнала ошибки). Это - состояние, когда веса фильтра сходятся к оптимальным значениям, то есть, они сходились достаточно близко к фактическим коэффициентам неизвестной системы. Этот класс алгоритмов адаптируется на основе ошибки в текущее время. Адаптивный фильтр RLS является алгоритмом, который рекурсивно находит коэффициенты фильтра, которые минимизируют взвешенную функцию стоимости линейного метода наименьших квадратов, относящуюся к входным сигналам. Эти фильтры адаптируются на основе полной погрешности, вычисленной с начала.

Фильтры LMS используют основанный на градиенте подход, чтобы выполнить адаптацию. Начальные веса приняты, чтобы быть малыми, в большинстве случаев, очень близко к нулю. На каждом шаге веса фильтра обновляются на основе градиента среднеквадратичной погрешности. Если градиент положителен, веса фильтра уменьшаются, так, чтобы ошибка не увеличивалась положительно. Если градиент отрицателен, веса фильтра увеличены. Размер шага, с которым изменение весов должно быть выбрано соответственно. Если размер шага очень мал, алгоритм сходится очень медленно. Если размер шага является очень большим, алгоритм сходится очень быстро, и система не может быть устойчивой в минимальном ошибочном значении. Для того, чтобы иметь устойчивую систему, размер шага, μ, должен быть в следующих пределах:

0<μ<2λmax ,

где, λ макс. является самым большим собственным значением входной матрицы автокорреляции.

Фильтры RLS минимизируют функцию стоимости, C путем соответствующего выбора коэффициентов фильтра, w (n), и обновления фильтра, когда новые данные прибывают. Функция стоимости дана следующим уравнением:

C(wn)=i=0nλnie2(i),

где,

  • w n – RLS адаптивные коэффициенты фильтра.

  • e (i) – Ошибка между желаемым сигналом, d и оценкой желаемого сигнала, dest, в индексе текущего времени. Сигнал, dest является выходом фильтра RLS, и следовательно неявно зависит от текущих коэффициентов фильтра.

  • 0 <λ ≤ 1 – Упущение фактора, который дает экспоненциально меньше веса более старым выборкам. Когда λ = 1, вся предыдущая ошибка рассматривается равного веса в полной погрешности. Как λ нуль подходов, прошлые ошибки играют меньшую роль в общем количестве. Например, когда λ = 0.1, алгоритм RLS умножает ошибочное значение от 50 выборок в прошлом фактором затухания 0,150 = 1 x 10−50, значительно преуменьшив роль влияния прошлой ошибки на текущей полной погрешности.

    В случаях, куда ошибочное значение может прибыть из побочной точки входных данных или точек, фактор упущения позволяет алгоритму RLS уменьшать значение более старых ошибочных данных путем умножения старых данных на фактор упущения.

Вот таблица, которая обобщает основные отличия между двумя типами алгоритмов:

LMS-алгоритмАлгоритм RLS
Простой и может быть легко применен.Увеличенная сложность и вычислительная стоимость.
Занимает больше времени, чтобы сходиться.Более быстрая сходимость.
Адаптация основана на основанном на градиенте подходе, который обновляет веса фильтра способом, чтобы сходиться к оптимальным весам фильтра.Адаптация основана на рекурсивном подходе, который находит коэффициенты фильтра, которые минимизируют взвешенную функцию стоимости линейного метода наименьших квадратов, относящуюся к входным сигналам.
Большая установившаяся ошибка относительно неизвестной системы по сравнению с алгоритмом RLS.Меньшая установившаяся ошибка относительно неизвестной системы.
Никакой счет на прошлые данные.Счета на прошлые данные с начала к текущей точке данных.
Цель состоит в том, чтобы минимизировать текущую среднеквадратичную погрешность между желаемым сигналом и выходом.Цель состоит в том, чтобы минимизировать общую взвешенную квадратичную невязку между желаемым сигналом и выходом.
Никакая память не включена. Более старые ошибочные значения не играют роли в рассмотренной полной погрешности.

Имеет бесконечную память. Все ошибочные данные рассматриваются в полной погрешности. Используя фактор упущения, более старые данные могут быть, может быть менее подчеркнут по сравнению с более новыми данными.

Начиная с 0 ≤ λ < 1, применяя фактор эквивалентно взвешиванию более старой ошибки.

LMS основывал КИХ адаптивные фильтры в DSP System Toolbox™:

RLS основывал КИХ адаптивные фильтры в DSP System Toolbox:

В определенных рамках можно использовать любой из адаптивных алгоритмов фильтра, чтобы решить адаптивную задачу фильтра, заменяя адаптивный фрагмент приложения с новым алгоритмом.

Смотрите также

Объекты

Похожие темы

Ссылки

[1] Hayes, Монсон Х., статистическая цифровая обработка сигналов и Modeling, John Wiley & Sons, 1996, 493–552.

[2] Haykin, Саймон, адаптивная теория фильтра, Prentice-Hall, Inc., 1996.