Алгоритмы рекурсивной оценки в System Identification Toolbox™ могут быть разделены на две категории:
Алгоритмы бесконечной истории - Эти алгоритмы направлены на минимизацию ошибки между наблюдаемым и предсказанным выходами для всех временных шагов с начала симуляции. System Identification Toolbox поддерживает бесконечную оценку истории в:
Рекурсивные оценки командной строки для структур модели линейной регрессии методом наименьших квадратов, AR, ARX, ARMA, ARMAX, OE и BJ
Simulink® Recursive Least Squares Estimator и Recursive Polynomial Model Estimator блоки
Алгоритмы конечной истории - Эти алгоритмы направлены на минимизацию ошибки между наблюдаемым и предсказанным выходами для конечного числа прошлых временных шагов. Тулбокс поддерживает конечную оценку истории для моделей линейных параметров:
Рекурсивные оценки командной строки для структур модели методом линейной регрессии методом наименьших квадратов, AR, ARX и OE
Блок Recursive Least Squares Estimator Simulink
Simulink Recursive Polynomial Model Estimator блок, только для структур AR, ARX и OE
Алгоритмы конечной истории обычно легче настроить, чем алгоритмы бесконечной истории, когда параметры имеют быстрые и потенциально большие изменения с течением времени.
Общая форма алгоритма рекурсивной оценки с бесконечной историей выглядит следующим образом:
является оценкой параметра в момент времени t. y (t) является наблюдаемым выходом в момент t, и - предсказание y (t), основанное на наблюдениях до времени t-1. Коэффициент усиления, K (t), определяет, насколько сильно текущая ошибка предсказания влияет на обновление оценки параметра. Алгоритмы оценки минимизируют член ошибки предсказания .
Коэффициент усиления имеет следующую форму:
Рекурсивные алгоритмы, поддерживаемые продуктом System Identification Toolbox, различаются на основе различных подходов для выбора формы Q (t) и вычислений. Вот, представляет градиент предсказанной модели выхода относительно параметров .
Самый простой способ визуализировать роль градиента из параметров следует рассмотреть модели с линейно-регрессионой формой:
В этом уравнении, - регрессионный вектор, который вычисляется на основе предыдущих значений измеренных входов и выходов. представляет истинные параметры. e (t) - источник шума (инновации), который принимается как белый шум. Определенная форма зависит от структуры полиномиальной модели.
Для линейных регрессионных уравнений предсказанный выход задается следующим уравнением:
Для моделей, которые не имеют линейной формы регрессии, невозможно вычислить точно предсказанный выход и градиент для текущей оценки параметра . Чтобы узнать, как вычислить приближение для и для общих структур модели смотрите раздел о рекурсивных методах предсказания-ошибки в [1].
Программное обеспечение System Identification Toolbox предоставляет следующие алгоритмы рекурсивной оценки бесконечной истории для онлайн-оценки:
Рецептуры забывающего фактора и фильтра Калмана более интенсивны в вычислительном отношении, чем градиентные и неормализованные градиентные методы. Однако они обычно имеют лучшие свойства сходимости.
Забывающий фактор. Следующий набор уравнений суммирует алгоритм адаптации коэффициента забывания:
Программа гарантирует, P(t) является положительно-определенной матрицей, используя алгоритм квадратного корня, чтобы обновить его [2]. Программное обеспечение вычисляет P
принимая, что невязки (различие между оцененными и измеренными выходами) являются белым шумом, и отклонение этих невязок равно 1. <reservedrangesplaceholder1> <reservedrangesplaceholder0> *
P
приблизительно равен ковариационной матрице оцененных параметров, где R2 является истинным отклонением невязок.
Q (t) получается путем минимизации следующей функции в момент t:
Для получения дополнительной информации см. раздел 11.2 в разделе [1].
Этот подход дисконтирует старые измерения экспоненциально так, что наблюдение, которое выборки old несут вес, который равен умножить на вес самого последнего наблюдения. представляет горизонт памяти этого алгоритма. Измерения старше обычно несут вес, который меньше, чем около 0,3.
называется коэффициентом забывания и обычно имеет положительное значение между 0.98
и 0.995
. Набор для оценки инвариантных по времени (постоянных) параметров. Набор для оценки изменяющихся во времени параметров.
Примечание
Алгоритм коэффициента забывания для = 1 эквивалентно алгоритму фильтра Калмана с R1 = 0 и R2 = 1. Для получения дополнительной информации об алгоритме фильтра Калмана см. «Фильтр Калмана».
Фильтр Калмана. Следующий набор уравнений суммирует алгоритм адаптации фильтра Калмана:
Программа гарантирует, P(t) является положительно-определенной матрицей, используя алгоритм квадратного корня, чтобы обновить его [2]. Программное обеспечение вычисляет P
принимая, что невязки (различие между оцененными и измеренными выходами) являются белым шумом, и отклонение этих невязок равно 1. R2 * P
- ковариационная матрица предполагаемых параметров, а R1/ R2 - ковариационная матрица изменений параметров. Где, R1 является ковариационной матрицей изменений параметров, которые вы задаете.
Эта формулировка принимает линейно-регрессионую форму модели:
Q (t) вычисляется с использованием фильтра Калмана.
Эта формулировка также принимает, что истинные параметры описываются случайной прогулкой:
w (t) - Гауссов белый шум со следующей ковариационной матрицей или дрейфовой матрицей R1:
R2 - отклонение нововведений e (t) в следующем уравнении:
Алгоритм фильтра Калмана полностью задан последовательностью данных y (t), градиентом, R1, R2 и начальные условия (начальное предположение параметров) и (ковариационная матрица, которая указывает на ошибки параметров).
Примечание
Принято, что R1 и P (t = 0) матрицы масштабируются таким образом, что R2 = 1. Это масштабирование не влияет на оценки параметров.
Нормализованный и ненормализованный градиент. В случае линейной регрессии градиентные методы также известны как методы наименьших средних квадратов (LMS).
Следующий набор уравнений суммирует ненормализованный градиентный и нормализованный алгоритм адаптации градиента:
В ненормализованном градиентном подходе Q (t) определяется:
В нормированном градиентном подходе Q (t) определяется:
Нормированный алгоритм градиента масштабирует коэффициент усиления адаптации, γ, на каждом шаге на квадрат двух-нормы вектора градиента. Если градиент близок к нулю, это может вызвать переходы в оценочных параметрах. Чтобы предотвратить эти переходы, в масштабный коэффициент вводится термин смещения.
Эти варианты Q (t) для алгоритмов градиента обновляют параметры в направлении отрицательного градиента, где градиент вычисляется относительно параметров. Для получения дополнительной информации см. стр. 372 в разделе [1].
Методы конечной исторической оценки находят оценки параметров θ (t) путем минимизации
где y (k) является наблюдаемым выходом в момент k, и - предсказанный выход во временной k. Этот подход также известен как оценка окна скольжения. Подходы к оценке конечной истории минимизируют ошибки предсказания для последних N временных шагов. Напротив, методы оценки бесконечной истории минимизируют ошибки предсказания, начиная с начала симуляции.
System Identification Toolbox поддерживает конечную оценку истории для моделей линейных параметров (AR и ARX), где предсказанный вывод имеет вид . Программное обеспечение строит и поддерживает буфер регрессоров ψ (<reservedrangesplaceholder10>) и наблюдаемые выходы y (<reservedrangesplaceholder8>) для k = t - <reservedrangesplaceholder5> +1, t - <reservedrangesplaceholder3> +2..., <reservedrangesplaceholder2>-2, <reservedrangesplaceholder1>-1, t. Эти буферы содержат необходимые матрицы для базовой линейной регрессионой задачи минимизации над θ. Программа решает эту задачу линейной регрессии, используя QR-факторинг с поворотом столбца.
[1] Ljung, L. System Identification: Теория для пользователя. Upper Saddle River, NJ: Prentice-Hall PTR, 1999.
[2] Карлсон, Н.А. Быстрая треугольная формулировка квадратного корневого фильтра. AIAA Journal, Vol. 11, Number 9, 1973, pp. 1259-1265.
[3] Zhang, Q. «Некоторые аспекты реализации алгоритмов наименьших квадратов скользящего окна». Материалы IFAC. Том 33, Выпуск 15, 2000, стр. 763-768.
Recursive Least Squares Estimator | Recursive Polynomial Model Estimator | recursiveAR
| recursiveARMA
| recursiveARMAX
| recursiveARX
| recursiveBJ
| recursiveLS
| recursiveOE