Программное обеспечение System Identification Toolbox™ оценивает параметры модели путем минимизации погрешности между выводом модели и измеренным откликом. Эта ошибка, называемая функцией потерь или функцией затрат, является положительной функцией ошибок предсказания e (t). Как правило, эта функция представляет собой взвешенную сумму квадратов ошибок. Для модели с ny-выходами функция потерь V (start) имеет следующий общий вид:
(t, start)
где:
N - количество выборок данных.
e (t, start) - вектор ошибки «ny-by-1» в заданное время t, параметризованный вектором, определяющим этот параметр.
W (start) - матрица взвешивания, заданная как положительная полуопределённая матрица. Если W является диагональной матрицей, ее можно рассматривать как способ управления относительной важностью выходов во время многовыходных оценок. Когда W является фиксированным или известным весом, он не зависит от λ.
Программное обеспечение определяет значения параметров, минимизируя значение V (λ) по отношению
Для нотационного удобства V (start) выражается в его матричной форме:
(
E (start) является матрицей ошибок размера N-за-ny. Строка i: th в E (start) представляет значение ошибки в момент времени t = i.
Точная форма V (start) зависит от следующих факторов:
Функцию потери можно настроить в соответствии с требованиями приложения. Следующие опции оценки, если они доступны для оценщика, конфигурируют функцию потерь:
| Вариант оценки | Описание | Примечания |
|---|---|---|
|
|
Примечание Для моделей, шумовая составляющая которых тривиальна, (H (q) = 1), ep (t) и es (t) эквивалентны. | |
|
|
При указании фильтра взвешивания предварительно отфильтрованное предсказание или ошибка моделирования сводятся к минимуму:
(t))
где (.) - линейный фильтр. |
|
|
|
Когда |
|
|
|
|
|
|
|
(θ) v (t, θ))
где:
Погрешность v (t, start) определяется как:
t,
|
|
|
|
Функция потерь устанавливается с целью минимизации ошибок прогнозирования. Он не включает конкретные ограничения на дисперсию (показатель надежности) оцениваемых параметров. Это иногда может привести к моделям с большой неопределенностью в оценочных параметрах модели, особенно когда модель имеет много параметров.
(θ−θ*)
Второе слагаемое представляет собой взвешенную (R) и масштабированную (λ) дисперсию оценочного параметрического множества |
|
Focus и WeightingFilter Опции функции потери Focus может быть интерпретирован как весовой фильтр в функции потерь. WeightingFilter опция является дополнительным пользовательским весовым фильтром, который применяется к функции потери.
Чтобы понять эффект Focus и WeightingFilterрассмотрим линейную модель с одним входом и одним выходом:
,
Где G (q, λ) - измеренная передаточная функция, H (q, λ) - модель шума, и e (t) - аддитивные возмущения, смоделированные как белый гауссов шум. q - оператор временного сдвига.
В частотной области линейная модель может быть представлена как:
(λ, λ) E (λ)
где Y (λ), U (λ) и E (λ) - преобразования Фурье выходной, входной и выходной ошибки соответственно. Значения G (λ, λ) и H ((λ, start) представляют частотную характеристику функций «вход-выход» и «шум-передача» соответственно.
Функция потерь, которая должна быть минимизирована для модели SISO, задается следующим образом:
,
Используя идентификатор Parseval, функция потери в частотной области:
λ) ‖ 2
Замена на E (λ) дает:
‖2‖H (θ,ω) ‖2
Таким образом, можно интерпретировать минимизацию функции потерь V как аппроксимацию G (start, λ) к эмпирической передаточной U (λ), качестве взвешивающего фильтра ‖ U (λ) ‖ 2‖H (start, λ) ‖ 2. Это соответствует заданиюFocus как 'prediction'. Оценка подчеркивает частоты, где вход имеет большую мощность ( ‖ 2 больше), и отменяет подчеркивание частот, где шум start, λ) ‖ 2 велик).
Когда Focus указывается как 'simulation', обратное взвешивание с ) ‖ 2 не используется. То есть только входной спектр используется для взвешивания относительной важности аппроксимации в конкретном частотном диапазоне.
При указании линейного фильтра как WeightingFilter, он используется в качестве дополнительного пользовательского взвешивания в функции потерь.
(θ) ‖2 ‖ℒ (ω) ‖2
Здесь ) - частотная характеристика фильтра. Используйте λ) для улучшения соответствия реакции модели наблюдаемым данным на определенных частотах, например, чтобы подчеркнуть соответствие близко к резонансным частотам системы.
Оцененное значение передаточной функции G «вход-выход» совпадает с полученным, если сначала выполнить предварительную фильтрацию оценочных данных с использованием (.). idfilt, а затем оценить модель без указания WeightingFilter. Однако влияние (.) на оценочную шумовую модель H зависит от выбора Focus:
Focus является 'prediction' - Программное обеспечение минимизирует взвешенную ошибку прогнозирования (t)), и оценочная модель имеет вид:
H1 (q) e (t)
Где )/ ℒ (q). Таким образом, оценка с фокусом прогнозирования создает смещенную оценку Н. Это та же модель оцененного шума, которую вы получаете, если вы вместо этого сначала предварительно фильтруете оценки idfilt, а затем оценить модель.
Когда H параметризуется независимо от G, можно рассматривать фильтра
Focus является 'simulation' - Программное обеспечение сначала оценивает G путем минимизации взвешенной ошибки моделирования (t)), измеренный (t). После оценки G программное обеспечение фиксирует его и вычисляет H путем минимизации чистых ошибок е (t) прогнозирования с использованием нефильтрованных данных. Расчетная модель имеет вид:
+ He (t)
Если сначала выполнить предварительную фильтрацию данных, а затем оценить модель, будет получена та же оценка для G, но модель смещенного шума.
Таким образом, WeightingFilter имеет тот же эффект, что и предварительная фильтрация оценочных данных для оценки G. Для оценки H эффект WeightingFilter зависит от выбора Focus. Фокус прогнозирования оценивает смещенную версию модели шума , в то время как фокус моделирования оценивает H. Предварительная фильтрация данных оценки, а затем оценка модели всегда дает в качестве модели шума.
После оценки модели используйте метрики качества модели для оценки качества идентифицированных моделей, сравнения различных моделей и выбора наилучшей. Report.Fit свойство идентифицированной модели хранит различные метрики, такие как FitPercent, LossFcn, FPE, MSE, AIC, nAIC, AICc, и BIC значения.
FitPercent, LossFcn, и MSE - это измерения фактического количества, которое минимизировано во время оценки. Например, если Focus является 'simulation'эти величины вычисляются для ошибки моделирования es (t). Аналогично, если указать WeightingFilter вариант, затем LossFcn, FPE, и MSE вычисляются с использованием отфильтрованных остатков ef (t).
FPE, AIC, nAIC, AICc, и BIC измерения вычисляются как свойства выходного возмущения в соответствии с соотношением:
H (q) e (t)
G (q) и H (q) представляют измеренные и шумовые компоненты оцененной модели.
Независимо от того, как сконфигурирована функция потери, вектор ошибки e (t) вычисляется как ошибка прогнозирования на 1 шаг вперед, используя заданную модель и заданный набор данных. Это подразумевает, что даже когда модель получена минимизацией ошибки моделирования es (t), FPE и различные значения AIC все еще вычисляются с использованием ошибки прогнозирования ep (t). Фактическое значение ep (t) определяется с помощью pe команда с горизонтом прогнозирования 1 и использованием исходных условий, заданных для оценки.
Эти метрики содержат два термина - один для описания точности модели и другой для описания ее сложности. Например, в FPE ) описывает точность модели, а − npN описывает сложность модели.
Сравнивая модели с использованием этих критериев, можно выбрать модель, которая дает наилучший (наименьшее значение критерия) компромисс между точностью и сложностью.
| Метрика качества | Описание |
|---|---|
|
|
Нормализованная среднеквадратичная ошибка (NRMSE), выраженная в процентах, определяемая как:
измеренный ‖)
где:
|
|
|
Значение функции потерь после завершения оценки. Он содержит эффекты порогов ошибок, веса вывода и регуляризации, используемые для оценки. |
|
|
Показатель среднеквадратичной ошибки, определяемый как:
(t)
где:
|
|
|
Ошибка окончательного прогнозирования (FPE) Акаике, определяемая как:
npN1 − npN)
где:
|
|
|
Необработанный показатель информационного критерия Акаике, определяемый как:
2δ) + 1)
|
|
|
Небольшой размер выборки, скорректированный информационный критерий Акаике, определяемый как:
np − 1)
Эта метрика часто является более надежной для выбора модели оптимальной сложности из списка моделей-кандидатов, когда размер данных N мал. |
|
|
Нормализованная мера информационного критерия Акаике, определяемая как:
+2∗npN
|
|
|
Байесовский информационный критерий, определяемый как:
+np∗log (N)
|
aic | fpe | goodnessOfFit | nparams | pe | predict | sim