Программное обеспечение System Identification Toolbox™ оценивает параметры модели путем минимизации ошибки между выходом модели и измеренного отклика. Эта ошибка, называемая loss function или cost function, является положительной функцией ошибок предсказания e (t). В целом эта функция является взвешенной суммой квадратов ошибок. Для модели с ny -выходы функция потерь V (θ) имеет следующую общую форму:
где:
N - количество выборок данных.
e (t, θ) ny вектор ошибки -by-1 в заданный временной t, параметризованный вектором θ параметра.
W (θ) является взвешивающей матрицей, заданной как положительная полуопределенная матрица. Если W является диагональной матрицей, можно думать о ней как о способе управления относительной важностью выходов во время многозначных оценок. Когда W является фиксированным или известным весом, это не зависит от θ.
Программа определяет значения параметров путем минимизации V (θ) относительно θ.
Для нотационного удобства V (θ) выражается в своей матричной форме:
E (θ) является матрицей ошибок размера N -by- ny. Строка i: th E (θ) представляет значение ошибки в момент времени t = i.
Точная форма V (θ) зависит от следующих факторов:
Вы можете сконфигурировать функцию потерь для ваших потребностей приложения. Следующие опции оценки, когда доступны для оценщика, конфигурируют функцию потерь:
Опция оценки | Описание | Примечания |
---|---|---|
|
Примечание Для моделей, чей шумовой компонент тривиален, (H (q) = 1), e p (t) и e s (t) эквивалентны. The | |
|
Когда вы задаете фильтр взвешивания, предфильтрованное предсказание или ошибка симуляции минимизируется:
где является линейным фильтром. The |
|
|
Когда |
|
|
|
|
|
где:
v ошибки (t,
|
|
|
Функция потерь настраивается с целью минимизации ошибок предсказания. Он не включает конкретные ограничения на отклонение (меру надежности) предполагаемых параметров. Это иногда может привести к моделям с большой неопределенностью в предполагаемых параметрах модели, особенно когда модель имеет много параметров.
Второй член представляет собой взвешенную (R) и масштабированную ( |
|
Focus
и WeightingFilter
Опции функции потерьThe Focus
опция может быть интерпретирована как фильтр взвешивания в функции потерь. The WeightingFilter
опция является дополнительным пользовательским фильтром взвешивания, который применяется к функции потерь.
Чтобы понять эффект Focus
и WeightingFilter
, рассмотрите линейную модель с одним входом с одним выходом:
Где G (q, θ) - измеренная передаточная функция, H (q, θ) - шумовая модель, а e (t) представляет аддитивные нарушения порядка, смоделированную как белый Гауссов шум. q - оператор сдвига во времени.
В частотном диапазоне линейная модель может быть представлена как:
где Y (ω), U (ω) и E (ω) являются преобразованиями Фурье выходной, входной и выходной ошибок, соответственно. G (ω, θ) и H (ω, θ) представляют частотную характеристику входно-выходных и шумовых передаточных функций, соответственно.
Функция потерь, которая будет минимизирована для модели SISO, задается:
Используя Тождества Парсеваля, функция потерь в частотном диапазоне является:
Замена E (ω) дает:
Таким образом, можно интерпретировать минимизацию функции потерь, V как аппроксимацию G (θ, ω) к эмпирической передаточной функции, использование в качестве утяжеляющего фильтра. Это соответствует указанию Focus
как 'prediction'
. Оценка подчеркивает частоты, где вход имеет больше мощности ( больше) и снимает акцент на частотах, где шум значителен ( большой).
Когда Focus
задается как 'simulation'
, обратное взвешивание с не используется. То есть для взвешивания относительной важности входа оценки в определенной частотной подгонке используется только область значений спектр.
Когда вы задаете линейный фильтр как WeightingFilter
, он используется в качестве дополнительного пользовательского взвешивания в функции потерь.
Здесь - частотная характеристика фильтра. Использовать улучшить подгонку модели к наблюдаемым данным на определенных частотах, так чтобы подчеркнуть подгонку близкой к системным резонансным частотам.
Предполагаемое значение передаточной функции ввода- G то же самое, что и то, что вы получаете, если вы сначала предварительно фильтруете данные оценки с использование idfilt
, а затем оцените модель, не задав WeightingFilter
. Однако эффект от предполагаемой модели шума H зависит от выбора Focus
:
Focus
является 'prediction'
- Программное обеспечение минимизирует взвешенную ошибку предсказания , и предполагаемая модель имеет вид:
Где . Таким образом, оценка с особым вниманием предсказания создает смещенную оценку H. Это та же предполагаемая модель шума, которую вы получаете, если вы вместо этого сначала предварительно фильтруете данные оценки с использование idfilt
, и затем оцените модель.
Когда H параметризируется независимо от G, можно обработать фильтр как способ влияния на распределение смещения оценки. То есть можно сформировать компромисс между подбором кривой G к частотной характеристике системы и подбором кривой к спектру нарушения порядка при минимизации функции потерь. Для получения дополнительной информации смотрите, раздел 14.4 в Система Идентификации: Theory for the User, Second Edition, Lennart Ljung, Prentice Hall PTR, 1999.
Focus
является 'simulation'
- Программное обеспечение сначала оценивает G путем минимизации взвешенной ошибки симуляции , где . После оценки G программа исправляет его и вычисляет H путем минимизации чистых ошибок предсказания e (t) с использованием нефильтрованных данных. Предполагаемая модель имеет вид:
Если вы сначала предварительно фильтруете данные, а затем оцениваете модель, вы получаете ту же оценку для G, но получаете предвзятую модель шума .
Таким образом, WeightingFilter
имеет тот же эффект, что и предварительная фильтрация данных оценки для оценки G. Для оценки H, эффекта WeightingFilter
зависит от выбора Focus
. A предсказания особого внимания оценивает смещенную версию модели шума , в то время как особое внимание симуляции оценивает H. Предварительная фильтрация данных оценки, а затем оценка модели всегда дает как модель шума.
После оценки модели используйте метрики качества модели, чтобы оценить качество идентифицированных моделей, сравнить различные модели и выбрать лучшую. The Report.Fit
свойство идентифицированной модели хранит различные метрики, такие как FitPercent
, LossFcn
, FPE
, MSE
, AIC
, nAIC
, AICc
, и BIC
значения.
FitPercent
, LossFcn
, и MSE
являются показателями фактической величины, которая минимизируется во время оценки. Для примера, если Focus
является 'simulation'
эти величины вычисляются для ошибки симуляции e s (t). Точно так же, если вы задаете WeightingFilter
опция, затем LossFcn
, FPE
, и MSE
вычисляются с использованием фильтрованных невязок e f (t).
FPE
, AIC
, nAIC
, AICc
, и BIC
меры вычисляются как свойства выходного нарушения порядка в зависимости:
G (q) и H (q) представляют измеренные и шумовые компоненты предполагаемой модели.
Независимо от того, как сконфигурирована функция потерь, вектор e ошибок (t) вычисляется как 1-ступенчатая ошибка предсказания с использованием заданной модели и заданного набора данных. Это подразумевает, что, даже когда модель получена путем минимизации ошибки симуляции e s (t), FPE и различные значения AIC все еще вычисляются с использованием ошибки предсказания e p (t). Фактическое значение e p (t) определяется с помощью pe
команда с горизонтом предсказания 1 и с использованием начальных условий, заданных для оценки.
Эти метрики содержат два термина - один для описания точности модели и другой для описания ее сложности. Для примера, в FPE, описывает точность модели и описывает сложность модели.
Путем сравнения моделей с помощью этих критериев можно выбрать модель, которая дает лучший (наименьшее значение критерия) компромисс между точностью и сложностью.
Метрика качества | Описание |
---|---|
|
Нормированная средняя квадратичная невязка корня (NRMSE), выраженная в процентах, определяемых как:
где:
|
|
Значение функции потерь, когда оценка завершается. Он содержит эффекты порогов ошибок, выходного веса и регуляризации, используемые для оценки. |
|
Средняя квадратичная невязка, заданная как:
где:
|
|
Окончательная ошибка предсказания (FPE) Акайке, заданная как:
где:
|
|
Необработанная мера информационного критерия Акайке, определяемая как:
|
|
Небольшой размер выборки исправил информационный критерий Акайке, заданный как:
Эта метрика часто более надежна для выбора модели оптимальной сложности из списка моделей-кандидатов, когда размер данных N небольшой. |
|
Нормированная мера информационного критерия Акайке, определяемая как:
|
|
Байесовский информационный критерий, определяемый как:
|
aic
| fpe
| goodnessOfFit
| nparams
| pe
| predict
| sim