Тесты Misspecification, такие как отношение правдоподобия (lratiotest
), множитель Лагранжа (lmtest
), и Вальд (waldtest
) тесты, подходят только для сравнения вложенных моделей. В отличие от этого информационные критерии являются инструментами выбора модели, чтобы сравнить любую подгонку моделей к тем же данным — сравниваемые модели не должны быть вложены.
Информационные критерии являются основанными на вероятности мерами подгонки модели, которые включают штраф за сложность (а именно, количество параметров). Различные информационные критерии отличает форма штрафа и могут способствовать различным моделям.
Пусть обозначьте значение максимизируемой целевой функции логарифмической правдоподобности для модели с подгонкой параметров k к точкам данных T. aicbic
функция возвращает эти информационные критерии:
Критерий информации о Akaike (AIC). — AIC сравнивает модели с точки зрения информационной энтропии, как измерено расхождением Kullback-Leibler. AIC для данной модели
Байесов (Шварц) информационный критерий (BIC) — BIC сравнивает модели с точки зрения теории решений, как измерено ожидаемой потерей. BIC для данной модели
Откорректированный AIC (AICc) — В небольших выборках, AIC имеет тенденцию сверхсоответствовать. AICc добавляет срок коррекции смещения второго порядка в AIC для лучшей эффективности в небольших выборках. AICc для данной модели
Срок коррекции смещения увеличивает штраф на количестве параметров относительно AIC. Поскольку термин приближается 0 с увеличением объема выборки, AIC подходов AICc асимптотически.
Анализ в [3] предлагает использовать AICc когда numObs/numParam
< 40 .
Сопоставимый AIC (CAIC) — CAIC налагает дополнительный штраф за сложные модели, по сравнению с BIC. CAIC для данной модели
Критерий Ханана-Квинна (HQC) — HQC налагает меньший штраф на сложные модели, чем BIC в больших выборках. HQC для данной модели
Независимо от информационного критерия, когда вы сравниваете значения для многоуровневых моделей, меньшие значения критерия указывают на лучшее, больше экономной подгонки.
Некоторые эксперты масштабируют информационные значения критериев T. aicbic
шкалы заканчиваются, когда вы устанавливаете 'Normalize'
аргумент пары "имя-значение" true
.
aicbic
В этом примере показано, как использовать aicbic
чтобы вычислить информационные критерии нескольких конкурирующих моделей GARCH соответствуют к симулированным данным. Несмотря на то, что этот пример использует aicbic
, некоторая модель Statistics and Machine Learning Toolbox™ и Econometrics Toolbox™, соответствующая функциям также, возвращает информационные критерии в их сводных данных оценки.
Симулируйте данные
Симулируйте случайный путь длины 50 от ДУГИ (1) генерирующийся процесс данных (DGP)
где случайная серия Gaussian инноваций.
rng(1) % For reproducibility DGP = garch('ARCH',{0.1},'Constant',0.5); T = 50; y = simulate(DGP,T); plot(y) ylabel('Innovation') xlabel('Time')
Создайте конкурирующие модели
Примите, что DGP неизвестен, и что ДУГА (1), GARCH (1,1), ДУГА (2), и модели GARCH(1,2) подходит для описания DGP.
Для каждой конкурирующей модели создайте garch
шаблон модели для оценки.
Mdl(1) = garch(0,1); Mdl(2) = garch(1,1); Mdl(3) = garch(0,2); Mdl(4) = garch(1,2);
Оцените модели
Подбирайте каждую модель к симулированным данным y
, вычислите логарифмическую правдоподобность и подавите отображение оценки.
numMdl = numel(Mdl); logL = zeros(numMdl,1); % Preallocate numParam = zeros(numMdl,1); for j = 1:numMdl [EstMdl,~,logL(j)] = estimate(Mdl(j),y,'Display','off'); results = summarize(EstMdl); numParam(j) = results.NumEstimatedParameters; end
Вычислите и сравните информационные критерии
Для каждой модели вычислите все доступные информационные критерии. Нормируйте результаты на объем выборки T
.
[~,~,ic] = aicbic(logL,numParam,T,'Normalize',true)
ic = struct with fields:
aic: [1.7619 1.8016 1.8019 1.8416]
bic: [1.8384 1.9163 1.9167 1.9946]
aicc: [1.7670 1.8121 1.8124 1.8594]
caic: [1.8784 1.9763 1.9767 2.0746]
hqc: [1.7911 1.8453 1.8456 1.8999]
ic
1D массив структур с полем для каждого информационного критерия. Каждое поле содержит вектор из измерений; элемент j
соответствует модели, дающей к логарифмической правдоподобности logL(
j
)
.
Для каждого критерия определите модель, которая дает к минимальному значению.
[~,minIdx] = structfun(@min,ic); [Mdl(minIdx).Description]'
ans = 5x1 string
"GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
"GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
"GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
"GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
"GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
Модель, которая минимизирует все критерии, является моделью ARCH (1), которая имеет ту же структуру как DGP.
[1] Akaike, Hirotugu. "Теория информации и Расширение Принципа Наибольшего правдоподобия”. В Выбранных Документах Hirotugu Akaike, отредактированного Эмануэлем Парценом, Kunio Танабэ и Genshiro Kitagawa, 199–213. Нью-Йорк: Спрингер, 1998. https://doi.org/10.1007/978-1-4612-1694-0_15.
[2] Akaike, Hirotugu. “Новый Взгляд на Идентификацию Статистической модели”. Транзакции IEEE на Автоматическом управлении 19, № 6 (декабрь 1974): 716–23. https://doi.org/10.1109/TAC.1974.1100705.
[3] Бернэм, Кеннет П. и Дэвид Р. Андерсон. Выбор модели и Вывод Мультимодели: Практический Информационно-теоретический Подход. 2-й редактор, Нью-Йорк: Спрингер, 2002.
[4] Ханан, Эдвард Дж. и Барри Г. Квинн. “Определение Порядка Авторегрессии”. Журнал Королевского Статистического Общества: Серии B (Методологические) 41, № 2 (январь 1979): 190–95. https://doi.org/10.1111/j.2517-6161.1979.tb01072.x.
[5] Lütkepohl, Гельмут, и Маркус Крэциг, редакторы. Прикладная Эконометрика Временных рядов. 1-й редактор издательство Кембриджского университета, 2004. https://doi.org/10.1017/CBO9780511606885.
[6] Шварц, Джидеон. “Оценивая Размерность Модели”. Летопись Статистики 6, № 2 (март 1978): 461–64. https://doi.org/10.1214/aos/1176344136.
aicbic
| lmtest
| lratiotest
| waldtest