Информационные критерии выбора модели

Тесты Misspecification, такие как отношение правдоподобия (lratiotest), множитель Лагранжа (lmtest), и Вальд (waldtest) тесты, подходят только для сравнения вложенных моделей. В отличие от этого информационные критерии являются инструментами выбора модели, чтобы сравнить любую подгонку моделей к тем же данным — сравниваемые модели не должны быть вложены.

Информационные критерии являются основанными на вероятности мерами подгонки модели, которые включают штраф за сложность (а именно, количество параметров). Различные информационные критерии отличает форма штрафа и могут способствовать различным моделям.

Пусть logL(θ^) обозначьте значение максимизируемой целевой функции логарифмической правдоподобности для модели с подгонкой параметров k к точкам данных T. aicbic функция возвращает эти информационные критерии:

  • Критерий информации о Akaike (AIC). — AIC сравнивает модели с точки зрения информационной энтропии, как измерено расхождением Kullback-Leibler. AIC для данной модели

    2logL(θ^)+2k.

  • Байесов (Шварц) информационный критерий (BIC) — BIC сравнивает модели с точки зрения теории решений, как измерено ожидаемой потерей. BIC для данной модели

    2logL(θ^)+klog(T).

  • Откорректированный AIC (AICc) — В небольших выборках, AIC имеет тенденцию сверхсоответствовать. AICc добавляет срок коррекции смещения второго порядка в AIC для лучшей эффективности в небольших выборках. AICc для данной модели

    AIC+2k(k+1)Tk1.

    Срок коррекции смещения увеличивает штраф на количестве параметров относительно AIC. Поскольку термин приближается 0 с увеличением объема выборки, AIC подходов AICc асимптотически.

    Анализ в [3] предлагает использовать AICc когда numObs/numParam< 40 .

  • Сопоставимый AIC (CAIC) — CAIC налагает дополнительный штраф за сложные модели, по сравнению с BIC. CAIC для данной модели

    2logL(θ^)+k(log(T)+1)=BIC+k.

  • Критерий Ханана-Квинна (HQC) — HQC налагает меньший штраф на сложные модели, чем BIC в больших выборках. HQC для данной модели

    2logL(θ^)+2klog(log(T)).

Независимо от информационного критерия, когда вы сравниваете значения для многоуровневых моделей, меньшие значения критерия указывают на лучшее, больше экономной подгонки.

Некоторые эксперты масштабируют информационные значения критериев T. aicbic шкалы заканчиваются, когда вы устанавливаете 'Normalize' аргумент пары "имя-значение" true.

Вычислите информационные критерии Используя aicbic

В этом примере показано, как использовать aicbic чтобы вычислить информационные критерии нескольких конкурирующих моделей GARCH соответствуют к симулированным данным. Несмотря на то, что этот пример использует aicbic, некоторая модель Statistics and Machine Learning Toolbox™ и Econometrics Toolbox™, соответствующая функциям также, возвращает информационные критерии в их сводных данных оценки.

Симулируйте данные

Симулируйте случайный путь длины 50 от ДУГИ (1) генерирующийся процесс данных (DGP)

yt=εtεt2=0.5+0.1εt-12,

где εt случайная серия Gaussian инноваций.

rng(1)  % For reproducibility
DGP = garch('ARCH',{0.1},'Constant',0.5);
T = 50;
y = simulate(DGP,T);

plot(y)
ylabel('Innovation')
xlabel('Time')

Figure contains an axes. The axes contains an object of type line.

Создайте конкурирующие модели

Примите, что DGP неизвестен, и что ДУГА (1), GARCH (1,1), ДУГА (2), и модели GARCH(1,2) подходит для описания DGP.

Для каждой конкурирующей модели создайте garch шаблон модели для оценки.

Mdl(1) = garch(0,1);
Mdl(2) = garch(1,1);
Mdl(3) = garch(0,2);
Mdl(4) = garch(1,2);

Оцените модели

Подбирайте каждую модель к симулированным данным y, вычислите логарифмическую правдоподобность и подавите отображение оценки.

numMdl = numel(Mdl);
logL = zeros(numMdl,1);      % Preallocate
numParam = zeros(numMdl,1);
for j = 1:numMdl
    [EstMdl,~,logL(j)] = estimate(Mdl(j),y,'Display','off');
    results = summarize(EstMdl);
    numParam(j) = results.NumEstimatedParameters;
end

Вычислите и сравните информационные критерии

Для каждой модели вычислите все доступные информационные критерии. Нормируйте результаты на объем выборки T.

[~,~,ic] = aicbic(logL,numParam,T,'Normalize',true)
ic = struct with fields:
     aic: [1.7619 1.8016 1.8019 1.8416]
     bic: [1.8384 1.9163 1.9167 1.9946]
    aicc: [1.7670 1.8121 1.8124 1.8594]
    caic: [1.8784 1.9763 1.9767 2.0746]
     hqc: [1.7911 1.8453 1.8456 1.8999]

ic 1D массив структур с полем для каждого информационного критерия. Каждое поле содержит вектор из измерений; элемент j соответствует модели, дающей к логарифмической правдоподобности logL(j).

Для каждого критерия определите модель, которая дает к минимальному значению.

[~,minIdx] = structfun(@min,ic);
[Mdl(minIdx).Description]'
ans = 5x1 string
    "GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
    "GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
    "GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
    "GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"
    "GARCH(0,1) Conditional Variance Model (Gaussian Distribution)"

Модель, которая минимизирует все критерии, является моделью ARCH (1), которая имеет ту же структуру как DGP.

Ссылки

[1] Akaike, Hirotugu. "Теория информации и Расширение Принципа Наибольшего правдоподобия”. В Выбранных Документах Hirotugu Akaike, отредактированного Эмануэлем Парценом, Kunio Танабэ и Genshiro Kitagawa, 199–213. Нью-Йорк: Спрингер, 1998. https://doi.org/10.1007/978-1-4612-1694-0_15.

[2] Akaike, Hirotugu. “Новый Взгляд на Идентификацию Статистической модели”. Транзакции IEEE на Автоматическом управлении 19, № 6 (декабрь 1974): 716–23. https://doi.org/10.1109/TAC.1974.1100705.

[3] Бернэм, Кеннет П. и Дэвид Р. Андерсон. Выбор модели и Вывод Мультимодели: Практический Информационно-теоретический Подход. 2-й редактор, Нью-Йорк: Спрингер, 2002.

[4] Ханан, Эдвард Дж. и Барри Г. Квинн. “Определение Порядка Авторегрессии”. Журнал Королевского Статистического Общества: Серии B (Методологические) 41, № 2 (январь 1979): 190–95. https://doi.org/10.1111/j.2517-6161.1979.tb01072.x.

[5] Lütkepohl, Гельмут, и Маркус Крэциг, редакторы. Прикладная Эконометрика Временных рядов. 1-й редактор издательство Кембриджского университета, 2004. https://doi.org/10.1017/CBO9780511606885.

[6] Шварц, Джидеон. “Оценивая Размерность Модели”. Летопись Статистики 6, № 2 (март 1978): 461–64. https://doi.org/10.1214/aos/1176344136.

Смотрите также

| | |

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте