Информационные критерии

Тесты сравнения модели — такие как отношение правдоподобия, множитель Лагранжа или Вальдов тест — только подходят для сравнения вложенных моделей. В отличие от этого информационные критерии являются инструментами выбора модели, которые можно использовать, чтобы сравнить любую подгонку моделей к тем же данным. Таким образом, сравниваемые модели не должны быть вложены.

В основном информационные критерии являются основанными на вероятности мерами подгонки модели, которые включают штраф за сложность (а именно, количество параметров). Различные информационные критерии отличает форма штрафа и могут предпочесть различные модели.

Пусть журналL(θ^) обозначьте значение максимизируемой целевой функции логарифмической правдоподобности для модели с подгонкой параметров k к точкам данных N. Два обычно используемых информационных критерия:

  • Критерий информации о Akaike (AIC). AIC сравнивает модели с точки зрения информационной энтропии, как измерено расхождением Kullback-Leibler. AIC для данной модели

    2журналL(θ^)+2k.

    При сравнении значений AIC для многоуровневых моделей меньшие значения критерия лучше.

  • Байесов информационный критерий (BIC). BIC, также известный как критерий информации о Шварце, сравнивает модели с точки зрения теории решений, как измерено ожидаемой потерей. BIC для данной модели

    2журналL(θ^)+kжурнал(N).

    При сравнении значений BIC для многоуровневых моделей меньшие значения критерия лучше.

Примечание

Некоторые ссылки масштабируют информационные значения критериев количеством наблюдений (N). Econometrics Toolbox™ не делает этого масштабирования. В результате абсолютное значение мер возвраты тулбокса может отличаться от других источников фактором N.

Смотрите также

Связанные примеры

Больше о

Для просмотра документации необходимо авторизоваться на сайте