Обобщение информационного критерия Акаике для выбора значений непрерывных параметров в моделях данных

Журнал: 
Страница: 
61
УДК: 
004.9311
Применение информационного критерия Акаике (AIC) для выбора класса модели из упорядоченного множества вложенных классов моделей ограничено предположением, что классы определяются возрастающей размерностью вектора параметров. Мы распространили принцип максимума информации по Кульбаку, лежащий в основе классического информационного критерия Акаике, на более широкий класс моделей, в котором размерность вектора параметров фиксирована, но свобода выбора его значений ограничена системой непрерывно вложенных семейств априорных плотностей распределения. Мы проиллюстрировали применение обобщенного критерия Акаике на задаче анализа нестационарного сигнала, регрессионная модель которого меняется во времени.
info_eng: 
The crucial restriction of the Akaike Information Criterion (AIC) as means of adjusting a model to the given data set within a succession of nested parametric model classes is the assumption that the classes are rigidly defined by the growing dimension of an unknown vector parameter. We extend the Kullback information maximization principle underlying the classical AIC onto a wider class of data models in which the dimension of the parameter is fixed, but the freedom of its values is softly constrained by a class of continuously nested a priori probability distributions. We illustrate theproposed continuous generalization of AIC by its application to the problem of time-varying regression estimation which implies the inevitable necessity to choose the time-variability of regression coefficients treated a nonstationary model of the given signal.