Оцените общие модели ввода - вывода с помощью рекурсивного метода минимизации ошибки предсказания
thm = rpem(z,nn,adm,adg) [thm,yhat,P,phi,psi] = rpem(z,nn,adm,adg,th0,P0,phi0,psi0)
rpem не совместимо с MATLAB® Coder™ или MATLAB Compiler™. Для особых случаев ARX, AR, ARMA, ARMAX, Поле-Jenkins и модели Output-Error, используют recursiveARX, recursiveAR, recursiveARMA, recursiveARMAX, recursiveBJ, и recursiveOE, соответственно.
Параметры общей линейной структуры модели
оцениваются с помощью рекурсивного ошибочного метода предсказания.
Данные ввода - вывода содержатся в z, который является любой iddata возразите или матричный z = [y u] где y и u вектор-столбцы. (В нескольких - входной случай, u содержит один столбец для каждого входа.) nn дан как
nn = [na nb nc nd nf nk]
где na, nb, nc, nd, и nf порядки модели и nk задержка. Для нескольких - входные системы, nb, nf, и nk векторы-строки, дающие распоряжения и задержки каждого входа. Смотрите то, Что Полиномиальные модели? для точного определения порядков.
Предполагаемые параметры возвращены в матричном thm. kстрока th thm содержит параметры, сопоставленные со временем k; то есть, они основаны на данных в строках до и включая строку k в z. Каждая строка thm содержит предполагаемые параметры в следующем порядке.
thm(k,:) = [a1,a2,...,ana,b1,...,bnb,... c1,...,cnc,d1,...,dnd,f1,...,fnf]
Для нескольких - входные системы, часть B в вышеупомянутом выражении повторяется для каждого входа, прежде чем часть C начнется, и часть F также повторяется для каждого входа. Это - то же упорядоченное расположение как в m.par.
yhat ожидаемое значение выхода, согласно текущей модели; то есть, строка k из yhat содержит ожидаемое значение y(k) на основе всех прошлых данных.
Фактический алгоритм выбран с этими двумя аргументами adg и adm:
adm = 'ff' и adg = lam задайте забывающий факторный алгоритм с фактором упущения λ=lam. Этот алгоритм также известен как рекурсивные наименьшие квадраты (RLS). В этом случае, матричный P имеет следующую интерпретацию: R2 /2 P приблизительно равно ковариационной матрице предполагаемых параметров. R2 является отклонением инноваций (истинные ошибки предсказания e (t)).
adm ='ug' и adg = gam задайте ненормированный алгоритм градиента с гаммой усиления = gam. Этот алгоритм также известен как нормированный наименьшее количество средних квадратичных (LMS).
adm ='ng' и adg = gam задайте нормированный градиент или алгоритм нормированного наименьшее количество средних квадратичных (NLMS). В этих случаях, P не применимо.
adm ='kf' и adg =R1 задайте основанный на фильтре Калмана алгоритм с R2 =1 и R1 = R1. Если отклонение инноваций e (t) не является единицей, но R2; затем R2* P ковариационная матрица оценок параметра, в то время как R1 = R1 /R2 ковариационная матрица изменений параметра.
Входной параметр th0 содержит начальное значение параметров, вектор-строка, сопоставимый со строками thm. Значение по умолчанию th0 все нули.
Аргументы P0 и P начальные и окончательные значения, соответственно, масштабированной ковариационной матрицы параметров. Значение по умолчанию P0 104 времена единичная матрица. Аргументы phi0, psi0, phi, и psi содержите начальные и окончательные значения вектора данных и вектора градиента, соответственно. Размеры их зависят от выбранных порядков модели. Нормальный выбор phi0 и psi0 должен использовать выходные параметры от предыдущего вызова до rpem с теми же порядками модели. (Этот вызов мог быть фиктивным вызовом с входными параметрами по умолчанию.) Значения по умолчанию phi0 и psi0 все нули.
Обратите внимание на то, что функция требует что задержка nk будьте более крупными, чем 0. Если вы хотите nk = 0, переключите входную последовательность соответственно и используйте nk = 1.
Задайте порядок и задержки структуры полиномиальной модели.
na = 2; nb = 1; nc = 1; nd = 1; nf = 0; nk = 1;
Загрузите данные об оценке.
load iddata1 z1
Оцените использование параметров, забыв факторный алгоритм с упущением фактора 0.99.
EstimatedParameters = rpem(z1,[na nb nc nd nf nk],'ff',0.99);Получите последний набор предполагаемых параметров.
p = EstimatedParameters(end,:);
Создайте полиномиальную модель предполагаемыми параметрами.
sys = idpoly([1 p(1:na)],... % A polynomial [zeros(1,nk) p(na+1:na+nb)],... % B polynomial [1 p(na+nb+1:na+nb+nc)],... % C polynomial [1 p(na+nb+nc+1:na+nb+nc+nd)]); % D polynomial sys.Ts = z1.Ts;
Сравните предполагаемый выход с результатами измерений.
compare(z1,sys);

Общий рекурсивный ошибочный алгоритм предсказания (11.44) из Ljung (1999) реализован. См. также Рекурсивные алгоритмы для Онлайновой Оценки Параметра.
nkshift | recursiveAR | recursiveARX | recursiveARMA | recursiveARMAX | recursiveBJ | recursiveOE | rplr