Нелинейная регрессия
возвращает вектор оцененных коэффициентов для нелинейной регрессии ответов в beta
= nlinfit(X
,Y
,modelfun
,beta0
)Y
на предикторах в X
использование модели, заданной как modelfun
. Коэффициенты оцениваются с помощью итерационной оценки методом наименьших квадратов с начальными значениями, заданными beta0
.
использует дополнительные опции, заданные одним или несколькими аргументами пары "имя-значение". Для примера можно задать веса наблюдений или неконстантную модель ошибки. Можно использовать любой из входных параметров в предыдущих синтаксисах.beta
= nlinfit(___,Name,Value
)
Чтобы создать оценки ошибок для предсказаний, используйте необязательные выходные аргументы R
, J
, CovB
, или MSE
как входы nlpredci
.
Чтобы создать оценки ошибок на оценочных коэффициентах, beta
, используйте необязательные выходные аргументы R
, J
, CovB
, или MSE
как входы nlparci
.
Если вы используете опцию робастного фитинга, RobustWgtFun
, вы должны использовать CovB
- и может понадобиться MSE
- как входы для nlpredci
или nlparci
чтобы убедиться, что доверительные интервалы должным образом учитывают устойчивую подгонку.
nlinfit
лечит NaN
значения в Y
или modelfun(beta0,X)
как отсутствующие данные и игнорирует соответствующие наблюдения.
Для некомбусной оценки, nlinfit
использует алгоритм нелинейного метода наименьших квадратов Левенберга-Марквардта [1].
Для устойчивой оценки, nlinfit
использует алгоритм итерационно-перевзвешенного метода наименьших квадратов ([2], [3]). При каждой итерации устойчивые веса пересчитываются на основе невязки каждого наблюдения от предыдущей итерации. Эти веса снижают выбросы веса, так что их влияние на подгонку уменьшается. Итерации продолжаются до тех пор, пока веса не сходятся.
Когда вы задаете указатель на функцию для весов наблюдений, веса зависят от подобранной модели. В этом случае nlinfit
использует итерационный обобщенный алгоритм наименьших квадратов, чтобы соответствовать нелинейной регрессионой модели.
[1] Seber, G. A. F., and C. J. Wild. Нелинейная регрессия. Hoboken, NJ: Wiley-Interscience, 2003.
[2] DuMouchel, W. H., and F. L. O'Brien. «Интеграция робастной опции в окружение нескольких регрессионных вычислений». Информатика и статистика: материалы 21-го симпозиума по интерфейсам. Александрия, VA: Американская статистическая ассоциация, 1989.
[3] Голландия, П. У. и Р. Э. Уэлш. Робастная регрессия с использованием итерационно переоцененных методом наименьших квадратов. Коммуникации в статистике: теория и методы, A6, 1977, с. 813-827.