Нелинейная регрессия
возвращает вектор оцененных коэффициентов для нелинейной регрессии ответов в beta = nlinfit(X,Y,modelfun,beta0)Y на предикторах в X использование модели, заданной как modelfun. Коэффициенты оцениваются с помощью итерационной оценки методом наименьших квадратов с начальными значениями, заданными beta0.
использует дополнительные опции, заданные одним или несколькими аргументами пары "имя-значение". Для примера можно задать веса наблюдений или неконстантную модель ошибки. Можно использовать любой из входных параметров в предыдущих синтаксисах.beta = nlinfit(___,Name,Value)
Чтобы создать оценки ошибок для предсказаний, используйте необязательные выходные аргументы R, J, CovB, или MSE как входы nlpredci.
Чтобы создать оценки ошибок на оценочных коэффициентах, beta, используйте необязательные выходные аргументы R, J, CovB, или MSE как входы nlparci.
Если вы используете опцию робастного фитинга, RobustWgtFun, вы должны использовать CovB- и может понадобиться MSE- как входы для nlpredci или nlparci чтобы убедиться, что доверительные интервалы должным образом учитывают устойчивую подгонку.
nlinfit лечит NaN значения в Y или modelfun(beta0,X) как отсутствующие данные и игнорирует соответствующие наблюдения.
Для некомбусной оценки, nlinfit использует алгоритм нелинейного метода наименьших квадратов Левенберга-Марквардта [1].
Для устойчивой оценки, nlinfit использует алгоритм итерационно-перевзвешенного метода наименьших квадратов ([2], [3]). При каждой итерации устойчивые веса пересчитываются на основе невязки каждого наблюдения от предыдущей итерации. Эти веса снижают выбросы веса, так что их влияние на подгонку уменьшается. Итерации продолжаются до тех пор, пока веса не сходятся.
Когда вы задаете указатель на функцию для весов наблюдений, веса зависят от подобранной модели. В этом случае nlinfit использует итерационный обобщенный алгоритм наименьших квадратов, чтобы соответствовать нелинейной регрессионой модели.
[1] Seber, G. A. F., and C. J. Wild. Нелинейная регрессия. Hoboken, NJ: Wiley-Interscience, 2003.
[2] DuMouchel, W. H., and F. L. O'Brien. «Интеграция робастной опции в окружение нескольких регрессионных вычислений». Информатика и статистика: материалы 21-го симпозиума по интерфейсам. Александрия, VA: Американская статистическая ассоциация, 1989.
[3] Голландия, П. У. и Р. Э. Уэлш. Робастная регрессия с использованием итерационно переоцененных методом наименьших квадратов. Коммуникации в статистике: теория и методы, A6, 1977, с. 813-827.