Потеря перекрестной проверки разделенной модели регрессии
L = kfoldLoss(cvmodel)
L = kfoldLoss(cvmodel,Name,Value)
возвращает потерю перекрестной проверки L
= kfoldLoss(cvmodel
)cvmodel
.
возвращает потерю перекрестной проверки с дополнительными опциями, заданными одним или несколькими L
= kfoldLoss(cvmodel
,Name,Value
)Name,Value
парные аргументы. Можно задать несколько аргументов пары "имя-значение" в любом порядке как Name1,Value1,…,NameN,ValueN
.
|
Объект класса |
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
|
Индексы сгибов в пределах от Значение по умолчанию: |
|
Указатель на функцию для функции потерь или fun(Y,Yfit,W) где
Возвращенное значение Значение по умолчанию: |
|
Одно из следующего:
Значение по умолчанию: |
|
Потеря (среднеквадратическая ошибка) между наблюдениями в сгибе, когда сравнено с прогнозами, сделанными с деревом, обученным на данных из сгиба. Если |
Создайте разделенную модель регрессии и исследуйте потери перекрестной проверки на сгибы:
load carsmall XX = [Cylinders Displacement Horsepower Weight]; YY = MPG; cvmodel = fitrtree(XX,YY,'crossval','on'); L = kfoldLoss(cvmodel,'mode','individual') L = 44.9635 11.8525 18.2046 9.2965 29.4329 54.8659 24.6446 8.2085 19.7593 16.7394
Можно постараться не создавать перекрестную подтвержденную древовидную модель путем вызова cvloss
вместо kfoldLoss
. Перекрестное подтвержденное дерево может сэкономить время, если вы собираетесь исследовать его несколько раз.
fitrtree
| kfoldPredict
| loss