Потеря перекрестной проверки разделенной модели регрессии
L = kfoldLoss(cvmodel)
L = kfoldLoss(cvmodel,Name,Value)
возвращает потерю перекрестной проверки L = kfoldLoss(cvmodel)cvmodel.
возвращает потерю перекрестной проверки с дополнительными опциями, заданными одним или несколькими L = kfoldLoss(cvmodel,Name,Value)Name,Value парные аргументы. Можно задать несколько аргументов пары "имя-значение" в любом порядке как Name1,Value1,…,NameN,ValueN.
|
Объект класса |
Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.
|
Индексы сгибов в пределах от Значение по умолчанию: |
|
Указатель на функцию для функции потерь или fun(Y,Yfit,W) где
Возвращенное значение Значение по умолчанию: |
|
Одно из следующего:
Значение по умолчанию: |
|
Потеря (среднеквадратическая ошибка) между наблюдениями в сгибе, когда сравнено с прогнозами, сделанными с деревом, обученным на данных из сгиба. Если |
Создайте разделенную модель регрессии и исследуйте потери перекрестной проверки на сгибы:
load carsmall
XX = [Cylinders Displacement Horsepower Weight];
YY = MPG;
cvmodel = fitrtree(XX,YY,'crossval','on');
L = kfoldLoss(cvmodel,'mode','individual')
L =
44.9635
11.8525
18.2046
9.2965
29.4329
54.8659
24.6446
8.2085
19.7593
16.7394Можно постараться не создавать перекрестную подтвержденную древовидную модель путем вызова cvloss вместо kfoldLoss. Перекрестное подтвержденное дерево может сэкономить время, если вы собираетесь исследовать его несколько раз.
fitrtree | kfoldPredict | loss