Вы не можете оценить прогнозирующее качество ансамбля на основе его эффективности на обучающих данных. Ансамбли склонны "перетренироваться", подразумевая, что они производят чрезмерно оптимистические оценки своей предсказательной силы. Это означает результат resubLoss для классификации (resubLoss для регрессии), обычно указывает на более низкую ошибку, чем вы входите в новые данные.
Чтобы получить лучшую идею качества ансамбля, используйте один из этих методов:
Оцените ансамбль на независимом наборе тестов (полезный, когда у вас будет много обучающих данных).
Оцените ансамбль перекрестной проверкой (полезный, когда у вас не будет большого количества обучающих данных).
Оцените ансамбль на данных из сумки (полезный, когда вы создадите уволенный ансамбль с fitcensemble или fitrensemble).
Этот пример использует уволенный ансамбль, таким образом, он может использовать все три метода оценки качества ансамбля.
Сгенерируйте искусственный набор данных с 20 предикторами. Каждая запись является случайным числом от 0 до 1. Начальная классификация если и в противном случае.
rng(1,'twister') % For reproducibility X = rand(2000,20); Y = sum(X(:,1:5),2) > 2.5;
Кроме того, чтобы добавить шум в результаты, случайным образом переключите 10% классификаций.
idx = randsample(2000,200); Y(idx) = ~Y(idx);
Создайте независимые наборы обучающих данных и наборы тестов данных. Используйте 70% данных для набора обучающих данных путем вызова cvpartition использование holdout опция.
cvpart = cvpartition(Y,'holdout',0.3);
Xtrain = X(training(cvpart),:);
Ytrain = Y(training(cvpart),:);
Xtest = X(test(cvpart),:);
Ytest = Y(test(cvpart),:);Создайте уволенный ансамбль классификации 200 деревьев от обучающих данных.
t = templateTree('Reproducible',true); % For reproducibility of random predictor selections bag = fitcensemble(Xtrain,Ytrain,'Method','Bag','NumLearningCycles',200,'Learners',t)
bag =
ClassificationBaggedEnsemble
ResponseName: 'Y'
CategoricalPredictors: []
ClassNames: [0 1]
ScoreTransform: 'none'
NumObservations: 1400
NumTrained: 200
Method: 'Bag'
LearnerNames: {'Tree'}
ReasonForTermination: 'Terminated normally after completing the requested number of training cycles.'
FitInfo: []
FitInfoDescription: 'None'
FResample: 1
Replace: 1
UseObsForLearner: [1400x200 logical]
Properties, Methods
Постройте потерю (misclassification) тестовых данных в зависимости от количества обученных деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) xlabel('Number of trees') ylabel('Test classification error')

Сгенерируйте пятикратный перекрестный подтвержденный уволенный ансамбль.
cv = fitcensemble(X,Y,'Method','Bag','NumLearningCycles',200,'Kfold',5,'Learners',t)
cv =
ClassificationPartitionedEnsemble
CrossValidatedModel: 'Bag'
PredictorNames: {1x20 cell}
ResponseName: 'Y'
NumObservations: 2000
KFold: 5
Partition: [1x1 cvpartition]
NumTrainedPerFold: [200 200 200 200 200]
ClassNames: [0 1]
ScoreTransform: 'none'
Properties, Methods
Исследуйте потерю перекрестной проверки в зависимости от количества деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Location','NE')

Перекрестная проверка дает сопоставимые оценки тем из независимого набора.
Сгенерируйте кривую потерь для оценок из сумки и постройте ее наряду с другими кривыми.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') plot(oobLoss(bag,'mode','cumulative'),'k--') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Out of bag','Location','NE')

Оценки из сумки снова сопоставимы с теми из других методов.
fitcensemble | fitrensemble | resubLoss | resubLoss | cvpartition | oobLoss | kfoldLoss | loss