Вы не можете оценить прогнозирующее качество ансамбля на основе его эффективности на обучающих данных. Ансамбли, как правило, «переобучаются», что означает, что они дают слишком оптимистичные оценки своей прогностической степени. Это означает результат resubLoss
для классификации (resubLoss
для регрессии) обычно указывает на более низкую ошибку, чем вы получаете на новых данных.
Чтобы получить лучшее представление о качестве ансамбля, используйте один из следующих методов:
Оцените ансамбль на независимом тестовом наборе (полезном, когда у вас есть много обучающих данных).
Оцените ансамбль по перекрестной валидации (полезно, когда у вас нет много обучающих данных).
Оцените ансамбль по данным вне сумки (полезно, когда вы создаете упакованный ансамбль с fitcensemble
или fitrensemble
).
Этот пример использует упакованный ансамбль, чтобы он мог использовать все три метода оценки качества ансамбля.
Сгенерируйте искусственный набор данных с 20 предикторами. Каждая запись является случайным числом от 0 до 1. Начальная классификация если и в противном случае.
rng(1,'twister') % For reproducibility X = rand(2000,20); Y = sum(X(:,1:5),2) > 2.5;
В сложение, чтобы добавить шум к результатам, случайным образом переключите 10% классификаций.
idx = randsample(2000,200); Y(idx) = ~Y(idx);
Создайте независимые наборы обучающих и тестовых данных. Используйте 70% данных для набора обучающих данных по телефону cvpartition
использование holdout
опция.
cvpart = cvpartition(Y,'holdout',0.3);
Xtrain = X(training(cvpart),:);
Ytrain = Y(training(cvpart),:);
Xtest = X(test(cvpart),:);
Ytest = Y(test(cvpart),:);
Создайте пакетированный классификационный ансамбль из 200 деревьев по обучающие данные.
t = templateTree('Reproducible',true); % For reproducibility of random predictor selections bag = fitcensemble(Xtrain,Ytrain,'Method','Bag','NumLearningCycles',200,'Learners',t)
bag = ClassificationBaggedEnsemble ResponseName: 'Y' CategoricalPredictors: [] ClassNames: [0 1] ScoreTransform: 'none' NumObservations: 1400 NumTrained: 200 Method: 'Bag' LearnerNames: {'Tree'} ReasonForTermination: 'Terminated normally after completing the requested number of training cycles.' FitInfo: [] FitInfoDescription: 'None' FResample: 1 Replace: 1 UseObsForLearner: [1400x200 logical] Properties, Methods
Постройте график потерь (неправильной классификации) тестовых данных как функции от количества обученных деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) xlabel('Number of trees') ylabel('Test classification error')
Сгенерируйте пятикратный перекрестно проверенный упакованный ансамбль.
cv = fitcensemble(X,Y,'Method','Bag','NumLearningCycles',200,'Kfold',5,'Learners',t)
cv = ClassificationPartitionedEnsemble CrossValidatedModel: 'Bag' PredictorNames: {1x20 cell} ResponseName: 'Y' NumObservations: 2000 KFold: 5 Partition: [1x1 cvpartition] NumTrainedPerFold: [200 200 200 200 200] ClassNames: [0 1] ScoreTransform: 'none' Properties, Methods
Исследуйте потери перекрестной валидации как функцию от количества деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Location','NE')
Перекрестная валидация дает сопоставимые оценки с оценками независимого набора.
Сгенерируйте кривую потерь для оценок вне мешка и постройте ее график вместе с другими кривыми.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') plot(oobLoss(bag,'mode','cumulative'),'k--') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Out of bag','Location','NE')
Оценки вне мешка снова сопоставимы с оценками других методов.
cvpartition
| fitcensemble
| fitrensemble
| kfoldLoss
| loss
| oobLoss
| resubLoss
| resubLoss