Вы не можете оценить прогнозирующее качество ансамбля на основе его эффективности на обучающих данных. Ансамбли склонны "перетренироваться", подразумевая, что они производят чрезмерно оптимистические оценки своей предсказательной силы. Это означает результат resubLoss
для классификации (resubLoss
для регрессии), обычно указывает на более низкую ошибку, чем вы входите в новые данные.
Чтобы получить лучшую идею качества ансамбля, используйте один из этих методов:
Оцените ансамбль на независимом наборе тестов (полезный, когда у вас будет много обучающих данных).
Оцените ансамбль перекрестной проверкой (полезный, когда у вас не будет большого количества обучающих данных).
Оцените ансамбль на данных из сумки (полезный, когда вы создадите уволенный ансамбль с fitcensemble
или fitrensemble
).
Этот пример использует уволенный ансамбль, таким образом, он может использовать все три метода оценки качества ансамбля.
Сгенерируйте искусственный набор данных с 20 предикторами. Каждая запись является случайным числом от 0 до 1. Начальная классификация если и в противном случае.
rng(1,'twister') % For reproducibility X = rand(2000,20); Y = sum(X(:,1:5),2) > 2.5;
Кроме того, чтобы добавить шум в результаты, случайным образом переключите 10% классификаций.
idx = randsample(2000,200); Y(idx) = ~Y(idx);
Создайте независимые наборы обучающих данных и наборы тестов данных. Используйте 70% данных для набора обучающих данных путем вызова cvpartition
использование holdout
опция.
cvpart = cvpartition(Y,'holdout',0.3);
Xtrain = X(training(cvpart),:);
Ytrain = Y(training(cvpart),:);
Xtest = X(test(cvpart),:);
Ytest = Y(test(cvpart),:);
Создайте уволенный ансамбль классификации 200 деревьев от обучающих данных.
t = templateTree('Reproducible',true); % For reproducibility of random predictor selections bag = fitcensemble(Xtrain,Ytrain,'Method','Bag','NumLearningCycles',200,'Learners',t)
bag = ClassificationBaggedEnsemble ResponseName: 'Y' CategoricalPredictors: [] ClassNames: [0 1] ScoreTransform: 'none' NumObservations: 1400 NumTrained: 200 Method: 'Bag' LearnerNames: {'Tree'} ReasonForTermination: 'Terminated normally after completing the requested number of training cycles.' FitInfo: [] FitInfoDescription: 'None' FResample: 1 Replace: 1 UseObsForLearner: [1400x200 logical] Properties, Methods
Постройте потерю (misclassification) тестовых данных как функция количества обученных деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) xlabel('Number of trees') ylabel('Test classification error')
Сгенерируйте пятикратный перекрестный подтвержденный уволенный ансамбль.
cv = fitcensemble(X,Y,'Method','Bag','NumLearningCycles',200,'Kfold',5,'Learners',t)
cv = ClassificationPartitionedEnsemble CrossValidatedModel: 'Bag' PredictorNames: {1x20 cell} ResponseName: 'Y' NumObservations: 2000 KFold: 5 Partition: [1x1 cvpartition] NumTrainedPerFold: [200 200 200 200 200] ClassNames: [0 1] ScoreTransform: 'none' Properties, Methods
Исследуйте потерю перекрестной проверки как функцию количества деревьев в ансамбле.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Location','NE')
Перекрестная проверка дает сопоставимые оценки тем из независимого набора.
Сгенерируйте кривую потерь для оценок из сумки и постройте ее наряду с другими кривыми.
figure plot(loss(bag,Xtest,Ytest,'mode','cumulative')) hold on plot(kfoldLoss(cv,'mode','cumulative'),'r.') plot(oobLoss(bag,'mode','cumulative'),'k--') hold off xlabel('Number of trees') ylabel('Classification error') legend('Test','Cross-validation','Out of bag','Location','NE')
Оценки из сумки снова сопоставимы с теми из других методов.
cvpartition
| fitcensemble
| fitrensemble
| kfoldLoss
| loss
| oobLoss
| resubLoss
| resubLoss