Для деревьев score классификации вершины является апостериорной вероятностью классификации в том узле. Апостериорная вероятность классификации в узле является количеством обучающих последовательностей, которые приводят к тому узлу с классификацией, разделенной на количество обучающих последовательностей, которые приводят к тому узлу.
Например, считайте классификацию предиктора X как true когда X< 0.15 или X> 0.95 , и X является ложным в противном случае.
Сгенерируйте 100 случайных точек и классифицируйте их:
Сократите дерево:
Сокращенное дерево правильно классифицирует наблюдения, которые меньше 0.15 как true. Это также правильно классифицирует наблюдения от.15 до.94 как false. Однако это неправильно классифицирует наблюдения, которые больше.94 как false. Поэтому счет к наблюдениям, которые больше.15, должен быть о.05/.85 =. 06 для true, и о.8/.85 =. 94 для false.
Вычислите музыку предсказания к первым 10 строкам X:
ans = 10×3
0.9059 0.0941 0.8147
0.9059 0.0941 0.9058
0 1.0000 0.1270
0.9059 0.0941 0.9134
0.9059 0.0941 0.6324
0 1.0000 0.0975
0.9059 0.0941 0.2785
0.9059 0.0941 0.5469
0.9059 0.0941 0.9575
0.9059 0.0941 0.9649
Действительно, каждое значение X (крайний правый столбец), который меньше 0.15, сопоставил баллы (левые и центральные столбцы) 0 и 1, в то время как другие значения X сопоставили множество 0.91 и 0.09. Различие (выигрывают 0.09 вместо ожидаемого .06) происходит из-за статистического колебания: существует 8 наблюдения в X в области значений (.95,1) вместо ожидаемого 5 наблюдения.