Для деревьев score классификации вершины является апостериорной вероятностью классификации в том узле. Апостериорная вероятность классификации в узле является количеством обучающих последовательностей, которые приводят к тому узлу с классификацией, разделенной на количество обучающих последовательностей, которые приводят к тому узлу.
Например, считайте классификацию предиктора X
как true
когда X
< 0.15
или X
> 0.95
, и X
является ложным в противном случае.
Сгенерируйте 100 случайных точек и классифицируйте их:
Сократите дерево:
Сокращенное дерево правильно классифицирует наблюдения, которые меньше 0.15 как true
. Это также правильно классифицирует наблюдения от.15 до.94 как false
. Однако это неправильно классифицирует наблюдения, которые больше.94 как false
. Поэтому счет к наблюдениям, которые больше.15, должен быть о.05/.85 =. 06 для true
, и о.8/.85 =. 94 для false
.
Вычислите музыку предсказания к первым 10 строкам X
:
ans = 10×3
0.9059 0.0941 0.8147
0.9059 0.0941 0.9058
0 1.0000 0.1270
0.9059 0.0941 0.9134
0.9059 0.0941 0.6324
0 1.0000 0.0975
0.9059 0.0941 0.2785
0.9059 0.0941 0.5469
0.9059 0.0941 0.9575
0.9059 0.0941 0.9649
Действительно, каждое значение X
(крайний правый столбец), который меньше 0.15, сопоставил баллы (левые и центральные столбцы) 0
и 1
, в то время как другие значения X
сопоставили множество 0.91
и 0.09
. Различие (выигрывают 0.09
вместо ожидаемого .06
) происходит из-за статистического колебания: существует 8
наблюдения в X
в области значений (.95,1)
вместо ожидаемого 5
наблюдения.