Для деревьев score классификации вершины является апостериорной вероятностью классификации в том узле. Апостериорная вероятность классификации в узле является количеством обучающих последовательностей, которые приводят к тому узлу с классификацией, разделенной на количество обучающих последовательностей, которые приводят к тому узлу.
Например, считайте классификацию предиктора X как true, когда X < 0.15 или X > 0.95 и X будет ложным в противном случае.
Сгенерируйте 100 случайных точек и классифицируйте их:
Сократите дерево:
Сокращенное дерево правильно классифицирует наблюдения, которые являются меньше чем 0,15 как true. Это также правильно классифицирует наблюдения от.15 до.94 как false. Однако это неправильно классифицирует наблюдения, которые больше, чем.94 как false. Поэтому счет к наблюдениям, которые больше, чем.15, должен быть о.05/.85 =. 06 для true, и о.8/.85 =. 94 для false.
Вычислите музыку прогноза к первым 10 строкам X:
ans = 10×3
0.9059 0.0941 0.8147
0.9059 0.0941 0.9058
0 1.0000 0.1270
0.9059 0.0941 0.9134
0.9059 0.0941 0.6324
0 1.0000 0.0975
0.9059 0.0941 0.2785
0.9059 0.0941 0.5469
0.9059 0.0941 0.9575
0.9059 0.0941 0.9649
Действительно, каждое значение X (крайний правый столбец), который является меньше чем 0,15, сопоставило очки (левые и центральные столбцы) 0 и 1, в то время как другие значения X сопоставили множество 0.91 и 0.09. Различие (выигрывают 0.09 вместо ожидаемого .06) происходит из-за статистического колебания: существуют наблюдения 8 в X в области значений (.95,1) вместо ожидаемых наблюдений 5.