Одномерное расхождение Kullback-Leibler двух независимых групп данных, чтобы измерить отделимость класса
relativeEntropy
функция, используемая в коде, сгенерированном Diagnostic Feature Designer.
вычисляет одномерное расхождение Kullback-Leibler двух независимых подмножеств набора данных Z
= relativeEntropy(X
,I
)X
это сгруппировано согласно логическим меткам в I
. Относительная энтропия обеспечивает метрику для отранжировать признаки согласно их способности разделить два класса данных, такие как здоровые и неисправные машины. Энтропийное вычисление принимает что данные в X
следует за Распределением Гаусса.
Код, который сгенерирован Diagnostic Feature Designer, использует relativeEntropy
при ранжировании признаков с этим методом.
[1] Theodoridis, Серджиос и Константинос Кутрумбас. Распознавание образов, 175–177. 2-й редактор Амстердам; Бостон: Academic Press, 2003.