Одномерное расхождение Kullback-Leibler двух независимых групп данных, чтобы измерить отделимость класса
relativeEntropy функция, используемая в коде, сгенерированном Diagnostic Feature Designer.
вычисляет одномерное расхождение Kullback-Leibler двух независимых подмножеств набора данных Z = relativeEntropy(X,I)X это сгруппировано согласно логическим меткам в I. Относительная энтропия обеспечивает метрику для отранжировать признаки согласно их способности разделить два класса данных, такие как здоровые и неисправные машины. Энтропийное вычисление принимает что данные в X следует за Распределением Гаусса.
Код, который сгенерирован использованием Diagnostic Feature Designer relativeEntropy при ранжировании признаков с этим методом.
[1] Theodoridis, Серджиос и Константинос Кутрумбас. Распознавание образов, 175–177. 2-й редактор Амстердам; Бостон: Academic Press, 2003.