Модель для дискриминантного анализа:
Каждый класс (Y
) генерирует данные (X
) с использованием многомерного нормального распределения. Другими словами, модель принимает X
имеет Гауссово-смешанное распределение (gmdistribution
).
Для линейного дискриминантного анализа модель имеет ту же ковариационную матрицу для каждого класса; варьируются только средства.
Для квадратичного дискриминантного анализа как средства, так и ковариации каждого класса варьируются.
При этом допущении моделирования, fitcdiscr
выводит средние и ковариационные параметры каждого класса.
Для линейного дискриминантного анализа он вычисляет среднее значение выборки для каждого класса. Затем он вычисляет выборочную ковариацию, сначала вычитая среднее значение выборки каждого класса из наблюдений этого класса и взяв эмпирическую ковариационную матрицу результата.
Для квадратичного дискриминантного анализа он вычисляет среднее значение выборки для каждого класса. Затем он вычисляет выборочные ковариации, сначала вычитая среднее значение выборки каждого класса из наблюдений этого класса и взяв эмпирическую ковариационную матрицу каждого класса.
The fit
метод не использует предыдущие вероятности или затраты на подбор кривой.
fitcdiscr
создает взвешенные классификаторы с помощью следующей схемы. Предположим M что N -by K матрица принадлежности к классу:
Mnk = 1, если n наблюдения из класса k
Mnk = 0 в противном случае.
Оценка среднего класса для невзвешенных данных:
Для взвешенных данных с положительными wn весов, естественное обобщение является
Объективная оценка объединенной ковариационной матрицы для невзвешенных данных
Для квадратичного дискриминантного анализа, fitcdiscr
использует K = 1.
Для взвешенных данных, принимая сумму весов к 1, объективная оценка объединенной ковариационной матрицы является
где
- сумма весов для класса k.
- сумма квадратов веса на класс.