Модель для дискриминантного анализа:
Каждый класс (Y
) генерирует данные (X
) с помощью многомерного нормального распределения. Другими словами, модель принимает, что X
имеет Гауссово распределение смеси (gmdistribution
).
Для линейного дискриминантного анализа модель имеет ту же ковариационную матрицу для каждого класса; только средние значения отличаются.
Для квадратичного дискриминантного анализа отличаются и средние значения и ковариации каждого класса.
Под этим предположением моделирования fitcdiscr
выводит среднее значение и параметры ковариации каждого класса.
Для линейного дискриминантного анализа это вычисляет демонстрационное среднее значение каждого класса. Затем это вычисляет выборочную ковариацию первым вычитанием демонстрационного среднего значения каждого класса от наблюдений за тем классом и взятия эмпирической ковариационной матрицы результата.
Для квадратичного дискриминантного анализа это вычисляет демонстрационное среднее значение каждого класса. Затем это вычисляет выборочные ковариации первым вычитанием демонстрационного среднего значения каждого класса от наблюдений за тем классом и взятия эмпирической ковариационной матрицы каждого класса.
Метод fit
не использует априорные вероятности или затраты для подбора кривой.
fitcdiscr
создает взвешенные классификаторы с помощью следующей схемы. Предположим, что M является N-by-K матрица членства в классе:
Mnk = 1, если наблюдение n является от класса k
Mnk = 0 в противном случае.
Оценка среднего значения класса для невзвешенных данных
Для взвешенных данных с положительными весами wn естественное обобщение
Объективная оценка объединенного - в ковариационной матрице для невзвешенных данных
Для квадратичного дискриминантного анализа fitcdiscr
использует K = 1.
Для взвешенных данных, принимая сумму весов к 1, объективная оценка объединенного - в ковариационной матрице
где
сумма весов для класса k.
сумма весов в квадрате в классе.