Сокращение размерности и извлечение признаков

PCA, факторный анализ, выбор признаков, извлечение признаков и другие

Методы преобразования функции уменьшают размерность в данных путем преобразования данных в новые возможности. Методы выбора признаков предпочтительны, когда преобразование переменных не возможно, e.g., когда существуют категориальные переменные в данных. Для метода выбора признаков, который в частности подходит для подбора кривой наименьших квадратов, смотрите Ступенчатую регрессию.

Функции

развернуть все

fscchi2Одномерная функция, занимающая место для классификации с помощью тестов хи-квадрата
fscmrmrОтранжируйте признаки для классификации с помощью алгоритма минимальной уместности максимума сокращения (MRMR)
fscncaВыбор признаков с помощью анализа компонента окружения для классификации
fsrftestОдномерная функция, занимающая место для регрессии с помощью F - тесты
fsrncaВыбор признаков с помощью анализа компонента окружения для регрессии
fsulaplacianОтранжируйте признаки для безнадзорного изучения с помощью Лапласовых баллов
partialDependenceВычислите частичную зависимость
plotPartialDependenceСоздайте графики отдельного условного ожидания (ICE) и частичный график зависимости (PDP)
oobPermutedPredictorImportanceВажность предиктора оценивает сочетанием наблюдений предиктора из сумки для случайного леса деревьев классификации
oobPermutedPredictorImportanceВажность предиктора оценивает сочетанием наблюдений предиктора из сумки для случайного леса деревьев регрессии
predictorImportanceОценки важности предиктора для дерева классификации
predictorImportanceОценки важности предиктора для ансамбля классификации деревьев решений
predictorImportanceОценки важности предиктора для дерева регрессии
predictorImportanceОценки важности предиктора для ансамбля регрессии
relieffОцените важность использования предикторов алгоритм RReliefF или ReliefF
sequentialfsПоследовательный выбор признаков с помощью пользовательского критерия
stepwiselmВыполните ступенчатую регрессию
stepwiseglmСоздайте обобщенную линейную модель регрессии ступенчатой регрессией
ricaИзвлечение признаков при помощи ICA реконструкции
sparsefiltИзвлечение признаков при помощи разреженной фильтрации
transformПреобразуйте предикторы в извлеченные функции
tsneстохастическое вложение соседей с t-распределением
barttestТест Бартлетта
canoncorrКаноническая корреляция
pcaАнализ главных компонентов необработанных данных
pcacovАнализ главных компонентов ковариационной матрицы
pcaresОстаточные значения анализа главных компонентов
ppcaВероятностный анализ главных компонентов
factoranФакторный анализ
rotatefactorsВращайте факторные нагрузки
nnmfНеотрицательная матричная факторизация
cmdscaleКлассическое многомерное масштабирование
mahalРасстояние Mahalanobis
mdscaleНеклассическое многомерное масштабирование
pdistПопарное расстояние между парами наблюдений
squareformМатрица расстояния формата
procrustesАнализ Procrustes

Объекты

развернуть все

FeatureSelectionNCAClassificationВыбор признаков для классификации с помощью анализа компонента окружения (NCA)
FeatureSelectionNCARegressionВыбор признаков для регрессии с помощью анализа компонента окружения (NCA)
ReconstructionICAИзвлечение признаков ICA реконструкции
SparseFilteringИзвлечение признаков разреженной фильтрацией

Темы

Выбор признаков

Введение в выбор признаков

Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.

Последовательный выбор признаков

Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs функция.

Выбор признаков Анализа компонента окружения (NCA)

Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности предсказания алгоритмов регрессии и классификации.

Упорядочите классификатор дискриминантного анализа

Сделайте более устойчивую и более простую модель путем удаления предикторов, не ставя под угрозу предсказательную силу модели.

Выберите Predictors for Random Forests

Выберите предикторы разделения для случайных лесов с помощью алгоритма проверок взаимодействия.

Извлечение признаков

Извлечение признаков

Извлечение признаков является набором методов, чтобы извлечь высокоуровневые функции из данных.

Рабочий процесс извлечения признаков

Этот пример показывает полный рабочий процесс для извлечения признаков от данных изображения.

Извлеките смешанные сигналы

В этом примере показано, как использовать rica распутывать смешанные звуковые сигналы.

t-SNE Многомерная Визуализация

t-SNE

t-SNE является методом для визуализации высоко-размерных данных нелинейным сокращением к два или три измерения при сохранении некоторых функций исходных данных.

Визуализируйте Высоко-размерные Данные Используя t-SNE

В этом примере показано, как t-SNE создает полезное низко-размерное встраивание высоко-размерных данных.

Настройки tsne

Этот пример показывает эффекты различных tsne настройки.

Выходная функция t-SNE

Описание выходной функции и пример для t-SNE.

PCA и каноническая корреляция

Анализ главных компонентов (PCA)

Анализ главных компонентов уменьшает размерность данных, заменяя несколько коррелированых переменных на новый набор переменных, которые являются линейными комбинациями исходных переменных.

Анализируйте качество жизни в американских городах Используя PCA

Выполните взвешенный анализ основных компонентов и интерпретируйте результаты.

Факторный анализ

Факторный анализ

Факторный анализ является способом подобрать модель к многомерным данным, чтобы оценить взаимозависимость измеренных переменных на меньшем числе ненаблюдаемых (скрытых) факторов.

Анализируйте курсы акций Используя факторный анализ

Используйте факторный анализ, чтобы заняться расследованиями, испытывают ли компании в том же секторе подобные изменения от недели к неделе в курсах акций.

Выполните факторный анализ классов экзамена

В этом примере показано, как выполнить факторный анализ с помощью Statistics and Machine Learning Toolbox™.

Неотрицательная матричная факторизация

Неотрицательная матричная факторизация

Nonnegative matrix factorization (NMF) является методом сокращения размерности на основе приближения низкого ранга пространства признаков.

Выполните неотрицательную матричную факторизацию

Выполните неотрицательную матричную факторизацию с помощью мультипликативных и переменных алгоритмов наименьших квадратов.

Многомерное масштабирование

Многомерное масштабирование

Многомерное масштабирование позволяет вам визуализировать, как около точек друг другу для многих видов расстояния или метрик несходства и может произвести представление данных в небольшом количестве размерностей.

Классическое многомерное масштабирование

Используйте cmdscale выполнять классическое (метрическое) многомерное масштабирование, также известное как основной анализ координат.

Классическое многомерное масштабирование, примененное непространственные расстояния

В этом примере показано, как выполнить классическое многомерное масштабирование с помощью cmdscale функция в Statistics and Machine Learning Toolbox™.

Неклассическое многомерное масштабирование

В этом примере показано, как визуализировать данные о несходстве с помощью неклассических форм многомерного масштабирования (MDS).

Неклассическое и неметрическое многомерное масштабирование

Выполните неклассическое многомерное использование масштабирования mdscale.

Анализ Procrustes

Анализ Procrustes

Анализ Procrustes минимизирует различия в местоположении между сравненными знаменательными данными с помощью лучших сохраняющих форму Евклидовых преобразований.

Сравните рукописные формы Используя анализ Procrustes

Используйте анализ Procrustes, чтобы сравнить две рукописных цифры.

Рекомендуемые примеры

Partial Least Squares Regression and Principal Components Regression

Частичная регрессия наименьших квадратов и регрессия основных компонентов

Примените Частичную регрессию наименьших квадратов (PLSR) и Регрессию основных компонентов (PCR), и обсуждает эффективность этих двух методов. PLSR и PCR являются оба методами, чтобы смоделировать переменную отклика, когда существует большое количество переменных предикторов, и те предикторы высоко коррелируются или даже коллинеарные. Оба метода создают новые переменные предикторы, известные как компоненты, как линейные комбинации исходных переменных предикторов, но они создают те компоненты по-разному. PCR создает компоненты, чтобы объяснить наблюдаемую изменчивость в переменных предикторах, не рассматривая переменную отклика вообще. С другой стороны, PLSR действительно принимает переменную отклика во внимание, и поэтому часто приводит к моделям, которые могут соответствовать переменной отклика меньшим количеством компонентов. Переводит ли это в конечном счете в более экономную модель, в терминах ее практического применения, зависит от контекста.