Сокращение размерности и выделение признаков

PCA, факторный анализ, показывают выбор, выделение признаков, и больше

Методы преобразования функции уменьшают размерность в данных путем преобразования данных в новые возможности. Методы выбора функции предпочтительны, когда преобразование переменных не возможно, например, когда существуют категориальные переменные в данных. Для метода выбора функции, который в частности подходит для подбора кривой наименьших квадратов, смотрите Пошаговую Регрессию.

Функции

развернуть все

fscncaПокажите выбор с помощью анализа компонента окружения для классификации
fsrncaПокажите выбор с помощью анализа компонента окружения для регрессии
sequentialfsПоследовательный выбор функции
relieffОцените важность использования предикторов алгоритм RReliefF или ReliefF
ricaВыделение признаков при помощи ICA реконструкции
sparsefiltВыделение признаков при помощи разреженной фильтрации
transformПреобразуйте предикторы в извлеченные функции
tsnet-Distributed Стохастическое Соседнее Встраивание
barttestТест Бартлетта
canoncorrКаноническая корреляция
pcaАнализ главных компонентов необработанных данных
pcacovАнализ главных компонентов ковариационной матрицы
pcaresНевязки от анализа главных компонентов
ppcaВероятностный анализ главных компонентов
factoranФакторный анализ
rotatefactorsВращайте факторные нагрузки
nnmfНеотрицательная матричная факторизация
cmdscaleКлассическое многомерное масштабирование
mahalРасстояние Mahalanobis
mdscaleНеклассическое многомерное масштабирование
pdistПопарное расстояние между парами наблюдений
squareformМатрица расстояния формата
procrustesАнализ Procrustes

Классы

FeatureSelectionNCAClassificationПокажите выбор для классификации с помощью анализа компонента окружения (NCA)
FeatureSelectionNCARegressionПокажите выбор для регрессии с помощью анализа компонента окружения (NCA)

Объекты

ReconstructionICAВыделение признаков ICA реконструкции
SparseFilteringВыделение признаков разреженной фильтрацией

Темы

Покажите выбор

Покажите выбор

Узнайте об алгоритмах выбора функции, таких как последовательный выбор функции.

Выбор функции Анализа компонента окружения (NCA)

Анализ компонента окружения (NCA) является непараметрическим и встроенным методом для выбора функций с целью максимизации точности прогноза алгоритмов классификации и регрессии.

Выделение признаков

Выделение признаков

Выделение признаков является набором методов, чтобы извлечь высокоуровневые функции от данных.

Рабочий процесс выделения признаков

Этот пример показывает полный рабочий процесс для выделения признаков от данных изображения.

Извлеките смешанные сигналы

Этот пример показывает, как использовать rica, чтобы распутать смешанные звуковые сигналы.

t-SNE Многомерная Визуализация

t-SNE

t-SNE является методом для визуализации высоко-размерных данных нелинейным сокращением к два или три измерения при сохранении некоторых функций исходных данных.

Визуализируйте Высоко-размерные Данные Используя t-SNE

Этот пример показывает, как t-SNE создает полезное низко-размерное встраивание высоко-размерных данных.

Настройки tsne

Этот пример показывает эффекты различных  настроек tsne.

Выходная функция t-SNE

Описание выходной функции и пример для t-SNE.

PCA и каноническая корреляция

Анализ главных компонентов (PCA)

Анализ главных компонентов уменьшает размерность данных, заменяя несколько коррелированых переменных на новый набор переменных, которые являются линейными комбинациями исходных переменных.

Анализируйте качество жизни в американских городах Используя PCA

Выполните взвешенный анализ основных компонентов и интерпретируйте результаты.

Факторный анализ

Факторный анализ

Факторный анализ является способом подобрать модель к многомерным данным, чтобы оценить взаимозависимость измеренных переменных на меньшем числе ненаблюдаемых (скрытых) факторов.

Анализируйте курсы акций Используя факторный анализ

Используйте факторный анализ, чтобы заняться расследованиями, испытывают ли компании в том же секторе подобные изменения от недели к неделе в курсах акций.

Выполните факторный анализ классов экзамена

Этот пример показывает, как выполнить факторный анализ с помощью Statistics and Machine Learning Toolbox™.

Неотрицательная матричная факторизация

Неотрицательная матричная факторизация

Nonnegative matrix factorization (NMF) является методом сокращения размерности на основе приближения низкого ранга пространства признаков.

Выполните неотрицательную матричную факторизацию

Выполните неотрицательную матричную факторизацию с помощью мультипликативных и переменных алгоритмов наименьших квадратов.

Многомерное масштабирование

Многомерное масштабирование

Многомерное масштабирование позволяет вам визуализировать, как около точек друг другу для многих видов расстояния или метрик несходства и может произвести представление данных в небольшом количестве размерностей.

Классическое многомерное масштабирование

Используйте cmdscale, чтобы выполнить классическое (метрическое) многомерное масштабирование, также известное как основной анализ координат.

Классическое многомерное масштабирование, примененное непространственные расстояния

Этот пример показывает, как выполнить классическое многомерное масштабирование с помощью функции cmdscale в Statistics and Machine Learning Toolbox™.

Неклассическое многомерное масштабирование

Этот пример показывает, как визуализировать данные о несходстве с помощью неклассических форм многомерного масштабирования (MDS).

Неклассическое и неметрическое многомерное масштабирование

Выполните неклассическое многомерное масштабирование с помощью mdscale.

Анализ Procrustes

Анализ Procrustes

Анализ Procrustes минимизирует различия в местоположении между сравненными знаменательными данными с помощью лучших сохраняющих форму Евклидовых преобразований

Сравните рукописные формы Используя анализ Procrustes

Используйте анализ Procrustes, чтобы сравнить две рукописных цифры.

Популярные примеры

Partial Least Squares Regression and Principal Components Regression

Частичная регрессия наименьших квадратов и регрессия основных компонентов

Примените Частичную регрессию наименьших квадратов (PLSR) и Регрессию основных компонентов (PCR), и обсуждает эффективность этих двух методов. PLSR и PCR являются оба методами, чтобы смоделировать переменную отклика, когда существует большое количество переменных прогноза, и те предикторы высоко коррелируются или даже коллинеарные. Оба метода создают новые переменные прогноза, известные как компоненты, как линейные комбинации исходных переменных прогноза, но они создают те компоненты по-разному. PCR создает компоненты, чтобы объяснить наблюдаемую изменчивость в переменных прогноза, не рассматривая переменную отклика вообще. С другой стороны, PLSR действительно принимает переменную отклика во внимание, и поэтому часто приводит к моделям, которые могут соответствовать переменной отклика меньшим количеством компонентов. Переводит ли это в конечном счете в более экономную модель, с точки зрения ее практического применения, зависит от контекста.