Извлечение признаков является набором методов, которые сопоставляют входные функции с новыми выходными функциями. Много методов извлечения признаков используют безнадзорное обучение извлечь функции. В отличие от некоторых методов извлечения признаков, таких как PCA и NNMF, методы, описанные в этом разделе, могут увеличить размерность (и уменьшить размерность). Внутренне, методы включают оптимизирующие нелинейные целевые функции. Для получения дополнительной информации см. Разреженный Алгоритм ICA Алгоритма фильтрации или Реконструкции.
Одно типичное использование извлечения признаков находит функции в изображениях. Использование этих функций может привести к улучшенной точности классификации. Для примера смотрите Рабочий процесс Извлечения признаков. Другое типичное использование извлекает отдельные сигналы из суперпозиций, который часто называют слепым исходным разделением. Для примера см. Извлечение Смешанные Сигналы.
Существует две функции извлечения признаков: rica
и sparsefilt
. Сопоставленный с этими функциями объекты, которые они создают: ReconstructionICA
и SparseFiltering
.
Разреженный алгоритм фильтрации начинается с матрицы данных X
это имеет n
строки и p
столбцы. Каждая строка представляет одно наблюдение, и каждый столбец представляет одно измерение. Столбцы также называются функциями или предикторами. Алгоритм затем берет любого начальный случайный p
- q
матрица веса W
или использует матрицу веса, переданную в InitialTransformWeights
пара "имя-значение". q
требуемое количество функций это sparsefilt
вычисляет.
Алгоритм пытается минимизировать Разреженную Целевую функцию Фильтрации при помощи стандартной ограниченной памяти Бройден Флетчер Голдфарб Шэнно (LBFGS) оптимизатор квазиньютона. Смотрите Носедэла и Райта [2]. Этот оптимизатор берет до IterationLimit
итерации. Это прекращает выполнять итерации ранее, когда это получает шаг, чья норма меньше StepTolerance
, или когда это вычисляет это, норма градиента в текущей точке меньше GradientTolerance
времена скалярный τ, где
|f | является нормой целевой функции, и норма по бесконечности начального градиента.
Целевая функция пытается одновременно получить немного ненулевых функций каждой точки данных, и каждой получившейся функции, чтобы иметь почти равный вес. Чтобы изучить, как целевая функция пытается достигнуть этих целей, смотрите Ngiam, Koh, Чена, Бхэскэра и Ына [1].
Часто, вы получаете хорошие функции путем устанавливания относительно маленького значения IterationLimit
, всего от 5 к нескольким сотням. Разрешение оптимизатора продолжиться может привести к перетренировке, где извлеченные функции не делают вывод хорошо к новым данным.
После построения SparseFiltering
объект, используйте transform
метод, чтобы сопоставить входные данные с новыми выходными функциями.
Чтобы вычислить целевую функцию, разреженный алгоритм фильтрации использует следующие шаги. Целевая функция зависит от n
- p
матрица данных X
и матрица веса W
то, что оптимизатор варьируется. Матрица веса W
имеет размерности p
- q
, где p
количество исходных функций и q
количество требуемых функций.
Вычислите n
- q
матричный X*W
. Примените аппроксимированную функцию абсолютного значения к каждому элементу X*W
получить матричный F
. ϕ является сглаженной неотрицательной симметричной функцией, которая тесно аппроксимирует функцию абсолютного значения.
Нормируйте столбцы F
аппроксимированным L 2 нормы. Другими словами, задайте нормированную матрицу
Нормируйте строки аппроксимированным L 2 нормы. Другими словами, задайте нормированную матрицу
Матрица матрица конвертированных функций в X
. Однажды sparsefilt
находит веса W
это минимизирует целевую функцию h (см. ниже), который функция хранит в выходном объекте Mdl
в Mdl.TransformWeights
свойство, transform
функция может выполнить те же шаги преобразования, чтобы преобразовать новые данные, чтобы вывести функции.
Вычислите целевую функцию h (W
) как 1 норма матрицы , значение суммы всех элементов в матрице (которые являются неотрицательными конструкцией):
Если вы устанавливаете Lambda
пара "имя-значение" к строго положительному значению, sparsefilt
использует следующую модифицированную целевую функцию:
Здесь, wj является j-ым столбцом матричного W
и λ является значением Lambda
. Эффект этого термина состоит в том, чтобы уменьшить веса W
. Если вы строите столбцы W
как изображения, с положительным Lambda
эти изображения кажутся сглаженными по сравнению с теми же изображениями с нулевым Lambda
.
Алгоритм Реконструкции независимого анализа компонента (RICA) основан на минимизации целевой функции. Алгоритм сопоставляет входные данные, чтобы вывести функции.
Исходная модель ICA следующая. Каждое наблюдение x сгенерировано случайным векторным s согласно
x является вектор-столбцом длины p
.
μ является вектор-столбцом длины p
представление постоянного термина.
s является вектор-столбцом длины q
чьими элементами является нулевое среднее значение, модульные случайные переменные отклонения, которые статистически независимы друг от друга.
A является смесительной матрицей размера p
- q
.
Можно использовать эту модель в rica
оценить A от наблюдений за x. См. Извлечение Смешанные Сигналы.
Алгоритм RICA начинается с матрицы данных X
это имеет n
строки и p
столбцы, состоящие из наблюдений xi:
Каждая строка представляет одно наблюдение, и каждый столбец представляет одно измерение. Столбцы также называются функциями или предикторами. Алгоритм затем берет любого начальный случайный p
- q
матрица веса W
или использует матрицу веса, переданную в InitialTransformWeights
пара "имя-значение". q
требуемое количество функций это rica
вычисляет. Матрица веса W
состоит из столбцов wi размера p
- 1:
Алгоритм пытается минимизировать Целевую функцию ICA Реконструкции при помощи стандартной ограниченной памяти Бройден Флетчер Голдфарб Шэнно (LBFGS) оптимизатор квазиньютона. Смотрите Носедэла и Райта [2]. Этот оптимизатор берет до IterationLimit
итерации. Это прекращает выполнять итерации, когда это получает шаг, чья норма меньше StepTolerance
, или когда это вычисляет это, норма градиента в текущей точке меньше GradientTolerance
времена скалярный τ, где
|f | является нормой целевой функции, и норма по бесконечности начального градиента.
Целевая функция пытается получить почти ортонормированную матрицу веса, которая минимизирует сумму элементов g (XW
), где g является функцией (описанный ниже), который применяется поэлементно к XW
. Чтобы изучить, как целевая функция пытается достигнуть этих целей, смотрите Le, Карпенко, Нджиэма и Ына [3].
После построения ReconstructionICA
объект, используйте transform
метод, чтобы сопоставить входные данные с новыми выходными функциями.
Целевая функция использует контрастную функцию, которую вы задаете при помощи ContrastFcn
пара "имя-значение". Контрастная функция является сглаженной выпуклой функцией, которая похожа на абсолютное значение. По умолчанию контрастная функция . Для других доступных контрастных функций смотрите ContrastFcn
.
Для n
- p
матрица данных X
и q
выведите функции параметром регуляризации λ как значение Lambda
пара "имя-значение", целевая функция в терминах p
- q
матричный W
σj является известными константами, которые являются ±1. Когда σj = +1, минимизируя целевую функцию h поощряет гистограмму быть резко достигнутым максимума в 0 (супер Гауссов). Когда σj = –1, минимизируя целевую функцию h поощряет гистограмму быть более плоским близким 0 (sub Гауссов). Задайте значения σj с помощью rica
NonGaussianityIndicator
пара "имя-значение".
h целевой функции может иметь побочный минимум нуля, когда λ является нулем. Поэтому rica
минимизирует h по W, которые нормированы к 1. Другими словами, каждый столбец wj W задан в терминах вектор-столбца vj
rica
минимизирует по vj. Получившийся минимальный матричный W
обеспечивает преобразование от входных данных X
выводить показывает XW
.
[1] Ngiam, Jiquan, Зэнгэо Чен, Соня А. Бхэскэр, Пан В. Ко и Эндрю И. Ын. “Разреженная Фильтрация”. Усовершенствования в Нейронных Системах обработки информации. Издание 24, 2011, стр 1125–1133. https://papers.nips.cc/paper/4334-sparse-filtering.pdf
.
[2] Nocedal, J. и С. Дж. Райт. Числовая оптимизация, второй выпуск. Ряд Спрингера в исследовании операций, Springer Verlag, 2006.
[3] Le, Quoc V., Александр Карпанко, Джикуэн Нджиэм и Эндрю И. Ын. “ICA со Стоимостью Реконструкции для Эффективного Сверхполного Изучения Функции”. Усовершенствования в Нейронных Системах обработки информации. Издание 24, 2011, стр 1017–1025. https://papers.nips.cc/paper/4467-ica-with-reconstruction-cost-for-efficient-overcomplete-feature-learning.pdf
.
ReconstructionICA
| rica
| sparsefilt
| SparseFiltering