Найдите k - самые близкие соседи, использующие объект искателя
поиски самого близкого соседа (т.е. самой близкой точки, строки или наблюдения) в Idx
= knnsearch(Mdl
,Y
)Mdl.X
к каждой точке (т.е. строка или наблюдение) в данных о запросе Y
использование исчерпывающего поиска или d-дерева K. knnsearch
возвращает Idx
, который является вектор-столбцом индексов в Mdl.X
представление самых близких соседей.
возвращает индексы самых близких точек в Idx
= knnsearch(Mdl
,Y
,Name,Value
)Mdl.X
к Y
с дополнительными опциями, заданными одним или несколькими Name,Value
парные аргументы. Например, задайте количество самых близких соседей поиска, метрика расстояния, отличающаяся от той, сохраненной в Mdl.Distance
. Можно также задать, какие меры принять, если самые близкие расстояния связываются.
[
дополнительно возвращает матричный Idx
,D
]
= knnsearch(___)D
использование любого из входных параметров в предыдущих синтаксисах. D
содержит расстояния между каждым наблюдением в Y
это соответствует самым близким наблюдениям в Mdl.X
. По умолчанию функция располагает столбцы D
в порядке возрастания близостью, относительно метрики расстояния.
knnsearch
принимает ExhaustiveSearcher
или KDTreeSearcher
объекты модели, чтобы искать обучающие данные самых близких соседей данных о запросе. ExhaustiveSearcher
модель вызывает исчерпывающий алгоритм искателя и KDTreeSearcher
модель задает Kd-дерево, который knnsearch
использование, чтобы искать самых близких соседей.
Загрузите ирисовый набор данных Фишера. Случайным образом зарезервируйте пять наблюдений из данных для данных о запросе.
load fisheriris rng(1); % For reproducibility n = size(meas,1); idx = randsample(n,5); X = meas(~ismember(1:n,idx),:); % Training data Y = meas(idx,:); % Query data
Переменная meas
содержит 4 предиктора.
Вырастите четырехмерное Kd-дерево по умолчанию.
MdlKDT = KDTreeSearcher(X)
MdlKDT = KDTreeSearcher with properties: BucketSize: 50 Distance: 'euclidean' DistParameter: [] X: [145x4 double]
MdlKDT
KDTreeSearcher
объект модели. Можно изменить его перезаписываемые свойства с помощью записи через точку.
Подготовьте исчерпывающего самого близкого соседнего искателя.
MdlES = ExhaustiveSearcher(X)
MdlES = ExhaustiveSearcher with properties: Distance: 'euclidean' DistParameter: [] X: [145x4 double]
MdlKDT
ExhaustiveSearcher
объект модели. Это содержит опции, такие как метрика расстояния, чтобы использовать, чтобы найти самых близких соседей.
В качестве альтернативы можно вырастить Kd-дерево или подготовить исчерпывающего самого близкого соседнего искателя, использующего createns
.
Ищите обучающие данные самые близкие соседние индексы, которые соответствуют каждому наблюдению запроса. Проведите оба типа поисковых запросов с помощью настроек по умолчанию. По умолчанию количеством соседей, чтобы искать на наблюдение запроса является 1
.
IdxKDT = knnsearch(MdlKDT,Y); IdxES = knnsearch(MdlES,Y); [IdxKDT IdxES]
ans = 5×2
17 17
6 6
1 1
89 89
124 124
В этом случае результатами поиска является то же самое.
Вырастите Kd-дерево самый близкий соседний объект искателя при помощи createns
функция. Передайте объект и запросите данные к knnsearch
функционируйте, чтобы найти k - ближайших соседей.
Загрузите ирисовый набор данных Фишера.
load fisheriris
Удалите пять ирисовых диафрагм случайным образом из данных о предикторе, чтобы использовать в качестве набора запроса.
rng(1); % For reproducibility n = size(meas,1); % Sample size qIdx = randsample(n,5); % Indices of query data tIdx = ~ismember(1:n,qIdx); % Indices of training data Q = meas(qIdx,:); X = meas(tIdx,:);
Вырастите четырехмерное Kd-дерево с помощью обучающих данных. Задайте расстояние Минковскего для нахождения самых близких соседей.
Mdl = createns(X,'Distance','minkowski')
Mdl = KDTreeSearcher with properties: BucketSize: 50 Distance: 'minkowski' DistParameter: 2 X: [145x4 double]
Поскольку X
имеет четыре столбца, и метрикой расстояния является Минковский, createns
создает KDTreeSearcher
объект модели по умолчанию. Экспонентой расстояния Минковскего является 2
по умолчанию.
Найдите индексы обучающих данных (Mdl.X
) это - два самых близких соседа каждой точки в данных о запросе (Q
).
IdxNN = knnsearch(Mdl,Q,'K',2)
IdxNN = 5×2
17 4
6 2
1 12
89 66
124 100
Каждая строка IdxNN
соответствует наблюдению данных о запросе, и порядок следования столбцов соответствует порядку самых близких соседей относительно возрастающего расстояния. Например, на основе расстояния Минковскего, второго самого близкого соседа Q(3,:)
X(12,:)
.
Загрузите ирисовый набор данных Фишера.
load fisheriris
Удалите пять ирисовых диафрагм случайным образом из данных о предикторе, чтобы использовать в качестве набора запроса.
rng(4); % For reproducibility n = size(meas,1); % Sample size qIdx = randsample(n,5); % Indices of query data X = meas(~ismember(1:n,qIdx),:); Y = meas(qIdx,:);
Вырастите четырехмерное Kd-дерево с помощью обучающих данных. Задайте расстояние Минковскего для нахождения самых близких соседей.
Mdl = KDTreeSearcher(X);
Mdl
KDTreeSearcher
объект модели. По умолчанию метрика расстояния для нахождения самых близких соседей является Евклидовой метрикой.
Найдите индексы обучающих данных (X
) это - семь самых близких соседей каждой точки в данных о запросе (Y
).
[Idx,D] = knnsearch(Mdl,Y,'K',7,'IncludeTies',true);
Idx
и D
массивы ячеек с пятью элементами векторов, с каждым вектором, имеющим по крайней мере семь элементов.
Отобразите длины векторов в Idx
.
cellfun('length',Idx)
ans = 5×1
8
7
7
7
7
Поскольку ячейка 1
содержит вектор с длиной, больше, чем k = 7, наблюдение запроса 1 (Y(1,:)
) одинаково близко к по крайней мере двум наблюдениям в X
.
Отобразите индексы самых близких соседей Y(1,:)
и их расстояния.
nn5 = Idx{1}
nn5 = 1×8
91 98 67 69 71 93 88 95
nn5d = D{1}
nn5d = 1×8
0.1414 0.2646 0.2828 0.3000 0.3464 0.3742 0.3873 0.3873
Учебные наблюдения 88
и 95
на расстоянии в 0,3873 см от наблюдения запроса 1
.
Обучите два KDTreeSearcher
модели с помощью различных метрик расстояния, и сравнивают k - ближайших соседей данных о запросе для этих двух моделей.
Загрузите ирисовый набор данных Фишера. Рассмотрите лепестковые измерения как предикторы.
load fisheriris X = meas(:,3:4); % Predictors Y = species; % Response
Обучите KDTreeSearcher
объект модели при помощи предикторов. Задайте расстояние Минковскего с экспонентой 5.
KDTreeMdl = KDTreeSearcher(X,'Distance','minkowski','P',5)
KDTreeMdl = KDTreeSearcher with properties: BucketSize: 50 Distance: 'minkowski' DistParameter: 5 X: [150x2 double]
Найдите 10 самых близких соседей от X
к точке запроса (newpoint
), сначала с помощью Минковскего затем метрики расстояния Чебычева. Точка запроса должна иметь ту же размерность столбца, как данные раньше обучали модель.
newpoint = [5 1.45]; [IdxMk,DMk] = knnsearch(KDTreeMdl,newpoint,'k',10); [IdxCb,DCb] = knnsearch(KDTreeMdl,newpoint,'k',10,'Distance','chebychev');
IdxMk
и IdxCb
1 10 матрицы, содержащие индексы строки X
соответствие самым близким соседям newpoint
использование расстояний Минковскего и Чебычева, соответственно. Элемент (1,1) является самым близким, элемент (1,2) является следующим самым близким и так далее.
Отобразите на графике обучающие данные, точку запроса и самых близких соседей.
figure; gscatter(X(:,1),X(:,2),Y); title('Fisher''s Iris Data -- Nearest Neighbors'); xlabel('Petal length (cm)'); ylabel('Petal width (cm)'); hold on plot(newpoint(1),newpoint(2),'kx','MarkerSize',10,'LineWidth',2); % Query point plot(X(IdxMk,1),X(IdxMk,2),'o','Color',[.5 .5 .5],'MarkerSize',10); % Minkowski nearest neighbors plot(X(IdxCb,1),X(IdxCb,2),'p','Color',[.5 .5 .5],'MarkerSize',10); % Chebychev nearest neighbors legend('setosa','versicolor','virginica','query point',... 'minkowski','chebychev','Location','Best');
Увеличьте масштаб интересных мест.
h = gca; % Get current axis handle. h.XLim = [4.5 5.5]; h.YLim = [1 2]; axis square;
Несколько наблюдений равны, который является, почему только восемь самых близких соседей идентифицированы в графике.
Mdl
— Самый близкий соседний искательExhaustiveSearcher
объект модели | KDTreeSearcher
объект моделиСамый близкий соседний искатель, заданный как ExhaustiveSearcher
или KDTreeSearcher
объект модели, соответственно.
Если Mdl
ExhaustiveSearcher
модель, затем knnsearch
поиски самых близких соседей, использующих исчерпывающий поиск. В противном случае, knnsearch
использует выращенное d-дерево K, чтобы искать самых близких соседей.
Y
— Запросите данныеЗапросите данные, заданные как числовая матрица.
Y
m-by-K матрица. Строки Y
соответствуйте наблюдениям (т.е. примеры), и столбцы соответствуют предикторам (т.е. переменные или функции). Y
должен иметь одинаковое число столбцов как обучающие данные, хранимые в Mdl.X
.
Типы данных: single
| double
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
'K',2,'Distance','minkowski'
задает, чтобы найти двух самых близких соседей Mdl.X
к каждой точке в Y
и использовать метрику расстояния Минковскего.'Distance'
— Метрика расстоянияMdl.Distance
(значение по умолчанию) | 'cityblock'
| 'euclidean'
| 'mahalanobis'
| 'minkowski'
| 'seuclidean'
| указатель на функцию |...Метрика расстояния раньше находила соседей обучающих данных к наблюдениям запроса, заданным как разделенная запятой пара, состоящая из 'Distance'
и вектор символов, представьте в виде строки скаляр или указатель на функцию.
Для обоих типов самых близких соседних искателей, knnsearch
поддержки эти метрики расстояния.
Значение | Описание |
---|---|
'chebychev' | Расстояние Чебычева (максимум координируют различие). |
'cityblock' | Расстояние городского квартала. |
'euclidean' | Евклидово расстояние. |
'minkowski' | Расстояние Минковскего. Экспонента по умолчанию равняется 2. Чтобы задать различную экспоненту, используйте 'P' аргумент пары "имя-значение". |
Если Mdl
ExhaustiveSearcher
объект модели, затем knnsearch
также поддержки эти метрики расстояния.
Значение | Описание |
---|---|
'correlation' | Один минус демонстрационная линейная корреляция между наблюдениями (обработанный как последовательности значений). |
'cosine' | Один минус косинус включенного угла между наблюдениями (обработанный как векторы-строки). |
'hamming' | Расстояние Хемминга, которое является процентом координат, которые отличаются. |
'jaccard' | Один минус коэффициент Jaccard, который является процентом ненулевых координат, которые отличаются. |
'mahalanobis' | Расстояние Mahalanobis, вычисленное использование положительной определенной ковариационной матрицы. Чтобы изменить значение ковариационной матрицы, используйте 'Cov' аргумент пары "имя-значение". |
'seuclidean' | Стандартизированное Евклидово расстояние. Каждое координатное различие между строками в Mdl.X и матрица запроса масштабируется путем деления на соответствующий элемент стандартного отклонения, вычисленного из Mdl.X . Чтобы задать другое масштабирование, используйте 'Scale' аргумент пары "имя-значение". |
'spearman' | Один минус порядковая корреляция демонстрационного Копьеносца между наблюдениями (обработанный как последовательности значений). |
Если Mdl
ExhaustiveSearcher
объект модели, затем можно также задать указатель на функцию для пользовательской метрики расстояния при помощи @
(например, @distfun
). Пользовательская функция расстояния должна:
Имейте форму function D2 = distfun(ZI,ZJ)
.
Возьмите в качестве аргументов:
1 K векторным ZI
содержа одну строку от Mdl.X
или Y
, где K является количеством столбцов Mdl.X
.
m-by-K матричный ZJ
содержа несколько строк Mdl.X
или Y
, где m является положительным целым числом.
Возвратите m-by-1 вектор расстояний D2
, где D2 (
расстояние между наблюдениями j
)ZI
и ZJ (
.j
,:)
Для получения дополнительной информации смотрите Метрики Расстояния.
Пример: 'Distance','minkowski'
'IncludeTies'
— Отметьте, чтобы включать всех самых близких соседейfalse
(0
) (значение по умолчанию) | true
(1
)Отметьте, чтобы включать самых близких соседей, которые имеют то же расстояние от наблюдений запроса, заданных как разделенная запятой пара, состоящая из 'IncludeTies'
и false
(0 ) или
true
(1 ).
Если IncludeTies
true
затем:
knnsearch
включает всех самых близких соседей, расстояния которых равны k th наименьшее расстояние в выходных аргументах, где k является количеством искавших самых близких соседей, заданных 'K'
аргумент пары "имя-значение".
Idx
и D
m-by-1
массивы ячеек, таким образом, что каждая ячейка содержит вектор, по крайней мере, индексов k и расстояний, соответственно. Каждый вектор в D
содержит расположенные расстояния в порядке возрастания. Каждая строка в Idx
содержит индексы самых близких соседей, соответствующих расстояниям в D
.
Если IncludeTies
false
, затем knnsearch
выбирает наблюдение с самым маленьким индексом среди наблюдений, которые имеют то же расстояние от точки запроса.
Пример: 'IncludeTies',true
'K'
— Количество самых близких соседей
(значение по умолчанию) | положительное целое числоКоличество самых близких соседей, чтобы искать в обучающих данных на наблюдение запроса, заданное как разделенная запятой пара, состоящая из 'K'
и положительное целое число.
Пример: 'K',2
Типы данных: single
| double
'P'
— Экспонента для метрики расстояния Минковскего
(значение по умолчанию) | положительная скалярная величинаЭкспонента для метрики расстояния Минковскего, заданной как разделенная запятой пара, состоящая из 'P'
и положительная скалярная величина. Этот аргумент допустим только если 'Distance'
'minkowski'
.
Пример: 'P',3
Типы данных: single
| double
'SortIndices'
— Отметьте, чтобы отсортировать возвращенные индексы согласно расстояниюtrue
(1
) (значение по умолчанию) | false
(0
)Отметьте, чтобы отсортировать возвращенные индексы согласно расстоянию, заданному как разделенная запятой пара, состоящая из 'SortIndices'
и любой true
(1 ) или
false
(0 ).
Для более быстрой производительности можно установить SortIndices
к false
когда следующее верно:
Y
содержит много наблюдений, которые имеют многих самых близких соседей в X
.
Mdl
KDTreeSearcher
объект модели.
IncludeTies
false
.
В этом случае, knnsearch
возвращает индексы самых близких соседей без определенного порядка. Когда SortIndices
true
, функция располагает индексы ближайшего соседа в порядке возрастания расстоянием.
SortIndices
true
по умолчанию. Когда Mdl
ExhaustiveSearcher
объект модели или IncludeTies
true
, функция всегда сортирует индексы.
Пример: 'SortIndices',false
Типы данных: логический
'Cov'
— Ковариационная матрица для метрики расстояния Mahalanobisnancov(Mdl.X)
(значение по умолчанию) | положительная определенная матрицаКовариационная матрица для метрики расстояния Mahalanobis, заданной как разделенная запятой пара, состоящая из 'Cov'
и положительная определенная матрица. Cov
K-by-K матрица, где K является количеством столбцов Mdl.X
. Если вы задаете Cov
и не задавайте '
Distance
','mahalanobis'
, затем knnsearch
возвращает сообщение об ошибке.
Пример: 'Cov',eye(3)
Типы данных: single
| double
'Scale'
— Значение масштабного коэффициента для стандартизированной Евклидовой метрики расстоянияnanstd(Mdl.X)
(значение по умолчанию) | неотрицательный числовой векторЗначение масштабного коэффициента для стандартизированной Евклидовой метрики расстояния, заданной как разделенная запятой пара, состоящая из 'Scale'
и неотрицательный числовой вектор. Scale
имеет длину K, где K является количеством столбцов Mdl.X
.
Программное обеспечение масштабирует каждое различие между обучением и данными о запросе с помощью соответствующего элемента Scale
. Если вы задаете Scale
и не задавайте '
Distance
','seuclidean'
, затем knnsearch
возвращает сообщение об ошибке.
Пример: 'Scale',quantile(Mdl.X,0.75) - quantile(Mdl.X,0.25)
Типы данных: single
| double
Если вы задаете '
Distance
'
, '
Cov
'
, '
P
'
, или '
Scale
'
, затем Mdl.Distance
и Mdl.DistParameter
не изменяйте значение.
Idx
— Индексы обучающих данных самых близких соседейИндексы обучающих данных самых близких соседей, возвращенных как числовой матричный или массив ячеек числовых векторов.
Если вы не задаете IncludeTies
ложь
по умолчанию), затем Idx
m-by-k числовая матрица, где m является количеством строк в Y
и k является количеством искавших самых близких соседей, заданных 'K'
аргумент пары "имя-значение". Idx(j,i)
указывает на тот Mdl.X(Idx(j,i),:)
один из k самые близкие наблюдения в Mdl.X
к наблюдению запроса Y(j,:)
.
Если вы задаете 'IncludeTies',true
, затем Idx
m-by-1
массив ячеек, таким образом, что ячейка j
(Idx{j}
) содержит вектор, по крайней мере, индексов k самых близких наблюдений в Mdl.X
к наблюдению запроса Y(j,:)
.
Если SortIndices
true
, затем knnsearch
располагает индексы в порядке возрастания расстоянием.
D
— Расстояния самых близких соседейРасстояния самых близких соседей данных о запросе, возвращенных как числовой матричный или массив ячеек числовых векторов.
Если вы не задаете IncludeTies
ложь
по умолчанию), затем D
m-by-k числовая матрица, где m является количеством строк в Y
и k является количеством искавших самых близких соседей, заданных 'K'
аргумент пары "имя-значение". D(j,i)
расстояние между Mdl.X(Idx(j,i),:)
и наблюдение запроса Y(j,:)
относительно метрики расстояния.
Если вы задаете 'IncludeTies',true
, затем D
m-by-1
массив ячеек, таким образом, что ячейка j
(D{j}
) содержит вектор, по крайней мере, расстояний k самых близких наблюдений в Mdl.X
к наблюдению запроса Y(j,:)
.
Если SortIndices
true
, затем knnsearch
располагает расстояния в порядке возрастания.
knnsearch
находит k (положительное целое число) точками в Mdl.X
это - k - самый близкий для каждого Y
точка. В отличие от этого rangesearch
находит все точки в Mdl.X
это - на расстоянии r
(положительная скалярная величина) каждого Y
точка.
knnsearch
объектная функция, которая требует ExhaustiveSearcher
или KDTreeSearcher
объект модели и данные о запросе. При эквивалентных условиях, knnsearch
объектная функция возвращает те же результаты как knnsearch
функционируйте, когда вы зададите аргумент пары "имя-значение" 'NSMethod','exhaustive'
или 'NSMethod','kdtree'
, соответственно.
Для k - самая близкая классификация соседей, смотрите fitcknn
и ClassificationKNN
.
[1] Фридман, J. H. Bentely, J. и Finkel, R. A. (1977). “Алгоритм для Нахождения Лучших Соответствий в Логарифмическое Ожидаемое Время”. Транзакции ACM на Издании 3 Mathematical Software, Выпуске 3, сентябрь 1977, стр 209–226.
Указания и ограничения по применению:
Эта таблица содержит примечания об аргументах knnsearch
. Аргументы, не включенные в эту таблицу, полностью поддержаны.
Аргумент | Примечания и ограничения |
---|---|
Mdl |
Существует два способа использовать
Если
|
'Distance' |
|
'IncludeTies' |
Должно быть постоянное время компиляции; его значение не может измениться в сгенерированном коде. |
'SortIndices' | Не поддерживаемый. Выходные аргументы всегда сортируются. |
Аргументы в виде пар имя-значение |
Имена в аргументах пары "имя-значение" должны быть константами времени компиляции. Например, чтобы позволить пользовательскую экспоненту для расстояния Минковскего в сгенерированном коде, включайте |
Idx |
Когда вы задаете |
Для получения дополнительной информации смотрите Введение в Генерацию кода и Генерацию кода для Самого близкого Соседнего Искателя.
ClassificationKNN
| ExhaustiveSearcher
| KDTreeSearcher
| createns
| fitcknn
| knnsearch
| rangesearch
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.