Выборка складного ножа
jackstat = jackknife(jackfun,X)
jackstat = jackknife(jackfun,X,Y,...)
jackstat = jackknife(jackfun,...,'Options',option)
jackstat = jackknife(jackfun,X)
чертит выборки данных о складном ноже от n
- p
массив данных X
, вычисляет статистику по каждой выборке с помощью функционального jackfun
, и возвращает результаты в матричном jackstat
. jackknife
отношения каждая строка X
как одна выборка данных, таким образом, существует n
выборки данных. Каждый n
строки jackstat
содержит результаты применения jackfun
к одной выборке складного ножа. jackfun
указатель на функцию, заданный с @
. Строка i
из jackstat
содержит результаты для выборки, состоящей из X
с i
строка th не использовала:
s = x; s(i,:) = []; jackstat(i,:) = jackfun(s);
jackfun
возвращает матрицу или массив, затем этот выход преобразован в вектор-строку для устройства хранения данных в jackstat
. Если X
вектор-строка, он преобразован в вектор-столбец.jackstat = jackknife(jackfun,X,Y,...)
принимает, что дополнительные аргументы предоставляются как входные параметры jackfun
. Они могут быть скалярами, вектор-столбцами или матрицами. jackknife
создает каждую выборку складного ножа путем выборки с заменой из строк нескалярных аргументов данных (они должны иметь одинаковое число строк). Скалярные данные передаются jackfun
неизменный. Нескалярные аргументы должны иметь одинаковое число строк, и каждая выборка складного ножа не использует ту же строку от этих аргументов.
jackstat = jackknife(jackfun,...,'Options',option)
предоставляет возможность выполнять итерации складного ножа параллельно, если Parallel Computing Toolbox™ доступен. Установка опций
как структура вы создаете с statset
. jackknife
использует следующее поле в структуре:
'UseParallel' | Если |
Оцените смещение средства оценки отклонения MLE случайных выборок, взятых из векторного y
использование jackknife
. Смещение имеет известную формулу в этой проблеме, таким образом, можно сравнить jackknife
значение к этой формуле.
sigma = 5; y = normrnd(0,sigma,100,1); m = jackknife(@var,y,1); n = length(y); bias = -sigma^2/n % known bias formula jbias = (n-1)*(mean(m)-var(y,1)) % jackknife bias estimate bias = -0.2500 jbias = -0.3378
bootstrp
| histogram
| ksdensity
| random
| randsample