Выборка складного ножа
jackstat = jackknife(jackfun,X)
jackstat = jackknife(jackfun,X,Y,...)
jackstat = jackknife(jackfun,...,'Options',option)
jackstat = jackknife(jackfun,X) чертит выборки данных о складном ноже от n- p массив данных X, вычисляет статистику по каждой выборке с помощью функционального jackfun, и возвращает результаты в матричный jackstat. jackknife отношения каждая строка X как одна выборка данных, таким образом, существует n выборки данных. Каждый n строки jackstat содержит результаты применения jackfun к одной выборке складного ножа. jackfun указатель на функцию, заданный с @. Строка i из jackstat содержит результаты для выборки, состоящей из X с iстрока th не использовала:
s = x; s(i,:) = []; jackstat(i,:) = jackfun(s);
jackfun возвращает матрицу или массив, затем этот выход преобразован в вектор-строку для устройства хранения данных в jackstat. Если X вектор-строка, он преобразован в вектор-столбец.jackstat = jackknife(jackfun,X,Y,...) принимает, что дополнительные аргументы предоставляются как входные параметры jackfun. Они могут быть скалярами, вектор-столбцами или матрицами. jackknife создает каждую выборку складного ножа путем выборки с заменой из строк нескалярных аргументов данных (они должны иметь одинаковое число строк). Скалярные данные передаются jackfun неизменный. Нескалярные аргументы должны иметь одинаковое число строк, и каждая выборка складного ножа не использует ту же строку от этих аргументов.
jackstat = jackknife(jackfun,...,'Options',option) предоставляет возможность выполнять итерации складного ножа параллельно, если Parallel Computing Toolbox™ доступен. Установка опций как структура вы создаете с statset. jackknife использует следующее поле в структуре:
'UseParallel' | Если |
Оцените смещение средства оценки отклонения MLE случайных выборок, взятых из векторного y использование jackknife. Смещение имеет известную формулу в этой проблеме, таким образом, можно выдержать сравнение jackknife значение к этой формуле.
sigma = 5; y = normrnd(0,sigma,100,1); m = jackknife(@var,y,1); n = length(y); bias = -sigma^2/n % known bias formula jbias = (n-1)*(mean(m)-var(y,1)) % jackknife bias estimate bias = -0.2500 jbias = -0.3378
bootstrp | histogram | ksdensity | random | randsample