Байесовы результаты оптимизации
BayesianOptimization
объект содержит результаты Байесовой оптимизации. Это - выход bayesopt
или подходящая функция, которая принимает OptimizeHyperparameters
пара "имя-значение" такой как fitcdiscr
. Кроме того, BayesianOptimization
объект содержит данные для каждой итерации bayesopt
к этому могут получить доступ функция построения графика или выходная функция.
Создайте BayesianOptimization
объект с помощью bayesopt
функционируйте или подходящая функция с OptimizeHyperparameters
пара "имя-значение".
ObjectiveFcn
— ObjectiveFcn
аргумент используется bayesopt
Это свойство доступно только для чтения.
ObjectiveFcn
аргумент используется bayesopt
, возвращенный как указатель на функцию.
Если вы вызываете bayesopt
непосредственно, ObjectiveFcn
bayesopt
аргумент целевой функции.
Если вы вызываете подходящую функцию, содержащую 'OptimizeHyperparameters'
аргумент пары "имя-значение", ObjectiveFcn
указатель на функцию, который возвращает misclassification уровень для классификации или возвращает логарифм одного плюс потеря перекрестной проверки для регрессии, измеренной пятикратной перекрестной проверкой.
Типы данных: function_handle
VariableDescriptions
VariableDescriptions
аргумент, что bayesopt
используемыйoptimizableVariable
объектыЭто свойство доступно только для чтения.
VariableDescriptions
аргумент, что bayesopt
используемый, возвращенный как вектор из optimizableVariable
объекты.
Если вы вызвали bayesopt
непосредственно, VariableDescriptions
bayesopt
аргумент описания переменной.
Если вы вызвали подходящую функцию с OptimizeHyperparameters
пара "имя-значение", VariableDescriptions
вектор из гиперпараметров.
Options
— Опции, что bayesopt
используемыйЭто свойство доступно только для чтения.
Опции, что bayesopt
используемый, возвращенный как структура.
Если вы вызвали bayesopt
непосредственно, Options
опции, используемые в bayesopt
, которые являются парами "имя-значение", Смотрите bayesopt
Входные параметры.
Если вы вызвали подходящую функцию с OptimizeHyperparameters
пара "имя-значение", Options
значение по умолчанию bayesopt
опции, измененные HyperparameterOptimizationOptions
пара "имя-значение".
Options
структура только для чтения, содержащая следующие поля.
Имя опции | Значение |
---|---|
AcquisitionFunctionName | Имя функции приобретения. Смотрите Типы Функции Приобретения. |
IsObjectiveDeterministic | true означает, что целевая функция детерминирована, false в противном случае. |
ExplorationRatio | Используемый только, когда AcquisitionFunctionName 'expected-improvement-plus' или 'expected-improvement-per-second-plus' . Смотрите плюс. |
MaxObjectiveEvaluations | Предел оценки целевой функции. |
MaxTime | Ограничение по времени. |
XConstraintFcn | Детерминированные ограничения на переменные. Смотрите Детерминированные Ограничения — XConstraintFcn. |
ConditionalVariableFcn | Условные переменные ограничения. Смотрите Условные Ограничения — ConditionalVariableFcn. |
NumCoupledConstraints | Количество двойных ограничений. Смотрите Двойные Ограничения. |
CoupledConstraintTolerances | Двойные допуски ограничения. Смотрите Двойные Ограничения. |
AreCoupledConstraintsDeterministic | Логический вектор, задающий, детерминировано ли каждое двойное ограничение. |
Verbose | Уровень отображения командной строки. |
OutputFcn | Функция вызвана после каждой итерации. Смотрите Байесовы Выходные функции Оптимизации. |
SaveVariableName | Имя переменной для @assignInBase выходная функция. |
SaveFileName | Имя файла для @saveToFile выходная функция. |
PlotFcn | Функция построения графика называется после каждой итерации. Смотрите Байесовы Функции построения графика Оптимизации |
InitialX | Точки, где bayesopt выполненный целевая функция. |
InitialObjective | Значения целевой функции в InitialX . |
InitialConstraintViolations | Двойные ограничительные значения функции в InitialX . |
InitialErrorValues | Ошибочные значения в InitialX . |
InitialObjectiveEvaluationTimes | Времена оценки целевой функции в InitialX . |
InitialIterationTimes | Время для каждой итерации, включая оценку целевой функции и другие расчеты. |
Типы данных: struct
MinObjective
— Минимальная наблюдаемая величина целевой функцииЭто свойство доступно только для чтения.
Минимальная наблюдаемая величина целевой функции, возвращенной как действительный скаляр. Когда существуют связанные ограничения или ошибки оценки, это значение является минимумом по всем наблюдаемым точкам, которые выполнимы согласно итоговому ограничению и моделям Error.
Типы данных: double
XAtMinObjective
— Наблюдаемая точка с минимальным значением целевой функции
- D
таблицаЭто свойство доступно только для чтения.
Наблюдаемая точка с минимальным значением целевой функции, возвращенным как 1
- D
таблица, где D
количество переменных.
Типы данных: table
MinEstimatedObjective
— Минимальная ориентировочная стоимость целевой функцииЭто свойство доступно только для чтения.
Минимальная ориентировочная стоимость целевой функции, возвращенной как действительный скаляр. MinEstimatedObjective
использует итоговую объективную модель.
MinEstimatedObjective
совпадает с CriterionValue
результат bestPoint
с критерием по умолчанию.
Типы данных: double
XAtMinEstimatedObjective
— Точка с минимальным предполагаемым значением целевой функции
- D
таблицаЭто свойство доступно только для чтения.
Точка с минимальным предполагаемым значением целевой функции, возвращенным как 1
- D
таблица, где D
количество переменных. XAtMinEstimatedObjective
использует итоговую объективную модель.
Типы данных: table
NumObjectiveEvaluations
— Количество оценок целевой функцииЭто свойство доступно только для чтения.
Количество оценок целевой функции, возвращенных как положительное целое число. Это включает начальные оценки, чтобы сформировать следующую модель, а также оценку во время итераций оптимизации.
Типы данных: double
TotalElapsedTime
— Общее прошедшее время оптимизации в секундахЭто свойство доступно только для чтения.
Общее прошедшее время оптимизации в секундах, возвращенных как положительная скалярная величина.
Типы данных: double
NextPoint
— Следующий вопрос, чтобы оценить, если оптимизация продолжается
- D
таблицаЭто свойство доступно только для чтения.
Следующий вопрос, чтобы оценить, если оптимизация продолжается, возвратился как 1
- D
таблица, где D
количество переменных.
Типы данных: table
XTrace
— Точки, где целевая функция была выполненаT
- D
таблицаЭто свойство доступно только для чтения.
Точки, где целевая функция была выполнена, возвратились как T
- D
таблица, где T
количество точек оценки и D
количество переменных.
Типы данных: table
ObjectiveTrace
— Значения целевой функцииT
Это свойство доступно только для чтения.
Значения целевой функции, возвращенные как вектор-столбец длины T
, где T
количество точек оценки. ObjectiveTrace
содержит историю оценок целевой функции.
Типы данных: double
ObjectiveEvaluationTimeTrace
— Времена оценки целевой функцииT
Это свойство доступно только для чтения.
Времена оценки целевой функции, возвращенные как вектор-столбец длины T
, где T
количество точек оценки. ObjectiveEvaluationTimeTrace
включает время в оценку двойных ограничений, потому что целевая функция вычисляет эти ограничения.
Типы данных: double
IterationTimeTrace
— Времена итерацииT
Это свойство доступно только для чтения.
Времена итерации, возвращенные как вектор-столбец длины T
, где T
количество точек оценки. IterationTimeTrace
включает и время оценки целевой функции и другие издержки.
Типы данных: double
ConstraintsTrace
— Двойные ограничительные значенияT
- K
массивЭто свойство доступно только для чтения.
Двойные ограничительные значения, возвращенные как T
- K
массив, где T
количество точек оценки и K
количество двойных ограничений.
Типы данных: double
ErrorTrace
— Ошибочные признакиT
из -1
или 1
записиЭто свойство доступно только для чтения.
Ошибочные признаки, возвращенные как вектор-столбец длины T
из -1
или 1
записи, где T
количество точек оценки. Каждый 1
запись указывает что целевая функция или возвращенный NaN
с ошибками на соответствующей точке в
XTrace
. Каждый -1
запись указывает, что значение целевой функции было вычислено.
Типы данных: double
FeasibilityTrace
— Признаки выполнимостиT
Это свойство доступно только для чтения.
Признаки выполнимости, возвращенные как логический вектор-столбец длины T
, где T
количество точек оценки. Каждый 1
запись указывает, что итоговая ограничительная модель предсказывает выполнимость в соответствующей точке в XTrace
.
Типы данных: логический
FeasibilityProbabilityTrace
— Вероятность, что точка оценки выполнимаT
Это свойство доступно только для чтения.
Вероятность, что точка оценки выполнима, возвратилась как вектор-столбец длины T
, где T
количество точек оценки. Вероятности прибывают из итоговой ограничительной модели, включая ошибочную ограничительную модель, на соответствующих точках в XTrace
.
Типы данных: double
IndexOfMinimumTrace
— Какая оценка дала минимальную выполнимую цельT
Это свойство доступно только для чтения.
То, которое оценка дала минимальной выполнимой цели, возвратилось как вектор-столбец целочисленных индексов длины T
, где T
количество точек оценки. Выполнимость определяется относительно ограничительных моделей, которые существовали в каждой итерации, включая ошибочную ограничительную модель.
Типы данных: double
ObjectiveMinimumTrace
— Минимальная наблюдаемая цельT
Это свойство доступно только для чтения.
Минимальная наблюдаемая цель, возвращенная как вектор-столбец целочисленных индексов длины T
, где T
количество точек оценки.
Типы данных: double
EstimatedObjectiveMinimumTrace
— Минимальная предполагаемая цельT
Это свойство доступно только для чтения.
Минимальная предполагаемая цель, возвращенная как вектор-столбец целочисленных индексов длины T
, где T
количество точек оценки. Предполагаемая цель в каждой итерации определяется относительно объективной модели, которая существовала в той итерации.
Типы данных: double
UserDataTrace
— Вспомогательные данные из целевой функцииT
Это свойство доступно только для чтения.
Вспомогательные данные из целевой функции, возвращенной как массив ячеек длины T
, где T
количество точек оценки. Каждой записью в массиве ячеек является UserData
возвращенный в третьем выходе целевой функции.
Типы данных: cell
bestPoint | Лучше всего укажите в Байесовой оптимизации согласно критерию |
plot | Постройте Байесовы результаты оптимизации |
predictConstraints | Предскажите связанные нарушения ограничений в наборе точек |
predictError | Предскажите ошибочное значение в наборе точек |
predictObjective | Предскажите целевую функцию при наборе точек |
predictObjectiveEvaluationTime | Предскажите время выполнения целевой функции в наборе точек |
resume | Возобновите Байесовую оптимизацию |
BayesianOptimization
Объект Используя bayesopt
В этом примере показано, как создать BayesianOptimization
объект при помощи bayesopt
минимизировать потерю перекрестной проверки.
Оптимизируйте гиперпараметры классификатора KNN для ionosphere
данные, то есть, находят гиперпараметры KNN, которые минимизируют потерю перекрестной проверки. Имейте bayesopt
минимизируйте по следующим гиперпараметрам:
Размеры самого близкого окружения от 1 до 30
Расстояние функционирует 'chebychev'
, 'euclidean'
, и 'minkowski'
.
Для воспроизводимости установите случайный seed, установите раздел и установите AcquisitionFunctionName
опция к 'expected-improvement-plus'
. Чтобы подавить итеративное отображение, установите 'Verbose'
к 0
. Передайте раздел c
и подходящие данные X
и Y
к целевой функции fun
путем создания fun
как анонимная функция, которая включает эти данные. Смотрите Функции Параметризации.
load ionosphere rng default num = optimizableVariable('n',[1,30],'Type','integer'); dst = optimizableVariable('dst',{'chebychev','euclidean','minkowski'},'Type','categorical'); c = cvpartition(351,'Kfold',5); fun = @(x)kfoldLoss(fitcknn(X,Y,'CVPartition',c,'NumNeighbors',x.n,... 'Distance',char(x.dst),'NSMethod','exhaustive')); results = bayesopt(fun,[num,dst],'Verbose',0,... 'AcquisitionFunctionName','expected-improvement-plus')
results = BayesianOptimization with properties: ObjectiveFcn: [function_handle] VariableDescriptions: [1x2 optimizableVariable] Options: [1x1 struct] MinObjective: 0.1197 XAtMinObjective: [1x2 table] MinEstimatedObjective: 0.1213 XAtMinEstimatedObjective: [1x2 table] NumObjectiveEvaluations: 30 TotalElapsedTime: 49.9819 NextPoint: [1x2 table] XTrace: [30x2 table] ObjectiveTrace: [30x1 double] ConstraintsTrace: [] UserDataTrace: {30x1 cell} ObjectiveEvaluationTimeTrace: [30x1 double] IterationTimeTrace: [30x1 double] ErrorTrace: [30x1 double] FeasibilityTrace: [30x1 logical] FeasibilityProbabilityTrace: [30x1 double] IndexOfMinimumTrace: [30x1 double] ObjectiveMinimumTrace: [30x1 double] EstimatedObjectiveMinimumTrace: [30x1 double]
BayesianOptimization
Объект Используя подходящую функциюВ этом примере показано, как минимизировать потерю перекрестной проверки в ionosphere
данные с помощью Байесовой оптимизации классификатора SVM.
Загрузите данные.
load ionosphere
Оптимизируйте классификацию с помощью 'auto'
параметры.
rng default % For reproducibility Mdl = fitcsvm(X,Y,'OptimizeHyperparameters','auto')
|=====================================================================================================| | Iter | Eval | Objective | Objective | BestSoFar | BestSoFar | BoxConstraint| KernelScale | | | result | | runtime | (observed) | (estim.) | | | |=====================================================================================================| | 1 | Best | 0.21652 | 17.676 | 0.21652 | 0.21652 | 64.836 | 0.0015729 |
| 2 | Accept | 0.35897 | 0.074952 | 0.21652 | 0.22539 | 0.036335 | 5.5755 |
| 3 | Best | 0.13105 | 6.686 | 0.13105 | 0.14152 | 0.0022147 | 0.0023957 |
| 4 | Accept | 0.35897 | 0.077766 | 0.13105 | 0.13108 | 5.1259 | 98.62 |
| 5 | Best | 0.12251 | 0.08597 | 0.12251 | 0.12253 | 0.0010264 | 0.042908 |
| 6 | Accept | 0.12536 | 0.1123 | 0.12251 | 0.12242 | 0.0010276 | 0.01796 |
| 7 | Accept | 0.13105 | 1.3562 | 0.12251 | 0.12363 | 0.04548 | 0.028371 |
| 8 | Accept | 0.12821 | 0.10173 | 0.12251 | 0.1249 | 0.0010072 | 0.030413 |
| 9 | Accept | 0.1339 | 0.075746 | 0.12251 | 0.12488 | 0.0010192 | 0.074576 |
| 10 | Accept | 0.12536 | 0.14206 | 0.12251 | 0.12493 | 0.0010018 | 0.012976 |
| 11 | Accept | 0.12821 | 0.090896 | 0.12251 | 0.12596 | 0.001015 | 0.031011 |
| 12 | Accept | 0.13105 | 0.19583 | 0.12251 | 0.12568 | 0.0010129 | 0.0096616 |
| 13 | Accept | 0.12251 | 0.11303 | 0.12251 | 0.12429 | 0.0016169 | 0.030272 |
| 14 | Accept | 0.12251 | 0.12059 | 0.12251 | 0.12397 | 0.003059 | 0.028401 |
| 15 | Accept | 0.12821 | 0.1388 | 0.12251 | 0.1249 | 0.0037274 | 0.026596 |
| 16 | Accept | 0.35897 | 0.076167 | 0.12251 | 0.12487 | 1.745 | 989.98 |
| 17 | Accept | 0.35897 | 0.087111 | 0.12251 | 0.12491 | 0.0090574 | 94.849 |
| 18 | Accept | 0.34758 | 0.083236 | 0.12251 | 0.12524 | 0.001448 | 0.66381 |
| 19 | Accept | 0.13105 | 0.080728 | 0.12251 | 0.12562 | 0.001042 | 0.045914 |
| 20 | Accept | 0.12536 | 0.15038 | 0.12251 | 0.12563 | 0.0010189 | 0.020835 |
|=====================================================================================================| | Iter | Eval | Objective | Objective | BestSoFar | BestSoFar | BoxConstraint| KernelScale | | | result | | runtime | (observed) | (estim.) | | | |=====================================================================================================| | 21 | Accept | 0.12251 | 0.12811 | 0.12251 | 0.12468 | 0.0010139 | 0.023159 |
| 22 | Accept | 0.35897 | 0.075389 | 0.12251 | 0.12473 | 0.067964 | 23.612 |
| 23 | Accept | 0.1396 | 0.074715 | 0.12251 | 0.12449 | 0.0025917 | 0.19385 |
| 24 | Accept | 0.12251 | 0.078557 | 0.12251 | 0.1245 | 0.0042252 | 0.12741 |
| 25 | Accept | 0.1339 | 0.087403 | 0.12251 | 0.1244 | 0.01429 | 0.1308 |
| 26 | Accept | 0.1396 | 0.073631 | 0.12251 | 0.12452 | 0.0010084 | 0.13288 |
| 27 | Accept | 0.13675 | 0.54766 | 0.12251 | 0.1245 | 0.0010203 | 0.0050828 |
| 28 | Accept | 0.12536 | 0.12199 | 0.12251 | 0.12465 | 0.0010316 | 0.019592 |
| 29 | Accept | 0.35897 | 0.075367 | 0.12251 | 0.12464 | 0.65819 | 320.56 |
| 30 | Accept | 0.16524 | 0.073327 | 0.12251 | 0.12268 | 0.035233 | 1.9219 |
__________________________________________________________ Optimization completed. MaxObjectiveEvaluations of 30 reached. Total function evaluations: 30 Total elapsed time: 55.0716 seconds. Total objective function evaluation time: 28.8614 Best observed feasible point: BoxConstraint KernelScale _____________ ___________ 0.0010264 0.042908 Observed objective function value = 0.12251 Estimated objective function value = 0.12743 Function evaluation time = 0.08597 Best estimated feasible point (according to models): BoxConstraint KernelScale _____________ ___________ 0.0016169 0.030272 Estimated objective function value = 0.12268 Estimated function evaluation time = 0.10537
Mdl = ClassificationSVM ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'none' NumObservations: 351 HyperparameterOptimizationResults: [1×1 BayesianOptimization] Alpha: [98×1 double] Bias: -4.7988 KernelParameters: [1×1 struct] BoxConstraints: [351×1 double] ConvergenceInfo: [1×1 struct] IsSupportVector: [351×1 logical] Solver: 'SMO' Properties, Methods
Подгонка достигла приблизительно 12%-й потери для 5-кратной перекрестной проверки по умолчанию.
Исследуйте BayesianOptimization
объект, который возвращен в HyperparameterOptimizationResults
свойство возвращенной модели.
disp(Mdl.HyperparameterOptimizationResults)
BayesianOptimization with properties: ObjectiveFcn: @createObjFcn/inMemoryObjFcn VariableDescriptions: [5×1 optimizableVariable] Options: [1×1 struct] MinObjective: 0.1225 XAtMinObjective: [1×2 table] MinEstimatedObjective: 0.1227 XAtMinEstimatedObjective: [1×2 table] NumObjectiveEvaluations: 30 TotalElapsedTime: 55.0716 NextPoint: [1×2 table] XTrace: [30×2 table] ObjectiveTrace: [30×1 double] ConstraintsTrace: [] UserDataTrace: {30×1 cell} ObjectiveEvaluationTimeTrace: [30×1 double] IterationTimeTrace: [30×1 double] ErrorTrace: [30×1 double] FeasibilityTrace: [30×1 logical] FeasibilityProbabilityTrace: [30×1 double] IndexOfMinimumTrace: [30×1 double] ObjectiveMinimumTrace: [30×1 double] EstimatedObjectiveMinimumTrace: [30×1 double]
bayesopt
| fitcdiscr
| fitcecoc
| fitcensemble
| fitcknn
| fitclinear
| fitcnb
| fitcsvm
| fitctree
| fitrensemble
| fitrgp
| fitrlinear
| fitrsvm
| fitrtree
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.