findopOptions

Установите опции для нахождения рабочих точек от спецификаций

Синтаксис

options = findopOptions
options = findopOptions(Name,Value)

Описание

пример

options = findopOptions возвращает параметры поиска рабочей точки по умолчанию.

options = findopOptions(Name,Value) возвращает набор опции с дополнительными опциями, заданными одним или несколькими аргументами пары Name,Value. Используйте этот набор опции, чтобы задать опции для команды findop.

Примеры

свернуть все

Создайте набор опции для поиска рабочей точки, который устанавливает тип оптимизатора на спуск градиента и подавляет отображение вывод findop.

option = findopOptions('OptimizerType','graddescent','DisplayReport','off');

Также используйте запись через точку, чтобы установить значения options.

options = findopOptions;
options.OptimizerType = 'graddescent';
options.DisplayReport = 'off';

Входные параметры

свернуть все

Аргументы в виде пар имя-значение

Укажите необязательные аргументы в виде пар ""имя, значение"", разделенных запятыми. Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Пример: 'DisplayReport','off' подавляет отображение поиска рабочей точки, сообщают Командному окну.

Тип оптимизатора используется алгоритмом оптимизации, заданным как пара, разделенная запятой, состоящая из 'OptimizerType' и одно из следующего:

  • 'graddescent-elim' — Осуществите ограничение равенства, чтобы обеспечить производные времени состояний, чтобы быть нулем (dx/dt = 0, x(k+1) = x(k)) и выходные сигналы, чтобы быть равными их заданным известным значениям. Оптимизатор фиксирует состояния, x, и входные параметры, u, которые отмечены как Known в спецификации рабочей точки, и оптимизирует остающиеся переменные.

  • 'graddescent' — Осуществите ограничение равенства, чтобы обеспечить производные времени состояний, чтобы быть нулем (dx/dt = 0, x(k+1) = x(k)) и выходные сигналы, чтобы быть равными их заданным известным значениям. Оптимизатор также минимизирует ошибку между состояниями, x, и входными параметрами, u и их соответствующими известными значениями от спецификации рабочей точки. Если нет никаких входных параметров или состояний, отмеченных как Known, findop пытается минимизировать отклонение между исходными предположениями для x и u и их обрезанных значений.

  • 'graddescent-proj' — В дополнение к 'graddescent' осуществите непротиворечивость образцовых начальных условий при каждой функциональной оценке. Чтобы задать, являются ли ограничения трудными или мягкими, используйте опцию ConstraintType. Этот метод оптимизации не поддерживает аналитические Якобианы.

  • 'lsqnonlin' — Зафиксируйте состояния, x, и входные параметры, u, отмеченный как Known в спецификации рабочей точки, и оптимизируйте остающиеся переменные. Алгоритм пытается минимизировать обоих ошибка в производных времени состояний (dx/dt = 0, x(k+1) = x(k)) и ошибка между выходными параметрами и их заданными известными значениями.

  • 'lsqnonlin-proj' — В дополнение к 'lsqnonlin' осуществите непротиворечивость образцовых начальных условий при каждой функциональной оценке. Этот метод оптимизации не поддерживает аналитические Якобианы.

  • Симплекс Используйте ту же функцию стоимости в качестве lsqnonlin с прямой стандартной программой оптимизации поиска, найденной в fminsearch.

Для получения дополнительной информации об этих алгоритмах оптимизации, смотрите fmincon, lsqnonlin и fminsearch в документации Optimization Toolbox™.

Опции для алгоритма оптимизации, заданного как пара, разделенная запятой, состоящая из 'OptimizationOptions' и структуры, создали использование функции optimset.

Отметьте указание, отобразить ли сводный отчет рабочей точки, заданный как пара, разделенная запятой, состоящая из 'DisplayReport' и одно из следующего:

  • 'on' — Отобразите сводный отчет рабочей точки в командном окне MATLAB® при выполнении findop.

  • 'off' Подавите отображение сводного отчета.

  • 'iter' — Отобразите итеративное обновление прогресса оптимизации.

Отметьте указание, перекомпилировать ли модель при варьировании значений параметров для обрезки, заданный как пара, разделенная запятой, состоящая из 'AreParamsTunable' и одно из следующего:

  • tRUE Не перекомпилируйте модель, когда все переменные параметры будут настраиваемыми. Если какие-либо переменные параметры не являются настраиваемыми, перекомпилировали модель для каждого узла решетки параметра и выпускают предупреждающее сообщение.

  • ложь Перекомпилируйте модель для каждого узла решетки параметра. Используйте эту опцию, когда вы будете отличаться значения ненастраиваемых параметров.

Типы ограничения для алгоритма оптимизатора 'graddescent-proj', заданного как пара, разделенная запятой, состоящая из 'ConstraintType' и структуры со следующими полями:

  • dx — Введите для ограничений на производные состояния

  • x Введите для ограничений на значения состояния

  • y Введите для ограничений на выходные значения

Задайте каждое ограничение как одно из следующего:

  • 'hard' — Осуществите ограничения, чтобы быть нулем.

  • 'soft' — Минимизируйте ограничения.

Всеми типами ограничения является 'hard' по умолчанию.

Выходные аргументы

свернуть все

При обрезке опций возвращенных, когда установлена опция findopOptions.

Вопросы совместимости

развернуть все

Поведение изменяется в R2017b

Смотрите также

Введенный в R2013b

Для просмотра документации необходимо авторизоваться на сайте