rlAgentInitializationOptions

Опции для инициализации агентов обучения с подкреплением

Описание

Используйте rlAgentInitializationOptions объект, чтобы задать опции инициализации для агента. Чтобы создать агента, используйте определенную функцию создания агента, такую как rlACAgent.

Создание

Описание

initOpts = rlAgentInitializationOptions возвращает объект опций по умолчанию для инициализации агента обучения с подкреплением, который поддерживает сети по умолчанию. Используйте опции инициализации, чтобы задать параметры инициализации агента, такие как количество модулей для каждого скрытого слоя сетей агента и использовать ли рекуррентную нейронную сеть.

пример

initOpts = rlAgentInitializationOptions(Name,Value) создает объект опций инициализации и устанавливает его свойства с помощью одного или нескольких аргументов пары "имя-значение".

Свойства

расширить все

Количество модулей в каждом скрытом полносвязном слое сетей агента, за исключением полностью подключенного слоя непосредственно перед выходом сети, заданное в виде положительного целого числа. Заданное значение также применяется к любым слоям LSTM.

Пример: 'NumHiddenUnit',64

Флаг для использования рекуррентной нейронной сети, заданный как логический.

Если вы задаете UseRNN на trueво время создания агента программное обеспечение вставляет повторяющийся слой LSTM с выходным режимом, установленным на последовательность в выходном пути сетей агента. Обратите внимание, что агенты градиента политики и актёр-критик не поддерживают рекуррентные нейронные сети. Для получения дополнительной информации о LSTM, смотрите Длинные Краткосрочные Сети Памяти.

Пример: 'UseRNN',true

Функции объекта

rlACAgentАгент обучения с подкреплением актёра-критика
rlPGAgentАгент обучения с подкреплением с градиентом политики
rlDDPGAgentАгент глубокого детерминированного градиента обучения с подкреплением политики
rlDQNAgentАгент обучения с подкреплением глубокой Q-сети
rlPPOAgentПроксимальный агент обучения с подкреплением оптимизации политики
rlTD3AgentАгент обучения с подкреплением с двумя задержками в глубоком детерминировании политики
rlSACAgentМягкий агент обучения с подкреплением актёра-критика

Примеры

свернуть все

Создайте объект опций инициализации агента, задав количество скрытых нейронов и использование рекуррентной нейронной сети.

initOpts = rlAgentInitializationOptions('NumHiddenUnit',64,'UseRNN',true)
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 64
           UseRNN: 1

Можно изменить опции с помощью записи через точку. Для примера установите значение шага расчета агента равным 0.5.

initOpts.NumHiddenUnit = 128
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 128
           UseRNN: 1

Введенный в R2020b