rlAgentInitializationOptions

Опции для инициализации агентов обучения с подкреплением

Описание

Используйте rlAgentInitializationOptions объект задать опции инициализации для агента. Чтобы создать агента, используйте определенную функцию создания агента, такой как rlACAgent.

Создание

Описание

initOpts = rlAgentInitializationOptions возвращает объект опций по умолчанию для инициализации агента обучения с подкреплением, который поддерживает сети по умолчанию. Используйте опции инициализации, чтобы задать параметры инициализации агента, такие как количество модулей для каждого скрытого слоя сетей агента и использовать ли рекуррентную нейронную сеть.

пример

initOpts = rlAgentInitializationOptions(Name,Value) создает объект опций инициализации и устанавливает его свойства при помощи одного или нескольких аргументов пары "имя-значение".

Свойства

развернуть все

Количество модулей в каждом скрытом полносвязном слое сетей агента, за исключением полносвязного слоя непосредственно перед сетевым выходом в виде положительного целого числа. Значение, которое вы устанавливаете также, применяется к любым слоям LSTM.

Пример: 'NumHiddenUnit',64

Отметьте, чтобы использовать рекуррентную нейронную сеть в виде логического.

Если вы устанавливаете UseRNN к true, во время создания агента программное обеспечение вставляет текущий слой LSTM с набором режима вывода к последовательности в выходе path сетей агента. Градиент политики и агенты критика агента не поддерживают рекуррентные нейронные сети. Для получения дополнительной информации о LSTM смотрите Длинные Краткосрочные Сети Памяти.

Пример: 'UseRNN',true

Функции объекта

rlACAgentАгент обучения с подкреплением критика агента
rlPGAgentАгент обучения с подкреплением градиента политики
rlDDPGAgentГлубоко детерминированный агент обучения с подкреплением градиента политики
rlDQNAgentГлубокий агент обучения с подкреплением Q-сети
rlPPOAgentБлижайший агент обучения с подкреплением оптимизации политики
rlTD3AgentЗадержанный близнецами глубоко детерминированный агент обучения с подкреплением градиента политики
rlSACAgentМягкий агент обучения с подкреплением критика агента
rlTRPOAgentДоверительный агент обучения с подкреплением оптимизации политики области

Примеры

свернуть все

Создайте объект опций инициализации агента, задав количество скрытых нейронов и использование рекуррентной нейронной сети.

initOpts = rlAgentInitializationOptions('NumHiddenUnit',64,'UseRNN',true)
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 64
           UseRNN: 1

Можно изменить опции с помощью записи через точку. Например, установите шаг расчета агента на 0.5.

initOpts.NumHiddenUnit = 128
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 128
           UseRNN: 1

Введенный в R2020b