exponenta event banner

rlAgentInitializationOptions

Варианты инициализации агентов обучения для усиления

Описание

Используйте rlAgentInitializationOptions для указания параметров инициализации агента. Для создания агента используйте определенную функцию создания агента, например: rlACAgent.

Создание

Описание

initOpts = rlAgentInitializationOptions возвращает объект параметров по умолчанию для инициализации агента обучения усилению, поддерживающего сети по умолчанию. Используйте опции инициализации, чтобы указать параметры инициализации агента, такие как количество единиц для каждого скрытого уровня сетей агентов и необходимость использования повторяющейся нейронной сети.

пример

initOpts = rlAgentInitializationOptions(Name,Value) создает объект параметров инициализации и задает его свойства с помощью одного или нескольких аргументов пары имя-значение.

Свойства

развернуть все

Количество единиц в каждом скрытом полностью подключенном уровне сетей агентов, за исключением полностью подключенного уровня непосредственно перед выходом сети, заданного как положительное целое число. Заданное значение также применяется к любым слоям LSTM.

Пример: 'NumHiddenUnit',64

Флаг для использования рекуррентной нейронной сети, заданной как логическая.

Если установить UseRNN кому true, во время создания агента программное обеспечение вставляет повторяющийся уровень LSTM с режимом вывода, установленным на последовательность в пути вывода сетей агентов. Обратите внимание, что градиент политики и акторно-критические агенты не поддерживают повторяющиеся нейронные сети. Дополнительные сведения о LSTM см. в разделе Сети долговременной памяти.

Пример: 'UseRNN',true

Функции объекта

rlACAgentАктерско-критический агент по обучению
rlPGAgentАгент обучения для усиления градиента политики
rlDDPGAgentГлубокая детерминированная политика градиентного усиления обучающий агент
rlDQNAgentАгент обучения усилению глубокой Q-сети
rlPPOAgentАгент обучения по оптимизации проксимальной политики
rlTD3AgentДвойная задержка глубокого детерминированного усиления градиента политики обучающий агент
rlSACAgentМягкий актерско-критический агент по обучению

Примеры

свернуть все

Создайте объект параметров инициализации агента, указав количество скрытых нейронов и используя рецидивирующую нейронную сеть.

initOpts = rlAgentInitializationOptions('NumHiddenUnit',64,'UseRNN',true)
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 64
           UseRNN: 1

Опции можно изменить с помощью точечных обозначений. Например, установите время выборки агента равным 0.5.

initOpts.NumHiddenUnit = 128
initOpts = 
  rlAgentInitializationOptions with properties:

    NumHiddenUnit: 128
           UseRNN: 1

Представлен в R2020b