Детерминированное представление акторов для усиливающих обучающих агентов
Этот объект реализует аппроксиматор функции, используемый в качестве детерминированного фактора в агенте обучения усиления с непрерывным пространством действий. Детерминированный субъект принимает наблюдения в качестве входных данных и возвращает в качестве выходных данных действие, которое максимизирует ожидаемое совокупное долгосрочное вознаграждение, тем самым реализуя детерминированную политику. После создания rlDeterministicActorRepresentation объект, использовать его для создания подходящего агента, такого как rlDDPGAgent агент. Дополнительные сведения о создании представлений см. в разделе Создание представлений политик и функций значений.
создает детерминированный актер с помощью глубокой нейронной сети actor = rlDeterministicActorRepresentation(net,observationInfo,actionInfo,'Observation',obsName,'Action',actName)net в качестве аппроксиматора. Этот синтаксис задает свойства TranslationInfo и ActionInfo для actor на входы observationInfo и actionInfo, содержащий спецификации для наблюдений и действий, соответственно. actionInfo должен указывать непрерывное пространство действий, дискретные пространства действий не поддерживаются. obsName должен содержать имена входных слоев net которые связаны со спецификациями наблюдения. Имена действий actName должны быть именами выходных слоев net , которые связаны со спецификациями действий.
создает детерминированный фактор, используя пользовательскую базисную функцию в качестве базового аппроксиматора. Первый входной аргумент представляет собой двухэлементную ячейку, в которой первый элемент содержит дескриптор actor = rlDeterministicActorRepresentation({basisFcn,W0},observationInfo,actionInfo)basisFcn к пользовательской базисной функции, а второй элемент содержит исходную весовую матрицу W0. Этот синтаксис задает свойства TranslationInfo и ActionInfo для actor соответственно входам observationInfo и actionInfo.
создает детерминированный актер с помощью набора дополнительных опций actor = rlDeterministicActorRepresentation(___,options)options, который является rlRepresentationOptions объект. Этот синтаксис задает свойство Options для actor вoptions входной аргумент. Этот синтаксис можно использовать с любой из предыдущих комбинаций входных аргументов.
rlDDPGAgent | Глубокая детерминированная политика градиентного усиления обучающий агент |
rlTD3Agent | Двойная задержка глубокого детерминированного усиления градиента политики обучающий агент |
getAction | Получить действие от агента или актора при наблюдении за окружающей средой |