Детерминированное представление актера для агентов обучения с подкреплением
Этот объект реализует аппроксимацию функции, которая будет использоваться в качестве детерминированного актёра в агенте обучения с подкреплением с непрерывным пространством действий. Детерминированный актёр принимает наблюдения как входы и возвращается как выводит действие, которое максимизирует ожидаемое совокупное долгосрочное вознаграждение, тем самым реализуя детерминированную политику. После создания rlDeterministicActorRepresentation
объект, используйте его, чтобы создать подходящего агента, такого как rlDDPGAgent
агент. Дополнительные сведения о создании представлений см. в разделах Создание политики и Представления функции ценности.
создает детерминированного актёра, используя глубокую нейронную сеть actor
= rlDeterministicActorRepresentation(net
,observationInfo
,actionInfo
,'Observation',obsName
,'Action',actName
)net
как аппроксимация. Этот синтаксис устанавливает свойства ObservationInfo и ActionInfo actor
к входам observationInfo
и actionInfo
, содержащая спецификации для наблюдений и действий, соответственно. actionInfo
необходимо задать непрерывное пространство действий, дискретные пространства действий не поддерживаются. obsName
должны содержать имена входных слоев net
которые связаны со спецификациями наблюдений. Имена действий actName
должны быть именами выходных слоев net
которые связаны со спецификациями действия.
создает детерминированный актёр, используя пользовательскую функцию базиса в качестве базовой аппроксимации. Первый входной параметр является камерой с двумя элементами, в которой первый элемент содержит указатель actor
= rlDeterministicActorRepresentation({basisFcn
,W0
},observationInfo
,actionInfo
)basisFcn
в пользовательскую функцию базиса, а второй элемент содержит начальную матрицу веса W0
. Этот синтаксис задает свойства ObservationInfo и ActionInfo actor
соответственно на входы observationInfo
и actionInfo
.
создает детерминированного актёра, используя набор дополнительных опций actor
= rlDeterministicActorRepresentation(___,options
)options
, который является rlRepresentationOptions
объект. Этот синтаксис задает свойство Опций actor
на options
входной параметр. Можно использовать этот синтаксис с любой из предыдущих комбинаций входных аргументов.
rlDDPGAgent | Агент глубокого детерминированного градиента обучения с подкреплением политики |
rlTD3Agent | Агент обучения с подкреплением с двумя задержками в глубоком детерминировании политики |
getAction | Получите действие от агента или представления актера заданных наблюдений окружения |