Детерминированное представление актера для агентов обучения с подкреплением
Этот объект реализует аппроксимацию функции, которая будет использоваться в качестве детерминированного актёра в агенте обучения с подкреплением с непрерывным пространством действий. Детерминированный актёр принимает наблюдения как входы и возвращается как выводит действие, которое максимизирует ожидаемое совокупное долгосрочное вознаграждение, тем самым реализуя детерминированную политику. После создания rlDeterministicActorRepresentation объект, используйте его, чтобы создать подходящего агента, такого как rlDDPGAgent агент. Дополнительные сведения о создании представлений см. в разделах Создание политики и Представления функции ценности.
создает детерминированного актёра, используя глубокую нейронную сеть actor = rlDeterministicActorRepresentation(net,observationInfo,actionInfo,'Observation',obsName,'Action',actName)net как аппроксимация. Этот синтаксис устанавливает свойства ObservationInfo и ActionInfo actor к входам observationInfo и actionInfo, содержащая спецификации для наблюдений и действий, соответственно. actionInfo необходимо задать непрерывное пространство действий, дискретные пространства действий не поддерживаются. obsName должны содержать имена входных слоев net которые связаны со спецификациями наблюдений. Имена действий actName должны быть именами выходных слоев net которые связаны со спецификациями действия.
создает детерминированный актёр, используя пользовательскую функцию базиса в качестве базовой аппроксимации. Первый входной параметр является камерой с двумя элементами, в которой первый элемент содержит указатель actor = rlDeterministicActorRepresentation({basisFcn,W0},observationInfo,actionInfo)basisFcn в пользовательскую функцию базиса, а второй элемент содержит начальную матрицу веса W0. Этот синтаксис задает свойства ObservationInfo и ActionInfo actor соответственно на входы observationInfo и actionInfo.
создает детерминированного актёра, используя набор дополнительных опций actor = rlDeterministicActorRepresentation(___,options)options, который является rlRepresentationOptions объект. Этот синтаксис задает свойство Опций actor на options входной параметр. Можно использовать этот синтаксис с любой из предыдущих комбинаций входных аргументов.
rlDDPGAgent | Агент глубокого детерминированного градиента обучения с подкреплением политики |
rlTD3Agent | Агент обучения с подкреплением с двумя задержками в глубоком детерминировании политики |
getAction | Получите действие от агента или представления актера заданных наблюдений окружения |