Детерминированное представление актера для агентов обучения с подкреплением
Этот объект реализует функциональную аппроксимацию, которая будет использоваться в качестве детерминированного агента в агенте обучения с подкреплением с непрерывным пространством действий. Детерминированный агент берет наблюдения в качестве входных параметров и возвращается, как выводит действие, которое максимизирует ожидаемое совокупное долгосрочное вознаграждение, таким образом, представляя детерминированную политику. После того, как вы создаете rlDeterministicActorRepresentation
объект, используйте его, чтобы создать подходящего агента, такого как rlDDPGAgent
агент. Для получения дополнительной информации о создании представлений смотрите, Создают Представления Функции ценности и политика.
создает детерминированного агента с помощью глубокой нейронной сети actor
= rlDeterministicActorRepresentation(net
,observationInfo
,actionInfo
,'Observation',obsName
,'Action',actName
)net
как аппроксимация. Этот синтаксис устанавливает свойства ObservationInfo и ActionInfo actor
к входным параметрам observationInfo
и actionInfo
, содержа технические требования для наблюдений и действий, соответственно. observationInfo
должен задать непрерывное пространство действий, дискретные пространства действий не поддерживаются. obsName
должен содержать имена входных слоев net
это сопоставлено со спецификациями наблюдений. Действие называет actName
должны быть имена выходных слоев net
это сопоставлено со спецификациями действия.
создает детерминированного агента с помощью пользовательской основной функции в качестве базовой аппроксимации. Первый входной параметр является ячейкой 2D элементов, в которой первый элемент содержит указатель actor
= rlDeterministicActorRepresentation({basisFcn
,W0
},observationInfo
,actionInfo
)basisFcn
к пользовательской основной функции и второму элементу содержит начальную матрицу веса W0
. Этот синтаксис устанавливает свойства ObservationInfo и ActionInfo actor
соответственно к входным параметрам observationInfo
и actionInfo
.
создает детерминированного агента с помощью набора дополнительных опций actor
= rlDeterministicActorRepresentation(___,options
)options
, который является rlRepresentationOptions
объект. Этот синтаксис устанавливает свойство Options actor
к theoptions
входной параметр. Можно использовать этот синтаксис с любой из предыдущих комбинаций входных аргументов.
rlDDPGAgent | Глубоко детерминированный агент обучения с подкреплением градиента политики |
rlTD3Agent | Задержанный близнецами глубоко детерминированный агент обучения с подкреплением градиента политики |
getAction | Получите действие из агента или представления актера, данного наблюдения среды |