setActor

Установите представление агента агента изучения укрепления

Синтаксис

newAgent = setActor(oldAgent,actor)

Описание

пример

newAgent = setActor(oldAgent,actor) возвращает новый агент изучения укрепления, newAgent, который использует заданное представление агента. Кроме представления агента, новый агент имеет ту же настройку как заданный исходный агент, oldAgent.

Примеры

свернуть все

Примите, что у вас есть существующий обученный агент изучения укрепления, agent.

Получите представление агента от агента.

actor = getActor(agent);

Получите learnable параметры от критика.

params = getLearnableParameters(actor);

Измените значения параметров. В данном примере просто умножьте все параметры 2.

modifiedParams = cellfun(@(x) x*2,params,'UniformOutput',false);

Установите значения параметров критика к новым измененным значениям.

actor = setLearnableParameterValues(actor,modifiedParams);

Установите критика в агенте новому измененному критику.

agent = setActor(agent,actor);

Примите, что у вас есть существующий агент изучения укрепления, agent.

Далее, примите, что этот агент имеет представление агента, которое содержит следующую структуру глубокой нейронной сети.

originalActor = [
        imageInputLayer([4 1 1],'Normalization','none','Name','state')
        fullyConnectedLayer(2,'Name','action')];

Создайте представление агента с дополнительным полносвязным слоем.

actorNetwork = [
        imageInputLayer([4 1 1],'Normalization','none','Name','state')
        fullyConnectedLayer(3,'Name','x');
        fullyConnectedLayer(2,'Name','action')];
actor = rlRepresentation(actorNetwork,...
    'Observation',{'state'},getObservationInfo(env),
    'Action',{'action'},getActionInfo(env));

Установите представление агента агента к новому увеличенному агенту.

agent = setActor(actor);

Входные параметры

свернуть все

Исходный агент изучения укрепления, который содержит представление агента, заданное как одно из следующего:

Объект представления агента, заданный как одно из следующего:

  • Объект rlLayerRepresentation для представлений глубокой нейронной сети

  • Объект rlTableRepresentation для таблицы значения или представлений таблицы Q

Слои ввода и вывода заданного представления должны совпадать с наблюдением и спецификациями действия исходного агента.

Чтобы создать представление агента, используйте один из следующих методов:

  • Создайте представление с помощью rlRepresentation.

  • Получите существующее представление агента от агента с помощью getActor.

Выходные аргументы

свернуть все

Обновленный агент изучения укрепления, возвращенный как агент, возражает, что использует заданное представление агента. Кроме представления агента, новый агент имеет ту же настройку как oldAgent.

Введенный в R2019a

Для просмотра документации необходимо авторизоваться на сайте