setLearnableParameterValues

Установите learnable значения параметров политики или представления функции значения

Описание

пример

newRep = setLearnableParameterValues(oldRep,val) возвращает новую политику или представление функции значения, newRep, с той же структурой как исходное представление, oldRep, и learnable значения параметров заданы в val.

Примеры

свернуть все

Примите, что у вас есть существующий обученный агент обучения с подкреплением. В данном примере загрузите обученного агента от, Обучают Агента DDPG Управлять Двойной Системой Интегратора.

load('DoubleIntegDDPG.mat','agent') 

Получите представление критика от агента.

critic = getCritic(agent);

Получите learnable параметры от критика.

params = getLearnableParameterValues(critic);

Измените значения параметров. В данном примере просто умножьте все параметры 2.

modifiedParams = cellfun(@(x) x*2,params,'UniformOutput',false);

Установите значения параметров критика к новым модифицированным значениям.

critic = setLearnableParameterValues(critic,modifiedParams);

Установите критика в агенте новому модифицированному критику.

agent = setCritic(agent,critic);

Примите, что у вас есть существующий обученный агент обучения с подкреплением. В данном примере загрузите обученного агента от, Обучают Агента DDPG Управлять Двойной Системой Интегратора.

load('DoubleIntegDDPG.mat','agent') 

Получите представление агента от агента.

actor = getActor(agent);

Получите learnable параметры из агента.

params = getLearnableParameterValues(actor);

Измените значения параметров. В данном примере просто умножьте все параметры 2.

modifiedParams = cellfun(@(x) x*2,params,'UniformOutput',false);

Установите значения параметров агента к новым модифицированным значениям.

actor = setLearnableParameterValues(actor,modifiedParams);

Установите агента в агенте к новому модифицированному агенту.

agent = setActor(agent,actor);

Входные параметры

свернуть все

Исходная политика или представление функции значения, заданное как одно из следующего:

  • rlLayerRepresentation объект для представлений глубокой нейронной сети

  • rlTableRepresentation объект для таблицы значения или представлений Q-таблицы

Чтобы создать политику или представление функции значения, используйте один из следующих методов:

  • Создайте представление с помощью rlRepresentation.

  • Получите существующее представление функции значения от агента с помощью getCritic

  • Получите существующее представление политики от агента с помощью getActor.

Значения параметров Learnable для объекта представления, заданного как массив ячеек. Параметры в val должно быть совместимо со структурой и параметризацией oldRep.

Чтобы получить массив ячеек learnable значений параметров от существующего представления, которое можно затем изменить, используют getLearnableParameterValues функция.

Выходные аргументы

свернуть все

Новая политика или представление функции значения, возвращенное как объект представления того же типа как oldRep. newRep имеет ту же структуру как oldRep но со значениями параметров от val.

Введенный в R2019a