В этом примере показано, как обучить агента глубокой Q-образовательной-сети (DQN) хранению маршрута помогает (LKA) в Simulink® с помощью параллельного обучения. Для примера, который показывает, как обучить агента, не используя параллельное обучение, смотрите, Обучаются, Агент DQN для Хранения Маршрута Помогают.
Для получения дополнительной информации об агентах DQN смотрите Глубоких Агентов Q-сети. Для примера, который обучает агента DQN в MATLAB®, смотрите, Обучают Агента DQN Балансировать Систему Тележки с шестом.
В агенте DQN каждый рабочий генерирует новые события из его копии агента и среды. После каждого N
шаги, рабочий отправляет события в агента хоста. Агент хоста обновляет свои параметры можно следующим образом.
Для асинхронного обучения агент хоста учится на полученном опыте, не ожидая всех рабочих, чтобы отправить события и передает обновленные параметры обратно рабочему, который обеспечил события. Затем рабочий продолжает генерировать события его средой с помощью обновленных параметров.
Для синхронного обучения агент хоста ожидает, чтобы получить события от всех рабочих и учится на этом опыте. Хост затем отправляет обновленные параметры всем рабочим одновременно. Затем все рабочие продолжают генерировать события с помощью обновленных параметров.
Среда обучения с подкреплением для этого примера является простой моделью велосипеда для динамики автомобиля, оборудованного датчиком. Цель обучения должна сохранить автомобиль, оборудованный датчиком, перемещающийся вдоль средней линии маршрутов путем корректировки переднего руководящего угла. Этот пример использует ту же модель транспортного средства, как Обучаются, Агент DQN для Хранения Маршрута Помогают.
m = 1575; % total vehicle mass (kg) Iz = 2875; % yaw moment of inertia (mNs^2) lf = 1.2; % longitudinal distance from center of gravity to front tires (m) lr = 1.6; % longitudinal distance from center of gravity to rear tires (m) Cf = 19000; % cornering stiffness of front tires (N/rad) Cr = 33000; % cornering stiffness of rear tires (N/rad) Vx = 15; % longitudinal velocity (m/s)
Задайте шаг расчета Ts
и длительность симуляции T
в секундах.
Ts = 0.1; T = 15;
Выход системы LKA является передним руководящим углом автомобиля эго. Чтобы симулировать физические руководящие пределы автомобиля эго, ограничьте держащийся угол к области значений [–0.5,0.5]
рад.
u_min = -0.5; u_max = 0.5;
Искривление дороги задано постоянными 0.001 (). Начальным значением для бокового отклонения является 0.2
m и начальное значение для относительного угла отклонения от курса –0.1
рад.
rho = 0.001; e1_initial = 0.2; e2_initial = -0.1;
Откройте модель.
mdl = 'rlLKAMdl'; open_system(mdl) agentblk = [mdl '/RL Agent'];
Для этой модели:
Сигнал действия руководящего угла от агента до среды от –15 градусов до 15 градусов.
Наблюдения средой являются боковым отклонением , относительный угол отклонения от курса , их производные и , и их интегралы и .
Симуляция отключена когда боковое отклонение
Вознаграждение , если на каждом временном шаге ,
где вход управления от предыдущего временного шага .
Создайте интерфейс среды обучения с подкреплением для автомобиля, оборудованного датчиком.
Задайте информацию о наблюдении.
observationInfo = rlNumericSpec([6 1],'LowerLimit',-inf*ones(6,1),'UpperLimit',inf*ones(6,1)); observationInfo.Name = 'observations'; observationInfo.Description = 'information on lateral deviation and relative yaw angle';
Задайте информацию о действии.
actionInfo = rlFiniteSetSpec((-15:15)*pi/180);
actionInfo.Name = 'steering';
Создайте интерфейс среды.
env = rlSimulinkEnv(mdl,agentblk,observationInfo,actionInfo);
Интерфейс имеет дискретное пространство действий, где агент может применить один из 31 возможного руководящего угла от –15 градусов до 15 градусов.
Чтобы задать начальное условие для бокового отклонения и относительного угла отклонения от курса, задайте функцию сброса среды использование указателя анонимной функции. localResetFcn
, то, которое задано в конце этого примера, рандомизирует начальное боковое отклонение и относительный угол отклонения от курса.
env.ResetFcn = @(in)localResetFcn(in);
Для повторяемости результатов зафиксируйте начальное значение генератора случайных чисел.
rng(0)
Агент DQN аппроксимирует долгосрочные премиальные заданные наблюдения и действия с помощью представления функции ценности критика. Чтобы создать критика, сначала создайте глубокую нейронную сеть с двумя входными параметрами (состояние и действие) и один выход. Для получения дополнительной информации о создании представления функции ценности глубокой нейронной сети смотрите, Создают Представления Функции ценности и политика.
L = 24; % number of neurons statePath = [ imageInputLayer([6 1 1],'Normalization','none','Name','state') fullyConnectedLayer(L,'Name','fc1') reluLayer('Name','relu1') fullyConnectedLayer(L,'Name','fc2') additionLayer(2,'Name','add') reluLayer('Name','relu2') fullyConnectedLayer(L,'Name','fc3') reluLayer('Name','relu3') fullyConnectedLayer(1,'Name','fc4')]; actionPath = [ imageInputLayer([1 1 1],'Normalization','none','Name','action') fullyConnectedLayer(L, 'Name', 'fc5')]; criticNetwork = layerGraph(statePath); criticNetwork = addLayers(criticNetwork,actionPath); criticNetwork = connectLayers(criticNetwork,'fc5','add/in2');
Задайте опции для представления критика с помощью rlRepresentationOptions
.
criticOpts = rlRepresentationOptions('LearnRate',1e-3,'GradientThreshold',1);
Создайте представление критика с помощью заданной глубокой нейронной сети и опций. Необходимо также задать информацию о действии и наблюдении для критика, которого вы получаете из интерфейса среды. Для получения дополнительной информации смотрите rlQValueRepresentation
.
critic = rlQValueRepresentation(criticNetwork,observationInfo,actionInfo,'Observation',{'state'},'Action',{'action'},criticOpts);
Чтобы создать агента DQN, сначала задайте опции агента DQN с помощью rlDQNAgentOptions
.
agentOpts = rlDQNAgentOptions(... 'SampleTime',Ts,... 'UseDoubleDQN',true,... 'TargetSmoothFactor',1e-3,... 'DiscountFactor',0.99,... 'ExperienceBufferLength',1e6,... 'MiniBatchSize',64);
Затем создайте агента DQN с помощью заданного представления критика и опций агента. Для получения дополнительной информации смотрите rlDQNAgent
.
agent = rlDQNAgent(critic,agentOpts);
Чтобы обучить агента, сначала задайте опции обучения. В данном примере используйте следующие опции.
Запустите каждое обучение в большей части 5000
эпизоды, с каждым эпизодом, длящимся в большей части ceil(T/Ts)
временные шаги.
Отобразите прогресс обучения в диалоговом окне Episode Manager только (установите Plots
и Verbose
опции соответственно).
Остановите обучение, когда вознаграждение эпизода достигнет -1
.
Сохраните копию агента для каждого эпизода, где совокупное вознаграждение больше -2.5
.
Для получения дополнительной информации смотрите rlTrainingOptions
.
maxepisodes = 5000; maxsteps = ceil(T/Ts); trainOpts = rlTrainingOptions(... 'MaxEpisodes',maxepisodes, ... 'MaxStepsPerEpisode',maxsteps, ... 'Verbose',false,... 'Plots','training-progress',... 'StopTrainingCriteria','EpisodeReward',... 'StopTrainingValue', -1,... 'SaveAgentCriteria','EpisodeReward',... 'SaveAgentValue',-2.5);
Чтобы обучить агента параллельно, задайте следующие опции обучения.
Установите UseParallel
опция к true
.
Обучите агента параллельно асинхронно путем установки ParallelizationOptions.Mode
опция к "async"
.
После каждых 30 шагов каждый рабочий отправляет события в хост.
Агент DQN требует, чтобы рабочие отправили "experiences"
к хосту.
trainOpts.UseParallel = true; trainOpts.ParallelizationOptions.Mode = "async"; trainOpts.ParallelizationOptions.DataToSendFromWorkers = "experiences"; trainOpts.ParallelizationOptions.StepsUntilDataIsSent = 30; trainOpts.ParallelizationOptions.WorkerRandomSeeds = -1;
Для получения дополнительной информации смотрите rlTrainingOptions
.
Обучите агента с помощью train
функция. Обучение агент является в вычислительном отношении интенсивным процессом, который занимает несколько минут, чтобы завершиться. Чтобы сэкономить время при выполнении этого примера, загрузите предварительно обученного агента установкой doTraining
к false
. Чтобы обучить агента самостоятельно, установите doTraining
к true
. Из-за случайности параллельного обучения, можно ожидать, что различное обучение следует из графика ниже. График показывает результат обучения с четырьмя рабочими.
doTraining = false; if doTraining % Train the agent. trainingStats = train(agent,env,trainOpts); else % Load pretrained agent for the example. load('SimulinkLKADQNParallel.mat','agent') end
Чтобы подтвердить производительность обученного агента, не прокомментируйте следующие две линии и симулируйте агента в среде. Для получения дополнительной информации о симуляции агента смотрите rlSimulationOptions
и sim
.
% simOptions = rlSimulationOptions('MaxSteps',maxsteps); % experience = sim(env,agent,simOptions);
Чтобы продемонстрировать обученного агента с помощью детерминированных начальных условий, симулируйте модель в Simulink.
e1_initial = -0.4; e2_initial = 0.2; sim(mdl)
Как показано ниже, боковая ошибка (средний график) и относительный угол отклонения от курса (нижний график) оба управляется, чтобы обнулить. Транспортное средство начинает с от средней линии (-0.4 м) и ненулевая угловая погрешность отклонения от курса (0,2 рад). LKA позволяет автомобилю эго переместиться вдоль средней линии после 2,5 секунд. Держащийся угол (главный график) показывает, что контроллер достигает устойчивого состояния после 2 секунд.
function in = localResetFcn(in) % reset in = setVariable(in,'e1_initial', 0.5*(-1+2*rand)); % random value for lateral deviation in = setVariable(in,'e2_initial', 0.1*(-1+2*rand)); % random value for relative yaw angle end