В этом примере показано, как обучить двуногого робота обходить использование и агент глубоко детерминированного градиента политики (DDPG) и задержанный близнецами глубоко детерминированный градиент политики (TD3) агент и сравнивает эффективность этих обученных агентов. Робот в этом примере моделируется в Simscape™ Multibody™.
Для получения дополнительной информации об этих агентах смотрите Глубоко Детерминированных Агентов Градиента политики (Reinforcement Learning Toolbox) и Задержанный Близнецами Глубоко Детерминированные Агенты Градиента политики (Reinforcement Learning Toolbox).
В целях сравнения в этом примере оба агента обучены на среде двуногого робота с теми же параметрами модели. Агенты также сконфигурированы, чтобы иметь следующие общие настройки.
Первоначальная стратегия условия двуногого робота
Структура сети агента и критика, вдохновленного [2]
Опции для представлений актёра и критика
Опции обучения (шаг расчета, коэффициент дисконтирования, мини-пакетный размер, длина буфера опыта, шум исследования)
Среда обучения с подкреплением для этого примера является двуногим роботом. Цель обучения должна сделать обход робота в прямой линии с помощью минимального усилия по управлению.
Загрузите параметры модели в рабочую область MATLAB®.
robotParametersRL
Откройте модель Simulink.
mdl = 'rlWalkingBipedRobot';
open_system(mdl)
Робот моделируется с помощью Simscape Multibody.
Для этой модели:
В нейтральных 0 положениях рад оба из участков являются прямыми, и лодыжки являются плоскими.
Контакт ноги моделируется с помощью блока Spatial Contact Force (Simscape Multibody) из Simscape Multibody.
Агент может управлять 3 отдельными соединениями (лодыжка, колено и бедро) на обоих участках робота путем применения сигналов крутящего момента от -3
к 3
N· m. Фактические вычисленные сигналы действия нормированы между -1
и 1
.
Среда предоставляет 29 наблюдений агенту. Наблюдения:
Y (ответвление) и Z (вертикальные) переводы центра туловища массы. Перевод в направлении Z нормирован к подобной области значений как другие наблюдения.
X (прямой), Y (ответвление) и Z (вертикальные) скорости перевода.
Отклоняйтесь от курса, сделайте подачу, и углы вращения туловища.
Отклоняйтесь от курса, сделайте подачу, и скорости вращения списка туловища.
Угловые положения и скорости 3 соединений (лодыжка, колено, бедро) на обоих участках.
Значения действия от предыдущего временного шага.
Эпизод завершает работу, если любое из следующих условий происходит.
Центр туловища робота массы меньше 0,1 м в (упавшем) направлении Z или больше чем 1 м в направлении Y (боковое движение).
Абсолютное значение или списка, подачи или отклонения от курса больше 0,7854 рад.
Следующая премиальная функция , то, которое обеспечивается на каждом временном шаге, вдохновлено [1]. Эта премиальная функция поощряет агента продвигаться путем обеспечения положительного вознаграждения за положительную прямую скорость. Это также поощряет агента избегать завершения эпизода путем обеспечения постоянного вознаграждения () на каждом временном шаге. Другие условия в премиальной функции являются штрафами за существенные изменения в боковых и вертикальных переводах, и для использования избыточного усилия по управлению.
Здесь:
скорость перевода в направлении X (вперед к цели) робота.
боковое смещение перевода робота от целевой траектории прямой линии.
нормированное вертикальное перемещение перевода центра робота массы.
крутящий момент от соединения i от предыдущего временного шага.
шаг расчета среды.
итоговое время симуляции среды.
Создайте спецификацию наблюдений.
numObs = 29;
obsInfo = rlNumericSpec([numObs 1]);
obsInfo.Name = 'observations';
Создайте спецификацию действия.
numAct = 6; actInfo = rlNumericSpec([numAct 1],'LowerLimit',-1,'UpperLimit',1); actInfo.Name = 'foot_torque';
Создайте интерфейс среды для модели робота обхода.
blk = [mdl,'/RL Agent'];
env = rlSimulinkEnv(mdl,blk,obsInfo,actInfo);
env.ResetFcn = @(in) walkerResetFcn(in,upper_leg_length/100,lower_leg_length/100,h/100);
Этот пример предоставляет возможность обучать робота любое использование или DDPG или агент TD3. Чтобы симулировать робота с агентом по вашему выбору, установите AgentSelection
отметьте соответственно.
AgentSelection = 'TD3'; switch AgentSelection case 'DDPG' agent = createDDPGAgent(numObs,obsInfo,numAct,actInfo,Ts); case 'TD3' agent = createTD3Agent(numObs,obsInfo,numAct,actInfo,Ts); otherwise disp('Enter DDPG or TD3 for AgentSelection') end
createDDPGAgent
и createTD3Agent
функции помощника выполняют следующие действия.
Создайте сети критика и агент.
Задайте опции для представлений актёра и критика.
Создайте представления актёра и критика с помощью созданных сетей и заданных опций.
Сконфигурируйте агента определенные опции.
Создайте агента.
Агент DDPG аппроксимирует долгосрочные премиальные заданные наблюдения и действия с помощью представления функции ценности критика. Агент DDPG решает который действие взять заданные наблюдения при помощи представления актера. Агент и сети критика для этого примера вдохновлены [2].
Для получения дополнительной информации на создании агента DDPG, смотрите createDDPGAgent
функция помощника. Для получения информации о конфигурировании опций агента DDPG смотрите rlDDPGAgentOptions
.
Для получения дополнительной информации о создании представления функции ценности глубокой нейронной сети смотрите, Создают политику и Представления Функции ценности (Reinforcement Learning Toolbox). Для примера, который создает нейронные сети для агентов DDPG, смотрите, Обучают Агента DDPG Управлять Двойной Системой Интегратора (Reinforcement Learning Toolbox).
Агент TD3 аппроксимирует долгосрочные премиальные заданные наблюдения и действия с помощью 2 представлений функции ценности критика. Агент TD3 решает который действие взять заданные наблюдения с помощью представления актера. Структура агента и сетей критика, используемых для этого агента, совпадает с теми используемыми для агента DDPG.
Агент DDPG может дать завышенное значение Q. Поскольку это значение Q затем используется, чтобы обновить политику (агент) агента, результирующая политика может быть субоптимальной, и накапливающиеся учебные ошибки могут привести к расходящемуся поведению. Алгоритм TD3 является расширением DDPG с улучшениями, которые делают его более устойчивым путем предотвращения переоценки значений Q [3].
Две сети критика — агенты TD3 изучают две сети критика независимо и используют оценку функции минимального значения, чтобы обновить агента (политика). Выполнение так предотвращает накопление ошибки на последующих шагах и переоценке значений Q.
Сложение целевого шума политики — Отсеченный шум добавляется, чтобы предназначаться для действий, чтобы сгладить значения функции Q по подобным действиям. Выполнение так предотвращает изучение неправильного резкого пика шумной оценки значения.
Задержанная политика и целевые обновления — Для агента TD3, рекомендуется задержать обновление сети агента, когда это позволяет большему количеству времени для функции Q уменьшать ошибку (становятся ближе к необходимой цели) прежде, чем обновить политику. Выполнение так предотвращает отклонение в оценках значений и результаты в более высококачественном обновлении политики.
Для получения дополнительной информации на создании агента TD3, смотрите createTD3Agent
функция помощника. Для получения информации о конфигурировании опций агента TD3 смотрите rlTD3AgentOptions
.
В данном примере опции обучения для DDPG и агентов TD3 являются тем же самым. Эти опции основаны на следующих требованиях.
Запустите каждый сеанс обучения для 2 000 эпизодов с каждым эпизодом, длящимся в большей части maxSteps
временные шаги.
Отобразите прогресс обучения в диалоговом окне Episode Manager (установите Plots
опция), и отключают отображение командной строки (установите Verbose
опция).
Отключите обучение только, когда оно достигнет максимального количества эпизодов (maxEpisodes
). Выполнение так позволяет сравнение кривых обучения для нескольких агентов по целому сеансу обучения.
Для получения дополнительной информации и дополнительные опции, смотрите rlTrainingOptions
(Reinforcement Learning Toolbox).
maxEpisodes = 2000; maxSteps = floor(Tf/Ts); trainOpts = rlTrainingOptions(... 'MaxEpisodes',maxEpisodes,... 'MaxStepsPerEpisode',maxSteps,... 'ScoreAveragingWindowLength',250,... 'Verbose',false,... 'Plots','training-progress',... 'StopTrainingCriteria','EpisodeCount',... 'StopTrainingValue',maxEpisodes,... 'SaveAgentCriteria','EpisodeCount',... 'SaveAgentValue',maxEpisodes);
Чтобы обучить агента параллельно, задайте следующие опции обучения. Обучение параллельно требует Parallel Computing Toolbox™. Если вам не установили программное обеспечение Parallel Computing Toolbox, установите UseParallel
к false
.
Установите UseParallel
опция к true
.
Обучите агента параллельно асинхронно.
После каждых 32 шагов имейте каждого рабочего, отправляют события в хост. DDPG и агенты TD3 требуют, чтобы рабочие отправили события в хост.
trainOpts.UseParallel = true; trainOpts.ParallelizationOptions.Mode = 'async'; trainOpts.ParallelizationOptions.StepsUntilDataIsSent = 32; trainOpts.ParallelizationOptions.DataToSendFromWorkers = 'Experiences';
Обучите агента с помощью train
(Reinforcement Learning Toolbox) функция. Этот процесс в вычислительном отношении интенсивен и занимает несколько часов, чтобы завершиться для каждого агента. Чтобы сэкономить время при выполнении этого примера, загрузите предварительно обученного агента установкой doTraining
к false
. Чтобы обучить агента самостоятельно, установите doTraining
к true
. Из-за случайности в параллельном обучении, можно ожидать, что различное обучение следует из графиков ниже. Предварительно обученные агенты были обучены в параллели с помощью четырех рабочих.
doTraining = false; if doTraining % Train the agent. trainingStats = train(agent,env,trainOpts); else % Load a pretrained agent for the selected agent type. if strcmp(AgentSelection,'DDPG') load('rlWalkingBipedRobotDDPG.mat','agent') else load('rlWalkingBipedRobotTD3.mat','agent') end end
Для предыдущих кривых обучения в качестве примера среднее время на учебный шаг для DDPG и агентов TD3 составляет 0,11 и 0,12 секунды, соответственно. Агент TD3 занимает больше учебного времени на шаг, потому что это обновляет две сети критика по сравнению с одним критиком, используемым для DDPG.
Для повторяемости результатов зафиксируйте начальное значение генератора случайных чисел.
rng(0)
Чтобы подтвердить производительность обученного агента, симулируйте его в среде двуногого робота. Для получения дополнительной информации о симуляции агента смотрите rlSimulationOptions
(Reinforcement Learning Toolbox) и sim
(Reinforcement Learning Toolbox).
simOptions = rlSimulationOptions('MaxSteps',maxSteps);
experience = sim(env,agent,simOptions);
Для следующего сравнения агента каждый агент был обучен пять раз с помощью различного случайного seed каждый раз. Из-за случайного шума исследования и случайности в параллельном обучении, кривая обучения для каждого запуска отличается. Поскольку обучение агентов для нескольких запусков занимает несколько дней, чтобы завершиться, это сравнение использование предварительно обученные агенты.
Для DDPG и агентов TD3, постройте среднее и стандартное отклонение вознаграждения эпизода (главный график) и значение эпизода Q0 (нижний график). Значение эпизода Q0 является оценкой критика обесцененного долгосрочного вознаграждения в начале каждого эпизода, учитывая начальное наблюдение за средой. Для хорошо спроектированного критика значение эпизода Q0 приближается к истинному обесцененному долгосрочному вознаграждению.
comparePerformance('DDPGAgent','TD3Agent')
На основе графика сравнения Кривой обучения:
DDPG, кажется, берет изучение быстрее (вокруг эпизода номер 600 в среднем), но поражает локальный минимум. TD3 запускается медленнее, но в конечном счете достигает более высоких вознаграждений, чем DDPG, когда это избегает переоценки значений Q.
Агент TD3 показывает устойчивое улучшение своей кривой обучения, которая предлагает улучшенную устойчивость когда по сравнению с агентом DDPG.
На основе графика сравнения Эпизода Q0:
Для агента TD3 оценка критика обесцененного долгосрочного вознаграждения (для 2 000 эпизодов) ниже по сравнению с агентом DDPG. Это различие - то, потому что алгоритм TD3 проявляет консервативный подход в обновлении его целей при помощи минимума двух функций Q. Это поведение далее улучшено из-за задержанных обновлений целей.
Несмотря на то, что оценка TD3 для этих 2 000 эпизодов является низкой, агент TD3 показывает устойчивое увеличение значения эпизода Q0, s различающийся агент DDPG.
В этом примере обучение было остановлено в 2 000 эпизодов. В течение большего периода подготовки агент TD3 с его устойчивым увеличением оценок показывает потенциал, чтобы сходиться к истинному обесцененному долгосрочному вознаграждению.
Для другого примера о том, как обучить агента DDPG обходить гуманоидного робота, смоделированного в Simscape™ Multibody™, видят, Обучают Гуманоида Уокера (Simscape Multibody). Для примера о том, как обучить агента DDPG обходить робота четвероногого животного, смотрите, что Передвижение Робота Четвероногого животного Использует Агента DDPG (Reinforcement Learning Toolbox).
[1] Heess, Николас, Тбайт Dhruva, Сринивасан Срирэм, Джей Леммон, Джош Мерель, Грег Уэйн, Ювал Тасса, и др. ‘Появление Поведений Передвижения в Богатых Средах’. ArXiv:1707.02286 [Cs], 10 июля 2017. https://arxiv.org/abs/1707.02286.
[2] Lillicrap, Тимоти П., Джонатан Дж. Хант, Александр Прицель, Николас Хисс, Том Эрез, Ювал Тасса, Дэвид Сильвер и Даан Вирстра. ‘Непрерывное Управление с Глубоким Обучением с подкреплением’. ArXiv:1509.02971 [Cs, Статистика], 5 июля 2019. https://arxiv.org/abs/1509.02971.
[3] Фудзимото, Скотт, Херк ван Хуф и Дэвид Меджер. ‘Исправляя Ошибку Приближения функций в Методах Критика Агента. ArXiv:1802.09477 [Cs, Статистика], 22 октября 2018. https://arxiv.org/abs/1802.09477.
train
(Reinforcement Learning Toolbox)