Создайте агентов с помощью Reinforcement Learning Designer

Приложение Reinforcement Learning Designer поддерживает агентов следующих типов.

Чтобы обучить агента, используя Reinforcement Learning Designer, необходимо сначала создать или импортировать окружение. Для получения дополнительной информации смотрите Создать окружения MATLAB для Reinforcement Learning Designer и Создать окружения Simulink для Reinforcement Learning Designer.

Создайте агента

Чтобы создать агента, на вкладке Reinforcement Learning, в разделе Agent, нажмите New.

Dialog box for specifying options for creating a default agent.

В диалоговом окне Create agent укажите следующую информацию.

  • Agent name - Укажите имя агента.

  • Environment - выберите окружение, которую вы ранее создали или импортировали.

  • Compatible algorithm - Выберите алгоритм настройки агента. Этот список содержит только алгоритмы, совместимые со окружением, которую вы выбираете.

Приложение Reinforcement Learning Designer создает агентов с представлениями актёра глубокой нейронной сети по умолчанию и критика. Можно задать следующие опции для сетей по умолчанию.

  • Number of hidden units - Задайте количество модулей в каждом полностью подключенном или LSTM слое сетей актёра и критика.

  • Use recurrent neural network - Выберите эту опцию, чтобы создать представления актёра и критика с рекуррентными нейронными сетями, которые содержат слой LSTM.

Чтобы создать агента, нажмите OK.

Приложение добавляет нового агента по умолчанию в область Agents и открывает документ для редактирования опций агента.

Document for viewing and editing properties of new agent.

Агент импорта

Можно также импортировать агента из MATLAB® рабочая область в Reinforcement Learning Designer. Для этого на вкладке Reinforcement Learning нажмите Import. Затем в разделе Select Agent выберите агента для импорта.

Select one of the listed agents, which are available in the MATLAB workspace.

Приложение добавляет нового импортированного агента в область Agents и открывает документ для редактирования опций агента.

Изменение опций агента

В Reinforcement Learning Designer можно изменить опции агента в соответствующем документе агента.

Document for viewing and editing properties of new agent.

Для каждого агента можно изменить следующие опции.

  • Agent Options - опции агента, такие как шаги расчета и коэффициент скидки. Задайте эти опции для всех поддерживаемых типов агентов.

  • Exploration Model - Опции модели исследования. Агенты PPO не имеют модели исследования.

  • Target Policy Smoothing Model - опции для сглаживания целевой политики, которые поддерживаются только для агентов TD3.

Для получения дополнительной информации об этих опциях см. соответствующий объект параметров агента.

Можно импортировать опции агента из рабочего пространства MATLAB. Чтобы создать опции для каждого типа агента, используйте один из предыдущих объектов. Можно также импортировать опции, которые вы ранее экспортировали из приложения Reinforcement Learning Designer

Чтобы импортировать опции, на соответствующей вкладке Agent нажмите Import. Затем под Options выберите объект опции. Приложение перечисляет только объекты совместимых опций из рабочего пространства MATLAB.

Select one of the listed options objects, which are available in the MATLAB workspace.

Приложение настраивает опции агента так, чтобы они совпадали с параметрами В выбранном объекте опции.

Редактирование актёра и критика

Можно редактировать свойства представлений актёра и критика для каждого агента.

  • У агентов DQN есть просто критическая сеть.

  • Агенты DDPG и PPO имеют представление актера и представление критика.

  • TD3 агенты имеют представление актера и два представления критика. При изменении опций представления критика для агента TD3 изменения применяются к обоим критикам.

Можно также импортировать представления актёра и критика из рабочего пространства MATLAB. Для получения дополнительной информации о создании представлений актёра и критика, смотрите, Создают Политику и Представления Функции Ценности. Можно также импортировать представления, которые вы ранее экспортировали из приложения Reinforcement Learning Designer.

Чтобы импортировать представление актёра или критика, на соответствующей вкладке Agent, нажмите Import. Затем под Actor или Critic выберите объект представления со спецификациями действий и наблюдений, которые совместимы со спецификациями агента.

Select one of the listed actor or critic representation objects, which are available in the MATLAB workspace.

Приложение заменяет представление актёра или критика в агенте выбранным представлением. Если вы импортируете представление критика для агента TD3, приложение заменяет сеть для обоих критиков.

Изменение глубоких нейронных сетей

Чтобы использовать недефектную глубокую нейронную сеть для актёра или критика, необходимо импортировать сеть из рабочего пространства MATLAB. Одной из распространенных стратегий является экспорт глубокой нейронной сети по умолчанию, изменение ее с помощью приложения Deep Network Designer, а затем импорт обратно в Reinforcement Learning Designer. Для получения дополнительной информации о создании глубоких нейронных сетей для актёров и критиков, смотрите, Создают Политику и Представления Функции Ценности.

Чтобы импортировать глубокую нейронную сеть, на соответствующей вкладке Agent нажмите Import. Затем под Actor Neural Network или Critic Neural Network выберите сеть с входом и выходными слоями, которые совместимы с наблюдением и спецификациями действия агента.

Select one of the listed deep neural networks, which are available in the MATLAB workspace.

Приложение заменяет глубокую нейронную сеть в соответствующем представлении актёра или агента. Если вы импортируете сеть критика для агента TD3, приложение заменяет сеть для обоих критиков.

Экспорт агентов и компонентов агента

Для данного агента можно экспортировать любое из следующих в рабочее пространство MATLAB.

  • Агент

  • Опции агента

  • Представление актёра или критика

  • Актёр или критик глубокой нейронной сети

Чтобы экспортировать агент или компонент агента, на соответствующей вкладке Agent, нажмите Export. Затем выберите элемент для экспорта.

Select the agent or agent component to export to the MATLAB workspace.

Приложение сохраняет копию агента или компонента агента в рабочем пространстве MATLAB.

См. также

Похожие темы