Агенты обучения с подкреплением

Цель обучения с подкреплением состоит в том, чтобы настроить агента для выполнения задачи в неопределенном окружении. Агент получает наблюдения и вознаграждение от окружения и посылает туда действия. Вознаграждение является мерой того, насколько успешно действие относительно выполнения цели задачи.

Агент содержит два компонента: политика и алгоритм обучения.

  • Политика является отображением, которое выбирает действия на основе наблюдений от среды. Как правило, политика представляет собой аппроксимирующую функцию с настраиваемыми параметрами, например, глубокую нейронную сеть.

  • Алгоритм обучения постоянно обновляет параметры политики на основе действий, наблюдений и вознаграждений. Цель алгоритма обучения состоит в том, чтобы найти оптимальную политику, которая максимизирует ожидаемое совокупное долгосрочное вознаграждение, полученное во время задачи.

В зависимости от алгоритма обучения агент поддерживает одну или несколько параметризованных функциональных аппроксимаций для настройки политики. Аппроксимации могут использоваться двумя способами.

  • Критики — Для заданного наблюдения и действия, критик возвращает, как выведено ожидаемое значение совокупного долгосрочного вознаграждения за задачу.

  • Агент — Для заданного наблюдения, агент возвращает, как выведено действие, которое максимизирует ожидаемое совокупное долгосрочное вознаграждение.

Агенты, которые используют только критиков, чтобы выбрать их действия, используют косвенное представление политики. Эти агенты также упоминаются как основанные на значении, и они используют аппроксимацию, чтобы представлять функцию ценности или Q-функцию-ценности. В общем случае эти агенты работают лучше с дискретными пространствами действий, но могут стать в вычислительном отношении дорогими для непрерывных пространств действий.

Агенты, которые используют только агентов, чтобы выбрать их действия, используют прямое представление политики. Эти агенты также упоминаются как основанные на политике. Политика может быть или детерминированной или стохастической. В общем случае эти агенты более просты и могут обработать непрерывные пространства действий, хотя алгоритм настройки может быть чувствителен к шумному измерению и может сходиться на локальных минимумах.

Агенты, которые используют и агента и критика, упоминаются как агенты критика агента. В этих агентах, во время обучения, агент изучает лучшее действие, чтобы взять обратную связь использования от критика (вместо того, чтобы использовать вознаграждение непосредственно). В то же время критик узнает о функции ценности из вознаграждений так, чтобы она могла правильно подвергнуть критике агента. В общем случае эти агенты могут обработать и дискретный и непрерывные пространства действий.

Встроенные агенты

Программное обеспечение Reinforcement Learning Toolbox™ предоставляет следующих встроенных агентов. Можно обучить этих агентов в средах или с непрерывными или с дискретными пространствами наблюдений и следующими пространствами действий.

Следующие таблицы обобщают типы, пространства действий и представление для всех встроенных агентов. Для каждого агента пространство наблюдений может быть или дискретным или непрерывным.

Встроенные агенты: тип и пространство действий

АгентВводПространство действий
Агенты Q-обучения (Q)Основанный на значенииДискретный
Глубокие агенты Q-сети (DQN)Основанный на значенииДискретный
Агенты SARSAОснованный на значенииДискретный
Агенты градиента политики (PG)Основанный на политикеДискретный или непрерывный
Агенты критика агента (AC)Критик агентаДискретный или непрерывный
Ближайшие агенты оптимизации политики (PPO)Критик агентаДискретный или непрерывный
Глубоко детерминированные агенты градиента политики (DDPG)Критик агентаНепрерывный
Задержанный близнецами глубоко детерминированные агенты градиента политики (TD3)Критик агентаНепрерывный
Мягкие агенты критика агента (SAC)Критик агентаНепрерывный

Встроенные Агенты: Представление, которое Необходимо Использовать с Каждым Агентом

ПредставлениеQ, DQN, SARSAPGAC, PPOМЕШОЧЕКDDPG, TD3

Критик функции ценности V (S), который вы создаете использование

rlValueRepresentation

 X (если базовая линия используется),X  

Критик Q (S, A), Q-функции-ценности, который вы создаете использование

rlQValueRepresentation

X  XX

Детерминированный агент политики π (S), который вы создаете использование

rlDeterministicActorRepresentation

    X

Стохастический агент политики π (S), который вы создаете использование

rlStochasticActorRepresentation

 XXX 

Агент с сетями по умолчанию — Все агенты кроме Q-изучения и SARSA поддерживает сети по умолчанию для агентов и критиков. Можно создать агента с представлениями актёра и критика по умолчанию на основе спецификаций наблюдений и спецификаций действия от среды. Для этого выполните следующие шаги.

  1. Создайте спецификации наблюдений для своей среды. Если у вас уже есть объект интерфейса среды, можно получить эти технические требования использование getObservationInfo.

  2. Технические требования действия по созданию для вашей среды. Если у вас уже есть объект интерфейса среды, можно получить эти технические требования использование getActionInfo.

  3. В случае необходимости задайте количество нейронов в каждом learnable слое или использовать ли слой LSTM. Для этого создайте объект опции инициализации агента использование rlAgentInitializationOptions.

  4. В случае необходимости задайте опции агента путем создания набора объекта опций для определенного агента.

  5. Создайте агента с помощью соответствующей функции создания агента. Получившийся агент содержит соответствующие представления актёра и критика, перечисленные в таблице выше. Агент и критик используют специфичные для агента глубокие нейронные сети по умолчанию в качестве внутренних аппроксимаций.

Для получения дополнительной информации о создании функциональных аппроксимаций актёра и критика смотрите, Создают Представления Функции ценности и политика.

Выберите тип агента

При выборе агента лучшая практика состоит в том, чтобы запуститься с более простого (и быстрее обучаться) алгоритм, который совместим с пространствами действий и пространствами наблюдений. Можно затем попробовать прогрессивно более сложные алгоритмы, если более простые единицы не выполняют, как желаемый.

  • Дискретное действие и пространство наблюдений — Для сред с дискретным действием и пространством наблюдений, агент Q-обучения является самым простым совместимым агентом, сопровождаемым DQN и PPO.

    Arrow going from left to right showing first a vertical stack containing the Q-learning agent on top and the SARSA agent on the bottom, followed by a DQN on the middle, and by a PPO agent on the right

  • Дискретное пространство действий и непрерывное пространство наблюдений — Для сред с дискретным пространством действий и непрерывным пространством наблюдений, DQN является самым простым совместимым агентом, сопровождаемым PPO.

    Arrow showing a DQN agent on the left followed by a PPO agent on the right

  • Непрерывное пространство действий — Для сред и с непрерывным действием и с пространством наблюдений, DDPG является самым простым совместимым агентом, сопровождаемым TD3, PPO и SAC. Для таких сред попробуйте DDPG сначала. В целом:

    • TD3 является улучшенной, более комплексной версией DDPG.

    • PPO имеет более устойчивые обновления, но требует большего количества обучения.

    • SAC является улучшенной, более комплексной версией DDPG, который генерирует стохастические политики.

    Arrow showing a DDPG agent followed by a vertical stack containing the TD3 agent on top, the PPO agent in th emiddle, and the SAC agent on the bottom.

Пользовательские агенты

Можно также обучить политики с помощью других алгоритмов обучения путем создания пользовательского агента. Для этого вы создаете подкласс пользовательского класса агента, задавая поведение агента с помощью набора необходимых и дополнительных методов. Для получения дополнительной информации смотрите Пользовательских Агентов.

Смотрите также

| | | | | | | |

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте