Цель обучения с подкреплением состоит в том, чтобы обучить агента выполнять задачу в неопределенной среде. Агент получает наблюдения и вознаграждение средой и отправляет действия в среду. Вознаграждение является мерой того, насколько успешный действие относительно завершения цели задачи.
Агент содержит два компонента: политика и алгоритм обучения.
Политика является отображением, которое выбирает действия на основе наблюдений средой. Как правило, политика является функцией approximator с настраиваемыми параметрами, такими как глубокая нейронная сеть.
Алгоритм обучения постоянно обновляет параметры политики на основе действий, наблюдений и вознаграждений. Цель алгоритма обучения состоит в том, чтобы найти оптимальную политику, которая максимизирует совокупное вознаграждение, полученное во время задачи.

В зависимости от алгоритма обучения агент обеспечивает, один или несколько параметризовал функцию approximators для обучения политика. Существует два типа функции approximators.
Критики — Для данного наблюдения и действия, критик находит ожидаемое значение долгосрочного будущего вознаграждения за задачу.
Агенты — Для данного наблюдения, агент находит действие, которое максимизирует долгосрочное будущее вознаграждение
Для получения дополнительной информации о создании агента и функции критика approximators, смотрите, Создают политику и Представления Функции Значения.
Пакет Reinforcement Learning Toolbox™ обеспечивает следующих встроенных агентов. Каждый агент может быть обучен в средах с непрерывными или дискретными пространствами наблюдений и следующими пробелами действия.
| Агент | Действия |
|---|---|
| Агенты Q-изучения | Дискретный |
| Агенты SARSA | Дискретный |
| Глубокие агенты Q-сети | Дискретный |
| Глубоко детерминированные агенты градиента политики | Непрерывный |
| Агенты градиента политики | Дискретный |
| Агенты критика агента | Дискретный |
Можно также обучить политики с помощью других алгоритмов обучения путем создания пользовательского агента. Для этого вы создаете подкласс пользовательского класса агента, задавая поведение агента с помощью набора необходимых и дополнительных методов. Для получения дополнительной информации смотрите Пользовательских Агентов.
rlACAgent | rlDDPGAgent | rlDQNAgent | rlPGAgent | rlQAgent | rlSARSAAgent