rlQAgent

Создайте агента обучения с подкреплением Q-изучения

Описание

agent = rlQAgent(critic) создает агента Q-изучения с опциями по умолчанию и заданным представлением критика. Для получения дополнительной информации об агентах Q-изучения смотрите Агентов Q-изучения.

пример

agent = rlQAgent(critic,opt) создает агента Q-изучения с помощью заданных опций агента, чтобы заменить значения по умолчанию агента.

Примеры

свернуть все

Создайте интерфейс среды.

env = rlPredefinedEnv("BasicGridWorld");

Создайте представление функции значения критика с помощью Q-таблицы, выведенной из наблюдения среды и спецификаций действия.

qTable = rlTable(getObservationInfo(env),getActionInfo(env));
critic = rlRepresentation(qTable);

Создайте агента Q-изучения с помощью заданной функции значения критика и значения эпсилона 0.05.

opt = rlQAgentOptions;
opt.EpsilonGreedyExploration.Epsilon = 0.05;
agent = rlQAgent(critic,opt);

Входные параметры

свернуть все

Представление сети Critic, заданное как rlTableRepresentation объект, созданный с помощью rlRepresentation. Для получения дополнительной информации о создании представлений критика смотрите, Создают политику и Представления Функции Значения.

Опции агента, заданные как rlQAgentOptions объект.

Выходные аргументы

свернуть все

Агент Q-изучения, возвращенный как rlQAgent объект.

Введенный в R2019a