inspectTrainingResult

Постройте график информации о обучении из предыдущего сеанса обучения

    Описание

    По умолчанию, train функция показывает процесс обучения и результаты в диспетчере эпизодов во время обучения. Если вы конфигурируете обучение, чтобы не показывать Диспетчер эпизодов или вы закрываете Диспетчер эпизодов после обучения, можно просмотреть результаты обучения с помощью inspectTrainingResult функция, которая открывает Диспетчер эпизодов. Вы также можете использовать inspectTrainingResult чтобы просмотреть результаты обучения для агентов, сохраненных во время обучения.

    пример

    inspectTrainingResult(trainResults) открывает Диспетчер эпизодов и строит графики результатов обучения из предыдущего сеанса обучения.

    пример

    inspectTrainingResult(agentResults) открывает Диспетчер эпизодов и строит графики результатов обучения из ранее сохраненной структуры агента.

    Примеры

    свернуть все

    В данном примере предположим, что вы обучили агента в примере Training Обучение с Подкреплением Agent в среде MDP и впоследствии закрыли Диспетчер эпизодов.

    Загрузите обучающую информацию, возвращенную train функция.

    load mdpTrainingStats trainingStats

    Откройте Диспетчер эпизодов для этого обучающего сеанса.

    inspectTrainingResult(trainingStats)

    В данном примере загружает окружение и агента для Train Reinforcement Learning Agent в Окружение пример MDP.

    load mdpAgentAndEnvironment

    Укажите опции для настройки агента. Сконфигурируйте SaveAgentCriteria и SaveAgentValue опции для сохранения всех агентов с вознаграждением, большим или равным 13.

    trainOpts = rlTrainingOptions;
    trainOpts.MaxStepsPerEpisode = 50;
    trainOpts.MaxEpisodes = 50;
    trainOpts.Plots = "none";
    trainOpts.SaveAgentCriteria = "EpisodeReward";
    trainOpts.SaveAgentValue = 13;

    Обучите агента. Во время обучения, когда эпизод имеет вознаграждение, больше или равное 13, копия агента сохраняется в savedAgents папка.

    rng('default') % for reproducibility
    trainingStats = train(qAgent,env,trainOpts);

    Загрузите результаты обучения для одного из сохраненных агентов. Эта команда загружает как агент, так и структуру, содержащую соответствующие результаты обучения.

    load savedAgents/Agent30

    Просмотр результатов обучения из сохраненной структуры результата агента.

    inspectTrainingResult(savedAgentResultStruct)

    Диспетчер эпизодов показывает процесс обучения вплоть до эпизода, в котором был сохранен агент.

    Входные параметры

    свернуть все

    Эпизоды тренировки, заданные как структура или массив структур, возвращенный train функция.

    Сохраненные результаты агента, заданные как структура, ранее сохраненная train функция. train функция сохраняет агентов, когда вы задаете SaveAgentCriteria и SaveAgentValue опции в rlTrainingOptions объект, используемый во время обучения.

    При загрузке сохраненного агента агент и его результаты обучения добавляются в MATLAB® рабочая область как saved_agent и savedAgentResultStruct, соответственно. Чтобы построить график обучающих данных для этого агента, используйте следующую команду.

    inspectTrainingResult(savedAgentResultStruct)

    Для мультиагента, savedAgentResultStruct содержит поля структуры с результатами обучения для всех обученных агентов.

    Введенный в R2021a