exponenta event banner

inspectTrainingResult

Постройте график обучающей информации из предыдущего учебного занятия

    Описание

    По умолчанию train функция показывает ход обучения и результаты в менеджере эпизодов во время обучения. Если вы настраиваете обучение, чтобы не показывать менеджер эпизодов или вы закрываете менеджер эпизодов после обучения, вы можете просмотреть результаты обучения с помощью inspectTrainingResult , которая открывает менеджер эпизодов. Также можно использовать inspectTrainingResult для просмотра результатов обучения агентов, сохраненных во время обучения.

    пример

    inspectTrainingResult(trainResults) открывает менеджер эпизодов и отображает результаты обучения из предыдущего сеанса обучения.

    пример

    inspectTrainingResult(agentResults) открывает менеджер эпизодов и отображает результаты обучения из ранее сохраненной структуры агента.

    Примеры

    свернуть все

    В этом примере предположим, что агент прошел обучение в обучающем агенте по усилению поездов в среде MDP, а затем закрыл менеджер эпизодов.

    Загрузите информацию об обучении, возвращенную train функция.

    load mdpTrainingStats trainingStats

    Снова откройте менеджер эпизодов для этой тренировки.

    inspectTrainingResult(trainingStats)

    В этом примере загрузите среду и агент для обучающего агента «Обучение усилению» в примере среды MDP.

    load mdpAgentAndEnvironment

    Укажите параметры обучения агента. Сконфигурируйте SaveAgentCriteria и SaveAgentValue для сохранения всех агентов с вознаграждением, большим или равным 13.

    trainOpts = rlTrainingOptions;
    trainOpts.MaxStepsPerEpisode = 50;
    trainOpts.MaxEpisodes = 50;
    trainOpts.Plots = "none";
    trainOpts.SaveAgentCriteria = "EpisodeReward";
    trainOpts.SaveAgentValue = 13;

    Тренируйте агента. Во время обучения, когда эпизод имеет вознаграждение, большее или равное 13, копия агента сохраняется в savedAgents папка.

    rng('default') % for reproducibility
    trainingStats = train(qAgent,env,trainOpts);

    Загрузите результаты обучения для одного из сохраненных агентов. Эта команда загружает как агента, так и структуру, содержащую соответствующие результаты обучения.

    load savedAgents/Agent30

    Просмотрите результаты обучения из сохраненной структуры результатов агента.

    inspectTrainingResult(savedAgentResultStruct)

    Менеджер эпизодов показывает ход обучения вплоть до эпизода, в котором был сохранен агент.

    Входные аргументы

    свернуть все

    Данные учебного эпизода, указанные как структура или массив структуры, возвращаемые train функция.

    Сохраненные результаты агента, указанные как структура, ранее сохраненная train функция. train функция сохраняет агентов при указании SaveAgentCriteria и SaveAgentValue опции в rlTrainingOptions объект, используемый во время обучения.

    При загрузке сохраненного агента агент и его результаты обучения добавляются в рабочую область MATLAB ® какsaved_agent и savedAgentResultStructсоответственно. Для построения графика данных обучения для этого агента используйте следующую команду.

    inspectTrainingResult(savedAgentResultStruct)

    Для многоагентного обучения, savedAgentResultStruct содержит поля структуры с результатами обучения для всех обученных агентов.

    Представлен в R2021a