inspectTrainingResult

Постройте учебную информацию от предыдущего сеанса обучения

    Описание

    По умолчанию, train функция показывает процесс обучения и приводит к менеджеру по Эпизоду во время обучения. Если вы конфигурируете обучение не показать, что менеджер по Эпизоду или вы закрываете менеджера по Эпизоду после обучения, можно просмотреть учебные результаты с помощью inspectTrainingResult функция, которая открывает менеджера по Эпизоду. Можно также использовать inspectTrainingResult просмотреть обучение заканчивается для агентов, сохраненных во время обучения.

    пример

    inspectTrainingResult(trainResults) открывает менеджера по Эпизоду и строит обучение, следует из предыдущего сеанса обучения.

    пример

    inspectTrainingResult(agentResults) открывает менеджера по Эпизоду и строит обучение, следует из ранее сохраненной структуры агента.

    Примеры

    свернуть все

    В данном примере примите, что вы обучили агента в Обучать Агенте Обучения с подкреплением в примере Среды MDP и впоследствии закрыли менеджера по Эпизоду.

    Загрузите учебную информацию, возвращенную train функция.

    load mdpTrainingStats trainingStats

    Вновь откройте менеджера Эпизода этого сеанса обучения.

    inspectTrainingResult(trainingStats)

    В данном примере загрузите среду и агента для Обучать Агента Обучения с подкреплением в примере Среды MDP.

    load mdpAgentAndEnvironment

    Задайте опции для обучения агент. Сконфигурируйте SaveAgentCriteria и SaveAgentValue опции, чтобы сохранить всех агентов с вознаграждением, больше, чем или равный 13.

    trainOpts = rlTrainingOptions;
    trainOpts.MaxStepsPerEpisode = 50;
    trainOpts.MaxEpisodes = 50;
    trainOpts.Plots = "none";
    trainOpts.SaveAgentCriteria = "EpisodeReward";
    trainOpts.SaveAgentValue = 13;

    Обучите агента. Во время обучения, когда эпизод имеет вознаграждение, больше, чем или равный 13, копия агента сохранена в savedAgents папка.

    rng('default') % for reproducibility
    trainingStats = train(qAgent,env,trainOpts);

    Загрузите учебные результаты для одного из сохраненных агентов. Эта команда загружает и агента и структуру, которая содержит соответствующие учебные результаты.

    load savedAgents/Agent30

    Представление обучение следует из сохраненной структуры результата агента.

    inspectTrainingResult(savedAgentResultStruct)

    Менеджер по Эпизоду показывает процессу обучения до эпизода, в котором агент был сохранен.

    Входные параметры

    свернуть все

    Данные об эпизоде тренировки в виде структуры или массива структур, возвращенного train функция.

    Сохраненный агент заканчивается в виде структуры, ранее сохраненной train функция. train функция сохраняет агентов, когда вы задаете SaveAgentCriteria и SaveAgentValue опции в rlTrainingOptions объект используется во время обучения.

    Когда вы загружаете сохраненного агента, агент и его учебные результаты добавляются к MATLAB® рабочая область как saved_agent и savedAgentResultStruct, соответственно. Чтобы отобразить обучающие данные на графике для этого агента, используйте следующую команду.

    inspectTrainingResult(savedAgentResultStruct)

    Для обучения мультиагента, savedAgentResultStruct содержит поля структуры учебными результатами для всех обученных агентов.

    Введенный в R2021a