Toolbox™ обучения усилению предоставляет приложение, функции и блок Simulink ® для обучения с использованием алгоритмов обучения усилению, включая DQN, PPO, SAC и DDPG. Эти политики можно использовать для реализации контроллеров и алгоритмов принятия решений для сложных приложений, таких как распределение ресурсов, робототехника и автономные системы.
Панель инструментов позволяет представлять политики и функции значений с помощью глубоких нейронных сетей или таблиц поиска и обучать их взаимодействию с средами, моделируемыми в MATLAB ® или Simulink. Можно оценить алгоритмы обучения одно- или многоагентному усилению, представленные на панели инструментов, или разработать собственные. Вы можете экспериментировать с параметрами гиперпараметров, контролировать ход обучения и моделировать обученных агентов в интерактивном режиме через приложение или программно. Для повышения производительности обучения моделирование может выполняться параллельно на нескольких процессорах, графических процессорах, компьютерных кластерах и облаке (с помощью Parallel Computing Toolbox™ и MATLAB Parallel Server™).
С помощью формата модели ONNX™ существующие политики можно импортировать из структур глубокого обучения, таких как TensorFlow™ Keras и PyTorch (с помощью Deep Learning Toolbox™). Можно создать оптимизированный код C, C++ и CUDA ® для развертывания обученных политик на микроконтроллерах и графических процессорах. Панель инструментов содержит примеры ссылок, которые помогут начать работу.
Основные сведения об инструменте обучения «Усиление»
Моделирование динамики среды обучения усиления с использованием MATLAB
Динамика среды обучения для усиления модели с использованием моделей Simulink
Создание и настройка агентов обучения усилению с использованием общих алгоритмов, таких как SARSA, DQN, DDPG и A2C
Определение представлений политик и функций значений, таких как глубокие нейронные сети и таблицы Q
Обучение и моделирование агентов по обучению усилению
Разработка кодекса и внедрение обученных политик