Reinforcement Learning Toolbox™ обеспечивает функции и блоки для настройки политик с помощью алгоритмов обучения с подкреплением, включая DQN, A2C и DDPG. Можно использовать эти политики для реализации контроллеров и алгоритмы принятия решений в сложных системах, таких как роботы и автономные системы. Представлять политики можно с помощью глубоких нейронных сетей, полиномов или интерполяционных таблиц.
Тулбокс позволяет вам обучить политики, позволяя им взаимодействовать со средами, представленными моделями Simulink® или MATLAB®. Можно оценить алгоритмы, эксперимент с установками гиперпараметров, и контролировать процесс обучения. Чтобы улучшить производительность обучения, можно запустить параллельные симуляции в облаке, компьютерных кластерах и графических процессорах (с Parallel Computing Toolbox™ и MATLAB Parallel Server™).
Через формат модели ONNX™ существующие политики могут быть импортированы из сред глубокого обучения, таких как TensorFlow™ Keras и PyTorch (с Deep Learning Toolbox™). Можно сгенерировать оптимизированный C, C++ и код CUDA, чтобы развернуть обученные политики на микроконтроллерах и графических процессорах.
Тулбокс включает справочные примеры по использованию обучения с подкреплением для разработки контроллеров в робототехнике и беспилотных аппаратах.
Обучите агентов Q-обучения и SARSA решать мир сетки в MATLAB.
Обучите агента обучения с подкреплением в типовой среде марковского процесса принятия решений.
Обучите контроллер, используя обучение с подкреплением для объекта, смоделированного в Simulink как среде обучения.
Обучение с подкреплением является направленным на достижение цели вычислительным подходом, в котором компьютер учится выполнять задачу путем взаимодействия с неопределенной динамической средой.
Можно обучить агента обучения с подкреплением управлять неизвестным объектом.