При создавании высококачественной модели регрессии важно выбрать правильные функции (или предикторы), гиперпараметры мелодии (параметры модели не подгонка к данным), и оценить образцовые предположения через остаточную диагностику.
Можно настроить гиперпараметры путем итерации между выбором значений для них и перекрестной проверкой модели с помощью выбора. Этот процесс приводит к многоуровневым моделям, и лучшая модель среди них может быть той, которая минимизирует предполагаемую ошибку обобщения. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, перекрестный подтвердите модель для каждой пары значений, и затем сравните их 10-кратные перекрестные подтвержденные среднеквадратические ошибочные оценки.
Определенные непараметрические функции регрессии в Statistics and Machine Learning Toolbox™ дополнительно предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако bayesopt
, который является основной функцией, чтобы реализовать Байесовую оптимизацию, достаточно гибок для многих других приложений. Для получения дополнительной информации смотрите Байесов Рабочий процесс Оптимизации.
Regression Learner | Обучите модели регрессии предсказывать данные с помощью машинного обучения с учителем |
Обучите модели регрессии в приложении Regression Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели регрессии, включая автоматизированное, ручное, и параллельное обучение.
Выберите Regression Model Options
В Regression Learner автоматически обучите выбор моделей, или сравните и настройте опции моделей линейной регрессии, деревьев регрессии, поддержка векторные машины, Гауссовы модели регрессии процесса и ансамбли деревьев регрессии.
Покажите выбор и покажите преобразование Используя приложение Regression Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Regression Learner.
Оцените производительность модели в Regression Learner
Сравните образцовую статистику и визуализируйте результаты.
Узнайте об алгоритмах выбора функции, таких как последовательный выбор функции.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте повышенный ансамбль регрессии
Минимизируйте утрату перекрестной проверки ансамбля регрессии.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Поймите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Интерпретируйте результаты линейной регрессии
Отобразите и интерпретируйте линейную регрессию выходная статистика.
Соответствуйте модели линейной регрессии и исследуйте результат.
Линейная регрессия с эффектами взаимодействия
Создайте и анализируйте модель линейной регрессии с эффектами взаимодействия и интерпретируйте результаты.
Сводные данные Вывода и диагностической статистики
Оцените подобранную модель при помощи образцовых свойств и объектных функций
F-статистическая-величина и t-статистическая-величина
В линейной регрессии F - статистическая величина является тестовой статистической величиной для дисперсионного анализа (АНОВА) подход, чтобы протестировать значение модели или компонентов в модели. t - статистическая величина полезна для того, чтобы сделать выводы о коэффициентах регрессии
Коэффициент детерминации (R-Squared)
Коэффициент детерминации (R-squared) указывает на пропорциональный объем изменения в переменной отклика y, объясненный независимыми переменными X в модели линейной регрессии.
Содействующие стандартные погрешности и доверительные интервалы
Предполагаемые содействующие отклонения и ковариации получают точность оценок коэффициента регрессии.
Невязки полезны для обнаружения отдаленных значений y и проверки предположений линейной регрессии относительно остаточного члена в модели регрессии.
Тест Дербин-Уотсона оценивает, существует ли автокорреляция среди невязок или нет.
Расстояние повара полезно для идентификации выбросов в значениях X (наблюдения для переменных прогноза).
Матрица шляпы обеспечивает меру рычагов.
Удалите 1 изменение в ковариации (covratio
), идентифицирует наблюдения, которые влияют при подгонке регрессии.
Обобщенные линейные модели используют линейные методы описать потенциально нелинейное отношение между условиями предиктора и переменной отклика.
Параметрические нелинейные модели представляют отношение между непрерывной переменной отклика и одной или несколькими непрерывными переменными прогноза.