При создавании высококачественной модели регрессии важно выбрать правильные функции (или предикторы), гиперпараметры мелодии (параметры модели не подгонка к данным), и оценить предположения модели через остаточную диагностику.
Можно настроить гиперпараметры путем итерации между выбором значений для них и перекрестной проверкой модели с помощью выбора. Этот процесс дает к многоуровневым моделям, и лучшая модель среди них может быть той, которая минимизирует предполагаемую ошибку обобщения. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, перекрестный подтвердите модель для каждой пары значений, и затем сравните их 10-кратные перекрестные подтвержденные среднеквадратические ошибочные оценки.
Определенные непараметрические функции регрессии в Statistics and Machine Learning Toolbox™ дополнительно предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако bayesopt
, то, которое является основной функцией, чтобы реализовать Байесовую оптимизацию, достаточно гибко для многих других приложений. Для получения дополнительной информации смотрите Байесов Рабочий процесс Оптимизации.
Чтобы автоматически выбрать модель настроенными гиперпараметрами, использовать fitrauto
. Функция пробует выбор типов модели регрессии с различными гиперзначениями параметров и возвращает итоговую модель, которая, как ожидают, выполнит хорошо. Использование fitrauto
когда вы не уверены, какие типы модели регрессии лучше всего удовлетворяют вашим данным.
Чтобы создать и оценить модели регрессии в интерактивном режиме, используйте приложение Regression Learner.
Чтобы интерпретировать модель регрессии, можно использовать lime
, shapley
, и plotPartialDependence
.
Regression Learner | Обучите модели регрессии предсказывать данные с помощью машинного обучения с учителем |
Обучите модели регрессии в приложении Regression Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели регрессии, включая автоматизированное, ручное, и параллельное обучение.
Выберите Regression Model Options
В Regression Learner автоматически обучите выбор моделей, или сравните и настройте опции моделей линейной регрессии, деревьев регрессии, машин опорных векторов, Гауссовых моделей регрессии процесса, ансамблей деревьев регрессии и нейронных сетей регрессии.
Выбор признаков и преобразование функции Используя приложение Regression Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Regression Learner.
Оцените производительность модели в Regression Learner
Сравните статистику модели и визуализируйте результаты.
Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.
Последовательный выбор признаков
Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs
функция.
Выбор признаков Анализа компонента окружения (NCA)
Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности предсказания алгоритмов регрессии и классификации.
Устойчивый выбор признаков Используя NCA для регрессии
Выполните выбор признаков, который устойчив к выбросам с помощью пользовательской устойчивой функции потерь в NCA.
Выберите Predictors for Random Forests
Выберите предикторы разделения для случайных лесов с помощью алгоритма проверок взаимодействия.
Автоматизированный выбор модели регрессии с байесовой оптимизацией
Использование fitrauto
автоматически попробовать выбор типов модели регрессии с различными гиперзначениями параметров, учитывая учебный предиктор и данные об ответе.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте повышенный ансамбль регрессии
Минимизируйте утрату перекрестной проверки ансамбля регрессии.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Изучите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Интерпретируйте модели машинного обучения
Объясните предсказания модели с помощью lime
, shapley
, и plotPartialDependence
.
Шепли оценивает за модель машинного обучения
Вычислите значения Шепли для машинного обучения, моделируют использование двух алгоритмов: kernelSHAP и расширение kernelSHAP.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Интерпретируйте результаты линейной регрессии
Отобразите и интерпретируйте линейную регрессию выходная статистика.
Подбирайте модель линейной регрессии и исследуйте результат.
Линейная регрессия с эффектами взаимодействия
Создайте и анализируйте модель линейной регрессии с эффектами взаимодействия и интерпретируйте результаты.
Сводные данные Выхода и диагностической статистики
Оцените подобранную модель при помощи свойств модели и объектных функций.
F-статистическая-величина и t-статистическая-величина
В линейной регрессии F - статистическая величина является тестовой статистической величиной для дисперсионного анализа (Дисперсионный Анализ) подход, чтобы протестировать значение модели или компонентов в модели. t - статистическая величина полезна для того, чтобы сделать выводы о коэффициентах регрессии.
Коэффициент детерминации (R-Squared)
Коэффициент детерминации (R-squared) указывает на пропорциональный объем изменения переменной отклика y, объясненный независимыми переменными X в модели линейной регрессии.
Содействующие стандартные погрешности и доверительные интервалы
Предполагаемые содействующие отклонения и ковариации получают точность оценок коэффициента регрессии.
Остаточные значения полезны для обнаружения отдаленных значений y и проверки предположений линейной регрессии относительно остаточного члена в модели регрессии.
Тест Дербин-Уотсона оценивает, существует ли автокорреляция среди остаточных значений данных временных рядов.
Расстояние повара полезно для идентификации выбросов в значениях X (наблюдения для переменных предикторов).
Матрица шляпы обеспечивает меру рычагов.
Удалите 1 изменение в ковариации (CovRatio
) идентифицирует наблюдения, которые влияют при подгонке регрессии.
Обобщенные линейные модели используют методы Linear описать потенциально нелинейное отношение между условиями предиктора и переменной отклика.
Параметрические нелинейные модели представляют отношение между непрерывной переменной отклика и одним или несколькими непрерывными переменными предикторами.