Построение моделей и оценка

Выбор признаков, выбор модели, гипероптимизация параметров управления, перекрестная проверка, остаточная диагностика и графики

При создавании высококачественной модели регрессии важно выбрать правильные функции (или предикторы), гиперпараметры мелодии (параметры модели не подгонка к данным), и оценить предположения модели через остаточную диагностику.

Можно настроить гиперпараметры путем итерации между выбором значений для них и перекрестной проверкой модели с помощью выбора. Этот процесс дает к многоуровневым моделям, и лучшая модель среди них может быть той, которая минимизирует предполагаемую ошибку обобщения. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, перекрестный подтвердите модель для каждой пары значений, и затем сравните их 10-кратные перекрестные подтвержденные среднеквадратические ошибочные оценки.

Определенные непараметрические функции регрессии в Statistics and Machine Learning Toolbox™ дополнительно предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако bayesopt, то, которое является основной функцией, чтобы реализовать Байесовую оптимизацию, достаточно гибко для многих других приложений. Для получения дополнительной информации смотрите Байесов Рабочий процесс Оптимизации.

Чтобы автоматически выбрать модель настроенными гиперпараметрами, использовать fitrauto. Функция пробует выбор типов модели регрессии с различными гиперзначениями параметров и возвращает итоговую модель, которая, как ожидают, выполнит хорошо. Использование fitrauto когда вы не уверены, какие типы модели регрессии лучше всего удовлетворяют вашим данным.

Чтобы создать и оценить модели регрессии в интерактивном режиме, используйте  приложение Regression Learner.

Чтобы интерпретировать модель регрессии, можно использовать lime, shapley, и plotPartialDependence.

Приложения

Regression LearnerОбучите модели регрессии предсказывать данные с помощью машинного обучения с учителем

Функции

развернуть все

fsrftestОдномерная функция, занимающая место для регрессии с помощью F - тесты
fsrncaВыбор признаков с помощью анализа компонента окружения для регрессии
oobPermutedPredictorImportanceВажность предиктора оценивает сочетанием наблюдений предиктора из сумки для случайного леса деревьев регрессии
partialDependenceВычислите частичную зависимость
plotPartialDependenceСоздайте графики отдельного условного ожидания (ICE) и частичный график зависимости (PDP)
predictorImportanceОценки важности предиктора для дерева регрессии
predictorImportanceОценки важности предиктора для ансамбля регрессии
relieffОцените важность использования предикторов алгоритм RReliefF или ReliefF
sequentialfsПоследовательный выбор признаков с помощью пользовательского критерия
stepwiselmВыполните ступенчатую регрессию
stepwiseglmСоздайте обобщенную линейную модель регрессии ступенчатой регрессией
fitrautoАвтоматически выберите модель регрессии оптимизированными гиперпараметрами
bayesoptВыберите оптимальные гиперпараметры машинного обучения с помощью Байесовой оптимизации
hyperparametersОписания переменной для оптимизации подходящей функции
optimizableVariableОписание переменной для bayesopt или другие оптимизаторы
crossvalОцените потерю с помощью перекрестной проверки
cvpartitionДанные о разделе для перекрестной проверки
repartitionДанные о повторном разделении для перекрестной проверки
testПротестируйте индексы на перекрестную проверку
trainingУчебные индексы для перекрестной проверки

Локальные поддающиеся толкованию объяснения модели агностические (LIME)

limeЛокальные поддающиеся толкованию объяснения модели агностические (LIME)
fitПодбирайте простую модель локальных поддающихся толкованию объяснений модели агностических (LIME)
plotПостройте результаты локальных поддающихся толкованию объяснений модели агностических (LIME)

Шепли оценивает

shapleyШепли оценивает
fitВычислите значения Шепли для точки запроса
plotПостройте значения Шепли

Частичная зависимость

partialDependenceВычислите частичную зависимость
plotPartialDependenceСоздайте графики отдельного условного ожидания (ICE) и частичный график зависимости (PDP)
coefCIДоверительные интервалы содействующих оценок модели линейной регрессии
coefTestЛинейный тест гипотезы на коэффициентах модели линейной регрессии
dwtestТест Дербин-Уотсона с объектом модели линейной регрессии
plotГрафик поля точек или добавленный переменный график модели линейной регрессии
plotAddedДобавленный переменный график модели линейной регрессии
plotAdjustedResponseНастроенный график отклика модели линейной регрессии
plotDiagnosticsПостройте диагностику наблюдения модели линейной регрессии
plotEffectsПостройте основные эффекты предикторов в модели линейной регрессии
plotInteractionПостройте эффекты взаимодействия двух предикторов в модели линейной регрессии
plotResidualsПостройте остаточные значения модели линейной регрессии
plotSliceГрафик срезов через подходящую поверхность линейной регрессии
coefCIДоверительные интервалы содействующих оценок обобщенной линейной модели регрессии
coefTestЛинейный тест гипотезы на обобщенных линейных коэффициентах модели регрессии
devianceTestАнализ отклонения для обобщенной линейной модели регрессии
plotDiagnosticsПостройте диагностику наблюдения обобщенной линейной модели регрессии
plotResidualsПостройте остаточные значения обобщенной линейной модели регрессии
plotSliceГрафик срезов через подходящую обобщенную линейную поверхность регрессии
coefCIДоверительные интервалы содействующих оценок нелинейной модели регрессии
coefTestЛинейный тест гипотезы на нелинейных коэффициентах модели регрессии
plotDiagnosticsПостройте диагностику нелинейной модели регрессии
plotResidualsПостройте остаточные значения нелинейной модели регрессии
plotSliceГрафик срезов через подходящую нелинейную поверхность регрессии
linhyptestЛинейный тест гипотезы

Объекты

развернуть все

FeatureSelectionNCARegressionВыбор признаков для регрессии с помощью анализа компонента окружения (NCA)
BayesianOptimizationБайесовы результаты оптимизации

Темы

Рабочий процесс приложения Regression Learner

Обучите модели регрессии в приложении Regression Learner

Рабочий процесс для обучения, выдерживая сравнение и улучшая модели регрессии, включая автоматизированное, ручное, и параллельное обучение.

Выберите Regression Model Options

В Regression Learner автоматически обучите выбор моделей, или сравните и настройте опции моделей линейной регрессии, деревьев регрессии, машин опорных векторов, Гауссовых моделей регрессии процесса, ансамблей деревьев регрессии и нейронных сетей регрессии.

Выбор признаков и преобразование функции Используя приложение Regression Learner

Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Regression Learner.

Оцените производительность модели в Regression Learner

Сравните статистику модели и визуализируйте результаты.

Выбор признаков

Введение в выбор признаков

Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.

Последовательный выбор признаков

Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs функция.

Выбор признаков Анализа компонента окружения (NCA)

Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности предсказания алгоритмов регрессии и классификации.

Устойчивый выбор признаков Используя NCA для регрессии

Выполните выбор признаков, который устойчив к выбросам с помощью пользовательской устойчивой функции потерь в NCA.

Выберите Predictors for Random Forests

Выберите предикторы разделения для случайных лесов с помощью алгоритма проверок взаимодействия.

Автоматизированный выбор модели

Автоматизированный выбор модели регрессии с байесовой оптимизацией

Использование fitrauto автоматически попробовать выбор типов модели регрессии с различными гиперзначениями параметров, учитывая учебный предиктор и данные об ответе.

Гипероптимизация параметров управления

Байесов рабочий процесс оптимизации

Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt непосредственно.

Переменные для байесовой оптимизации

Создайте переменные для Байесовой оптимизации.

Байесовы целевые функции оптимизации

Создайте целевую функцию для Байесовой оптимизации.

Ограничения в байесовой оптимизации

Установите различные типы ограничений для Байесовой оптимизации.

Оптимизируйте повышенный ансамбль регрессии

Минимизируйте утрату перекрестной проверки ансамбля регрессии.

Байесовы функции построения графика оптимизации

Визуально контролируйте Байесовую оптимизацию.

Байесовы выходные функции оптимизации

Контролируйте Байесовую оптимизацию.

Байесов алгоритм оптимизации

Изучите базовые алгоритмы для Байесовой оптимизации.

Найдите что-либо подобное байесовой оптимизации

Как Байесова оптимизация работает параллельно.

Интерпретация модели

Интерпретируйте модели машинного обучения

Объясните предсказания модели с помощью lime, shapley, и plotPartialDependence.

Шепли оценивает за модель машинного обучения

Вычислите значения Шепли для машинного обучения, моделируют использование двух алгоритмов: kernelSHAP и расширение kernelSHAP.

Перекрестная проверка

Реализуйте перекрестную проверку Используя параллельные вычисления

Ускорьте перекрестную проверку с помощью параллельных вычислений.

Линейная диагностика модели

Интерпретируйте результаты линейной регрессии

Отобразите и интерпретируйте линейную регрессию выходная статистика.

Линейная регрессия

Подбирайте модель линейной регрессии и исследуйте результат.

Линейная регрессия с эффектами взаимодействия

Создайте и анализируйте модель линейной регрессии с эффектами взаимодействия и интерпретируйте результаты.

Сводные данные Выхода и диагностической статистики

Оцените подобранную модель при помощи свойств модели и объектных функций.

F-статистическая-величина и t-статистическая-величина

В линейной регрессии F - статистическая величина является тестовой статистической величиной для дисперсионного анализа (Дисперсионный Анализ) подход, чтобы протестировать значение модели или компонентов в модели. t - статистическая величина полезна для того, чтобы сделать выводы о коэффициентах регрессии.

Коэффициент детерминации (R-Squared)

Коэффициент детерминации (R-squared) указывает на пропорциональный объем изменения переменной отклика y, объясненный независимыми переменными X в модели линейной регрессии.

Содействующие стандартные погрешности и доверительные интервалы

Предполагаемые содействующие отклонения и ковариации получают точность оценок коэффициента регрессии.

Остаточные значения

Остаточные значения полезны для обнаружения отдаленных значений y и проверки предположений линейной регрессии относительно остаточного члена в модели регрессии.

Тест Дербин-Уотсона

Тест Дербин-Уотсона оценивает, существует ли автокорреляция среди остаточных значений данных временных рядов.

Расстояние повара

Расстояние повара полезно для идентификации выбросов в значениях X (наблюдения для переменных предикторов).

Матрица шляпы и рычаги

Матрица шляпы обеспечивает меру рычагов.

Удалите 1 статистику

Удалите 1 изменение в ковариации (CovRatio) идентифицирует наблюдения, которые влияют при подгонке регрессии.

Обобщенная линейная диагностика модели

Обобщенные линейные модели

Обобщенные линейные модели используют методы Linear описать потенциально нелинейное отношение между условиями предиктора и переменной отклика.

Нелинейная диагностика модели

Нелинейная регрессия

Параметрические нелинейные модели представляют отношение между непрерывной переменной отклика и одним или несколькими непрерывными переменными предикторами.

Для просмотра документации необходимо авторизоваться на сайте