exponenta event banner

Типовое построение и оценка

Выбор элемента, выбор модели, оптимизация гиперпараметров, перекрестная проверка, остаточная диагностика и графики

При построении высококачественной регрессионной модели важно выбрать правильные особенности (или предикторы), настроить гиперпараметры (параметры модели, не соответствующие данным) и оценить предположения модели с помощью остаточной диагностики.

Гиперпараметры можно настроить путем итерации между выбором значений для них и перекрестной проверкой модели с помощью вариантов. Этот процесс дает несколько моделей, и лучшей из них может быть модель, которая минимизирует предполагаемую ошибку обобщения. Например, чтобы настроить модель SVM, выберите набор ограничений бокса и шкал ядра, выполните перекрестную проверку модели для каждой пары значений, а затем сравните их 10-кратные оценки среднеквадратичных ошибок.

Некоторые непараметрические функции регрессии в Toolbox™ статистики и машинного обучения дополнительно предлагают автоматическую гиперпараметрическую настройку через байесовскую оптимизацию, поиск по сетке или случайный поиск. Однако bayesopt, которая является основной функцией для реализации байесовской оптимизации, является достаточно гибкой для многих других приложений. Дополнительные сведения см. в разделе Рабочий процесс байесовской оптимизации.

Чтобы автоматически выбрать модель с настроенными гиперпараметрами, используйте fitrauto. Функция пытается выбрать типы регрессионных моделей с различными значениями гиперпараметров и возвращает окончательную модель, которая, как ожидается, будет работать хорошо. Использовать fitrauto когда вы не уверены, какие типы регрессионной модели лучше всего подходят для ваших данных.

Для создания и оценки регрессионных моделей в интерактивном режиме используйте  приложение Regression Learner.

Для интерпретации регрессионной модели можно использовать lime, shapley, и plotPartialDependence.

Приложения

Обучающийся регрессииОбучение регрессионных моделей прогнозированию данных с использованием контролируемого машинного обучения

Функции

развернуть все

fsrftestОдномерное ранжирование элементов для регрессии с использованием F-тестов
fsrncaВыбор элемента с использованием анализа компонента окрестности для регрессии
oobPermutedPredictorImportanceОценки важности предиктора путем перестановки наблюдений предиктора вне мешка для случайного леса деревьев регрессии
partialDependenceВычислить частичную зависимость
plotPartialDependenceСоздание графиков частичной зависимости (PDP) и индивидуального условного ожидания (ICE)
predictorImportanceОценки важности предиктора для дерева регрессии
predictorImportanceОценки важности предиктора для регрессионного ансамбля
relieffРанговая важность предикторов с использованием алгоритма ReliefF или RReloringF
sequentialfsПоследовательный выбор элемента с использованием пользовательского критерия
stepwiselmВыполнить пошаговую регрессию
stepwiseglmСоздание обобщенной модели линейной регрессии путем пошаговой регрессии
fitrautoАвтоматический выбор регрессионной модели с оптимизированными гиперпараметрами
bayesoptВыберите оптимальные гиперпараметры машинного обучения с помощью байесовской оптимизации
hyperparametersОписания переменных для оптимизации функции аппроксимации
optimizableVariableОписание переменной для bayesopt или другие оптимизаторы
crossvalОценка потерь с помощью перекрестной проверки
cvpartitionДанные секционирования для перекрестной проверки
repartitionДанные перераспределения для перекрестной проверки
testКонтрольные показатели для перекрестной проверки
trainingУчебные индексы для перекрестной проверки

Локальная интерпретируемая модель - агностические объяснения (LIME)

limeЛокальные интерпретируемые модели-агностические объяснения (LIME)
fitПодгонка простой модели локальных интерпретируемых моделей-агностических объяснений (LIME)
plotРезультаты графика локальных интерпретируемых модельно-агностических объяснений (LIME)

Значения Шапли

shapleyЗначения Шапли
fitВычислить значения Shapley для точки запроса
plotГрафик значений Шейпли

Частичная зависимость

partialDependenceВычислить частичную зависимость
plotPartialDependenceСоздание графиков частичной зависимости (PDP) и индивидуального условного ожидания (ICE)
coefCIДоверительные интервалы оценок коэффициентов модели линейной регрессии
coefTestТест линейной гипотезы по коэффициентам модели линейной регрессии
dwtestТест Дурбина-Ватсона с объектом модели линейной регрессии
plotГрафик рассеяния или добавленный график переменной модели линейной регрессии
plotAddedДобавлен график переменной модели линейной регрессии
plotAdjustedResponseСкорректированный график отклика модели линейной регрессии
plotDiagnosticsДиагностика наблюдения на графике модели линейной регрессии
plotEffectsПостроить график основных эффектов предикторов в модели линейной регрессии
plotInteractionЭффекты взаимодействия графика двух предикторов в модели линейной регрессии
plotResidualsОстатки графика модели линейной регрессии
plotSliceГрафик срезов через подогнанную линейную регрессионную поверхность
coefCIДоверительные интервалы оценок коэффициентов обобщенной модели линейной регрессии
coefTestТест линейной гипотезы по обобщенным коэффициентам модели линейной регрессии
devianceTestАнализ отклонения для обобщенной модели линейной регрессии
plotDiagnosticsДиагностика наблюдения за графиком обобщенной модели линейной регрессии
plotResidualsОстатки графика обобщенной модели линейной регрессии
plotSliceГрафик срезов через подогнанную обобщенную линейную регрессионную поверхность
coefCIДоверительные интервалы оценок коэффициентов модели нелинейной регрессии
coefTestТест линейной гипотезы по коэффициентам модели нелинейной регрессии
plotDiagnosticsДиагностика графика нелинейной регрессионной модели
plotResidualsПечать остатков модели нелинейной регрессии
plotSliceГрафик срезов через подогнанную нелинейную регрессионную поверхность
linhyptestПроверка линейной гипотезы

Объекты

развернуть все

FeatureSelectionNCARegressionВыбор элемента для регрессии с использованием анализа компонентов окрестности (NCA)
BayesianOptimizationРезультаты байесовской оптимизации

Темы

Рабочий процесс приложения для учащегося регрессии

Обучайте регрессионные модели в приложении для учащегося регрессии

Рабочий процесс для обучения, сравнения и совершенствования регрессионных моделей, включая автоматизированное, ручное и параллельное обучение.

Выбрать опции регрессионной модели

В Regression Learner автоматически обучайте выбор моделей или сравнивайте и настраивайте опции линейных регрессионных моделей, регрессионных деревьев, векторных машин поддержки, гауссовых регрессионных моделей процессов, ансамблей регрессионных деревьев и регрессионных нейронных сетей.

Выбор и преобразование функций с помощью приложения для учащихся с регрессией

Определите полезные предикторы с помощью графиков, вручную выберите элементы для включения и преобразуйте элементы с помощью PCA в программе Regression Learner.

Оценка производительности модели у учащегося с регрессией

Сравнение статистики модели и визуализация результатов.

Выбор элемента

Введение в выбор элементов

Узнайте о алгоритмах выбора элементов и изучите функции, доступные для выбора элементов.

Выбор последовательного элемента

В этом разделе описывается последовательный выбор элементов и приводится пример последовательного выбора элементов с использованием пользовательского критерия и sequentialfs функция.

Выбор элементов для анализа компонентов соседства (NCA)

Анализ компонентов окрестности (NCA) - непараметрический метод выбора признаков с целью максимизации точности прогнозирования алгоритмов регрессии и классификации.

Надежный выбор элементов с использованием NCA для регрессии

Выбор элементов, устойчивых к отклонениям, выполняется с помощью пользовательской функции устойчивых потерь в NCA.

Выбор предикторов для случайных лесов

Выберите предикторы разделения для случайных лесов с помощью алгоритма тестирования взаимодействия.

Автоматический выбор модели

Автоматический выбор регрессионной модели с байесовской оптимизацией

Использовать fitrauto чтобы автоматически попробовать выбор типов регрессионной модели с различными значениями гиперпараметров, учитывая обучающий предиктор и данные ответа.

Оптимизация гиперпараметров

Рабочий процесс байесовской оптимизации

Выполните байесовскую оптимизацию с помощью функции аппроксимации или путем вызова bayesopt непосредственно.

Переменные для байесовской оптимизации

Создайте переменные для байесовской оптимизации.

Байесовские целевые функции оптимизации

Создайте целевую функцию для байесовской оптимизации.

Ограничения байесовской оптимизации

Задайте различные типы ограничений для байесовской оптимизации.

Оптимизация усиленного ансамбля регрессии

Минимизация потерь при перекрестной проверке ансамбля регрессии.

Функции графика байесовской оптимизации

Визуальный мониторинг байесовской оптимизации.

Байесовские функции вывода оптимизации

Мониторинг байесовской оптимизации.

Байесовский алгоритм оптимизации

Ознакомьтесь с основными алгоритмами байесовской оптимизации.

Параллельная байесовская оптимизация

Как байесовская оптимизация работает параллельно.

Интерпретация модели

Интерпретировать модели машинного обучения

Объяснение прогнозов модели с помощью lime, shapley, и plotPartialDependence.

Ценности Shapley для модели машинного обучения

Вычислите значения Shapley для модели машинного обучения с помощью двух алгоритмов: kernelSHAP и расширения к kernelSHAP.

Перекрестная проверка

Внедрение перекрестной проверки с использованием параллельных вычислений

Ускорение перекрестной проверки с помощью параллельных вычислений.

Диагностика линейной модели

Интерпретация результатов линейной регрессии

Отображение и интерпретация выходной статистики линейной регрессии.

Линейная регрессия

Подгоните модель линейной регрессии и изучите результат.

Линейная регрессия с эффектами взаимодействия

Создайте и проанализируйте модель линейной регрессии с эффектами взаимодействия и интерпретируйте результаты.

Сводка выходных и диагностических статистических данных

Вычислите подогнанную модель с помощью свойств модели и функций объекта.

F-статистика и t-статистика

В линейной регрессии F-статистика является тестовой статистикой для подхода анализа дисперсии (ANOVA) для проверки значимости модели или компонентов в модели. T-статистика полезна для вывода коэффициентов регрессии.

Коэффициент определения (R-квадрат)

Коэффициент определения (R-квадрат) указывает пропорциональную величину вариации в переменной ответа y, объясненной независимыми переменными X в модели линейной регрессии.

Стандартные ошибки коэффициентов и доверительные интервалы

Оцененные дисперсии коэффициентов и ковариации фиксируют точность оценок коэффициентов регрессии.

Остатки

Остатки полезны для обнаружения значений y и проверки предположений линейной регрессии относительно члена ошибки в регрессионной модели.

Тест Дурбина-Уотсона

Тест Дурбина-Уотсона оценивает, существует или нет автокорреляция среди остатков данных временных рядов.

Расстояние Кука

Расстояние Кука полезно для выявления отклонений в значениях X (наблюдения для переменных предиктора).

Матрица Hat и рычаги

Матрица hat обеспечивает меру рычагов.

Delete-1 Статистика

Delete-1 изменение ковариации (CovRatio) идентифицирует наблюдения, которые оказывают влияние на регрессионную подгонку.

Обобщенная диагностика линейной модели

Обобщенные линейные модели

Обобщенные линейные модели используют линейные методы для описания потенциально нелинейной взаимосвязи между членами предиктора и переменной отклика.

Нелинейная диагностика модели

Нелинейная регрессия

Параметрические нелинейные модели представляют взаимосвязь между переменной непрерывного отклика и одной или несколькими переменными непрерывного предиктора.