Выберите Regression Model Options

Выберите Regression Model Type

Можно использовать приложение Regression Learner, чтобы автоматически обучить выбор различных моделей на данных. Используйте автоматизированное обучение быстро попробовать выбор типов модели, и затем исследовать многообещающие модели в интерактивном режиме. Чтобы начать, попробуйте эти опции сначала

Кнопки модели регрессии ЗапускаОписание

All Quick-To-Train


Попробуйте кнопку All Quick-To-Train сначала. Приложение обучает все типы модели, которые обычно быстры, чтобы обучаться.

All


Используйте кнопку All, чтобы обучить все доступные типы модели. Обучает каждый тип независимо от любых предшествующих обученных моделей. Может быть длительным.

Чтобы узнать больше об автоматизированном образцовом обучении, смотрите Автоматизированное Обучение Модели Регрессии.

Если вы хотите исследовать модели по одному, или если вы уже знаете, какой тип модели вы хотите, можно выбрать отдельные модели или обучить группу того же типа. Чтобы видеть все доступные опции модели регрессии, на вкладке Regression Learner, кликают по стрелке в разделе Model Type, чтобы расширить список моделей регрессии. Опции в галерее являются предварительно установленными отправными точками с различными настройками, подходящими для области значений различных проблем регрессии.

Для справки, выбирая лучший тип модели для вашей проблемы, см., что таблицы показывают типичные характеристики различных типов модели регрессии. Выберите компромисс, который вы хотите в скорости, гибкости и interpretability. Лучший тип модели зависит от ваших данных.

Совет

Чтобы постараться не сверхсоответствовать, ищите менее гибкую модель, которая обеспечивает достаточную точность. Например, ищите простые модели, такие как деревья регрессии, которые быстры и легки интерпретировать. Если модели не являются достаточно точным предсказанием ответа, выбирают другие модели с более высокой гибкостью, такие как ансамбли. Чтобы управлять гибкостью, смотрите детали для каждого типа модели.

Характеристики типов модели регрессии

Тип модели регрессииInterpretability

Модели линейной регрессии


Легкий

Деревья регрессии


Легкий

Поддержите векторные машины


Легкий для линейного SVMs. Трудный для других ядер.

Гауссовы модели регрессии процесса


Трудно

Ансамбли деревьев


Трудно

Чтобы считать описание каждой модели в Regression Learner, переключитесь на представление деталей в списке всех образцовых предварительных установок.

Совет

Опции в галерее Model Type являются предварительно установленными отправными точками с различными настройками. После того, как вы выбираете тип модели, такой как деревья регрессии, попробуйте обучение все предварительные установки, чтобы видеть, какой производит лучшую модель с вашими данными.

Для инструкций по рабочему процессу см. Модели Регрессии Train в Приложении Regression Learner.

Категориальная поддержка предиктора

В Regression Learner все типы модели поддерживают категориальные предикторы.

Совет

Если у вас есть категориальные предикторы со многими уникальными значениями, учебные линейные модели со взаимодействием или квадратичные условия, и пошаговые линейные модели могут использовать большую память. Если модели не удается обучаться, попытайтесь удалить эти категориальные предикторы.

Модели линейной регрессии

Модели линейной регрессии имеют предикторы, которые линейны в параметрах модели, легки интерпретировать и быстры для того, чтобы сделать прогнозы. Эти характеристики делают модели линейной регрессии популярными моделями, чтобы попробовать сначала. Однако очень ограниченная форма этих моделей означает, что у них часто есть низкая прогнозирующая точность. После подбора кривой модели линейной регрессии попытайтесь создать более гибкие модели, такие как деревья регрессии, и сравните результаты.

Совет

В галерее Model Type нажмите All Linear , чтобы попробовать каждую из опций линейной регрессии и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора функции и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityОбразцовая гибкость

Linear


ЛегкийОчень низко

Interactions Linear


ЛегкийНоситель

Robust Linear


ЛегкийОчень низко. Менее чувствительный к выбросам, но может не спешить обучаться.

Stepwise Linear


ЛегкийНоситель

Совет

Для примера рабочего процесса смотрите, что Деревья Регрессии Train Используют Приложение Regression Learner.

Усовершенствованные опции линейной регрессии

Regression Learner использует функцию fitlm, чтобы обучаться Линейный, Линейные Взаимодействия, и модели Robust Linear. Приложение использует функцию stepwiselm, чтобы обучить модели Stepwise Linear.

Для Линейного Линейные Взаимодействия, и модели Robust Linear можно установить эти опции:

  • Terms

    Задайте который условия использовать в линейной модели. Можно выбрать из:

    • Linear. Постоянный термин и линейные члены в предикторах

    • Interactions. Постоянный термин, линейные члены, и периоды взаимодействия между предикторами

    • Pure Quadratic. Постоянный термин, линейные члены и условия, которые чисто квадратичны в каждом из предикторов

    • Quadratic. Постоянный термин, линейные члены и квадратичные условия (включая взаимодействия)

  • Robust option

    Задайте, использовать ли устойчивую целевую функцию и сделать вашу модель менее чувствительной к выбросам. При использовании этой опции подходящий метод автоматически присваивает более низкие веса точкам данных, которые, более вероятно, будут выбросами.

Пошаговая линейная регрессия запускается с первоначальной модели и систематически добавляет и удаляет условия к основанному на модели на объяснительной силе этих инкрементно больших и меньших моделей. Для моделей Stepwise Linear можно установить эти опции:

  • Initial terms

    Задайте условия, которые включены в первоначальную модель пошаговой процедуры. Можно выбрать из Constant, Linear, Interactions, Pure Quadratic и Quadratic.

  • Upper bound on terms

    Задайте самый высокий порядок условий, которые пошаговая процедура может добавить в модель. Можно выбрать из Linear, Interactions, Pure Quadratic и Quadratic.

  • Maximum number of steps

    Задайте максимальное количество различных линейных моделей, которые можно попробовать в пошаговой процедуре. Чтобы ускорить обучение, попытайтесь сократить максимальное количество шагов. Выбор маленького максимального количества шагов уменьшает ваши возможности нахождения хорошей модели.

Совет

Если у вас есть категориальные предикторы со многими уникальными значениями, учебные линейные модели со взаимодействием или квадратичные условия, и пошаговые линейные модели могут использовать большую память. Если модели не удается обучаться, попытайтесь удалить эти категориальные предикторы.

Деревья регрессии

Деревья регрессии легко интерпретировать, быстро для подбора кривой и прогноза, и низко на использовании памяти. Попытайтесь вырастить меньшие деревья с меньшим количеством больших листов, чтобы предотвратить сверхподбор кривой. Управляйте листовым размером с установкой Minimum leaf size.

Совет

В галерее Model Type нажмите All Trees , чтобы попробовать каждую из опций дерева регрессии и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора функции и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityОбразцовая гибкость

Fine Tree


ЛегкийВысоко

Много маленьких листов для очень гибкой функции отклика (Минимальный листовой размер равняется 4.)

Medium Tree


ЛегкийНоситель

Листы среднего размера для менее гибкой функции отклика (Минимальный листовой размер равняется 12.)

Coarse Tree


ЛегкийНизко

Немного больших листов для крупной функции отклика (Минимальный листовой размер равняется 36.)

Чтобы предсказать ответ дерева регрессии, следуйте за деревом от корня (начало) узел вниз к вершине. Вершина содержит значение ответа.

Деревья Statistics and Machine Learning Toolbox™ являются двоичным файлом. Каждый шаг в прогнозе включает проверку значения одной переменной прогноза. Например, вот простое дерево регрессии

Это дерево предсказывает ответ на основе двух предикторов, x1 и x2. Чтобы сделать прогноз, запустите в главном узле. В каждом узле проверяйте значения предикторов, чтобы решить который ответвление следовать. Когда ответвления достигают вершины, ответ установлен в значение, соответствующее тому узлу.

Можно визуализировать модель дерева регрессии путем экспорта модели из приложения и затем ввода:

view(trainedModel.RegressionTree,'Mode','graph') 

Совет

Для примера рабочего процесса смотрите, что Деревья Регрессии Train Используют Приложение Regression Learner.

Усовершенствованные опции дерева регрессии

Приложение Regression Learner использует функцию fitrtree, чтобы обучить деревья регрессии. Можно установить эти опции:

  • Minimum leaf size

    Укажите, что минимальное количество учебных выборок раньше вычисляло ответ каждой вершины. Когда вы выращиваете дерево регрессии, рассматриваете его простоту и предсказательную силу. Чтобы изменить минимальный листовой размер, нажмите кнопки или введите положительное целочисленное значение в поле Minimum leaf size.

    • Прекрасное дерево со многими маленькими листами обычно очень точно на данных тренировки. Однако древовидная сила не показывает сопоставимую точность на независимом наборе тестов. Очень покрытое листвой дерево имеет тенденцию сверхсоответствовать, и его точность валидации часто намного ниже, чем его обучение (или перезамена) точность.

    • Напротив, крупное дерево с меньшим количеством больших листов не достигает высокой учебной точности. Но крупное дерево может быть более устойчивым в той своей учебной точности, может быть около того из представительного набора тестов.

    Совет

    Уменьшите Minimum leaf size, чтобы создать более гибкую модель.

  • Surrogate decision splits — Для недостающих данных только.

    Задайте суррогатное использование для разделений решения. Если у вас есть данные с отсутствующими значениями, используйте суррогатные разделения, чтобы улучшить точность прогнозов.

    Когда вы устанавливаете Surrogate decision splits на On, дерево регрессии находит самое большее 10 суррогатных разделений в каждом узле ответвления. Чтобы изменить количество суррогатных разделений, нажмите кнопки или введите положительное целочисленное значение в поле Maximum surrogates per node.

    Когда вы устанавливаете Surrogate decision splits на Find All, дерево регрессии находит все суррогатные разделения в каждом узле ответвления. Установка Find All может использовать продолжительное время и память.

Поддержите векторные машины

Можно обучить машины вектора поддержки регрессии (SVMs) в Regression Learner. Линейные SVMs легко интерпретировать, но могут иметь низкую прогнозирующую точность. Нелинейные SVMs более трудно интерпретировать, но могут быть более точными.

Совет

В галерее Model Type нажмите All SVMs , чтобы попробовать каждую из опций SVM и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора функции и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityОбразцовая гибкость

Linear SVM


ЛегкийНизко

Quadratic SVM


ТрудноНоситель

Cubic SVM


ТрудноНоситель

Fine Gaussian SVM


ТрудноВысоко

Позволяет быстрые изменения в функции отклика. Шкала ядра установлена в sqrt(P)/4, где P является количеством предикторов.

Medium Gaussian SVM


ТрудноНоситель

Дает менее гибкую функцию отклика. Шкала ядра установлена в sqrt(P).

Coarse Gaussian SVM


ТрудноНизко

Дает твердую функцию отклика. Шкала ядра установлена в sqrt(P)*4.

Statistics and Machine Learning Toolbox реализует линейную нечувствительную к эпсилону регрессию SVM. Этот SVM игнорирует ошибки прогноза, которые являются меньше, чем некоторое постоянное число ε. support vectors является точками данных, которые имеют ошибки, больше, чем ε. Функция использование SVM, чтобы предсказать новые значения зависит только от векторов поддержки. Чтобы узнать больше о регрессии SVM, смотрите Регрессию Машины Вектора Поддержки Понимания.

Совет

Для примера рабочего процесса смотрите, что Деревья Регрессии Train Используют Приложение Regression Learner.

Усовершенствованные опции SVM

Regression Learner использует функцию fitrsvm, чтобы обучить модели регрессии SVM.

Можно установить эти опции в приложении:

  • Kernel function

    Функция ядра решает, что нелинейное преобразование применилось к данным, прежде чем SVM будет обучен. Можно выбрать из:

    • Gaussian или ядро Радиальной основной функции (RBF)

    • Ядро Linear, самое легкое интерпретировать

    • Ядро Quadratic

    • Ядро Cubic

  • Box constraint mode

    Ограничение поля управляет штрафом, наложенным на наблюдения с большими невязками. Большее ограничение поля дает более гибкую модель. Меньшее значение дает более твердую модель, менее чувствительную к сверхподбору кривой.

    Когда Box constraint mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать ограничение поля.

    Попытайтесь подстроить свою модель путем определения ограничения поля вручную. Установите Box constraint mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual box constraint. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Увеличьте ограничительное значение поля, чтобы создать более гибкую модель.

  • Epsilon mode

    Ошибки прогноза, которые меньше, чем эпсилон (ε) значение, проигнорированы и обработаны как равные нулю. Меньшее значение эпсилона дает более гибкую модель.

    Когда Epsilon mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать шкалу ядра.

    Попытайтесь подстроить свою модель путем определения значения эпсилона вручную. Установите Epsilon mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual epsilon. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Уменьшите значение эпсилона, чтобы создать более гибкую модель.

  • Kernel scale mode

    Шкала ядра управляет шкалой предикторов, на которых ядро значительно отличается. Меньшая шкала ядра дает более гибкую модель.

    Когда Kernel scale mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать шкалу ядра.

    Попытайтесь подстроить свою модель путем определения шкалы ядра вручную. Установите Kernel scale mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual kernel scale. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Уменьшите значение шкалы ядра, чтобы создать более гибкую модель.

  • Standardize

    Стандартизация предикторов преобразовывает их так, чтобы у них были среднее значение 0 и стандартное отклонение 1. Стандартизация удаляет зависимость от произвольных шкал в предикторах и обычно улучшает производительность.

Гауссовы модели регрессии процесса

Можно обучить модели Gaussian process regression (GPR) в Regression Learner. Модели GPR являются часто очень точными, но могут быть трудными интерпретировать.

Совет

В галерее Model Type нажмите All GPR Models , чтобы попробовать каждую из опций модели GPR и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора функции и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityОбразцовая гибкость

Rational Quadratic


ТрудноАвтоматический

Squared Exponential


ТрудноАвтоматический

Matern 5/2


ТрудноАвтоматический

Exponential


ТрудноАвтоматический

В Гауссовой регрессии процесса ответ моделируется с помощью распределения вероятностей по пробелу функций. Гибкость предварительных установок в галерее Model Type автоматически выбрана, чтобы дать небольшую учебную ошибку и, одновременно, защита от сверхподбора кривой. Чтобы узнать больше о Гауссовой регрессии процесса, см. Гауссовы Модели Регрессии Процесса.

Совет

Для примера рабочего процесса смотрите, что Деревья Регрессии Train Используют Приложение Regression Learner.

Усовершенствованные гауссовы опции регрессии процесса

Regression Learner использует функцию fitrgp, чтобы обучить модели GPR.

Можно установить эти опции в приложении:

  • Basis function

    Основная функция задает форму предшествующей средней функции Гауссовой модели регрессии процесса. Можно выбрать из Zero, Constant и Linear. Попытайтесь выбрать различную основную функцию и видеть, улучшает ли это вашу модель.

  • Kernel function

    Функция ядра определяет корреляцию в ответе как функция расстояния между значениями предиктора. Можно выбрать из Rational Quadratic, Squared Exponential, Matern 5/2, Matern 3/2 и Exponential.

    Чтобы узнать больше о функциях ядра, смотрите Ядро (Ковариация) Опции Функции.

  • Use isotropic kernel

    Если вы используете изотропное ядро, шкалы расстояний корреляции являются тем же самым для всех предикторов. С неизотропным ядром каждая переменная прогноза имеет свою собственную отдельную шкалу расстояний корреляции.

    Используя неизотропное ядро может улучшить точность вашей модели, но может сделать модель медленной, чтобы соответствовать.

    Чтобы узнать больше о неизотропных ядрах, смотрите Ядро (Ковариация) Опции Функции.

  • Kernel mode

    Можно вручную задать начальные значения параметров ядра Kernel scale и Signal standard deviation. Стандартное отклонение сигнала является предшествующим стандартным отклонением значений ответа. По умолчанию приложение локально оптимизирует параметры ядра, начинающие с начальных значений. Чтобы использовать зафиксированные параметры ядра, снимите the Optimize numeric parameters флажок в расширенных настройках.

    Когда Kernel scale mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать начальные параметры ядра.

    Если вы устанавливаете Kernel scale mode на Manual, можно задать начальные значения. Нажмите кнопки или введите значение положительной скалярной величины в поле Kernel scale и поле Signal standard deviation.

    Если вы снимаете флажок Use isotropic kernel, вы не можете установить начальные параметры ядра вручную.

  • Sigma mode

    Можно задать вручную начальное значение стандартного отклонения шума наблюдения Sigma. По умолчанию приложение оптимизирует стандартное отклонение шума наблюдения, начинающее с начального значения. Чтобы использовать зафиксированные параметры ядра, снимите the Optimize numeric parameters флажок в расширенных настройках.

    Когда Sigma mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать начальное стандартное отклонение шума наблюдения.

    Если вы устанавливаете Sigma mode на Manual, можно задать начальные значения. Нажмите кнопки или введите значение положительной скалярной величины в поле Sigma.

  • Standardize

    Стандартизация предикторов преобразовывает их так, чтобы у них были среднее значение 0 и стандартное отклонение 1. Стандартизация удаляет зависимость от произвольных шкал в предикторах и обычно улучшает производительность.

  • Optimize numeric parameters

    При использовании этой опции приложение автоматически оптимизирует числовые параметры модели GPR. Оптимизированные параметры являются коэффициентами Basis function, параметры ядра Kernel scale и Signal standard deviation и стандартное отклонение шума наблюдения Sigma.

Ансамбли деревьев

Можно обучить ансамбли деревьев регрессии в Regression Learner. Объединение моделей ансамбля следует из многих слабых учеников в одну высококачественную модель ансамбля.

Совет

В галерее Model Type нажмите All Ensembles , чтобы попробовать каждую из опций ансамбля и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора функции и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityМетод ансамбляОбразцовая гибкость

Boosted Trees


Трудно

Наименьшие квадраты, повышающие (LSBoost) с учениками дерева регрессии.

Носитель к высоко

Bagged Trees


Трудно

Загрузите агрегацию или укладывание в мешки с учениками дерева регрессии.

Высоко

Совет

Для примера рабочего процесса смотрите, что Деревья Регрессии Train Используют Приложение Regression Learner.

Усовершенствованные опции ансамбля

Regression Learner использует функцию fitrensemble, чтобы обучить модели ансамбля. Можно установить эти опции:

  • Minimum leaf size

    Укажите, что минимальное количество учебных выборок раньше вычисляло ответ каждой вершины. Когда вы выращиваете дерево регрессии, рассматриваете его простоту и предсказательную силу. Чтобы изменить минимальный листовой размер, нажмите кнопки или введите положительное целочисленное значение в поле Minimum leaf size.

    • Прекрасное дерево со многими маленькими листами обычно очень точно на данных тренировки. Однако древовидная сила не показывает сопоставимую точность на независимом наборе тестов. Очень покрытое листвой дерево имеет тенденцию сверхсоответствовать, и его точность валидации часто намного ниже, чем его обучение (или перезамена) точность.

    • Напротив, крупное дерево с меньшим количеством больших листов не достигает высокой учебной точности. Но крупное дерево может быть более устойчивым в той своей учебной точности, может быть около того из представительного набора тестов.

    Совет

    Уменьшите Minimum leaf size, чтобы создать более гибкую модель.

  • Number of learners

    Попытайтесь изменить количество учеников, чтобы видеть, можно ли улучшить модель. Многие ученики могут произвести высокую точность, но могут быть трудоемкими, чтобы соответствовать.

    Совет

    Увеличьте Number of learners, чтобы создать более гибкую модель.

  • Learning rate

    Для повышенных деревьев задайте темп обучения для уменьшения. Если вы устанавливаете темп обучения на меньше чем 1, ансамбль требует большего количества итераций изучения, но часто достигает лучшей точности. 0.1 популярный начальный выбор.

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте