Выберите Regression Model Options

Выберите Regression Model Type

Можно использовать приложение Regression Learner, чтобы автоматически обучить выбор различных моделей на данных. Используйте автоматизированное обучение быстро попробовать выбор типов модели, и затем исследовать многообещающие модели в интерактивном режиме. Чтобы начать, попробуйте эти опции сначала

Кнопки модели регрессии ЗапускаОписание
All Quick-To-Train
Попробуйте кнопку All Quick-To-Train сначала. Приложение обучает все типы модели, которые обычно быстры, чтобы обучаться.
All
Используйте кнопку All, чтобы обучить все доступные nonoptimizable типы модели. Обучает каждый тип независимо от любых предшествующих обученных моделей. Может быть длительным.

Чтобы узнать больше об автоматизированном обучении модели, смотрите Автоматизированное Обучение Модели Регрессии.

Если вы хотите исследовать модели по одному, или если вы уже знаете, какой тип модели вы хотите, можно выбрать отдельные модели или обучить группу того же типа. Чтобы видеть все доступные опции модели регрессии, на вкладке Regression Learner, кликают по стрелке в разделе Model Type, чтобы расширить список моделей регрессии. nonoptimizable опции модели в галерее являются предварительно установленными начальными точками с различными настройками, подходящими для области значений различных проблем регрессии. Чтобы использовать optimizable опции модели и гиперпараметры модели мелодии автоматически, смотрите Гипероптимизацию параметров управления в Приложении Regression Learner.

Для справки, выбирая лучший тип модели для вашей проблемы, см., что таблицы показывают типичные характеристики различных типов модели регрессии. Выберите компромисс, который вы хотите в скорости, гибкости и interpretability. Лучший тип модели зависит от ваших данных.

Совет

Чтобы постараться не сверхсоответствовать, ищите менее гибкую модель, которая обеспечивает достаточную точность. Например, ищите простые модели, такие как деревья регрессии, которые быстры и легки интерпретировать. Если модели не являются достаточно точным предсказанием ответа, выбирают другие модели с более высокой гибкостью, такие как ансамбли. Чтобы управлять гибкостью, смотрите детали для каждого типа модели.

Характеристики типов модели регрессии

Тип модели регрессииInterpretability
Модели линейной регрессии
Легкий
Деревья регрессии
Легкий
Машины опорных векторов
Легкий для линейного SVMs. Трудный для других ядер.
Гауссовы модели регрессии процесса
Трудно
Ансамбли деревьев
Трудно

Чтобы считать описание каждой модели в Regression Learner, переключитесь на представление деталей в списке всех предварительных установок модели.

Совет

nonoptimizable модели в галерее Model Type являются предварительно установленными начальными точками с различными настройками. После того, как вы выбираете тип модели, такой как деревья регрессии, попробуйте обучение все nonoptimizable предварительные установки, чтобы видеть, какой производит лучшую модель с вашими данными.

Для инструкций по рабочему процессу смотрите, Обучают Модели Регрессии в Приложении Regression Learner.

Категориальная поддержка предиктора

В Regression Learner все типы модели поддерживают категориальные предикторы.

Совет

Если у вас есть категориальные предикторы со многими уникальными значениями, учебные линейные модели со взаимодействием или квадратичные условия, и пошаговые линейные модели могут использовать большую память. Если модели не удается обучаться, попытайтесь удалить эти категориальные предикторы.

Модели линейной регрессии

Модели линейной регрессии имеют предикторы, которые линейны в параметрах модели, легки интерпретировать и быстры для того, чтобы сделать прогнозы. Эти характеристики делают модели линейной регрессии популярными моделями, чтобы попробовать сначала. Однако очень ограниченная форма этих моделей означает, что у них часто есть низкая прогнозирующая точность. После того, чтобы подбирать модель линейной регрессии попытайтесь создать более гибкие модели, такие как деревья регрессии, и сравните результаты.

Совет

В галерее Model Type нажмите All Linear , чтобы попробовать каждую из опций линейной регрессии и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора признаков и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityГибкость модели
Linear
ЛегкийОчень низко
Interactions Linear
ЛегкийНоситель
Robust Linear
ЛегкийОчень низко. Менее чувствительный к выбросам, но может не спешить обучаться.
Stepwise Linear
ЛегкийНоситель

Совет

Для примера рабочего процесса смотрите, Обучают Деревья Регрессии Используя Приложение Regression Learner.

Усовершенствованные опции линейной регрессии

Regression Learner использует fitlm функция, чтобы обучаться Линейный, Линейные Взаимодействия, и модели Robust Linear. Приложение использует stepwiselm функция, чтобы обучить модели Stepwise Linear.

Для Линейного Линейные Взаимодействия, и модели Robust Linear можно установить эти опции:

  • Terms

    Задайте который условия использовать в линейной модели. Можно выбрать из:

    • Linear. Постоянный термин и линейные члены в предикторах

    • Interactions. Постоянный термин, линейные члены, и периоды взаимодействия между предикторами

    • Pure Quadratic. Постоянный термин, линейные члены и условия, которые чисто квадратичны в каждом из предикторов

    • Quadratic. Постоянный термин, линейные члены и квадратичные условия (включая взаимодействия)

  • Robust option

    Задайте, использовать ли устойчивую целевую функцию и сделать вашу модель менее чувствительной к выбросам. При использовании этой опции подходящий метод автоматически присваивает более низкие веса точкам данных, которые, более вероятно, будут выбросами.

Пошаговая линейная регрессия запускается с первоначальной модели и систематически добавляет и удаляет условия к основанному на модели на объяснительной силе этих инкрементно больших и меньших моделей. Для моделей Stepwise Linear можно установить эти опции:

  • Initial terms

    Задайте условия, которые включены в первоначальную модель пошаговой процедуры. Можно выбрать из Constant, Linear, Interactions, Pure Quadratic, и Quadratic.

  • Upper bound on terms

    Задайте самый высокий порядок условий, которые пошаговая процедура может добавить в модель. Можно выбрать из Linear, Interactions, Pure Quadratic, и Quadratic.

  • Maximum number of steps

    Задайте максимальное количество различных линейных моделей, которые можно попробовать в пошаговой процедуре. Чтобы ускорить обучение, попытайтесь сократить максимальное количество шагов. Выбор маленького максимального количества шагов уменьшает ваши возможности нахождения хорошей модели.

Совет

Если у вас есть категориальные предикторы со многими уникальными значениями, учебные линейные модели со взаимодействием или квадратичные условия, и пошаговые линейные модели могут использовать большую память. Если модели не удается обучаться, попытайтесь удалить эти категориальные предикторы.

Деревья регрессии

Деревья регрессии легко интерпретировать, быстро для подбора кривой и прогноза, и низко на использовании памяти. Попытайтесь вырастить меньшие деревья с меньшим количеством больших листов, чтобы предотвратить сверхподбор кривой. Управляйте листовым размером с установкой Minimum leaf size.

Совет

В галерее Model Type нажмите All Trees , чтобы попробовать каждую из nonoptimizable опций дерева регрессии и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора признаков и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityГибкость модели
Fine Tree
ЛегкийВысоко
Много маленьких листов для очень гибкой функции отклика (Минимальный листовой размер равняется 4.)
Medium Tree
ЛегкийНоситель
Листы среднего размера для менее гибкой функции отклика (Минимальный листовой размер равняется 12.)
Coarse Tree
ЛегкийНизко
Немного больших листов для крупной функции отклика (Минимальный листовой размер равняется 36.)

Чтобы предсказать ответ дерева регрессии, следуйте за деревом от корня (начало) узел вниз к вершине. Вершина содержит значение ответа.

Деревья Statistics and Machine Learning Toolbox™ являются двоичным файлом. Каждый шаг в прогнозе включает проверку значения одного переменного предиктора. Например, вот простое дерево регрессии

Это дерево предсказывает ответ на основе двух предикторов, x1 и x2. Чтобы сделать прогноз, запустите в главном узле. В каждом узле проверяйте значения предикторов, чтобы решить который ветвь следовать. Когда ветви достигают вершины, ответ установлен в значение, соответствующее тому узлу.

Можно визуализировать модель дерева регрессии путем экспорта модели из приложения и затем ввода:

view(trainedModel.RegressionTree,'Mode','graph') 

Совет

Для примера рабочего процесса смотрите, Обучают Деревья Регрессии Используя Приложение Regression Learner.

Усовершенствованные опции дерева регрессии

Приложение Regression Learner использует fitrtree функция, чтобы обучить деревья регрессии. Можно установить эти опции:

  • Minimum leaf size

    Укажите, что минимальное количество учебных выборок раньше вычисляло ответ каждой вершины. Когда вы выращиваете дерево регрессии, рассматриваете его простоту и предсказательную силу. Чтобы изменить минимальный листовой размер, нажмите кнопки или введите положительное целочисленное значение в поле Minimum leaf size.

    • Прекрасное дерево со многими маленькими листами обычно очень точно на обучающих данных. Однако древовидная сила не показывает сопоставимую точность на независимом наборе тестов. Очень покрытое листвой дерево имеет тенденцию сверхсоответствовать, и его точность валидации часто намного ниже, чем его обучение (или перезамена) точность.

    • В отличие от этого крупное дерево с меньшим количеством больших листов не достигает высокой учебной точности. Но крупное дерево может быть более устойчивым в той своей учебной точности, может быть около того из представительного набора тестов.

    Совет

    Уменьшите Minimum leaf size, чтобы создать более гибкую модель.

  • Surrogate decision splits — Для недостающих данных только.

    Задайте суррогатное использование для разделений решения. Если у вас есть данные с отсутствующими значениями, используйте суррогатные разделения, чтобы улучшить точность прогнозов.

    Когда вы устанавливаете Surrogate decision splits на On, дерево регрессии находит самое большее 10 суррогатных разделений в каждом узле ветви. Чтобы изменить количество суррогатных разделений, нажмите кнопки или введите положительное целочисленное значение в поле Maximum surrogates per node.

    Когда вы устанавливаете Surrogate decision splits на Find All, дерево регрессии находит все суррогатные разделения в каждом узле ветви. Find All установка может использовать продолжительное время и память.

В качестве альтернативы можно позволить приложению выбрать некоторые из этих опций модели автоматически при помощи гипероптимизации параметров управления. Смотрите Гипероптимизацию параметров управления в Приложении Regression Learner.

Машины опорных векторов

Можно обучить машины опорных векторов регрессии (SVMs) в Regression Learner. Линейные SVMs легко интерпретировать, но могут иметь низкую прогнозирующую точность. Нелинейные SVMs больше затрудняют, чтобы интерпретировать, но могут быть более точными.

Совет

В галерее Model Type нажмите All SVMs , чтобы попробовать каждую из nonoptimizable опций SVM и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора признаков и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityГибкость модели
Linear SVM
ЛегкийНизко
Quadratic SVM
ТрудноНоситель
Cubic SVM
ТрудноНоситель
Fine Gaussian SVM
ТрудноВысоко
Позволяет быстрые изменения функции отклика. Шкала ядра установлена в sqrt(P)/4, где P количество предикторов.
Medium Gaussian SVM
ТрудноНоситель
Дает менее гибкую функцию отклика. Шкала ядра установлена в sqrt(P).
Coarse Gaussian SVM
ТрудноНизко
Дает твердую функцию отклика. Шкала ядра установлена в sqrt(P)*4.

Statistics and Machine Learning Toolbox реализует линейную нечувствительную к эпсилону регрессию SVM. Этот SVM игнорирует ошибки прогноза, которые меньше некоторого постоянного числа ε. support vectors является точками данных, которые имеют ошибки, больше, чем ε. Функция использование SVM, чтобы предсказать новые значения зависит только от векторов поддержки. Чтобы узнать больше о регрессии SVM, смотрите Регрессию Машины опорных векторов Понимания.

Совет

Для примера рабочего процесса смотрите, Обучают Деревья Регрессии Используя Приложение Regression Learner.

Усовершенствованные опции SVM

Regression Learner использует fitrsvm функция, чтобы обучить модели регрессии SVM.

Можно установить эти опции в приложении:

  • Kernel function

    Функция ядра решает, что нелинейное преобразование применилось к данным, прежде чем SVM будет обучен. Можно выбрать из:

    • Gaussian или ядро Радиальной основной функции (RBF)

    • Linear ядро, самое легкое интерпретировать

    • Quadratic ядро

    • Cubic ядро

  • Box constraint mode

    Ограничение поля управляет штрафом, наложенным на наблюдения с большими остаточными значениями. Большее ограничение поля дает более гибкую модель. Меньшее значение дает более твердую модель, менее чувствительную к сверхподбору кривой.

    Когда Box constraint mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать ограничение поля.

    Попытайтесь подстроить свою модель путем определения ограничения поля вручную. Установите Box constraint mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual box constraint. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Увеличьте ограничительное значение поля, чтобы создать более гибкую модель.

  • Epsilon mode

    Ошибки прогноза, которые меньше, чем эпсилон (ε) значение, проигнорированы и обработаны как равные нулю. Меньшее значение эпсилона дает более гибкую модель.

    Когда Epsilon mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать шкалу ядра.

    Попытайтесь подстроить свою модель путем определения значения эпсилона вручную. Установите Epsilon mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual epsilon. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Уменьшите значение эпсилона, чтобы создать более гибкую модель.

  • Kernel scale mode

    Шкала ядра управляет шкалой предикторов, на которых ядро значительно варьируется. Меньшая шкала ядра дает более гибкую модель.

    Когда Kernel scale mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать шкалу ядра.

    Попытайтесь подстроить свою модель путем определения шкалы ядра вручную. Установите Kernel scale mode на Manual и задайте значение. Измените значение путем нажатия кнопок или ввода значения положительной скалярной величины в поле Manual kernel scale. Приложение автоматически предварительно выбирает рыночную стоимость для вас. Попытайтесь увеличить или уменьшить это значение немного и видеть, улучшает ли это вашу модель.

    Совет

    Уменьшите значение шкалы ядра, чтобы создать более гибкую модель.

  • Standardize

    Стандартизация предикторов преобразовывает их так, чтобы у них были среднее значение 0 и стандартное отклонение 1. Стандартизация удаляет зависимость от произвольных шкал в предикторах и обычно улучшает производительность.

В качестве альтернативы можно позволить приложению выбрать некоторые из этих опций модели автоматически при помощи гипероптимизации параметров управления. Смотрите Гипероптимизацию параметров управления в Приложении Regression Learner.

Гауссовы модели регрессии процесса

Можно обучить модели Gaussian process regression (GPR) в Regression Learner. Модели GPR часто очень точны, но могут затруднить, чтобы интерпретировать.

Совет

В галерее Model Type нажмите All GPR Models , чтобы попробовать каждую из nonoptimizable опций модели GPR и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора признаков и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityГибкость модели
Rational Quadratic
ТрудноАвтоматический
Squared Exponential
ТрудноАвтоматический
Matern 5/2
ТрудноАвтоматический
Exponential
ТрудноАвтоматический

В Гауссовой регрессии процесса ответ моделируется с помощью вероятностного распределения по пробелу функций. Гибкость предварительных установок в галерее Model Type автоматически выбрана, чтобы дать небольшую учебную ошибку и, одновременно, защита от сверхподбора кривой. Чтобы узнать больше о Гауссовой регрессии процесса, см. Гауссовы Модели Регрессии Процесса.

Совет

Для примера рабочего процесса смотрите, Обучают Деревья Регрессии Используя Приложение Regression Learner.

Усовершенствованные гауссовы опции регрессии процесса

Regression Learner использует fitrgp функция, чтобы обучить модели GPR.

Можно установить эти опции в приложении:

  • Basis function

    Основная функция задает форму предшествующей средней функции Гауссовой модели регрессии процесса. Можно выбрать из Zero, Constant, и Linear. Попытайтесь выбрать различную основную функцию и видеть, улучшает ли это вашу модель.

  • Kernel function

    Функция ядра определяет корреляцию в ответе как функция расстояния между значениями предиктора. Можно выбрать из Rational Quadratic, Squared Exponential, Matern 5/2, Matern 3/2, и Exponential.

    Чтобы узнать больше о функциях ядра, смотрите Ядро (Ковариация) Опции Функции.

  • Use isotropic kernel

    Если вы используете изотропное ядро, шкалы расстояний корреляции являются тем же самым для всех предикторов. С неизотропным ядром каждый переменный предиктор имеет свою собственную отдельную шкалу расстояний корреляции.

    Используя неизотропное ядро может улучшить точность вашей модели, но может сделать модель медленной, чтобы соответствовать.

    Чтобы узнать больше о неизотропных ядрах, смотрите Ядро (Ковариация) Опции Функции.

  • Kernel mode

    Можно вручную задать начальные значения параметров ядра Kernel scale и Signal standard deviation. Стандартное отклонение сигнала является предшествующим стандартным отклонением значений ответа. По умолчанию приложение локально оптимизирует параметры ядра, начинающие с начальных значений. Чтобы использовать зафиксированные параметры ядра, снимите the Optimize numeric parameters флажок в расширенных настройках.

    Когда Kernel scale mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать начальные параметры ядра.

    Если вы устанавливаете Kernel scale mode на Manual, можно задать начальные значения. Нажмите кнопки или введите значение положительной скалярной величины в поле Kernel scale и поле Signal standard deviation.

    Если вы снимаете флажок Use isotropic kernel, вы не можете установить начальные параметры ядра вручную.

  • Sigma mode

    Можно задать вручную начальное значение стандартного отклонения шума наблюдения Sigma. По умолчанию приложение оптимизирует стандартное отклонение шума наблюдения, начинающее с начального значения. Чтобы использовать зафиксированные параметры ядра, снимите the Optimize numeric parameters флажок в расширенных настройках.

    Когда Sigma mode установлен в Auto, приложение использует эвристическую процедуру, чтобы выбрать начальное стандартное отклонение шума наблюдения.

    Если вы устанавливаете Sigma mode на Manual, можно задать начальные значения. Нажмите кнопки или введите значение положительной скалярной величины в поле Sigma.

  • Standardize

    Стандартизация предикторов преобразовывает их так, чтобы у них были среднее значение 0 и стандартное отклонение 1. Стандартизация удаляет зависимость от произвольных шкал в предикторах и обычно улучшает производительность.

  • Optimize numeric parameters

    При использовании этой опции приложение автоматически оптимизирует числовые параметры модели GPR. Оптимизированные параметры являются коэффициентами Basis function, параметры ядра Kernel scale и Signal standard deviation и стандартное отклонение шума наблюдения Sigma.

В качестве альтернативы можно позволить приложению выбрать некоторые из этих опций модели автоматически при помощи гипероптимизации параметров управления. Смотрите Гипероптимизацию параметров управления в Приложении Regression Learner.

Ансамбли деревьев

Можно обучить ансамбли деревьев регрессии в Regression Learner. Объединение моделей ансамбля следует из многих слабых учеников в одну высококачественную модель ансамбля.

Совет

В галерее Model Type нажмите All Ensembles , чтобы попробовать каждую из nonoptimizable опций ансамбля и видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории и попытайтесь улучшить ту модель при помощи выбора признаков и изменяющий некоторые расширенные настройки.

Тип модели регрессииInterpretabilityМетод ансамбляГибкость модели
Boosted Trees
Трудно

Повышение наименьших квадратов (LSBoost) с учениками дерева регрессии.

Носитель к высоко

Bagged Trees
Трудно

Загрузите агрегацию или укладывание в мешки с учениками дерева регрессии.

Высоко

Совет

Для примера рабочего процесса смотрите, Обучают Деревья Регрессии Используя Приложение Regression Learner.

Усовершенствованные опции ансамбля

Regression Learner использует fitrensemble функция, чтобы обучить модели ансамбля. Можно установить эти опции:

  • Minimum leaf size

    Укажите, что минимальное количество учебных выборок раньше вычисляло ответ каждой вершины. Когда вы выращиваете дерево регрессии, рассматриваете его простоту и предсказательную силу. Чтобы изменить минимальный листовой размер, нажмите кнопки или введите положительное целочисленное значение в поле Minimum leaf size.

    • Прекрасное дерево со многими маленькими листами обычно очень точно на обучающих данных. Однако древовидная сила не показывает сопоставимую точность на независимом наборе тестов. Очень покрытое листвой дерево имеет тенденцию сверхсоответствовать, и его точность валидации часто намного ниже, чем его обучение (или перезамена) точность.

    • В отличие от этого крупное дерево с меньшим количеством больших листов не достигает высокой учебной точности. Но крупное дерево может быть более устойчивым в той своей учебной точности, может быть около того из представительного набора тестов.

    Совет

    Уменьшите Minimum leaf size, чтобы создать более гибкую модель.

  • Number of learners

    Попытайтесь изменить количество учеников, чтобы видеть, можно ли улучшить модель. Многие ученики могут произвести высокую точность, но могут быть трудоемкими, чтобы соответствовать.

    Совет

    Увеличьте Number of learners, чтобы создать более гибкую модель.

  • Learning rate

    Для повышенных деревьев задайте темп обучения для уменьшения. Если вы устанавливаете темп обучения на меньше чем 1, ансамбль требует большего количества итераций изучения, но часто достигает лучшей точности. 0.1 популярный начальный выбор.

В качестве альтернативы можно позволить приложению выбрать некоторые из этих опций модели автоматически при помощи гипероптимизации параметров управления. Смотрите Гипероптимизацию параметров управления в Приложении Regression Learner.

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте