Автоматический фон дифференцирования

Что такое автоматическое дифференцирование?

Автоматическое дифференцирование (также известный как autodiff, AD или algorithmic differentiation) является широко используемым инструментом в оптимизации. solve функционируйте использует автоматическое дифференцирование по умолчанию в основанной на проблеме оптимизации для общих нелинейных целевых функций и ограничениях; смотрите Автоматическое Дифференцирование в Optimization Toolbox.

Автоматическое дифференцирование является набором методов для оценки производных (градиенты) численно. Метод использует символьные правила для дифференцирования, которые более точны, чем приближения конечной разности. В отличие от чисто символьного подхода, автоматическое дифференцирование выполняет выражения численно рано в расчетах, вместо того, чтобы выполнить большие символьные расчеты. Другими словами, автоматическое дифференцирование оценивает производные в конкретных числовых значениях; это не создает символьные выражения для производных.

  • Forward mode автоматическое дифференцирование оценивает числовую производную путем выполнения элементарных производных операций одновременно с операциями выполнения самой функции. Как детализировано в следующем разделе, программное обеспечение выполняет эти расчеты на вычислительном графике.

  • Reverse mode автоматическое дифференцирование использует расширение прямого режима вычислительный график, чтобы включить расчет градиента противоположным обходом графика. Когда программное обеспечение запускает код, чтобы вычислить функцию и ее производную, это записывает операции в структуре данных, названной trace.

Как многие исследователи отметили (например, Baydin, Pearlmutter, Радул и Siskind [1]), для скалярной функции многих переменных, реверсный режим вычисляет градиент более эффективно, чем прямой режим. Поскольку целевая функция является скаляром, solve автоматическое дифференцирование использует реверсный режим для скалярной оптимизации. Однако для функций с векторным знаком, таких как нелинейный метод наименьших квадратов и решение уравнения, solve использование передает режим для некоторых вычислений. Смотрите Автоматическое Дифференцирование в Optimization Toolbox.

Передайте режим

Рассмотрите задачу выполнения этой функции и ее градиента:

f(x)=x1exp(12(x12+x22)).

Автоматическое дифференцирование работает в конкретных точках. В этом случае возьмите x 1 = 2, x 2 = 1/2.

Следующий вычислительный график кодирует вычисление функционального f (x).

Чтобы вычислить градиент f (x) с помощью прямого режима, вы вычисляете тот же график в том же направлении, но изменяете расчет на основе элементарных правил дифференцирования. Чтобы далее упростить вычисление, вы заполняете значение производной каждого подвыражения ui, когда вы идете. Чтобы вычислить целый градиент, необходимо пересечь график дважды, однажды для частной производной относительно каждой независимой переменной. Каждое подвыражение в цепочечном правиле имеет числовое значение, таким образом, целое выражение имеет тот же вид графика оценки как сама функция.

Расчет является повторным приложением цепочечного правила. В этом примере производная f относительно x 1 расширяется до этого выражения:

dfdx1=du6dx1=u6u1+u6u5u5x1=u6u1+u6u5u5u4u4x1=u6u1+u6u5u5u4u4u3u3x1=u6u1+u6u5u5u4u4u3u3u1u1x1.

Пусть u˙i представляйте производную выражения ui относительно x 1. Используя оцененные значения ui от вычисления функции, вы вычисляете частную производную f относительно x 1 как показано в следующем рисунке. Заметьте, что все значения u˙i станьте доступными, когда вы пересекаете график сверху донизу.

Чтобы вычислить частную производную относительно x 2, вы пересекаете подобный вычислительный график. Поэтому, когда вы вычисляете градиент функции, количество обходов графика совпадает с количеством переменных. Этот процесс может быть медленным для многих приложений, когда целевая функция или нелинейные ограничения зависят от многих переменных.

Реверсный режим

Реверсный режим использует один прямой обход вычислительного графика, чтобы настроить трассировку. Затем это вычисляет целый градиент функции в одном обходе графика в противоположном направлении. Для проблем со многими переменными этот режим намного более эффективен.

Теория позади реверсного режима также основана на цепочечном правиле, наряду со связанными примыкающими переменными, обозначенными со сверхпанелью. Примыкающая переменная для ui

u¯i=fui.

В терминах вычислительного графика каждая исходящая стрела из переменной способствует соответствующей примыкающей переменной своим термином в цепочечном правиле. Например, переменная u –1 имеет исходящие стрелы к двум переменным, u 1 и u 6. График имеет связанное уравнение

fu1=fu1u1u1+fu6u6u1=u¯1u1u1+u¯6u6u1.

В этом вычислении, вспоминая это u1=u12 и u 6 = u 5u–1, вы получаете

u¯1=u¯12u1+u¯6u5.

Во время прямого обхода графика программное обеспечение вычисляет промежуточные переменные ui. Во время противоположного обхода, начинающего со значения seed u¯6=ff=1, расчет реверсного режима получает примыкающие значения для всех переменных. Поэтому реверсный режим вычисляет градиент во всего одном расчете, экономя много времени, сравненного с прямым режимом.

Следующий рисунок показывает расчет градиента в реверсном режиме для функции

f(x)=x1exp(12(x12+x22)).

Снова, расчет берет x 1 = 2, x 2 = 1/2. Расчет реверсного режима использует значения ui, которые получены во время расчета функции в исходном вычислительном графике. В правильном фрагменте фигуры вычисленные значения примыкающих переменных появляются рядом с примыкающими именами переменных, с помощью формул от левого фрагмента фигуры.

Итоговые значения градиента появляются как u¯0=fu0=fx2 и u¯1=fu1=fx1.

Для получения дополнительной информации смотрите Baydin, Pearlmutter, Радул, и Siskind [1] или статью Wikipedia об автоматическом дифференцировании [2].

Автоматическое дифференцирование в Optimization Toolbox

Автоматическое дифференцирование (AD) применяется solve и prob2struct функции при следующих условиях:

Когда AD применяетсяВсе ограничительные поддерживаемые функцииОдно или несколько ограничений, не поддержанных
Поддерживаемая целевая функцияAD используется для цели и ограниченийAD, используемый для цели только
Целевая функция, не поддерживаемаяAD, используемый для ограничений толькоAD, не используемый

Когда этим условиям не удовлетворяют, solve оценочные градиенты конечными разностями, и prob2struct не создает градиенты в его сгенерированных файлах функции.

Решатели выбирают следующий тип AD по умолчанию:

  • Для общей нелинейной целевой функции, fmincon значения по умолчанию, чтобы инвертировать AD для целевой функции. fmincon значения по умолчанию, чтобы инвертировать AD для нелинейного ограничения функционируют, когда количество нелинейных ограничений меньше количества переменных. В противном случае, fmincon значения по умолчанию, чтобы передать AD для нелинейной ограничительной функции.

  • Для общей нелинейной целевой функции, fminunc значения по умолчанию, чтобы инвертировать AD.

  • Для целевой функции наименьших квадратов, fmincon и fminunc значение по умолчанию, чтобы передать AD для целевой функции. Для определения основанной на проблеме целевой функции наименьших квадратов смотрите Целевую функцию Записи для Основанных на проблеме Наименьших квадратов.

  • lsqnonlin значения по умолчанию, чтобы передать AD, когда число элементов в объективном векторе больше или равно количеству переменных. В противном случае, lsqnonlin значения по умолчанию, чтобы инвертировать AD.

  • fsolve значения по умолчанию, чтобы передать AD, когда количество уравнений больше или равно количеству переменных. В противном случае, fsolve значения по умолчанию, чтобы инвертировать AD.

Примечание

Использовать автоматические производные в проблеме, преобразованной prob2struct, передайте опции, задающие эти производные.

options = optimoptions('fmincon','SpecifyObjectiveGradient',true,...
    'SpecifyConstraintGradient',true);
problem.options = options;

В настоящее время AD работает только на первые производные; это не применяется к вторым или производным высшего порядка. Так, например, если вы хотите использовать аналитический Гессиан, чтобы ускорить вашу оптимизацию, вы не можете использовать solve непосредственно, и должен вместо этого использовать подход, описанный в Производных Предоставления в Основанном на проблеме Рабочем процессе.

Ссылки

[1] Baydin, Atilim Gunes, Барак А. Перлматтер, Радул Алексея Андреевича и Джеффри Марк Сискинд. "Автоматическое Дифференцирование в Машинном обучении: Обзор". Журнал Исследования Машинного обучения, 18 (153), 2018, стр 1–43. Доступный в https://arxiv.org/abs/1502.05767.

[2] Автоматическое дифференцирование. Википедия. Доступный в https://en.wikipedia.org/wiki/Automatic_differentiation.

Смотрите также

|

Похожие темы

Внешние веб-сайты

Для просмотра документации необходимо авторизоваться на сайте