7.2. Метод Бройдена#
Метод Ньютона послужил основой для многих других методов. Недостатком метода является требовательное по времени вычисление якобиана на каждой итерации. Для некоторых приложений это неприемлимо. Вместо прямого вычисления якобиана, квазиньютоновские методы заменяют якобиан некоторым приближением.
7.2.1. Приближение якобиана конечной разностью#
В 6.2.2 Методе секущих мы фактически сталкивались с приближением производной функции в точке \(f'(x_{k+1})\)
Численный метод, приближающий производную «из определения» (\(\lim_{\Delta x \to 0} \Delta f / \Delta x\)) называется методом конечной разности. Формулу замены производной её численным аналогом называют разностной схемой. Эти методы распространнены в решении дифференциальных уравнений.
Подобным образом можно поступить для приближения якобиана. В общем случае для \(\mathbf{f}: \real^n \to \real^m\) якобиан преобразования имеет размер \(m \times n\). Выпишем его \(j\)-ый столбец
где \(\mathbf{e}_j\) – \(j\)-ый столбец единичной матрицы.
Якобиан состоит из частных производных, таким образом, можно выписать его приближение через конечные разности
Значение \(\delta\) выбирают, по умолчанию, близким к \(\sqrt{\macheps}\) как предел численной стабильности метода конечных разностей. Этот предел берётся из сопоставления ошибки, даваемой самим методом и ошибкой округления при вычислениях.
Приближение якобиана конечной разностью
"""
jacobianfd(f, x[; y, δ])
Вычисляет якобиан функции `f` в точке `x` через конечную разность в точках `x` и `x + δ
I[:, j]`, где `δ::Number` - скаляр. Опционально можно подать `y == f(x)`.
"""
function jacobianfd(f, x; y=f(x), δ=sqrt(eps())*max(norm(x), 1))
m, n = size(y, 1), size(x, 1)
J = zeros(m, n)
x = float(copy(x))
for j in 1:n
x[j] += δ
J[:, j] .= (f(x) .- y) ./ δ
x[j] -= δ
end
return J
end
Сравним на небольшом примере точность приближения якобиана. В качестве функции и точки приближения возьмём
function f(x)
x₁, x₂, x₃ = x
return [
x₂*exp(x₁) + sin(x₁),
cos(x₂) + x₁*x₃,
log(x₃) + x₂^2,
]
end
function J(x)
x₁, x₂, x₃ = x
return [
x₂*exp(x₁)+cos(x₁) exp(x₁) 0 ;
x₃ -sin(x₂) x₁ ;
0 2x₂ 1/x₃ ;
]
end
Вычислим якобиан напрямую Jexact
, и через конечные разности Jfd
x = [2/3, -1.0, sqrt(2)]
Jexact, Jfd = J(x), jacobianfd(f, x)
Jexact |> display
Jfd |> display
@show norm(Jexact - Jfd);
3×3 Matrix{Float64}:
-1.16185 1.94773 0.0
1.41421 0.841471 0.666667
0.0 -2.0 0.707107
3×3 Matrix{Float64}:
-1.16185 1.94773 0.0
1.41421 0.841471 0.666667
0.0 -2.0 0.707107
norm(Jexact - Jfd) = 4.4920040357185245e-8
Отличие в данной точке получилось небольшим. В качестве меры невязки здесь приведена норма Фробениуса для матриц \(\sqrt{\sum A_{ij}^2}\).
7.2.2. Метод Бройдена#
Обозначим приближение якобиана в точке \(\mathbf{x}_k\) через \(\mathbf{B}_k\), т.е.
На \(k\)-ой итерации шаг квазиньютоновского метода будем находить из системы
здесь обозначены \(\delta \mathbf{x}_k = \mathbf{x}_{k+1} - \mathbf{x}_k\), а \(\mathbf{f}_k = \mathbf{f}(\mathbf{x}_k)\).
Квазиньютоновское условие на новое приближение якобиана \(\mathbf{B}_{k+1}\) состоит в
Выбор \(\mathbf{B}_{k+1}\) не однозначен. На практике хорошие результаты показывает правило Бройдена, выведенное из минимальной в смысле нормы Фробениуса поправки к \(\mathbf{B}_k\)
такой, что условие (7.5) удовлетворится.
Самыми ресурсоемкими операциями в правиле Бройдена является матричное умножение (\(\mathbf{B}_k \delta \mathbf{x}_k\)) и внешнее произведение (\(\square \cdot \delta \mathbf{x}^\top_k\)). При этом при использовании QR-разложения получается сэкономить часть операций (для этого разложения \(\text{QR}(\mathbf{A} + \mathbf{a}\mathbf{b}^\top)\) выражается через \(\text{QR}(\mathbf{A})\)).
Пусть дана функция \(\mathbf{f}\), начальная точка \(\mathbf{x}_1\) и приближение якобиана в этой точке \(\mathbf{B}_1\). Последующие приближения \(k = 2, 3, \ldots\) получаются примением действий
Решить систему (7.4), найдя таким образом шаг \(\delta \mathbf{x}_k\);
Построить новое приближение корня \(\mathbf{x}_{k+1} = \mathbf{x}_k + \delta \mathbf{x}_k\) и вычислить значение функции в нём \(\mathbf{f}_{k+1} = \mathbf{f}(\mathbf{x}_{k+1})\);
Получить новое приближение для якобиана \(\mathbf{B}_{k+1}\) из формулы (7.7).
В качестве начального приближения якобиана можно использовать как его конечную разность, так и настоящий якобиан.
7.2.3. Реализация#
Метод Бройдена
"""
broydensys(f, x, J[; maxiter, xtol, ftol])
Решает нелинейную систему уравнений `f`(x) = 0 методом Бройдена.
Требует начального приближения корня `x` уравнения и якобиана `J` в этой точке.
Выполняет итерации, пока норма решения `> xtol` или норма функции `> ftol`.
В случае превышения числа итераций `maxiter` вызывает ошибку.
"""
function broydensys(f, x, J; maxiter=50, xtol=1e-6, ftol=1e-6)
δx = float(similar(x))
yp, yn = similar.((δx, δx))
x = float(copy(x))
B = float(copy(J))
yn .= f(x)
for i in 1:maxiter
yp .= yn
δx .= .- (B \ yp)
x .+= δx
yn .= f(x)
norm(δx) < xtol && return x
norm(yn) < ftol && return x
g = B * δx
B .+= (1 / dot(δx, δx)) .* (yn .- yp .- g) .* δx'
end
error("Превышено число итераций.")
end
В данной реализации для простоты изложения явно не использовано QR-разложение, имеющее преимещуство перед LU-разложением при обновлении B
.
Рассмотрим пример использования метода Бройдена. Возьмём функцию и якобиан из Демонстрации 7.3, где использовался метод Ньютона
function f(x)
x₁, x₂ = x
return [
x₁^2 - 2x₂^2 - x₁*x₂ + 2x₁ - x₂ + 1,
2x₁^2 - x₂^2 + x₁*x₂ + 3x₂ - 5,
]
end
function J(x)
x₁, x₂ = x
return [
2x₁-x₂+2 -4x₂-x₁-1;
4x₁+x₂ -2x₂+x₁+3
]
end
Сравним решения методом Бройдена, где в качестве \(\mathbf{B}_1\) сначала используется истинный якобиан, а затем его конечная разность
x = [10.0, 10.0]
rjac = broydensys(f, x, J(x))
rfdjac = broydensys(f, x, jacobianfd(f, x))
@show rjac
@show rfdjac
@show f(rjac);
rjac = [0.9999999480032711, 1.0000000136175216]
rfdjac = [0.999999948003263, 1.0000000136175238]
f(rjac) = [-2.376953129878956e-7, -2.327485972841714e-7]
Поищем также другие корни, не используя подлинный якобиан
x = [-10.0, 10.0]
root = broydensys(f, x, jacobianfd(f, x))
root, f(root)
([-1.4999998826044518, 0.5000004907722365], [-9.122522022231294e-7, -4.0028955261561805e-7])
x = [10.0, -10.0]
root = broydensys(f, x, jacobianfd(f, x))
root, f(root)
([-1.499999989517552, 0.5000000339688456], [-6.667694307793681e-8, -4.066904146782235e-8])
x = [-10.0, -10.0]
root = broydensys(f, x, jacobianfd(f, x))
root, f(root)
([-1.666666678734911, -0.3333330286952676], [6.213441938740516e-7, 6.937537442297526e-7])
7.2.4. Другие версии метода#
Изложенная выше версия метода (7.7) требует решения линейной системы (7.4). Однако, она сочетается с линейным поиском, обеспечивающим глобальную сходимость метода, т.е. сходимостью к корню из произвольного начального приближения \(\mathbf{x}_1\), если корень существует. Правда, для этого необходимо переформулировать постановку задачи \(\mathbf{f}(\mathbf{x}) = \mathbf{0}\) под задачу минимизации [PTVF07].
Если же линейный поиск не используется, распространены две версии алгоритма, использующие вместо матрицы \(\mathbf{B}\) обратную к ней \(\mathbf{B}^{-1}\), полученную аналитически. Использование \(\mathbf{B}^{-1}\) позволяет не решать систему (7.4), а сразу вычислять шаг
Самим Бройденом была предложена формула для \(\mathbf{B}^{-1}\) на основе применения формулы Шермана-Моррисона к (7.7)
здесь \(\delta \mathbf{f}_k = \mathbf{f}_{k+1} - \mathbf{f}_k\). Как и формула (7.7), данная формула минимизирует поправку (7.6) для «прямой» матрицы \(\mathbf{B}_{k+1}\). Метод, основанный на данной формуле ещё называют «хорошим методом Бройдена» (good Broyden’s method).
Вторая версия метода на основе обратной матрицы \(\mathbf{B}^{-1}\) использует формулу
которая минимизирует норму Фробениуса уже между обратными приближениями якобиана
Эта версия распространилась под названием «плохого метода Бройдена» (bad Broyden’s method). Хотя, слова «плохой» и «хороший» в названии методов имеют нейтральную коннотацию.