假設我們已經知道梯度法——最速下降法的原理。
現給出乙個算例:
如果人工直接求解:
現給出python求解過程:
imwww.cppcns.comport numpy as np
from sympy import *
import math
import matpllvoifjipiotlib.pyplot as plt
import mpl_toolkits.axisartist as axisartist
# 定義符號
x1, x2, t = symbols('x1, x2, t')
def func():
# 自定義乙個函式
return pow(x1, 2) + 2 * pow(x2, 2) - 2 * x1 * x2 - 2 * x2
def grad(data):
# 求梯度向量,data=[data1, data2]
f = func()
grad_vec = [diff(f, x1), diff(f, x2)] # 求偏導數,梯度向量
grad =
for item in grad_vec:
grad.append(item.subs(程式設計客棧x1, data[0]).subs(x2, data[1]))
return grad
def grad_len(grad):
# 梯度向量的模長
vec_len = math.sqrt(pow(grad[0], 2) + pow(grad[1], 2))
return vec_len
def zhudian(f):
# 求得min(t)的駐點
t_diff = diff(f)
t_min = solve(t_diff)
return t_min
def main(x0, theta):
f = func()
grad_vec = grad(x0)
grad_length = grad_len(grad_vec) # 梯度向量的模長
k = 0
data_x = [0]
data_y = [0]
while grad_length > theta: # 迭代的終止條件
k += 1
p = -np.array(grad_vec)
# 迭代
x = np.array(x0) + t*p
t_func = f.subs(x1, x[0]).subs(x2, x[1])
t_min = zhudian(t_func)
x0 = np.array(x0) + t_min*p
grad_vec = grad(x0)
grad_length = grad_len(grad_vec)
print('grad_length', grad_length)
print('座標', x0[0], x0[1])
data_x.app程式設計客棧end(x0[0])
data_y.append(x0[1])
print(k)
# 繪圖
fig = plt.figure()
ax = axisartist.subplot(fig, 111)
fig.add_axes(ax)
ax.axis["bottom"].set_axisline_style("-|>", size=1.5)
ax.axis["left"].set_axisline_style("->", size=1.5)
ax.axis["top"].set_visible(false)
ax.axis["right"].set_visible(false)
plt.title(r'$gradient \ method - steepest \ descent \ method$')
plt.plot(data_x, data_y, label=r'$f(x_1,x_2)=x_1^2+2 \cdot x_2^2-2 \cdot x_1 \cdot x_2-2 \cdot x_2$')
plt.legend()
plt.scatter(1, 1, marker=(5, 1), c=5, s=1000)
plt.grid()
plt.xlabel(r'$x_1$', fontsize=20)
plt.ylabel(r'$x_2$', fontsize=20)
plt.show()
if __name__ == '__main__':
# 給定初始迭代點和閾值
main([0, 0], 0.0000程式設計客棧1)
最終結果圖如下所示:
本文標題: python實現梯度法 python最速下降法
本文位址:
python實現共軛梯度法
共軛梯度法 conjugate gradient 是介於最速下降法與牛頓法之間的乙個方法,它僅需利用一階導數資訊,但克服了最速下降法收斂慢的缺點,又避免了牛頓法需要儲存和計算hesse矩陣並求逆的缺點,共軛梯度法不僅是解決大型線性方程組最有用的方法之一,也是解大型非線性最優化最有效的演算法之一。這裡...
python實現共軛梯度法
共軛梯度法是介於最速下降法與牛頓法之間的乙個方法,它僅需利用一階導數資訊,但克服了最速下降法收斂慢的缺點,又避免了牛頓法需要儲存和計算hesse矩陣並求逆的缺點,共軛梯度法不僅是解決大型線性方程組最www.cppcns.com有用的方法之一,也是解大型非線性最優化最有效的演算法之一。在各種優化演算法...
python實現牛頓法 牛頓迭代法Python實現
例1 給定方程 f x x 2 sin x 1 0 判別該方程有幾個實根,並用牛頓法求出方程所有實根,精確到 10 解 利用畫圖法觀察根的所在區間為 2,1 和 0,1 其中藍色為 y f x 的曲線,橘黃色的直線是 y 0 畫圖 import numpy as np import matplotl...