2次函式通過梯度下降法不斷逼近臨界值
# -*- coding: utf-8 -*-
"""created on wed dec 27 16:46:06 2017
@author: administrator
"""import numpy as np
import matplotlib.pyplot as plt
import sympy as sym
defcreate_function
():return x**2+3*x+9
#對建立的函式進行繪圖
x=np.arange(-10, 10, 0.01)
y=create_function()
plt.plot(x,y)
plt.show()
#對建立的函式進行求導,並獲取最後的導函式
x=sym.symbol("x")
derivation = sym.diff(create_function(), x)
print derivation
#對生成的導函式進行賦值,通過f_func計算出最後的結果
梯度下降理解
第二天系統學習。1.設損失函式為j 希望將這個函式最小化,通過梯度下降方法找到最優解。這裡應該有些假設,這個函式是凸函式。以兩個引數為例,隨機乙個點開始,開始下山,對於這個點到最底部,最好的方式就是切線方向,這個方向下降最快,就像圖中紅色 每次按照藍色切線箭頭以一定的長度往下走,當走到最低點是停止。...
理解梯度下降法
梯度下降法是求解無約束最優問題中常用到的一種學習方法,形式簡單,屬於一階收斂,在空間進行線性搜尋。在前面講到的邏輯斯蒂回歸模型中,就常用到梯度下降法來學習引數。首先給出問題定義 統計學習方法附錄a 假設f x 是rn 上具有一階連續偏導的函式,求解的目標問題如下 mi nx r nf x x 表示目...
梯度下降 隨機梯度下降 批梯度下降
下面的h x 是要擬合的函式,j 損失函式,theta是引數,要迭代求解的值,theta求解出來了那最終要擬合的函式h 就出來了。其中m是訓練集的記錄條數,j是引數的個數。梯度下降法流程 1 先對 隨機賦值,可以是乙個全零的向量。2 改變 的值,使j 按梯度下降的方向減少。以上式為例 1 對於我們的...