有了前面的準備,可以用theano實現乙個邏輯回歸程式,邏輯回歸是典型的有監督學習。
為了形象,這裡我們假設分類任務是區分人與狗的**。
首先是生成隨機數物件
importnumpy
importtheano
importtheano.tensor as t
rng= numpy.random
資料初始化
有400張**,這些**不是人的就是狗的。
每張**是28*28=784的維度。
d[0]是訓練集,是個400*784的矩陣,每一行都是一張**。
d[1]是每張**對應的標籤,用來記錄這張**是人還是狗。
training_steps是迭代上限。
n= 400
feats= 784
d= (rng.randn(n, feats), rng.randint(size=n, low=0, high=2))
training_steps= 10000
#declare theano symbolic variables
x= t.matrix("x")
y= t.vector("y")
w= theano.shared(rng.randn(feats), name="w")
b= theano.shared(0., name="b")
print"initial model:"
printw.get_value(), b.get_value()
x是輸入的訓練集,是個矩陣,把d[0]賦值給它。
y是標籤,是個列向量,400個樣本所以有400維。把d[1]賦給它。
w是權重列向量,維數為影象的尺寸784維。
b是偏倚項向量,初始值都是0,這裡沒寫成向量是因為之後要廣播形式。
#construct theano expression graph
p_1= 1 / (1 + t.exp(-t.dot(x, w) - b)) #probability that target = 1
prediction= p_1 > 0.5 # theprediction thresholded
xent= -y * t.log(p_1) - (1-y) * t.log(1-p_1) # cross-entropy loss function
cost= xent.mean() + 0.01 * (w ** 2).sum()# the cost to minimize
gw,gb = t.grad(cost, [w, b]) #compute the gradient of the cost
# (we shall return to this in a
#following section of this tutorial)
這裡是函式的主幹部分,涉及到3個公式
1.判定函式
2.代價函式
3.總目標函式
第二項是權重衰減項,減小權重的幅度,用來防止過擬合的。
#compile
train= theano.function(
inputs=[x,y],
outputs=[prediction, xent],
updates=((w, w - 0.1 * gw), (b, b -0.1 * gb)))
predict= theano.function(inputs=[x], outputs=prediction)
構造**和訓練函式。
#train
fori in range(training_steps):
pred,err = train(d[0], d[1])
print"final model:"
printw.get_value(), b.get_value()
print"target values for d:", d[1]
print"prediction on d:", predict(d[0])
這裡算過之後發現,經過10000次訓練,**結果與標籤已經完全相同了。 Theano學習筆記(二) 邏輯回歸函式解析
有了前面的準備,能夠用theano實現乙個邏輯回歸程式。邏輯回歸是典型的有監督學習。為了形象。這裡我們如果分類任務是區分人與狗的 首先是生成隨機數物件 importnumpy importtheano importtheano.tensor as t rng numpy.random 資料初始化 有...
邏輯回歸學習筆記
邏輯回歸 邏輯回歸是乙個二分類問題,在分類過程值中可以得到代分類樣本所屬類別的概率。對於輸入x和輸出 結果y 邏輯回歸採用sigmoid函式,將實數域的x對映到 0 1 區間。sigmoid函式如下所示 h x 11 e x 則可以得到輸入x屬於正例和反例的概率,如下 py 1 x h x p y ...
學習筆記(三)邏輯回歸
線性回歸和邏輯回歸其實沒有多大的區別,就是邏輯回歸多了乙個sigmoid函式,使樣本能對映到 0,1 之間的數值,用來做分類問題。線性回歸 線性指輸入變數是一次的,回歸即擬合,線性回歸即 確定唯一的因變數 需要 的值 和乙個或多個數值型的自變數 變數 之間的關係。即 求出w,b的值y f x wx ...