簡單的例子
network = models.sequential()
layer1 = layers.dense(512, activation='relu', input_shape=(28*28,))
layer2 = layers.dense(10, activation='softmax')
network.add(layer1)
network.add(layer2)
network.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])
network.fit(train_images, train_lable, epochs=5, batch_size=128)
本例中的網路包含 2 個 dense 層,它們是密集連線(也叫全連線)的神經層。第二層(也
是最後一層)是乙個 10 路 softmax 層,它將返回乙個由 10 個概率值(總和為 1)組成的陣列。
每個概率值表示當前數字影象屬於 10 個數字類別中某乙個的概率。
要想訓練網路,我們還需要選擇編譯(compile)步驟的三個引數。
損失函式(loss function):網路如何衡量在訓練資料上的效能,即網路如何朝著正確的
方向前進。
優化器(optimizer):基於訓練資料和損失函式來更新網路的機制。
在訓練和測試過程中需要監控的指標(metric):本例只關心精度,即正確分類的影象所
佔的比例。
前三章使用到的啟用函式(activation):
1. relu
2. softmax-手寫數字識別、新聞分類,多分類問題
4. 不需要啟用函式,例如波士頓房價線性回歸的例子
優化器(optimizer):
rmsprop
損失函式(loss):
categorical_crossentropy-手寫數字識別、新聞分類,多分類問題
mse-波士頓房價,線性回歸問題
監控指標(metric)
accuracy
acc,用於交叉熵的損失函式
mae,用於mse的損失函式
模型另外的介面:
模型的**:
predictions = model.predict(x_test)
模型的評估:
test_loss, test_acc = network.evaluate(test_images, test_lable)
演算法競賽前三章總結
第一章 程式設計入門 1.a b 當a b為整數時,結果向中間位置靠攏 例如 8 5 結果為 1 2.浮點數使用 3lf 輸出 另外 整數 浮點數 浮點數 整數 浮點數 浮點數 3.在競賽中盡量使用const int 的形式來定義常量 定義同時初始化 在eclipse中定義目前最大為10位 defi...
原理前三章部分試題
1.目前我們所說的個人台式商用機屬於d a.巨型機 b.中型機 c.小型機 d.微型機 2.2000 10化成十六進製制數是b a 7cd 16 b.7d0 16 c.7e0 16 d.7f0 16 解 2000除16取餘取反即可。3.下列數中最大的數是a a 10011001 2 b.227 8 ...
《水煮三國》前三章筆記
1.播下一種思想,收穫一種行為 播下一種行為,收穫一種習慣 播下一種習慣,收穫一種性格 播下一種性格,收穫一種命運 2.所謂命運,就是乙隻淪落在雞窩裡的鷹 3.真正的自助者是令人敬佩的覺悟者,他會藐視困難,而困難在他的面前也會令人奇怪地轟然倒地 4.真正的自助者就像黑夜裡發光的螢火蟲,不僅會照亮自己...