相信準備入坑機器學習的朋友們,大多數剛開始看著眾多的數學公式,會有種想放棄的挫敗感!至少我是這樣的。堅持下來,找到適合的方式,相信很快你也會寫出自己機器學習的 helloworld!入坑指南 提取密碼:5s0u
import gzip
import os
import struct
import numpy as np
from keras.models import sequential
from keras.layers import dense, activation
from keras.optimizers import sgd
from tensorflow.examples.tutorials.mnist import input_data
if __name__ == '__main__':
model1 = sequential() # 順序模型
model.add(dense(input_dim=28 * 28, output_dim=500))
model.add(activation('sigmoid'))
model.add(dense(output_dim=500))
model.add(activation('sigmoid'))
model.add(dense(output_dim=10))
model.add(activation('softmax'))
# 這裡我們選擇交叉熵損失函式
model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.1), metrics=['accuracy'])
mnist = input_data.read_data_sets("/users/dongsheng/downloads/mnist/", one_hot=true)
x_train, y_train = mnist.train.images, mnist.train.labels
x_test, y_test = mnist.test.images, mnist.test.labels
# x_train = x_train.reshape(-1, 784).astype('float32')
# x_test = x_test.reshape(-1, 784).astype('float32')
model.fit(x_train, y_train, batch_size=100, nb_epoch=20)
loss_and_metrics = model1.evaluate(x_test, y_test)
為什麼選擇 交叉熵 cuda學習筆記1 hello world實戰
因為要用tensorrt寫自定義層,一定會用到cuda,所以學一下。fuc.cu fuc.h test.cu cmakelists.txt include include fuc.h global void kernel extern global void kernel include inclu...
機器學習 softmax回歸 python實現
恢復內容開始 softmax regression 可以看做是 lr 演算法在多分類上的推廣,即類標籤 y 的取值大於或者等於 2。假設資料樣本集為 left y right left x y right left x y right left x y right right 對於 sr 演算法,其...
機器學習週刊第一期 Hello World
說了facebook顯然要說google啊,andrew ng,hinton都在這,各種集群,以及最近的乙個gpu上就能提高很多效能的演算法,超牛 andrew ng 牛啊,講課深入淺出,機器學習成了stanford選課人數第一的教授,話說央視做了個網際網路時代節目,還採訪了吳老闆,回頭一定圍觀。e...