import tensorflow as tf
import pandas as pd
import matplotlib.pyplot as plt
將fashion_mnist資料集分成訓練集和測試集
(train_image,train_label)
,(test_image,test_label)
=tf.keras.datasets.fashion_mnist.load_data(
)
檢視訓練集和測試集資料大小,檢視一下第乙個
train_image.shape,train_label.shape#((60000, 28, 28), (60000,))
test_image.shape,test_label.shape#((10000, 28, 28), (10000,))
plt.imshow(train_image[0]
)
輸出第乙個灰度矩陣
train_image[
0]
歸一化,資料壓縮到0~1之間
train_image=train_image/
255test_image=test_image/
255
model=tf.keras.sequential()
新增隱藏層
model.add(tf.keras.layers.flatten(input_shape=(28
,28))
)model.add(tf.keras.layers.dense(
128,activation=
'relu'))
#乙個隱藏層128個神經元
model.add(tf.keras.layers.dense(
10,activation=
'softmax'))
#輸出層輸出十個分類,變成概率分布
分類問題,損失函式loss使用sparse_categorical_crossentropy
model.
compile
(optimizer=
'adam'
,loss=
'sparse_categorical_crossentropy'
,metrics=
['acc'])
#分類問題,損失函式loss使用sparse_categorical_crossentropy
optimizer選擇可以使用語句:
optimizer=tf.keras.optimizers.adam(learning_rate=0.01)
model.fit(train_image,train_label,epochs=
50)
機器學習中分類問題
regression與線性回歸 linear regression 線性回歸 linear regression 損失函式 loss function 我們要找到最好的權重 引數 怎麼去衡量 最好 定義損失函式 最小化損失函式 梯度下降 gradient descend 逐步最小化損失函式的過程 如...
機器學習基礎4 評估線性分類
如線性回歸一樣,我們也分成了訓練集和測試集.用訓練集進行分類器的學習,用測試集來評估分類錯誤.分類錯誤 測試集 隱藏型別標籤 放到分類器進行處理 得出結果 與定義好的型別標籤進行比較 錯誤率 分類錯誤數 總句子數 正確率 分類正確數 總句子數 那麼,什麼樣的正確率才是好的?至少要比隨機猜測效果要好....
機器學習之 多類分類問題
在之前的部落格中,我們討論了邏輯回歸模型 logistic regression 解決分類問題。但是我們發現,邏輯回歸模型解決的是二分問題,即 模型的結果只有兩個值,y 0 or y 1 但是在現實情境下,我們的訓練集往往包含多個類 2 我們就無法用乙個二元變數 y 0 y 1 來做判斷依據了。舉個...