sigmoid函式
value_counts()是一種檢視**某列中有多少個不同值的快捷方法,並計算每個不同值有在該列中有多少重複值。
python value_counts()的基礎及高階用法(超詳細)
python中pandas庫中dataframe對行和列的操作使用方法
print(history.history.keys()) #檢視keras 訓練模型 history.history的關鍵字
import tensorflow as tf
from tensorflow.keras import layers
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
data = pd.read_csv(r'c:\users\administrator\desktop\credit-a.csv',header=none)
# print(data.iloc[:,-1].value_counts())
# print(data)
# fig = plt.figure()
# plt.scatter(data.tv, data.sales)
# plt.show()
x = data.iloc[:,:-1]
y = data.iloc[:,-1].replace(-1,0)
model = tf.keras.sequential()
#兩個隱藏層
model.add(tf.keras.layers.dense(4,input_shape=(15,),activation='relu'))
model.add(tf.keras.layers.dense(4,activation='relu'))
#乙個輸出層,啟用函式用sigmoid,邏輯回歸,使最後返回的是從0-1的概率值
model.add(tf.keras.layers.dense(1,activation='sigmoid'))
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['acc'])
history=model.fit(x,y,epochs=100)
# history.history是個字典
print(history.history.keys()) # dict_keys(['loss', 'acc'])取出 loss 和 acc 繪圖
#loss和acc畫圖
邏輯回歸和最大熵模型
因變數隨著自變數變化而變化。多重線性回歸是用回歸方程描述乙個因變數與多個自變數的依存關係,簡稱多重回歸,其基本形式為 y a bx1 cx2 nxn。二項分布即重複n次獨立的伯努利試驗。在每次試驗中只有兩種可能的結果,而且兩種結果發生與否互相對立,並且相互獨立,與其它各次試驗結果無關,事件發生與否的...
邏輯回歸 交叉熵 softmax
softmax是一種歸一化函式,用於將向量中元素的值都歸一化0 1之間,並保持其加和為1。公示表達為 根據公式和可看出,前一層的啟用值越大,經過softmax函式後的值也就越大,又因為softmax的所有輸出加和為1,因此,常利用softmax層將啟用值與概率實現對映。多元分類 multi clas...
tensorflow 邏輯回歸與交叉熵
線性回歸 的是乙個連續值,邏輯回歸給出的 是 和 否 的回答 邏輯回歸 sigmoid函式是乙個概率分布函式,給定某個輸入,它將輸出為乙個概率值 多層感知器一層一層的往下對映,sigmoid 1,1 值 邏輯回歸損失函式 1.平方差所懲罰的是與損失為同一數量級的情形 1 mse刻畫它的損失非常不恰當...