# 讀入第三方包
from sklearn import preprocessing
# 選取建模的變數
predictors =
['birth_rate'
,'death_rate'
]# 變數的標準化處理
x = preprocessing.scale(province[predictors]
)x = pd.dataframe(x)
# 構建空列表,用於儲存不同引數組合下的結果
res =
# 迭代不同的eps值
for eps in np.arange(
0.001,1
,0.05):
# 迭代不同的min_samples值
for min_samples in
range(2
,10):
dbscan = cluster.dbscan(eps = eps, min_samples = min_samples)
# 模型擬合
dbscan.fit(x)
# 統計各引數組合下的聚類個數(-1表示異常點)
n_clusters =
len(
[i for i in
set(dbscan.labels_)
if i !=-1
])# 異常點的個數
outliners = np.
sum(np.where(dbscan.labels_ ==-1
,1,0
))# 統計每個簇的樣本個數
stats =
str(pd.series(
[i for i in dbscan.labels_ if i !=-1
]).value_counts(
).values)
)# 將迭代後的結果儲存到資料框中
df = pd.dataframe(res)
# 根據條件篩選合理的引數組合
調參煉丹 深度學習訓練的小技巧,調參經驗。
經常會被問到你用深度學習訓練模型時怎麼樣改善你的結果呢?然後每次都懵逼了,一是自己懂的不多,二是實驗的不多,三是記性不行忘記了。所以寫這篇部落格,記錄下別人以及自己的一些經驗。ilya sutskever hinton的學生 講述了有關深度學習的見解及實用建議 獲取資料 確保要有高質量的輸入 輸出資...
深度學習調參技巧
模型引數的一般設定 epoch迭代幾十到幾百次。mini batch size從幾十到幾百,為了更好的利用硬體加速,通常取8的倍數,例如128,256。learning rate取0.1 資料集越大,模型越複雜,應取值越小 weight decay取0.005,momentum取0.9。dropou...
深度學習調參技巧
1 準備資料 務必保證有大量 高質量並且帶有乾淨標籤的資料,沒有如此的資料,學習是不可能的 2 預處理 這個不多說,就是0均值和1方差化 3 minibatch 建議值128,1最好,但是效率不高,但是千萬不要用過大的數值,否則很容易過擬合 4 梯度歸一化 其實就是計算出來梯度之後,要除以minib...