在處理資料過程中經常要把資料集切分為訓練集和測試集,因此記錄一下切分**。
'''
data:資料集
test_ratio:測試機占比
如果data為numpy.numpy.ndarray直接使用此**
如果data為pandas.datframe型別則
return data[train_indices],data[test_indices]
修改為 return data.iloc[train_indices],data.iloc[test_indices]
'''def
split_train
(data,test_ratio):
shuffled_indices=np.random.permutation(len(data))
test_set_size=int(len(data)*test_ratio)
test_indices =shuffled_indices[:test_set_size]
train_indices=shuffled_indices[test_set_size:]
return data[train_indices],data[test_indices]
測試**如下:
import numpy as np
import pandas as pd
data=np.random.randint(100,size=[25,4])
print(data)
結果如下:
從上圖可以看出,原資料集按照5:1被隨機分為兩部分。但是此種方法存在乙個缺點–每次呼叫次函式切分同乙個資料集切分出來的結果都不一樣,因此常在np.random.permutation(len(data))先呼叫np.random.seed(int)函式,來確保每次切分來的結果相同。因此將上述函式改為:
def
split_train
(data,test_ratio):
np.random.seed(43)
shuffled_indices=np.random.permutation(len(data))
test_set_size=int(len(data)*test_ratio)
test_indices =shuffled_indices[:test_set_size]
train_indices=shuffled_indices[test_set_size:]
return data[train_indices],data[test_indices]
這個函式np.random.seed(43)當引數為同一整數時產生的隨機數相同。 PYTHON 訓練集與測試集切分
通常,我們在建模之前會對原始資料進行切分,現對該方法進行打包。資料切分,按照7 3切分訓練集與測試集 data df 原始資料 object col 目標變數 defdata split data df object col from sklearn.model selection import t...
訓練集與測試集切分
為了 更好的訓練資料並且更好測試模型,一般做機器學習之前都會進行訓練集和測試集的切分。其實我們可以先把資料的輸入x和輸出向量y進行乙個水平拼接,然後隨機之後拆開,但是過程比較麻煩。在sklearn中shuffle的並不是訓練集,而是訓練集長度大小的隨機索引。shuffle indexes np.ra...
將資料集切分成「訓練 測試資料集」和交叉驗證
把資料集分為兩部分 分別用於訓練和測試 sklearn提供乙個將資料集切分成訓練集和測試集的函式。from sklearn.cross validation import train test splitxd train,xd test,y train,y test train test split...