1、csv檔案的匯入和匯出
通過乙個矩陣匯出為cwww.cppcns.comsv檔案,將csv檔案匯入為矩陣
將csv檔案匯入到乙個矩陣中
import numpy
my_matrix = numpy.loadt程式設計客棧xt(open("c:\\1.csv","rb"),delimiter=",",skiprows=0)
將矩陣匯出到本地csv中
numpy.s**etxt('new.csv', my_matrix, delimiter = ',')
未完待續。。。
也可以使用pickle模組,儲存的檔案是序列化的
python的pickle模組實現了基本的資料序列和反序列化。通過pickle模組的序列化操作我們能夠將程式中執行的物件資訊儲存到檔案中去,永久儲存;通過pickle模組的反序列化操作,我們能夠從檔案中建立上www.cppcns.com一次程式儲存的物件。
pickle.dump(obj, file, [,protocol])
註解:將物件obj儲存到檔案file中去。
protocol為序列化使用的協議版本,0:ascii協議,所序列化的物件使用可列印的ascii碼表示;1:老式的二進位制協議;2:2.3版本引入的新二進位制協議,較以前的更高效。其中協議0和1相容老版本的python。protocol預設值為0。
file:物件儲存到的類檔案物件。file必須有write()介面, file可以是乙個以'w'方式開啟的檔案或者乙個stringio物件或者其他任何實現write()介面的對www.cppcns.com象。如果protocol>=1,檔案物件需要是二進位制模式開啟的。
pickle.load(file)
註解:從file中讀取乙個字串,並將它重構為原來的python物件。
file:類檔案物件,有read()和readline()介面。
儲存資料
tmpdatapath = "e:\\data\\u_i_matrix.csv"
s**efp = open(tmpdatapath,"w")
pickle.dump(u_i_mat,s**efp)
s**efp.close();
匯入資料
fp_mat = open("e:\\data\\tmpdata\\u_i_matrix.csv","r")
rmat = pickle.load(fp_mat)
fp_mat.close()
追加:將內容通過print輸入到檔案中
str=」a string to print to file」
f=open(『out.txt','w')
print >>f,str
f.close()
本文標題: 對python中大檔案的匯入與匯出方法詳解
本文位址: /jiaoben/python/248614.html
Linux中大檔案分割的騷操作
日常工作中需要對日誌檔案進行分析,當日誌檔案過大時,linux中使用vim cat vim grep awk等這些工具對大檔案日誌進行分析將會成為夢魘,具體表現在 1 查閱大檔案之痛 大資料離線處理框架hadoop可以處理這些場景,然而hadoop也需要耗費較長的時間進行計算,而且還需要去編寫map...
Python 實現對大檔案的增量讀取
前段時間在做乙個演算法測試,需要對源於日誌的資料進行分析才能獲取到結果 日誌檔案較大,所以想要獲取資料的變化曲線,增量讀取是最好的方式。網上有很多人的技術部落格都是寫的用for迴圈readline以及乙個計數器去增量讀取,假如檔案很大,遍歷一次太久。而且對於很多大檔案的增量讀取,如果遍歷每一行比對歷...
PHP 與Python 讀取大檔案的區別
function readfile file fclose handle foreach readfile test.zip as n line function getlines file finally foreach getlines file.txt as n line with open ...