python中讀取檔案的方式有許多種,往往資料量大的情況令人苦惱。之前一篇部落格我說會發大檔案讀取的後續。
那麼後續來啦!
1import
pandas as pd2#
採用塊讀取功能,讀取csv檔案
3 path1 = "
./data\\tianchi_mobile_recommend_train_user.csv"4
5 file1 =open(path1)
67 user_data = pd.read_csv(path1, sep='
,', iterator=true)
89 loop =true
10 chunksize = 1000
11 chunks1 =
12while
loop:
13try
:14 chunk1 =user_data.get_chunk(chunksize)
1516
except
stopiteration:
17 loop =false
18 user_data = pd.concat(chunks1, ignore_index=true)
python 讀取大檔案
以前一直沒有關注過python讀取大檔案的問題,因為一直都是順順暢暢地讀取了檔案。直到今天有人問我python怎麼讀取檔案出現了記憶體不足的錯誤?我才發現原來大檔案 gb級別 的讀取和普通檔案的讀取是不一樣的。下面介紹三種我親測可用的方法。這裡的檔案型別可以是txt,dat等型別的檔案。用read ...
python讀取大檔案
最近在學習python的過程中接觸到了python對檔案的讀取。python讀取檔案一般情況是利用open 函式以及read 函式來完成 f open filename,r f.read 這種方法讀取小檔案,即讀取遠遠大小小於記憶體的檔案顯然沒有什麼問題。但是如果是將乙個10g大小的日誌檔案讀取,即...
Python多程序分塊讀取超大檔案的方法
讀取超大的文字檔案,使用多程序分塊讀取,將每一塊單獨輸出成檔案 coding gbk import urlparse import datetime import os from multiprocessing import process,queue,array,rlock 多程序分塊讀取檔案 w...