Python 分塊讀取大檔案

2022-07-16 20:27:09 字數 669 閱讀 5647

python中讀取檔案的方式有許多種,往往資料量大的情況令人苦惱。之前一篇部落格我說會發大檔案讀取的後續。

那麼後續來啦!

1

import

pandas as pd2#

採用塊讀取功能,讀取csv檔案

3 path1 = "

./data\\tianchi_mobile_recommend_train_user.csv"4

5 file1 =open(path1)

67 user_data = pd.read_csv(path1, sep='

,', iterator=true)

89 loop =true

10 chunksize = 1000

11 chunks1 =

12while

loop:

13try

:14 chunk1 =user_data.get_chunk(chunksize)

1516

except

stopiteration:

17 loop =false

18 user_data = pd.concat(chunks1, ignore_index=true)

python 讀取大檔案

以前一直沒有關注過python讀取大檔案的問題,因為一直都是順順暢暢地讀取了檔案。直到今天有人問我python怎麼讀取檔案出現了記憶體不足的錯誤?我才發現原來大檔案 gb級別 的讀取和普通檔案的讀取是不一樣的。下面介紹三種我親測可用的方法。這裡的檔案型別可以是txt,dat等型別的檔案。用read ...

python讀取大檔案

最近在學習python的過程中接觸到了python對檔案的讀取。python讀取檔案一般情況是利用open 函式以及read 函式來完成 f open filename,r f.read 這種方法讀取小檔案,即讀取遠遠大小小於記憶體的檔案顯然沒有什麼問題。但是如果是將乙個10g大小的日誌檔案讀取,即...

Python多程序分塊讀取超大檔案的方法

讀取超大的文字檔案,使用多程序分塊讀取,將每一塊單獨輸出成檔案 coding gbk import urlparse import datetime import os from multiprocessing import process,queue,array,rlock 多程序分塊讀取檔案 w...