pb讀取檔案的時候,每次只能讀取32k,所以當檔案大於32k的時候就要分多次讀取
以下是乙個讀取大於32k的檔案並放在乙個blob物件裡面
long ll_filelen, ll_read = 0
integer li_fileid
blob lblb_tmp, lblb_total
string ls_filepath, ls_content
try// 取得檔案的長度
ll_filelen = filelength ( ls_filepath )
// 開啟檔案並取得檔案控制代碼
li_fileid = fileopen (ls_filepath, streammode!, read!, lockread!)
// 成功開啟檔案
if li_fileid > 0 then
// 迴圈讀取檔案直至結束
do while ll_read < ll_filelen
// 讀檔案並記錄位置
ll_read = ll_read + fileread(li_fileid, lblb_tmp)
// 將檔案碎片彙總
lblb_total = lblb_total + lblb_tmp
loop
// 此處將檔案轉換為string型別
ls_content = string(lblb_total, encodingansi!)
end if
catch(throwable ex)
// 異常處理
messagebox('error', ex.text)
return -1
finally
// 最後關閉檔案
fileclose(li_fileid)
end try
python 讀取大檔案
以前一直沒有關注過python讀取大檔案的問題,因為一直都是順順暢暢地讀取了檔案。直到今天有人問我python怎麼讀取檔案出現了記憶體不足的錯誤?我才發現原來大檔案 gb級別 的讀取和普通檔案的讀取是不一樣的。下面介紹三種我親測可用的方法。這裡的檔案型別可以是txt,dat等型別的檔案。用read ...
php 讀取大檔案
在php中,對於檔案的讀取時,最快捷的方式莫過於使用一些諸如file file get contents之類的函式,簡簡單單的幾行 就能 很漂亮的完成我們所需要的功能。但當所操作的檔案是乙個比較大的檔案時,這些函式可能就顯的力不從心,下面將從乙個需求入手來說明對於讀取大檔案時,常用的操作方法。需求需...
python讀取大檔案
最近在學習python的過程中接觸到了python對檔案的讀取。python讀取檔案一般情況是利用open 函式以及read 函式來完成 f open filename,r f.read 這種方法讀取小檔案,即讀取遠遠大小小於記憶體的檔案顯然沒有什麼問題。但是如果是將乙個10g大小的日誌檔案讀取,即...