optionexplicit
'csv形式テキストファイル(5カラム)読み込みサンプル
subread_textfile()
const cnstitle = "
テキストファイル読み込み処理
"const cnsfilter = "
csv形式ファイル (*.csv),*.csv,全てのファイル(*.*),*.*
"dim intff as
integer
'freefile値
dim strfilename as
string
'openするファイル名(フルパス)
dim vntfilename as variant '
ファイル名受取り用
dim x(1
to5) as variant '
読み込んだレコード內容 ' ①
dim gyo as
long
'収容するセルの行
dim lngrec as
long
'レコード件數カウンタ
'
'「ファイルを開く」のフォームでファイル名の指定を受ける
読み込むファイル名を指定して下さい。
" title:=cnstitle)
'キャンセルされた場合はfalseが返るので以降の処理は行なわない
ifvartype(vntfilename) = vbboolean then
exit sub
strfilename =vntfilename
'freefile値の取得(以降この値で入出力する)
intff = freefile
'指定ファイルをopen(入力モード)
open strfilename for
input
as#intff
gyo = 1
'ファイルのeof(end of file)まで繰り返す
dountil
eof(intff)
'レコード件數カウンタの加算
lngrec = lngrec + 1
読み込み中です....(
" & lngrec & "
レコード目)"'
レコードを読み込む(このサンプルは5專案のcsv)
input #intff, x(1), x(2), x(3), x(4), x(5) '②'
行を加算しa~e列にレコード內容を表示(先頭は2行目)
gyo = gyo + 1
range(cells(gyo,
1), cells(gyo, 5)).value = x '
配列渡し ' ③
loop
'指定ファイルをclose
close #intff
'終了の表示
msgbox
"ファイル読み込みが完了しました。
" & vbcr &_
"レコード件數=
" & lngrec & "件"
, vbinformation, cnstitle
end sub
pyspark讀取csv文字儲存至MySQL案例
我們在使用spark處理完資料時,經常要將處理好的結果資料儲存的如mysql等關係型資料庫中,下面我們通過乙個示例說明如何將spark處理好的資料儲存到mysql中 檔案student.csv id,name,age 1,張三,23 2,李四,24from pyspark.sql.session i...
讀取文字或者Excel的方法
首先,我們應該知道我們的工作目錄,即r文件儲存在 1 getwd 獲取當前工作目錄 2 setwd 設定當前工作目錄 注意 用setwd 設定的是臨時工作路徑,關閉r後,工作目錄回到原先的工作目錄 如果想永久更改工作目錄,可以進行如下操作 以windows為例 1 rstudio中,tools gl...
c 讀取csv到陣列 python讀取csv檔案
python讀取csv檔案 csv檔案,用記事本編輯,然後命名為test1.csv 1,2,3,4 5,6,7,8 9,10,11,12 用excel開啟,就是這樣的 使用python讀取檔案 按行讀取。然後把讀到的東西賦值給python程式中的變數。這個變數,可以是乙個列表 在這裡,是乙個2維的列...