批量匯入歷史檔案到日誌服務

2021-09-19 22:34:19 字數 892 閱讀 2956

日誌服務主要接收實時寫入日誌,通過在機器上安裝logtail,在控制台配置logtail配置,就能夠實時收集到新產生的日誌。但是對於一下場景

對於以上場景,使用者需要使用日誌服務的批量導資料工具才能夠把資料寫入日誌服務。

以下以匯入/var/log/nginx/error_log.1到日誌服務的nginx_log這個logstore為例,介紹匯入歷史資料的操作流程:

在控制台為logstore(nginx_log)配置logtail配置,如果已經有了logtail配置,請忽略該步驟。logtail配置只需要正則式和時間格式能夠匹配檔案內容,不要求路徑和檔名匹配。

把logtail配置應用到機器組上,機器組列表要包含導資料的機器ip、

在機器上執行

./import_log  --dir=/var/log/nginx/ --file=error_log.1 --begin_time=1443567661 --end_time=1448838061 \

--sls_region=cn-yunlei --project=ali-slsyunlei-scmg --logstore=nginx_error_log --topic= \

--use_system_time=false --quota_mb_per_min=500 --quota_qps=200 --dry_run=false

日誌服務引數,分別表示匯入到哪個sls_region下的哪個project的logstore中,topic是什麼

系統引數

region位址

+ cn-hangzhou  

+ cn-qingdao

+ cn-beijing

+ cn-shenzhen

es 批量匯入檔案

首先是json格式的檔案 curl xpost localhost 9200 bank account bulk?pretty data binary accounts.json 1 需要在accounts.json所在的目錄執行curl命令。2 localhost 9200是es得訪問位址和埠 3...

python批量匯入檔案 python 批量匯入

usr bin envpythoncoding utf 8importmysqldbdefdb execute sql dbs mysqldb.connect host localhost user root passwd root db db port 3306 cursor dbs.cursor...

批量處理BCP匯入檔案到資料庫

今天接到個任務,csv檔案匯入到資料庫中。心想小case,結果一看驚呆了,有上萬個資料檔案,每個檔案中有幾萬條資料。效率問題是要考慮的首要因素。因為之前做過bcp匯入,腦海中立馬有了思路 迴圈所有檔案,執行bcp命令就可以了吧,決定把它做成個bat批處理。過程當中遇到的幾個問題,mark下 1.cs...