檢視日誌的目的在於,確認某個高頻查詢的請求是否準確命中了某個 cuboid,建議為每個高頻請求構建對應的 cuboid,就可以提高 cuboid 的響應速度。
以下即為 kylin 日誌所在的路徑:
$kylin_home/logs/kylin.log
用以下命令追蹤日誌,就可以看到最新查詢的日誌了~
tailf $kylin_home/logs/kylin.log
每當控制台或api端發起乙個新查詢時,kylin 就會產生以下日誌:
user: admin
success: true
duration: 12.824
project: iteldwh
realization names: [cube[name=abc], cube[name=abc]]
cuboid ids: [5]
total scan count: 10
total scan bytes: 656292
result row count: 5
accept partial: false
is partial result: false
hit exception cache: false
storage cache used: false
is query push-down: false
is prepare: false
trace url: null
message: null
以上日誌中,各欄位含義如下(有些不全,後面補充):
日誌字段
含義user: admin
查詢使用者
success: true
成功狀態
duration: 12.824
耗時project: iteldwh
project
realization names: [cube[name=abc], cube[name=abc]]
cube
cuboid ids: [5]
cuboid
total scan count: 10
掃瞄次數?掃瞄條數?
total scan bytes: 656292
總掃瞄資料大小
result row count: 5
結果條數
accept partial: false
is partial result: false
hit exception cache: false
storage cache used: false
is query push-down: false
is prepare: false
trace url: null
message: null
oracle調優方法
一上午 10 36 13 這個東西需要看報表是吧?大 上午 10 36 31 也有資料字典可以查,一般都是看awr 上午 10 36 31 我用的uc瀏覽器 上午 10 36 36 這個怎麼看啊?上午 10 36 52 如果你配置了 oracle home 上午 10 36 56 進入sqlplus...
spark調優 shuffle調優
基於spark1.6 引數可以通過 new sparkcontext set 來設定,也可以通過命令的引數設定 conf spark.shuffle.file.buffer 預設值 32k 引數說明 該引數用於設定shuffle write task的bufferedoutputstream的buf...
Spark Spark調優 資源調優
spark在乙個executor的記憶體分為三塊,1.一塊是execution記憶體 2.一塊是storge 記憶體 3.一塊是其他記憶體 執行記憶體是執行記憶體,加入,聚合都是在這部分記憶體中執行.shuffle的資料也會先快取在這個記憶體中,滿了再寫入磁碟,能減少io,其實地圖過程也是在這個記憶...