切割日誌
查詢7月16日訪問log匯出到17.log檔案中:
cat web_access.log | egrep "17/jul/2017" | sed -n '/00:00:00/,/23:59:59/p' > /tmp/16.log
檢視訪問量前10的ip
awk '' web_access.log | sort | uniq -c | sort -nr | head -n 10
檢視訪問前10的url
awk '' web_access.log | sort | uniq -c | sort -nr | head -n 10
查詢訪問最頻繁的url
awk '' web_access.log | sort | uniq -c | sort -n -k 1 -r | more
查詢訪問最頻繁的ip
awk '' web_access.log | sort | uniq -c | sort -n -k 1 -r | more
根據訪問ip統計uv
awk '' web_access.log | sort | uniq -c | wc -l
統計訪問url統計pv
awk '' web_access.log | wc -l
根據時間段統計檢視日誌
cat web_access.log | sed -n '/17\/jul\/2017:12/,/17\/jul\/2017:13/p' | more
Awk分析nginx訪問日誌
awk是linux系統下乙個處理文字的程式語言工具,能用簡短的程式處理標準輸入或檔案 資料排序 計算以及生成報表等等,應用非常廣泛。預設日誌格式 remote addr remote user time local request status body bytes sent http refere...
Linux中awk統計ip訪問次數
現在有乙個檔案,資料量大概在200多萬條記錄,想用shell的awk做統計,檔案的格式如下 關鍵字 url ip位址 test 123 1 test 123 1 test 123 2 test2 12 1 test2 123 1 test2 123 2 現在想要統計的結果是 檢視同乙個關鍵字和url...
awk 分組求和與統計
一.分組求和 1.對第乙個進行分組,對第二列的資料進行累加 awk f end srcfile outfile 分組一般都是用x 2 x 3 的方式來實現的,其中x 2 中的 2為要分的組,當然可以多個分組,x 3 為要處理的值 例如 1 以第五列分組,求第四列和 root localhost wm...