cat access.log |awk''|sort -nr |uniq -c |sort -nr |more
2761
183.185.117.4
1828
221.205.161.114
1672
223.12.67.104
1106
223.12.161.30
951183.185.112.241
876223.11.221.212
795223.11.15.195
793183.185.112.128
2.統計ip訪問量(獨立ip訪問數量)
awk'' access.log | sort -n | uniq | wc -l
3.檢視某一時間段的ip訪問量(4-5點)
grep "07/apr/2017:0[4-5]" access.log | awk '' | sort | uniq -c| sort -nr | wc -l
4.檢視訪問最頻繁的前100個ip (必備)
awk '' access.log | sort -n |uniq -c | sort -rn | head -n 100
5.檢視訪問100次以上的ip
awk '' access.log | sort -n |uniq -c |awk ''|sort -rn
6.查詢某個ip的詳細訪問情況,按訪問頻率排序
grep '127.0.01' access.log |awk ''|sort |uniq -c |sort -rn |head -n 100
7.檢視訪問最頻的頁面(top100)
awk '' access.log | sort |uniq -c | sort -rn | head -n 100
8.檢視訪問最頻的頁面([排除php頁面】(top100)
grep -v ".php" access.log | awk '' | sort |uniq -c | sort -rn | head -n 100
9.檢視頁面訪問次數超過100次的頁面
cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '' | less
10.檢視最近1000條記錄,訪問量最高的頁面
tail -1000 access.log |awk ''|sort|uniq -c|sort -nr|less
11.統計每秒的請求數,top100的時間點(精確到秒)
awk '' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100'
12.統計每分鐘的請求數,top100的時間點(精確到分鐘)
awk '' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
13.統計每小時的請求數,top100的時間點(精確到小時)
awk '' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100
14.效能分析,在nginx log中最後乙個字段加入$request_time
列出傳輸時間超過 3 秒的頁面,顯示前20條
cat access.log|awk '($nf > 3)'|sort -n|uniq -c|sort -nr|head -20
列出php頁面請求時間超過3秒的頁面,並統計其出現的次數,顯示前100條
cat access.log|awk '($nf > 1 && $7~/\.php/)'|sort -n|uniq -c|sort -nr|head -100
15.統計蜘蛛抓取次數
16.統計蜘蛛抓取404的次數
17.tcp連線統計,檢視當前tcp連線數
netstat -tan | grep "established" | grep ":80" | wc -l
18.用tcpdump嗅探80埠的訪問看看誰最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -f"." '' | sort
| uniq -c | sort -nr
例項指令碼:
獲取前一分鐘nginx訪問日誌條數
#!/bin/bashexport lang=c
export path=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
time=$(date -d "
1 minute ago
" +"
%d/%h/%y:%h:%m")
grep
"$time
" /var/log/nginx/access.log | wc -l
獲取前一分鐘nginx錯誤日誌條數
#!/bin/bashexport lang=c
export path=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
time=$(date -d "
1 minute ago
" +"
%y-%m-%d %h:%m")
grep
"$time
" /var/log/nginx/error.log | wc -l
查詢訪問最頻繁的ip 倒序排序列表
awk '' access*.log|sort | uniq -c |sort -n -k 1 -r|more
根據時間段統計檢視日誌
cat access.log| sed -n '/14\/mar\/2015:21/,/14\/mar\/2015:22/p'|more
3、每秒客戶端請求數 top5
awk -f'[ ' '' access.log|sort|uniq -c|sort -rn|head -5
4、訪問最頻繁ip top5
awk '' access.log|sort |uniq -c | sort -rn |head -5
5、訪問最頻繁的url top5
awk '' access.log|sort |uniq -c | sort -rn |head -5
6、響應大於10秒的url top5
awk '}' access.log|sort|uniq -c|sort -rn |head -5
7、http狀態碼(非200)統計 top5
awk '}' access.log|sort|uniq -c|sort -rn|head -5
8、分析請求數大於50000的源ip的行為
awk '' access.log|sort |uniq -c |sort -rn|awk '}' > tmp.txt
for i in $(cat tmp.txt)
doecho $i >> analysis.txt
echo "訪問行為統計" >> analysis.txt
grep $i access.log|awk '' |sort |uniq -c | sort -rn |head -5 >> analysis.txt
echo "訪問介面統計" >> analysis.txt
grep $i access.log|awk '' |sort |uniq -c | sort -rn |head -5 >> analysis.txt
echo -e "\n" >> /root/analysis/$ydate.txt
done
注:如果源ip來自**伺服器,應將第一條命令過濾位址改為$http_x_forwarded_for位址
awk '' access.log|sort |uniq -c |sort -rn|awk '}' > tmp.txt
四、延伸
nginx日誌按日切割後可使用上述命令得出每日**流量分析概況,然後可以寫乙個python指令碼讀取後傳送。也可以將資料匯入mysql然後使用python繪製曲線。當然使用日誌分析系統,如elk,效果更佳。
netstat -ntu | awk 『』 | cut -d: -f1 | sort | uniq -c | sort -n
執行後,將會顯示伺服器上所有的每個ip多少個連線數。
Nginx Log日誌統計分析常用命令
統計ip訪問量 獨立ip訪問數量 awk access.log sort n uniq wc l 檢視某一時間段的ip訪問量 4 5點 grep 07 apr 2017 0 4 5 access.log awk sort uniq c sort nr wc l 檢視訪問最頻繁的前100個ip awk...
統計分析的體會
客戶給了一張基本的資料表,然後讓我做大量的計算,並且動態 靜態的做統計分析報表,經過了長達兩個月的苦戰,終於作完了。體會如下 1 一張存放中間統計結果的表是必要的,如果能夠將客戶的統計分析需要經過計算才能顯示的字段囊括在內是最好不過了,畢竟在查詢的過程中作計算是一件很討厭的事,雖然有資料冗餘,但是簡...
資料的統計分析
資料預處理之後,我們要做一些統計分析,來觀察我們的資料,這其中包括 描述性分析 統計推斷。描述性分析 主要是統計指標 圖表。1 集中趨勢分析 除了分位數,我們還可以結合 中位數 眾數 平均數三者的關係。具體地 眾數在中位數左側,平均數在中位數右側,則此時資料呈正偏態分布,又叫右偏,存在極大異常值。是...