1、檢視apache程序:
psaux | grep httpd | grep -vgrep | wc-l
2、檢視80埠的tcp連線:
netstat-tan | grep "established" | grep":80" | wc-l
3、通過日誌檢視當天ip連線數,過濾重複:
cataccess_log | grep "20/oct/2008" | awk'' | sort| uniq -c | sort -nr
4、當天ip連線數最高的ip都在幹些什麼(原來是蜘蛛):
cataccess_log | grep "20/oct/2008:00" | grep"122.102.7.212" | awk'' | sort| uniq -c | sort -nr | head -n 10
5、當天訪問頁面排前10的url:
cataccess_log | grep "20/oct/2008:00" | awk'' | sort| uniq -c | sort -nr | head -n 10
6、用tcpdump嗅探80埠的訪問看看誰最高:
tcpdump -i eth0 -tnn dst port 80 -c 1000 |awk -f"."'' | sort | uniq-c | sort -nr
接著從日誌裡檢視該ip在幹嘛:
cataccess_log | grep 122.102.7.212| awk ''| sort | uniq -c | sort-nr | less
7、檢視某一時間段的ip連線數:
grep"2006:0[7-8]" www20060723.log | awk '' | sort | uniq-c| sort -nr | wc
Apache日誌分析
1 獲得訪問前10位的ip位址 cataccess.log awk sort uniq c sort nr head 10 cat access.log awk end 2 訪問次數最多的檔案或頁面,取前20及統計所有訪問ip cat access.log awk sort uniq c sort ...
apache日誌分析
1,檢視apache程序 2,檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3,通過日誌檢視當天ip連線數,過濾重複 cat access log grep 20 oct 2008 awk sort uniq c sort nr 4,當天...
apache日誌分析常用命令
假設apache日誌格式為 問題1 在apachelog中找出訪問次數最多的10個ip。awk apache log sort uniq c sort nr head n 10 awk 首先將每條日誌中的ip抓出來,如日誌格式被自定義過,可以 f 定義分隔符和 print指定列 sort進行初次排序...