apache日誌分析可以獲得很多有用的資訊,現在來試試最基本的,獲取最多訪問的前10個ip位址及訪問次數。
cat access.log |awk '' |sort |uniq -c |sort -rn |wc -l 統計訪問ip的總數
cat access.log |awk '' |sort |uniq -c |sort -rn 統計訪問ip
cat access.log |awk '' |sort |uniq -c |sort -rn|head 100 統計前100訪問ip
既然是統計,那麼awk是必不可少的,好用而高效。
命令如下:
awk ' end ' 日誌檔案 | sort -n | tail
首先用awk統計出來乙個列表,然後用sort進行排序,最後用tail取最後的10個。
以上引數可以略作修改顯示更多的資料,比如將tail加上-n引數等,另外日誌格式不同命令也可能需要稍作修改。
當前web伺服器中聯接次數最多的ip位址
#netstat -ntu |awk '' |sort | uniq -c| sort -nr
檢視日誌中訪問次數最多的前10個ip
#cat access_log |cut -d ' ' -f 1 |sort |uniq -c | sort -nr | awk '' | head -n 10 |less
檢視日誌中出現100次以上的ip
#cat access_log |cut -d ' ' -f 1 |sort |uniq -c | awk ''|sort -nr |less
檢視最近訪問量最高的檔案
#cat access_log |tail -10000|awk ''|sort|uniq -c|sort -nr|less
檢視日誌中訪問超過100次的頁面
#cat access_log | cut -d ' ' -f 7 | sort |uniq -c | awk '' | less
統計某url,一天的訪問次數
#cat access_log|grep '12/aug/2009'|grep '/images/index/e1.gif'|wc|awk ''
前五天的訪問次數最多的網頁
#cat access_log|awk ''|uniq -c |sort -n -r|head -20
從日誌裡檢視該ip在幹嘛
#cat access_log | grep 218.66.36.119| awk '' | sort | uniq -c | sort -nr | less
列出傳輸時間超過 30 秒的檔案
#cat access_log|awk '($nf > 30)' |sort -n|uniq -c|sort -nr|head -20
列出最最耗時的頁面(超過60秒的)
#cat access_log |awk '($nf > 60 && $7~/\.php/)' |sort -n|uniq -c|sort -nr|head -100
從apache日誌中找出訪問ip
從1億個ip中找出訪問次數最多的IP
問題一 怎麼在海量資料中找出重複次數最多的乙個 演算法思想 方案1 先做hash,然後求模對映為小檔案,求出每個小檔案中重複次數最多的乙個,並記錄重複次數。然後找出上一步求出的資料中重複次數最多的乙個就是所求 如下 問題二 日誌中記錄了使用者的ip,找出訪問次數最多的ip。演算法思想 ip位址最多有...
從Windows中解除安裝Apache
從windows中解除安裝apache 在重灌apache或者妳不再需要它的時候,這時就需要將它解除安裝。下面是步驟 開啟開始選單 win8中 x 開啟apache的安裝目錄 program files apache software foundation apache bin 按住shift的同時...
從Windows中解除安裝Apache
在重灌apache或者妳不再需要它的時候,這時就需要將它解除安裝。下面是步驟 開啟開始選單 win8中 x 或者我的電腦 廢話 找到並開啟apache的安裝目錄 program files apache software foundation apache bin 按住shift的同時在空白處右擊,...