shell 分析日誌
lvtao 發布於:2013-7-3 14:58 wednesday 分類:
工具原始碼
列出當天訪問次數最多的ip
命令:cut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20
原理:cut
-d, --delimiter=delim
use delim instead of tab for field delimiter
表示用-分割,然後-f 1
-f, --fields=list
select only these fields; also print any line that contains no
delimiter character, unless the -s option is specified
表示列印第一部分,就是ip
uniq 是將重複行去掉, -c表示前面前面加上數目,
sort -rn 就是按照數字從大到小排序,
head -20取前面20行
最後列印的結果大概是這樣:
217 192.114.71.13
116 124.90.132.65
108 192.114.71.13
102 194.19.140.96
101 217.70.34.173
100 219.235.240.36
以下是其他一些分析日誌的shell用法:
1、檢視當天有多少個ip訪問:awk '' log_file|sort|uniq|wc -l
2、檢視某乙個頁面被訪問的次數;
grep "/index.php" log_file | wc -l
3、檢視每乙個ip訪問了多少個頁面:
awk ' end ' log_file
4、將每個ip訪問的頁面數進行從小到大排序:
awk ' end ' log_file | sort -n
5、檢視某乙個ip訪問了哪些頁面:
grep ^111.111.111.111 log_file| awk ''
6、去掉搜尋引擎統計當天的頁面:
awk '' log_file | grep ^\"mozilla | awk '' |sort | uniq | wc -l
7、檢視2023年6月21日14時這乙個小時內有多少ip訪問:
awk '' log_file | grep 21/jun/2009:14 | awk ''| sort | uniq | wc -l
shell指令碼 列出質數
bin sh for i 1 i 100 i dofor k 2 k i k doif k eq i then echo i break elif i k eq 0 then break fidone done 優化版本 至少提高速度30 bin sh for i 1 i 2000 i dofor ...
shell統計ip訪問情況並分析訪問日誌
統計出每個 ip 的訪問量有多少 習題分析 這種分析日誌的需求,在平時工作中很常見,而且找運維工作時的筆試題裡面出現頻率也非常多。根據日誌內容,可以看到 ip 位址就是第一段內容,所以只需要把 1.log 的第一段給過濾出來,然後近一步統計每乙個 ip 的量即可。過濾第一段,使用 awk 就可以很容...
shell統計ip訪問情況並分析訪問日誌
有日誌 1.log,部分內容如下 統計出每個 ip 的訪問量有多少 習題分析 這種分析日誌的需求,在平時工作中很常見,而且找運維工作時的筆試題裡面出現頻率也非常多。根據日誌內容,可以看到 ip 位址就是第一段內容,所以只需要把 1.log 的第一段給過濾出來,然後近一步統計每乙個 ip 的量即可。過...