awk 處理行列
sed 處理行cat /etc/passwd | cut -d: -f1
cat /etc/passwd | awk -f: ''
cat /etc/passwd | awk -f: ''
#預設是以空格分隔
cat /etc/passwd | head -5 |awk -f: ''
#獲取磁碟占有率,nr表示當前行號
df | awk '}'
#獲取總行數
df | awk 'end'
#獲取總列數
df | awk 'end'
#第一行匹配192.168.100.1的行輸出
cat file | awk '$1~/192.168.100.1/'
uniq 統計#顯示行號檢視檔案
nl file
#檢視第5行的資料
cat file | sed -n '5'p
#檢視3-6行資料
cat file | sed -n '3,6'p
#去掉3-6行
cat test | sed '3,6'd
#查詢包含bash的行
cat /etc/passwd | sed -n '/bash/'p
#查詢1-包含sync內容的行
cat /etc/passwd | sed -n '1,/sync/'p
#查詢包含ssh內容的行到最後一行
cat /etc/passwd | sed -n '/sshd/,$'p
檔案分割#統計檔案裡面緊挨著的相同行出現的次數,統計**ip訪問次數等
uniq -c file
#上面的優化方案
cat file2 | sort | uniq c
#上面的優化方案,-r反排序統計
cat file2 | sort -r | uniq c
#上面的優化方案,-r反排序統計,-k1根據第一列排序,針對多列情況
cat file2 | sort -k1 -r | uniq c
統計apache訪問記錄#將file2按照每5行分割為乙個檔案
split -5 file2 spt
cat access.log | awk '' | sort | uniq -c
linux下 Nginx日誌分割
linux下 nginx日誌分割 廢話不多說,直接上 bin bash 間隔1天執行該指令碼 nginx 日誌檔案所在的目錄 logs path usr local nginx logs nginx 日誌檔案生成後的目錄 newlogs path home wwwlogs 獲取昨天的 yyyy mm...
Linux下Tomcat日誌分割
進入 usr local sbin資料夾中 wget tar zxvf cronolog 1.6.2.tar.gz cd cronolog 1.6.2 configure make make install which cronolog 一般情況下顯示為 usr local sbin cronolo...
linux下常用的日誌分析命令
linux下常用的日誌分析命令 形如下面這樣的access.log日誌內容 必須借助命令或指令碼才可以分析 提取出有價值的內容。以下是收集的一些用於日誌分析的命令或指令碼,分享下,有用到的朋友參考下吧。1,檢視apache的程序數 示例 2,分析日誌檢視當天的ip連線數 示例 cat default...