sort
sort 命令對 file 引數指定的檔案中的行排序,並將結果寫到標準輸出。如果 file 引數指定多個檔案,那麼 sort 命令將這些檔案連線起來,並當作乙個檔案進行排序。
sort語法
[root@www ~]# sort [-fbmnrtuk] [file or stdin]
選項與引數:
-f :忽略大小寫的差異,例如 a 與 a 視為編碼相同;
-b :忽略最前面的空格符部分;
-m :以月份的名字來排序,例如 jan, dec 等等的排序方法;
-n :使用『純數字』進行排序(預設是以文字型態來排序的);
-r :反向排序;
-u :就是 uniq ,相同的資料中,僅出現一行代表;
-t :分隔符,預設是用 [tab] 鍵來分隔;
-k :以那個區間 (field) 來進行排序的意思
對/etc/passwd 的賬號進行排序
[root@www ~]# cat /etc/passwd | sort
adm:x:3:4:adm:/var/adm:/sbin/nologin
apache:x:48:48:apache:/var/www:/sbin/nologin
bin:x:1:1:bin:/bin:/sbin/nologin
daemon:x:2:2:daemon:/sbin:/sbin/nologin
sort 是預設以第乙個資料來排序,而且預設是以字串形式來排序,所以由字母 a 開始公升序排序。
/etc/passwd 內容是以 : 來分隔的,我想以第三欄來排序,該如何
[root@www ~]# cat /etc/passwd | sort -t ':' -k 3
root:x:0:0:root:/root:/bin/bash
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
bin:x:1:1:bin:/bin:/sbin/nologin
games:x:12:100:games:/usr/games:/sbin/nologin
預設是以字串來排序的,如果想要使用數字排序:
cat /etc/passwd | sort -t ':' -k 3n
root:x:0:0:root:/root:/bin/bash
daemon:x:1:1:daemon:/usr/sbin:/bin/sh
bin:x:2:2:bin:/bin:/bin/sh
預設是公升序排序,如果要倒序排序,如下
cat /etc/passwd | sort -t ':' -k 3nr
nobody:x:65534:65534:nobody:/nonexistent:/bin/sh
ntp:x:106:113::/home/ntp:/bin/false
messagebus:x:105:109::/var/run/dbus:/bin/false
sshd:x:104:65534::/var/run/sshd:/usr/sbin/nologin
如果要對/etc/passwd,先以第六個域的第2個字元到第4個字元進行正向排序,再基於第乙個域進行反向排序。
cat /etc/passwd | sort -t':' -k 6.2,6.4 -k 1r
sync:x:4:65534:sync:/bin:/bin/sync
proxy:x:13:13:proxy:/bin:/bin/sh
bin:x:2:2:bin:/bin:/bin/sh
sys:x:3:3:sys:/dev:/bin/sh
檢視/etc/passwd有多少個shell:對/etc/passwd的第七個域進行排序,然後去重:
cat /etc/passwd | sort -t':' -k 7 -u
root:x:0:0:root:/root:/bin/bash
syslog:x:101:102::/home/syslog:/bin/false
daemon:x:1:1:daemon:/usr/sbin:/bin/sh
sync:x:4:65534:sync:/bin:/bin/sync
sshd:x:104:65534::/var/run/sshd:/usr/sbin/nologin
uniq
uniq命令可以去除排序過的檔案中的重複行,因此uniq經常和sort合用。也就是說,為了使uniq起作用,所有的重複行必須是相鄰的。
uniq語法
[root@www ~]# uniq [-icu]
選項與引數:
-i :忽略大小寫字元的不同;
-c :進行計數
-u :只顯示唯一的行
testfile的內容如下
cat testfile
hello
world
friend
hello
world
hello
直接刪除未經排序的檔案,將會發現沒有任何行被刪除
#uniq testfile
hello
world
friend
hello
world
hello
排序檔案,預設是去重
#cat testfile | sort |uniq
friend
hello
world
排序之後刪除了重複行,同時在行首位置輸出該行重複的次數
#sort testfile | uniq -c
1 friend
3 hello
2 world
僅顯示存在重複的行,並在行首顯示該行重複的次數
#sort testfile | uniq -dc
3 hello
2 world
僅顯示不重複的行
sort testfile | uniq -u
friend
cutcut命令可以從乙個文字檔案或者文字流中提取文字列。
cut語法
[root@www ~]# cut -d'分隔字元' -f fields <==用於有特定分隔字元
[root@www ~]# cut -c 字元區間 <==用於排列整齊的資訊
選項與引數:
-d :後面接分隔字元。與 -f 一起使用;
-f :依據 -d 的分隔字元將一段資訊分割成為數段,用 -f 取出第幾段的意思;
-c :以字元 (characters) 的單位取出固定字元區間;
path 變數如下
[root@www ~]# echo $path
/bin:/usr/bin:/sbin:/usr/sbin:/usr/local/bin:/usr/x11r6/bin:/usr/games
# 1 | 2 | 3 | 4 | 5 | 6 | 7
將 path 變數取出,我要找出第五個路徑。
#echo $path | cut -d ':' -f 5
/usr/local/bin
將 path 變數取出,我要找出第三和第五個路徑。
#echo $path | cut -d ':' -f 3,5
/sbin:/usr/local/bin
將 path 變數取出,我要找出第三到最後乙個路徑。
echo $path | cut -d ':' -f 3-
/sbin:/usr/sbin:/usr/local/bin:/usr/x11r6/bin:/usr/games
將 path 變數取出,我要找出第一到第三個路徑。
#echo $path | cut -d ':' -f 1-3
/bin:/usr/bin:/sbin:
將 path 變數取出,我要找出第一到第三,還有第五個路徑。
echo $path | cut -d ':' -f 1-3,5
/bin:/usr/bin:/sbin:/usr/local/bin
實用例子:只顯示/etc/passwd的使用者和shell
#cat /etc/passwd | cut -d ':' -f 1,7
root:/bin/bash
daemon:/bin/sh
bin:/bin/sh
wc統計檔案裡面有多少單詞,多少行,多少字元。
wc語法
[root@www ~]# wc [-lwm]
選項與引數:
-l :僅列出行;
-w :僅列出多少字(英文單字);
-m :多少字元;
預設使用wc統計/etc/passwd
#wc /etc/passwd
40 45 1719 /etc/passwd
40是行數,45是單詞數,1719是位元組數
wc的命令比較簡單使用,每個引數使用如下:
#wc -l /etc/passwd #統計行數,在對記錄數時,很常用
40 /etc/passwd #表示系統有40個賬戶
#wc -w /etc/passwd #統計單詞出現次數
45 /etc/passwd
#wc -m /etc/passwd #統計檔案的字元數
1719
Linux文字處理命令sort詳解
sort 對文字檔案內容進行排序 用法 選項 檔名 可跟多個檔案 示例1 cat 1.txt sort 1.txt 文字,預設按字母a z排序 實示例2 cat 2.txt sort 2.txt 數字,預設按1 9排序 n 引數 sort n 2.txt 加 n,把數字從小到大排序 r 引數 sor...
高階文字處理命令
1 cut cut命令可以從乙個文字檔案或者文字流中提取文字列。wc c log 這條命令的作用是統計 log的字元數,輸出為20 log,現在如果只想要前面的數字,此時就需要切割命令,形式如下 wc c log cut d f 1 此命令的作用是統計 log的字元數,並且切割輸出的字串,分隔符是空...
linux 文字處理
1.文字處理 echo echo e 033 40 35m.背景顏色範圍 40 49 40 黑 41 深紅 42 綠 43 黃色 44 藍色 45 紫色 46 深綠 47 百色 字型顏色範圍 30 39 30 黑 31 紅 32 綠 33 黃 34 藍色 35 紫色 36 深綠 37 百色 eg e...