hadoop fs [genericopitions]
[-ls ] //顯示目標路徑當前目錄下的所有檔案
[-lsr ] //遞迴顯示目標路徑下的所有目錄及檔案(深度優先)
[-du ] //以位元組為單位顯示目錄中所有檔案的大小,或該檔案的大小(如果
path
為檔案)
[-dus ] //以位元組為單位顯示目標檔案大小(用於檢視資料夾大小)
[-count [-q] ] //將目錄的大小、包含檔案(包括檔案)個數的資訊輸出到螢幕(標準
stdout
)[-mv ] //把檔案或目錄移動到目標路徑,這個命令允許同時移動多個檔案,但是只允許移動到乙個目標路徑中,引數中的最有乙個資料夾即為目標路徑
[-cp ] //複製檔案或目錄到目標路徑,這個命令允許同時複製多個檔案,如果複製多個檔案,目標路徑必須是資料夾
[-rm [-skiptrash] ] //刪除檔案,這個命令不能刪除資料夾
[-rmr [-skiptrash] ] //刪除資料夾及其下的所有檔案
[-expunge]
[-put ... ] //從本地檔案系統上傳檔案到
hdfs
中[-copyfromlocal ... ] //與
put相同
[-movefromlocal ... ] //與
put相同,但是檔案上傳之後會從本地檔案系統中移除
[-getmerge [addnl]] //將源目錄中的所有檔案進行排序並寫入目標檔案中,檔案之間以換行符分隔
[-cat ] //在終端顯示(標準輸出
stdout
)檔案中的內容,類似
linux
系統中的
cat[-text ]
[-copytolocal [-ignorecrc] [-crc] ] //與
get相同
[-movetolocal [-crc] ]
[-mkidr ] //建立資料夾
[-setrep [-r] [-w] ] //改變乙個檔案的副本個數。引數
-r可以遞迴地對該目錄下的所有檔案做統一操作
[-touchz ] //類似
linux
中的touch
,建立乙個空檔案
[-test -[ezd] ] //將原始檔輸出為文字格式顯示到終端上,通過這個命令可以檢視
textrecordinputstream
(sequencefile
等)或zip
檔案[-stat [format] ] //以指定格式返回路徑的資訊
[-tail [-f] ] //在終端上顯示(標準輸出
stdout
)檔案的最後
1kb內容。
-f選項的行為與
linux
中一致,會持續監測先新增到檔案中的內容,這在檢視日誌檔案時會顯得非常方便。
[-chmod [-r] path...] //改變檔案的許可權,只有檔案的所有者或者是超級使用者才能使用這個命令。
-r可以遞迴地改變資料夾內的所有檔案的許可權
[-chown [-r] [owner] [:[group] path...]] //改變檔案的擁有者,
-r可以遞迴地改變資料夾內所有檔案的擁有者。同樣,這個命令只有超級使用者才能使用
[-chgrp [-r] group path...] //改變檔案所屬的組,
-r可以遞迴地改變資料夾內所有檔案所屬的組。這個命令必須是超級使用者才能使用
[-help [cmd]] //這是命令的幫助資訊
hdfs常用檔案命令
為了每次執行hadoop的時候,不必須要前者加上hadoop的安裝的絕對路徑,要做的事情就是將其安裝路徑加入到path中,這樣就可以直接執行hadoop命令。如下 vim etc profile中加入一句 export hadoop install home hadoopcluster hadoop...
hdfs檔案操作命令
在hadoop安裝目錄下執行以下命令 說明 user fl 是hdfs的預設路徑,fl是使用者名稱 在hdfs上建立資料夾input bin hadoop fs mkdir p user fl input 將本地檔案放到hdfs上 bin hadoop fs put home fl input wo...
hdfs檔案操作shell命令
usage hadoop fs generic options cat ignorecrc checksum chgrp r group path.chmod r mode octalmode path.chown r owner group path.copyfromlocal f p l cop...