1. 準備工作
1)啟動hadoop集群(方便後續的測試)
[lmy@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
[lmy@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
2)-help:輸出這個命令引數
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -help rm
2. 上傳
1)-ls: 顯示目錄資訊
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /
2)-mkdir:在hdfs上建立目錄
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir -p /sanguo/shuguo
3)-cat:顯示檔案內容
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo/kongming.txt
4)-chgrp 、-chmod、-chown:linux檔案系統中的用法一樣,修改檔案所屬許可權
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666 /sanguo/shuguo/kongming.txt
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo/kongming.txt
5)-cp :從hdfs的乙個路徑拷貝到hdfs的另乙個路徑
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo/kongming.txt /zhuge.txt
6)-mv:在hdfs目錄中移動檔案
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /zhuge.txt /sanguo/shuguo/
7)-tail:顯示乙個檔案的末尾1kb的資料
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /sanguo/shuguo/kongming.txt
8)-rm:刪除檔案或資料夾
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /user/atguigu/test/jinlian2.txt
9)-rmdir:刪除空目錄
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /test
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -rmdir /test
10)-du統計資料夾的大小資訊
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /user/atguigu/test
2.7 k /user/atguigu/test
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /user/atguigu/test
1.3 k /user/atguigu/test/readme.txt
15 /user/atguigu/test/jinlian.txt
1.4 k /user/atguigu/test/zaiyiqi.txt
11)-setrep:設定hdfs中檔案的副本數量
[lmy@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /sanguo/shuguo/kongming.txt
這裡設定的副本數只是記錄在namenode的元資料中,是否真的會有這麼多副本,還得看datanode的數量。因為目前只有3臺裝置,最多也就3個副本,只有節點數的增加到10台時,副本數才能達到10。
Hadoop中HDFS的常用命令
hadoop常用命令 hadoop fs 檢視hadoop hdfs支援的所有命令 hadoop fs ls 列出目錄及檔案資訊 hadoop fs lsr 迴圈列出目錄 子目錄及檔案資訊 hadoop fs put test.txt user sunlightcs 將本地檔案系統的test.txt...
hadoop的HDFS常用命令總結
注意 以下指的本地是 lunix虛擬機器的 檢視根目錄下的檔案列表 hdfs dfs ls 遞迴檢視根目錄下的檔案列表 hdfs dfs ls r 上傳本地檔案到hdfs的根目錄 hdfs dfs put export data logs log.txt 在hdfs上建立單級目錄 hdfs dfs ...
Hadoop集群配置與HDFS介紹
理解 將多個節點的容量彙總成乙個大的檔案系統,在乙個節點上傳資料,在其的節點上都能夠訪問使用 hdfs 海量資料儲存系統 mapreduce 海量資料的計算系統計算框架 yarn 集群資源管理框架 hdfs的管理者 namenode 作用 1 維護 管理檔案系統的名字空間 元資料資訊 2 負責確定指...