可以使用 hadoop distcp 命令遷移,目標集群不需要建立表結構
將資料遷移到對應的表目錄下
hadoop distcp hdfs://master1:8020/hbase/data/default/tablename hdfs://master2:8020/hbase/data/default/tablename
在目標集群執行hbase命令「hbase hbck -repairholes」來修復hbase表的元資料,如表名、表結構等內容,會從新註冊到新集群的zookeeper中。
hbase hbck -repairholes
2、hbase 自帶的export 和 import 命令,需要提前建和原表相同的表結構
匯出集群執行:
hbase org.apache.hadoop.hbase.mapreduce.driver export tablename hdfs://master1:8020/tmp/hbase_copy/default/tablename
匯入集群執行:
hbase org.apache.hadoop.hbase.mapreduce.driver import tablename hdfs:///tmp/hbase_copy/default/tablename
hbase資料遷移
說明 網上眾多千篇一律的版本都說要用到乙個add table.rb的檔案,可是我的版本根本hbase下就不存在這個檔案。1.把資料表test從hbase下拷出 hadoop dfs get hbase test 2.檔案放到新集群的系統上。3.檔案拷入新的hadoop集群hbase下 hadoop ...
Hbase資料遷移
1.將hbase表資料匯出到hdfs hbase org.apache.hadoop.hbase.mapreduce.driver export tablename data export tablename 2.將hdfs資料獲取到本地 hadoop fs get data export tabl...
hbase資料遷移方式
之前要hbase資料遷移,我使用export import方式,感覺很棒,鏈結如下 後來發現還有其他兩種方式,so就全部整理下吧。copytable方式 bin hbase org.apache.hadoop.hbase.mapreduce.copytable peer.adr zookeeper1...