sqoop安裝:安裝在一台節點上就可以了。
1.上傳sqoop
2.安裝和配置
在新增sqoop到環境變數
將資料庫連線驅動拷貝到$sqoop_home/lib裡
3.使用
第一類:資料庫中的資料匯入到hdfs上
sqoop import --connect jdbc:mysql: --username root --password 123 --table trade_detail --columns 'id, account, income, expenses'
指定輸出路徑、指定資料分隔符
sqoop import --connect jdbc:mysql: --username root --password 123 --table trade_detail --target-dir '/sqoop/td' --fields-terminated-by '\t'
指定map數量 -m
sqoop import --connect jdbc:mysql: --username root --password 123 --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2
增加where條件, 注意:條件必須用引號引起來
sqoop import --connect jdbc:mysql: --username root --password 123 --table trade_detail --where 'id>3' --target-dir '/sqoop/td2'
增加query語句(使用 \ 將語句換行)
sqoop import --connect jdbc:mysql: --username root --password 123 \
--query 'select * from trade_detail where id > 2 and $conditions' --split-by trade_detail.id --target-dir '/sqoop/td3'
注意:如果使用--query這個命令的時候,需要注意的是where後面的引數,and $conditions這個引數必須加上
而且存在單引號與雙引號的區別,如果--query後面使用的是雙引號,那麼需要在$conditions前加上\即\$conditions
如果設定map數量為1個時即-m 1,不用加上--split-by $,否則需要加上
第二類:將hdfs上的資料匯出到資料庫中
sqoop export --connect jdbc:mysql: --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-termianted-by '\t'
4.配置mysql遠端連線
grant all privileges on yangji.* to 'root'@'192.168.1.201' identified by '123' with grant option;
flush privileges;
grant all privileges on *.* to 'root'@'%' identified by '123' with grant option;
flush privileges
sqoop安裝配置
sqoop是乙個在結構化資料和hadoop之間進行批量資料遷移的工具,結構化資料可以是mysql oracle等rdbms。sqoop底層用mapreduce程式實現抽取 轉換 載入,mapreduce天生的特性保證了並行化和高容錯率,而且相比kettle等傳統etl工具,任務跑在hadoop集群上...
sqoop 安裝與使用
sqoop安裝 安裝在一台節點上就可以了。1.上傳sqoop 2.安裝和配置 在新增sqoop到環境變數 將資料庫連線驅動拷貝到 sqoop home lib裡 3.使用 第一類 資料庫中的資料匯入到hdfs上 sqoop import connect jdbc mysql username roo...
Sqoop安裝與使用
使用sqoop進行將hive 詞頻統計的結果資料傳輸到mysql中。mysql準備接受資料的資料庫與表 hive準備待傳輸的資料 sqoop進行資料傳輸 mysql檢視傳輸結果 先用測試檔案做實驗,成功後將電子書的統計結果傳輸出mysql中。一.測試檔案 1.mysql準備接受資料的資料庫與表 2....