sqoop是什麼?
sqoop是乙個用於在hadoop和關聯式資料庫之間傳輸資料的工具
將資料從rdbms匯入到hdfs(hdfs、hive、hbase),從hdfs匯出資料到rdbms,使用mapreduce匯入和匯出資料,提供並行操作和容錯
目標使用者:系統管理員、資料庫管理員、大資料分析師、大資料開發工程師等
1、從mysql(關係型資料庫)匯入資料到hdfs-1
匯入表到hdfs
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
--配置資料庫連線為mysql中資料庫hive
>
--connect jdbc:mysql://hadoop1:3306/retail \
--配置資料庫中的表user
>
--table user
--mysql的使用者名稱
>
--username root
--mysql的密碼
>
--password ok
--匯入hdfs指定路徑
>
--tar-dir /data/user
>
--m 3
增量匯入
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root --password ok --table orders \
--關鍵字
>
--指定遞增的列
>
--check-cloumn order_id \
--指定上一次匯入的最大值
>
--last-value '100' \
>
--target-dir /data/orders --m 3
2、從mysql(關係型資料庫)匯入資料到hive
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root --password ok --table orders \
--關鍵字
>
--hive-import \
--指定hive裡sqoop庫中的orders表,無需在hive建立orders表,自動建立
>
--hive-table sqoop.orders
也可以
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root -password ok --table orders \
>
--hive-import --create-hive-table \
>
--hive-database sqoop --hive-table orders
匯入到hive分割槽
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root -password ok --table orders \
>
--hive-import --hive-table sqoop.orders \
>
--hive-partition-key 'order_date' \
>
--hive-partition-value '2020-10-12' \
>
--m 3
也可以
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root -password ok --table orders \
>
--hive-import --create-hive-table \
>
--hive-database sqoop --hive-table orders \
>
--hive-partition-key 'order_date' \
>
--hive-partition-value '2020-10-12' \
>
--m 3
3、從mysql倒入資料到hbase
[root@hadoop1 sqoop]
# ./bin/sqoop-import \
>
--connect jdbc:mysql://hadoop1:3306/retail \
>
--username root -password ok --table customers \
>
--columns 'customernum,customername' \
>
--hbase-table customers \
>
--cloumn-family customername \
>
--hbase-row-key customernum \
>
--m 3
4、從hdfs匯入資料到mysql
在mysql裡先建立乙個orders表,在執行hive語句
[root@hadoop1 sqoop]
# ./bin/sqoop-export \
>
--connect jdbc:mysql://hadoop1:3306/sqoop
>
--username root --password ok --table orders \
>
--export-dir /data/retail_db/orders
>
--input-fields-terminated by ','
Ceph概念介紹及元件介紹
全稱是object storage device,主要功能包括儲存資料,處理資料的複製 恢復 回補 平衡資料分布,並將一些相關資料提供給ceph monitor crush 是ceph使用的資料分布演算法,類似一致性雜湊,讓資料分配到預期的地方 map 上面說過,monitor元件負責監視整個集群的...
F02 數通路由交換協議及配置介紹
在此感謝劉同學做出的整理。鄰居 執行ospf協議,雙方通過傳送hello報文後,所建立起來的關係,傳送的方式為三次握手協議。鄰接 所謂的full狀態 指的是兩台路由器進行資料庫的同步之後所建立起來的關係,即a把自己的資料庫發給b,b把自己的發給a,相互學習自己所沒有的。點到點的網路型別 ppp 廣播...
SAS SHARE 介紹及使用
sas share功能 其提供乙個多使用者訪問的資料伺服器,允許多個使用者同時讀寫同乙個資料檔案 除了提供本地資料共享給使用者外,也可以通過遠端路徑共享其它資料給使用者,而無需構架sas connect進行sign on 通過sas access配合,sas share提供了乙個訪問不同資料來源的統...