load data [local] inpath '' [overwrite] into database.table [partition(partcol=val)]原始檔案在linux本地 加上local 如果原始資料檔案在hdfs 不用local
如果是覆蓋資料加上overwrite 如果是追加 不要overwrite
如果是分割槽表加上partition,不是就不用了。
create table db_hive.dept_copy like dept;
insert into table db_hive.dept_copy
select * from dept ;
匯出資料到本地檔案 會自動建立目錄啦 注意這裡的目錄是乙個資料夾
insert overwrite local directory '/opt/datas/hive_exp_dept'
select * from db_hive.dept;
檢視匯出的資料
發現資料不太好看
格式化一下
insert overwrite local directory '/opt/datas/hive_exp_dept'
row format delimited fields terminated by '\t'
collection items terminated by '\n'
select * from db_hive.dept;
再次檢視
匯出資料到hdfs 當然就是不要local啦
insert overwrite directory '/user/hive/warehouse/db_hive.db/dept_exp_hdfs'
select * from db_hive.dept;
50070頁面檢視
檢視將檔案拿到本地
bin/hdfs dfs -get /user/hive/warehouse/db_hive.db/dept_exp_hdfs/0* /root/hive_datas/將查詢結果重定向到乙個檔案 這裡是乙個檔案 上面有資料而不是資料夾
bin/hive -e "select * from db_hive.emp;" > /opt/datas/emp_exp_dept ;官方文件:
import 匯入資料到hive表中
import [[external] table new_or_original_tablename [partition (part_column="value"[, ...])]]
from 'source_path'
[location 'import_target_path']
export (注意這個target_path是hdfs的路徑)
export table tablename [partition (part_column="value"[, ...])]
to 'export_target_path' [ for replication('eventid') ]
Hive資料匯入與匯出
hive四種資料匯入方式 1 從本地檔案系統中匯入資料到hive表 hive load datalocal inpath mytable.txt into table mytabl 注意 和我們熟悉的關係型資料庫不一樣,hive現在還不支援在insert語句裡面直接給出一組記錄的文字形式,也就是說,...
Hive 匯入匯出資料
將檔案中的資料載入到表中 load data local inpath examples files kv1.txt overwrite into table pokes 載入本地資料,同時給定分割槽資訊 load data local inpath examples files kv2.txt o...
hive資料匯入匯出
hive官方提供兩種匯入資料的方式 1 從表中匯入 insert overwrite table test select from test2 2 從檔案匯入 2.1 從本地檔案匯入 load data local inpath hadoop aa.txt overwrite into table ...