方式一: hadoop命令匯出
hadoop fs -get hdfs://hadoop000:8020/data/page_views2 pv2
方式二:通過insert...directory匯出【spark暫不支援】
匯出到本地:
insert overwrite local directory '/home/spark/hivetmp/
'row format delimited fields terminated by '\t
' lines terminated by '\n'
select * from page_views;
匯出到hdfs:
insert overwrite directory '/hivetmp/
'row format delimited fields terminated by '\t
' lines terminated by '\n'
select * from page_views;
報錯:cannot recognize input near 'row' 'format' 'delimited' in select clause
insert overwrite directory '/hivetmp/
'select * from page_views;
注意:匯出到本地可以通過row format來設定分隔符,匯出到hdfs是不能設定分隔符的;
方式三: shell命令 + 管道(hive -f/-e | sed/grep/awk > file)
hive -e "select * from page_views limit 5
"hive -s -e "
select * from page_views limit 5
" | grep
b58w48u4wkzcj5d1t3z9zy88ru7qa7b1
hive -s -e "
select * from page_views limit 5
" | grep b58w48u4wkzcj5d1t3z9zy88ru7qa7b1 > file
方式四: sqoop
詳見sqoop章節:
hive資料匯出
一.操作前資料準備及資料資訊準備。二.使用select語句查詢結果寫入檔案中。命令範例一 命令範例二 註解 local的有無決定輸出檔案在本地檔案系統還是hdfs rowformat delimited fields terminated by t 決定檔案中資料的格式,且hive版本0.11之後才...
hive 匯出資料
hive有三種匯出資料的方式 匯出資料到本地 匯出資料到hdfs 匯出資料到另乙個表 匯出資料到本地檔案系統 insert overwrite local directory desfile select from srcfile 例 insert overwrite local directory...
hive 匯出資料
hive的資料匯出方式 hive有三種匯出資料的方式 匯出資料到本地檔案系統 insert overwrite local directory desfile select from srcfile 例 insert overwrite local directory home wyp wyp se...