從kudu的官方文件中可以看到spark 如何整合kudu的。從文件中的demo可以看到,kudu表的建立只能呼叫nosql api 來實現,無法通過spark sql直接建立一張kudu表。spark sql查詢kudu表也是先註冊一張臨時表後,才能用sql 語句查詢的。
那麼有沒有方法在spark sql上直接提交乙個create ddl語句來建立一張關聯kudu的表呢?
答案是:可以,通過 spark sql的using options語法實現,該語法是spark sql用來建立外部資料來源的表的,我們可以通過該語法建立kudu資料來源的表。
假設我們已經通過api 建立了一張kudu表kudu_test,接下來我們要通過spark sql 去建立一張關聯表,spark_kudu_test。這樣我們就能夠通過spark sql去操作kudu的資料了。操作步驟如下:
進入spark sql的命令列 ./spark-sql --jars /opt/kudu-spark2_2.11-1.10.0.jar
執行建表語句
create table spark_kudu_test(id1 int, id2 int, id3 string) using org.apache.kudu.spark.kudu options("kudu.master" "node1:7051,node2:7051,node3:7051","kudu.table" "kudu_test");
就這樣,kudu表的關聯表就建立出來了。 IDEA建立SparkSQL程式
idea建立sparksql程式 一.建立dataframe dependency groupid org.apache.spark groupid artifactid spark sql 2.11 artifactid version 2.1.1 version dependency pom.x...
如何用MFC建立透明畫板
如何用mfc建立透明的背景,不透明的繪畫 1,設定窗體為全螢幕顯示 獲取螢幕的長和寬 int iwidth getsystemmetrics sm cxscreen int iheight getsystemmetrics sm cyscreen 設定窗體位置和大小 setwindowpos nul...
spark sql的幾種建立方式
spark 1.x spark sql 用來處理結構化資料 類似資料庫中的表一樣儲存資料 spark1.x val sc new sparkcontext conf val sqlcontext new sqlcontext sc 將rdd和schema資訊關聯到一起,1.rdd和case clas...