對於hive的使用,在hadoop集群裡,先啟動hadoop集群,再啟動mysql服務,然後,再hive即可。
對於hive的使用,在spark集群裡,先啟動hadoop集群,再啟動spark集群,再啟動mysql服務,然後,再hive即可。
hive操作命令:
進入mysql:mysql -uroot -p
10.9.1.229:3306
mysql的賬號密碼:
zhaojianfeng
jiligualazhaojianfeng
本地mysql:
data-source: com.mysql.jdbc.driver
url: jdbc:mysql:
username: root
password: 123456
問題:1:hive下的mysql裡的表匯入本地的mysql中手動建立相同結構相同名字的表?
2:這個hivetest的**沒有實現定時同步任務每五秒執行一次
3:hivetest類中的for迴圈是不是用來檢查結果集的值是否正確
4:insert這個sql引數怎麼填
5:動態是否要用 preparedstatement stmt = con.preparestatement(sql)
6:是否需要寫乙個executeupdate方法來進行新增,邏輯大概是什麼?
7:只能執行乙個sql,如何多個sql同時執行
spring boot 定時排程,jdbcutil
boolean rs = stmt.execute(sql);
if (rs == true)
今日學習心得:
現在的主要任務就是趕緊熟記jdbc util
對於hive的使用,在hadoop集群裡,先啟動hadoop集群,再啟動mysql服務,然後,再hive即可。
對於hive的使用,在spark集群裡,先啟動hadoop集群,再啟動spark集群,再啟動mysql服務,然後,再hive即可。
定時同步任務流程:
將hive下的mysql裡的表(查詢欄位t,a,u),在自己的mysql下新建乙個表(根據自己需求來建,欄位t,u,s),最後使自己的mysql裡的表(tnot null,unot null,s==null);
實習篇 第三十四天
為什麼直接寫三十四天,因為三十三那天過的太匆忙,上午好像又開了一次會議,下午便開始寫做任務!寫的東西都是第一次接觸的,難免有不懂不會的,然後師傅那邊又在忙他的事,就這樣過了一下午,下班後,我又趕著回學校參加明後兩天的畢業設計開題報告!真是 屋漏偏逢連夜雨 今天上午來到公司,任務剛做了一點,另乙個同事...
學習python的第三十四天 檔案
文中這段話很準確的說明了有關檔案的使用 你可以通過建立乙個file類的物件來開啟乙個檔案,分別使用file類的read readline或write方法來恰當地讀寫檔案。對檔案的讀寫能力依賴於你在開啟檔案時指定的模式。最後,當你完成對檔案的操作的時候,你呼叫close方法來告訴python我們完成了...
NeHe OpenGL第三十四課 地形
nehe opengl第三十四課 地形 從高度圖生成地形 這一課將教會你如何從乙個2d的灰度圖建立地形 歡迎來到新的一課,ben humphrey寫了這一課的 它是基於第一課所寫的。在這一課裡,我們將教會你如何使用地形,你將知道高度圖這個概念。下面我們來定義一些全域性變數,map size是你使用的...