-----------------------環境-----------------------
ubuntu16.04系統 64位
apache-hive-3.0.0-bin
spark-2.3.1-bin-hadoop2.7
scala2.11
--------------------hosts配置----------------------------
/etc/hosts中注意hostname不要和127.0.0.1繫結
219.223.207.228 ubuntu
127.0.0.1 localhost
為什麼這麼搞呢?因為這樣可以在一台機子上模仿兩個節點(也就是兩個ip)之間的協作.
---------------------core-site.xml配置---------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
-----------------------hdfs-site.xml配置------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
------------------------------
如果啟動不起來
按照如下過程操作:(參考:
執行 namenode 的格式化(這裡我個人理解哈,格式化的時候是會損毀現有資料的,所以格式化前資料備份好):
hadoop@hadoop:/usr/local/hadoop$ ./bin/hdfs namenode -format
先關閉之前的dfs程序
hadoop@hadoop:/usr/local/hadoop$ ./sbin/stop-dfs.sh
啟動namenode 和 datanode 守護程序。
hadoop@hadoop:/usr/local/hadoop$ ./sbin/start-dfs.sh
-----------------------最終效果-------------------------------------
8739 namenode
22822 resourcemanager
9256 jps
22936 nodemanager
9081 secondarynamenode
8861 datanode
另外,此時瀏覽器的位址列輸入以下位址就可以開啟了
http://ubuntu:50090 這個是和hdfs-site.xml的內容對應的
http://localhost:9000 這個是和core-site.xml的內容對應的
此時hive也可以順利啟動了
正確地使用Checked Exception
正確地使用checked exception 實際上,如何正確地使用checked exception已經在前面的各章節講解中進行了詳細地說明。在這裡我們再次做乙個總結,同時也用來加深一下印象。從api編寫者的角度來講,他所需要考慮的就是在何時使用乙個checked exception。首先,che...
荀子 怎樣正確地做事?
凡觀物有疑,中心不定,則外物不清。吾慮不清,未可定然否也。凡是觀察事物不明白,心中不能肯定,那麼對外物就審查不清楚,理解就不清晰,那麼就不可能確定是對還是錯。冥冥而行者,見寢石以為伏虎也,見植林以為後人也 冥冥蔽其明也。醉者越百步之溝,以為蹞步之澮也 俯而出城門,以為小之閨也 酒亂其神也。厭目而視者...
Javascript 正確地引用表單和表單元素
所有的 html 表單都應該有乙個 name 屬性。對於 xhtml 文件來說,name 屬性是不被要求的,但 form 標籤中應有相應有 id 屬性,並必須用 document.getelementbyid 來引用。使用像 document.forms 0 這樣的索引方法來引用表單,在幾乎所有情況...