9、master主機解壓hadoop-1.2.1-bin.tar.gz
cd hadoop-1.2.1
mkdir tmp
cd conf
vim master :內容為master
vim sl**es :內容為
sl**e1
sl**e2
vim core-site.xml : 內容為
hadoop.tmp.dir
/usr/local/src/hadoop-1.2.1/tmp
fs.default.name
hdfs:
vim mapred-site.xml :內容為
mapred.job.tracker
vim hdfs-site.xml :內容為
dfs.replication
3vim hadoop-env.sh :最後新增
export j**a_home=/usr/local/src/jdk1.6.0_45
10、本地網路配置master和sl**e都要配置
vim /etc/hosts
192.168.126.10 master
192.168.126.11 sl**e1
192.168.126.12 sl**e2
vim /etc/sysconfig/network
hostname=master(根據機器填寫:sl**e1/sl**e2)
hostname master(根據機器填寫:sl**e1/sl**e2)
11、hadoop複製到分機
scp -rp hadoop-1.2.1 192.168.126.11:/usr/local/src/
scp -rp hadoop-1.2.1 192.168.126.12:/usr/local/src/
12、關閉防火牆(每台機器都要執行)
/etc/init.d/iptables stop
setenforce 0 #關閉selinux
三、master、sl**e建立互信關係
ssh-keygen #回車回車
cd ~/.ssh
cat id_rsa.pub > authorized_keys #公鑰檔案copy
把sl**e1的公鑰sl**e2的公鑰新增到authorized_keys 並把authorized_keys 複製到分機上
ssh sl**e1 ssh sl**e2 ssh master 進行驗證互信關係
四、啟動hadoop集群
cd /usr/local/src/hadoop-1.2.1/bin/
./hadoop namenode -format #初始化
./start-all.sh #啟動
jps #檢視程序(每台機器檢視)
./hadoop fs -put /etc/passwd / #往集群裡寫檔案
./hadoop fs -ls / #檢視集群裡的檔案
配置HTTPS全過程
https,是以安全為目標的http通道,簡單講是http的安全版。即http下加入ssl層,https的安全基礎是ssl,因此加密的詳細內容就需要ssl。接著也許會有人問,需要花錢唉,有沒有什麼辦法可以不花錢呢?答案是有的。我們可以自己給自己發乙個證書,也可以進行https通 信,但是如果用瀏覽器...
bitnami redmine配置全過程
我在自己的機器上面配置完畢以後,移植到另外一台機器上面,登陸頁面總是在檢查network,並且最後網路載入失敗,不論我是用橋接還是nat方式連線。登陸系統以後,我嘗試連線網路失敗,嘗試執行以下命令重啟network sudo etc init.d networking restart 但是執行完畢以...
bitnami redmine配置全過程
我在自己的機器上面配置完畢以後,移植到另外一台機器上面,登陸頁面總是在檢查network,並且最後網路載入失敗,不論我是用橋接還是nat方式連線。登陸系統以後,我嘗試連線網路失敗,嘗試執行以下命令重啟network sudo etc init.d networking restart 但是執行完畢以...