1.將hbase通過xftp傳入red-hat
2.tar -zxvf hbase -c /usr/local (解壓到目錄下)
3.cd /usr/local/hbase/conf (到conf修改hbase-env.sh,hbase-site.xml)
4.vi hbase-env.sh
4.1.set nu (方便查詢)
4.2.修改27行將jdk路徑設定
4.3.設定zk
5.1.加入到標籤中
hbase.rootdir<
/name>
hdfs:
//hdp1704e/hbase<
/value>
<
/property>
hbase.cluster.distributed<
/name>
true
<
/value>
<
/property>
hbase.zookeeper.quorum<
/name>
hdp01:
2181
,hdp02:
2181
,hdp03:
2181
<
/value>
<
/property>
6.vi /etc/profile6.1.設定變數
搭建Hbase完全分布式集群
配置hbase 因為hbase要依賴zookeeper集群和hadoop集群,所以在配置hbase之前先確保已經配置zookeeper集群和hadoop集群,這裡不再詳解zookeeper和hadoop,若沒有配置可以跳 zookeeper hadoop 先解壓hbase壓縮包 tar zxvf h...
hadoop完全分布式搭建
完全分布式搭建需要至少三個節點 下面的配置必須在三個節點上都得配置 這裡只說明一台的配置 1 ip配置 進入root使用者 vim etc sysconfig network scripts ifcfg eth0 配置本主機的ip位址 ipaddr 192.168.25.128 ip位址 gatew...
使用SparkRDD實現HBase分布式scan
利用spark rdd的分布式計算,將乙個scan任務按照自定義的範圍切分為小的scan,使用這些rdd實現對scan的並行查詢,提高查詢效率。核心是手動實現rdd的compute方法與getpartitions方法。本文中使用到的關於spark rdd方面的知識主要集中在rdd分割槽計算上,檢視s...