集群擴容的時候,需要在每台主機上安裝hadoop的生態系統的客戶端,例如:hbase client
,hcat client
,hdfs client
.....
但是在安裝的過程中,突然報錯,導致ambari引導介面卡死,無法繼續進行,檢視報錯日誌的錯誤部分為:
resource_management.core.exceptions.fail: execution of '/usr/bin/zypper --quiet install --auto-agree-with-licenses --no-confirm hive_2_5_0_0_1245' returned 8. the following new package is going to be installed:
hive_2_5_0_0_1245
the following package is not supported by its vendor:
hive_2_5_0_0_1245
1 new package to install.
overall download size: 154.1 mib. already cached: 0 b. after the operation, additional 214.7 mib will be used.
continue? [y/n/...? shows all options] (y): y
installation of hive_2_5_0_0_1245-1.2.1000.2.5.0.0-1245.noarch failed:
error: subprocess failed. error: rpm failed: error: unpacking of archive failed on file /usr/hdp/2.5.0.0-1245/hive/conf:
cpio: rename failed - is a directory
error: hive_2_5_0_0_1245-1.2.1000.2.5.0.0-1245.noarch: install failed
abort, retry, ignore? [a/r/i] (a): a
problem occurred during or after installation or removal of packages:
installation aborted by user
重點的報錯資訊為:
error: unpacking of archive failed on file /usr/hdp/2.5.0.0-1245/hive/conf:
cpio: rename failed - is a directory。
根據報錯提示,我們檢視一下提示的目錄,
# ll /usr/hdp/2.5.0.0-1245/hive/conf
發現這個目錄是乙個軟連線,並且背景顏色都是紅色(使用的ssh工具很重要,紅色背景表示軟連線失敗,是乙個錯誤的軟連線),
經分析可以知道,你在安裝的過程中出現了乙個錯誤的軟連線,導致安裝無法繼續,因為conf資料夾下有很多有關該主機的配置資訊。
解決方式:刪除軟連線,重新安裝:
#
sudo rm -rf /usr/hdp/2.5.0.0-1245/hive/conf
同理,一些類似的hbase client
,hcat client
,hdfs clien。。。出現同樣的問題的話,採用同樣的方式解決即可。
Hadoop客戶端環境配置
1.安裝客戶端 通過端使用者可以方便的和集 互 2.修改客戶端 bashrc alias hadoop home work hadoop client hadoop client hadoop bin hadoop hadoop 可執行檔案位置 alias hls hadoop fs ls alia...
hadoop客戶端效率問題
分享乙個關於hdfs寫入流程文件 今天主要的話遇到了這樣的乙個問題 集群中的配置環境是一台datanode和一台namenode,這時如果在datanode上執行hdfs的客戶端上傳乙個2g的檔案 和在namenode上執行同樣的程式 個人覺得應該是在datanode上執行的時間短 為什麼出現的結果...
oracle客戶端安裝
instantclient basic win32 10.2.0.3 20061115.zip 解壓instantclient basic win32 10.2.0.3 20061115.zip到d盤,全路徑為 d instantclient 10 2 設定環境變數 tns admin d inst...