##1.securecrt輸出亂碼問題
未解決問題:執行mapreduce程式時,報網域名稱解析失敗
gzip: stdin: not in gzip format
tar: child returned status 1
tar: error is not recoverable: exiting now
解決方法:
去掉z引數,使用 tar -xvf 解壓正常
1.切換到root使用者下
2./etc/sudoers檔案預設是唯讀的,對root來說也是,因此需先新增sudoers檔案的寫許可權,命令是:
chmod u+w /etc/sudoers
3.編輯sudoers檔案
vi /etc/sudoers
找到這行 root all=(all) all,在他下面新增*** all=(all) all (這裡的***是你的使用者名稱)
ps:這裡說下你可以sudoers新增下面四行中任意一條
youuser all=(all) all
%youuser all=(all) all
youuser all=(all) nopasswd: all
%youuser all=(all) nopasswd: all
第一行:允許使用者youuser執行sudo命令(需要輸入密碼).
第二行:允許使用者組youuser裡面的使用者執行sudo命令(需要輸入密碼).
第三行:允許使用者youuser執行sudo命令,並且在執行的時候不輸入密碼.
第四行:允許使用者組youuser裡面的使用者執行sudo命令,並且在執行的時候不輸入密碼.
4.撤銷sudoers檔案寫許可權,命令:
chmod u-w /etc/sudoers
hadoop 集群中所遇到的問題
這篇部落格總結了很多問題,有幾個是我親身遇到的,1 fatal org.apache hadoop hdfs server datanode datanode exception in securemain 檢查hostname是否在 etc hosts檔案中配置,若無則將hostname配置到 e...
hadoop啟動遇到的免登入問題
今天啟動虛擬機器,突然securecrt就連不上我的虛擬機器了,查了半天沒找到問題 結果關了vmware,重新開啟,ok了。奇怪的很吶。經此一事,突然感覺今晚上的hadoop會出么蛾子。真是想啥來著啊。連線上之後,cd到hadoop的目錄,啟動hdfs,ok,一切正常。啟動yarn,我去,出事了。t...
Hadoop 初級概念總結
google大資料技術 mapreduce bigtable gfs hadoop 乙個模仿google大資料技術的開源實現 開源的 apache 分布式儲存 分布式計算平台 核心 hdfs 分布式檔案系統 儲存海量資料 mapreduce 並行處理框架 實現任務分解和排程 用途搭建大型資料倉儲 p...