hadoop初級遇到的問題

2021-08-03 07:12:29 字數 999 閱讀 9766

##1.securecrt輸出亂碼問題

未解決問題:執行mapreduce程式時,報網域名稱解析失敗

gzip: stdin: not in gzip format

tar: child returned status 1

tar: error is not recoverable: exiting now

解決方法:

去掉z引數,使用 tar -xvf 解壓正常

1.切換到root使用者下

2./etc/sudoers檔案預設是唯讀的,對root來說也是,因此需先新增sudoers檔案的寫許可權,命令是:

chmod u+w /etc/sudoers

3.編輯sudoers檔案

vi /etc/sudoers

找到這行 root all=(all) all,在他下面新增*** all=(all) all (這裡的***是你的使用者名稱)

ps:這裡說下你可以sudoers新增下面四行中任意一條

youuser all=(all) all

%youuser all=(all) all

youuser all=(all) nopasswd: all

%youuser all=(all) nopasswd: all

第一行:允許使用者youuser執行sudo命令(需要輸入密碼).

第二行:允許使用者組youuser裡面的使用者執行sudo命令(需要輸入密碼).

第三行:允許使用者youuser執行sudo命令,並且在執行的時候不輸入密碼.

第四行:允許使用者組youuser裡面的使用者執行sudo命令,並且在執行的時候不輸入密碼.

4.撤銷sudoers檔案寫許可權,命令:

chmod u-w /etc/sudoers

hadoop 集群中所遇到的問題

這篇部落格總結了很多問題,有幾個是我親身遇到的,1 fatal org.apache hadoop hdfs server datanode datanode exception in securemain 檢查hostname是否在 etc hosts檔案中配置,若無則將hostname配置到 e...

hadoop啟動遇到的免登入問題

今天啟動虛擬機器,突然securecrt就連不上我的虛擬機器了,查了半天沒找到問題 結果關了vmware,重新開啟,ok了。奇怪的很吶。經此一事,突然感覺今晚上的hadoop會出么蛾子。真是想啥來著啊。連線上之後,cd到hadoop的目錄,啟動hdfs,ok,一切正常。啟動yarn,我去,出事了。t...

Hadoop 初級概念總結

google大資料技術 mapreduce bigtable gfs hadoop 乙個模仿google大資料技術的開源實現 開源的 apache 分布式儲存 分布式計算平台 核心 hdfs 分布式檔案系統 儲存海量資料 mapreduce 並行處理框架 實現任務分解和排程 用途搭建大型資料倉儲 p...