hadoop 關閉時nodemanager等程序無法正常關閉
是因為hadoop長時間保持啟動的狀態,在用stop-all.sh命令關閉集群時,是根據datanode上的mapred和dfs程序號來執行的,系統每隔一短時間會清空程序號所在的資料夾,所以找不到對應的程序就無法關閉相應的程序。
ps -ef 命令找到對應的程序號
用kill -9 命令殺死即可
為避免再有此情況發生,可以修改$hadoop_home/etc/hadoop/hadoop-env.sh裡面預設的 hadoop_pid_dir
export hadoop_pid_dir=/你的期望目錄
hadoop無法關閉hdfs
出現這個問題的最常見原因是hadoop在stop的時候依據的是datanode上的mapred和dfs程序號。而預設的程序號儲存在 tmp下,linux缺省會每隔一段時間 一般是乙個月或者7天左右 去刪除這個目錄下的檔案。因此刪掉hadoop hadoop jobtracker.pid和hadoop...
pygame 視窗無法正常關閉
執行以下程式,將解決問題 import sys import pygame def run game pygame.init screen pygame.display.set mode 1200,800 開始遊戲的主迴圈 while true 監視鍵盤和滑鼠事件 for event in pyga...
jenkins衍生程序無法正常執行
場景描述 最近在測試環境上搭建了一套jenkins構建集群,然後在這個集群中的某個靜態節點上跑乙個jenkins構建任務,構建任務裡面的工作是這樣的 在靜態節點上編譯構建好該服務,生成可執行檔案,再執行可執行檔案,並期望該靜態節點在構建任務結束後該服務不隨構建任務的結束而停止執行,現在挑重點說明一下...