不管在我們使用伺服器還是使用自己的桌面版本的時候,跑程式時一方面,有時候我們會監測一下電腦的資源使用情況,但是監測的時候我們可以能會遇到一些問題。
對於cpu資源的使用,我們可以使用top或者使用更高階的htop指令進行監測,這個裡面包含了很多的資訊。
對於gpu資源的使用,我們一般使用nvidia-smi來進行乙個監測,因為該指令是乙個靜態的,所以如果我們想動態的監測gpu的使用情況,我們可以配合watch指令進行使用,watch -n 1 nvidia-smi.
以上是我們使用一些基本方法,但是我在監測gpu的時候,可能會遇到以下兩個問題:
1、gpu明明沒有在用,但是顯示的時候卻顯示gpu的利用率卻很高,但是再看功率的時候又可以肯定gpu並沒有在使用;
2、當乙個使用者用gpu跑完程式後,關掉了程式,但是gpu依舊顯示該程式占用記憶體。
針對以上的兩個問題,本人的解決方法如下
對於gpu監測顯示不準確時的指令如下:
sudo nvidia-smi -pm 1
對於程式結束了,但是gpu記憶體沒有被清零的情況,解決方案如下:
使用nvidia-smi指令進行查詢沒有釋放記憶體的程式的pid;
然後使用如下指令進行釋放:
sudo kill -9 pid
oom問題解決
dalvik虛擬機會為應用程式分配固定大小的heap 如果使用超過了這個heap的大小,且沒有可被 物件,就會報oom。多張較大會迅速占用空間造成oom。我們可以使用一下的方法來減少這種情況的產生 1.減少單張的大小,根據螢幕大小來對bitmap做resize。private void setima...
too many open files問題解決辦法
今天用 往liunx中寫檔案,檔案很多 執行一會就日誌上就報錯 too many open files 結果找了半天才解決這個問題,現在給大家分享一下。首先用 ulimit a 命令看看linux的open files值是多少,結果乙隻有1024,不夠用的。然後修改linux的配置檔案,修改 etc...
haoop問題解決
1.namenode不能啟動 cannot lock storage tmp dfs name.the directory is already locked.上網查了查,基本上有兩個辦法 1.重新格式化namenode 2.許可權問題 chown r hadoop hadoop tmp dfs n...