今天在用fio做完centos系統io對比測試後,發現個嚴重的問題,用df工具檢視磁碟,發現經過fio寫操作的磁碟容量變成了這樣:
瞬間就有一種不好的感覺,果然,經過多方查證,是由於磁碟反覆進行寫操作導致檔案儲存資訊被破壞,只能進行格式化了。(吐槽一下,坑爹的fio,在測試之前完全沒看到有這方面的說明)
在網上蒐集了一下linux下磁碟格式化步驟,寫下來和大家分享一下:
解除安裝要格式化的磁碟(如果不解除安裝是不能進行格式化的)
需要停止data2上的檔案使用
#fuser -km /data2
然後再執行umount命令即可解除安裝
格式化磁碟/dev/sdb,並在其上建立ext4格式的檔案系統
中間出現writing superblocks and filesystem accounting information:時直接回車即可
使用df檢視,發現沒有該磁碟資訊
使用fdisk磁碟工具可以看到這個磁碟檔案系統是已經建好了,導致這個的原因是我們還沒對其進行掛載
我們在根目錄下新建乙個目錄作為掛載點對磁碟進行掛載,不過由於我之前已經有data2目錄,故直接掛載在其上,並用df檢視是否掛載成功
這裡我們已經成功掛載磁碟,但是由於沒有配置開機自動掛載,所以如果重啟那麼該磁碟又要手動掛載,所以在此我們更改配置讓它能開機掛載
完成!
Linux下GPT格式磁碟重新格式化為MBR格式
fdisk命令是針對mbr分割槽格式的,雖然能用g命令把磁碟格式化為gpt,但是無法再重新格式化為mbr格式,因為fdisk命令無法操作gpt格式的磁碟。用parted命令可以很簡單的解決上面的問題 parted dev vdb parted mktable new disk label type?...
重新格式化hadoop
首先將hdfs site.xml檔案中的 片 dfs.name.dir home hadoop hdfs name namenode上儲存hdfs名字空間元資料 dfs.data.dir home hadoop hdsf data datanode上資料塊的物理儲存位置 中的指定目錄刪除。然後將co...
Hadoop重新格式化
hadoop進行多次的格式化 hdfs namenode format 會導致找不到datanode結點。每次格式化後,名稱結點 的clusterid 集群id 會被新建,而資料結點的clusterid還是原來的,造成名稱結點和資料節點的clusterid不一致 在重新格式化之前一定要先刪除data...