由於現在系統的emmc容量越來越大,以及android應用的越來越龐大複雜,一些分割槽的size也越來越大比如system.img,userdata.img,cache.img,boot.img等。以前這些img的格式都是ext3或4,現在android環境預設情況下編譯出的這些img是一種叫做sparse格式的檔案。
顧名思義 sparse是一種稀疏的檔案描述格式,size比ext4的要小很多,而ext4格式的檔案中有很多零填充。可以通過file命令來區分檔案損壞那種格式。
例如 file system.img,如果是sparse格式只會顯示乙個data,而如果是ext4格式會顯示一長串字元,其中有ext4字樣。
這兩種格式的img之間可以通過工具進行轉換,轉換的工具放在編譯後生成的out/host/linux-x86/bin/裡,分別為simg2img和img2simg,必須要經過完整的android編譯才會生成,只編譯lk或bootimg是不會生成的。
例如要將raw ext4格式轉換為sparse格式,可以這樣:img2simg system.raw.img system.simg。
win10系統Pycharm配置spark環境
當時學scala沒怎麼學好,先入為主,所以平時用python 寫的比較多點,剛接觸的小白失去覺得好難啊,想著我把我的過程總結下來,平時長看看比較好,每個人的情況都不同,但,反正參考參考吧。前提 配置好python hadoop win10 安裝好pycharm.2.複製 貼上。將spark目錄下的 ...
Win10下用Pycharm除錯spark任務
將spark包解壓 spark 2.3.1 bin 2.6.0 cdh5.7.0.tgz pycharm的edit configurations中編輯環境變數 新增pythonpath 指向第一步spark解壓後資料夾中的python目錄 新增spark home 指向第一步壓縮後的spark目錄 ...
命令列中只用scala來執行乙個spark應用
由於intellij十分消耗記憶體,並且在概念上來講,scala匯入jar包應該和在整合開發環境中匯入jar包是等效的。所以我想,能否純命令列,不用spark submit的情況下來執行呢?折騰了好幾個小時,方案如下。testrdd.scala import scala.iterator impor...