從7月19號開始,搞了三個半月hadoop了,也沒怎麼用心,真正用心做的時間甚至都不超過一周的工作時間,慚愧,愧對信任我的老師,本來打算九月底出**,到現在hadoop的例子都沒執行出來。
權威指南看的馬馬虎虎,所有的內容都沒有認認真真地理解, 沒有逐字逐句地研究,又想起了在本科畢業後在天健做研發,懶惰的想法,隨時隨地的天馬行空,對自己寫程式,做研發,真的沒信心了,但是,一屋不掃何以掃天下?寫程式基本就是個體力活,與智商無關,與情商無關,只與認真與否有關。
現在在做的是一篇**的還原,從本質上說就是實現下hadoop的udf的功能定製,涉及到的模組有 inputformat, filesplit, recordreader,map和reduce,現在是完全沒有思路,改寫也完全沒有進入狀態,想週末之前拿出來個結果,看來是行不通了
之前困惑的是沒有資料,貌似俞老師也說過這樣的話,但是完全是站在不同的高度上說的,我是完全不上心,最基本的都沒看明白,jar包中的文件看了十分之一都不到,contribute的那些定製的jar包完全都沒明白。那裡面就是自定義的udf, 這就是範例,要研究的就是這些,當然例子中功能很多,看明白,選取我們想要的東西就好了。排程的那幾個演算法,fifo(預設),公平排程,capacity 排程,這幾個包甚至可以研究一下,(不過原理明白是最重要的吧?)
想找好工作,而且是有戶口的,也就是說網際網路的國企,那麼就要去做搜尋了,搜尋的後台,必然是用linux, c++來做文章的,後台程式的重頭戲還是演算法,多執行緒程式設計,(基礎最紮實的人才行)任務太艱鉅了;話說不知道**是否有戲,下週去會會**,估計聯想和哥那個公司也該有信了。
新的發現,contribute中的用法還有:index中是與lucene結合,建立索引的測試,其中都涉及到了inputformat和recordreader的寫法,很好的參照,基本就是按照這些來寫了;其他的**也要好好研究,
benchmark的源**
搞機經驗總結
1 急於上uefi 導致機器不穩定 先是不刪除原系統盤任何分割槽 導致安裝持續藍屏 delay兩天 2 清空後安裝uefi 成功但是系統不穩定 會頻繁重啟 3 修改bios 相關啟動項均為uefi 導致登入頁面無法進入 4 再次更換系統重灌 問題依舊 5 逛論壇發現顯示卡不支援純uefi啟動 修改回...
hadoop命令總結
1 檢視指定目錄下內容 hadoop dfs ls 檔案目錄 eg hadoop dfs ls user wangkai.pt 2 開啟某個已存在檔案 hadoop dfs cat file path eg hadoop dfs cat user wangkai.pt data.txt 3 將本地檔...
hadoop學習總結
1 sbin目錄 存放啟動或停止hadoop相關服務的指令碼 2 bin目錄 存放對hadoop相關服務 hdfs,yarn 進行操作的指令碼 3 etc目錄 hadoop的配置檔案目錄,存放hadoop的配置檔案 4 share目錄 存放hadoop的依賴jar包和文件,文件可以被刪除掉 5 li...