高效能計算(high performance computing,也就是我們常說的hpc) 指的是使用很多處理器(作為單個機器的一部分)或者某一集群中組織的幾台計算機(作為單個計算資源操作)的計算系統和環境。有許多態別的hpc 系統,其範圍從標準計算機的大型集群,到高度專用的硬體。
其實高效能計算機乃至整個計算機,都是因軍事應用而誕生,最早可以追溯到圖靈、馮·諾依曼時代。如今的高效能計算機已經全面應用到各個領域,包括天氣預報、飛機汽車製造、生物醫療以及動畫影視製作等等。而超算的發展方向也從原來的大規模、高功耗向節能環保邁進。近日筆者在德國萊布尼茨超算中心了解到的這套系統就是基於節能而開發,通過水冷系統充分詮釋了科技的進步。
新天鵝堡給我們留下了「深刻」的印象
眾人濕身在狂風瑟瑟發抖,我跟大家說「看來這風冷還是挺猛的...」周志強老師(聯想集團中國區商用事業部終端計算總監、企業架構師)在旁邊手指著自己濕漉漉的衣服道「這哪是風冷?分明是水冷嘛!」水冷的「散熱」效果確實領略到了,只不過所有人都狼狽不堪。參觀水冷就先親身體驗了一把,果然不虛此行。
萊布尼茨超算中心通過水冷降低1000萬歐元電費成本
lrz高效能計算中心
言歸正傳,我們繼續看超算。最近大熱的聯想首創的45℃溫水水冷技術,相信大家都不會陌生,它憑藉更高的效能、更低的能耗、更少的占地空間和更低的噪音,在全球範圍內獲得了越來越多使用者的青睞。用萊布尼茨超算中心工作人員的話說:「這裡靜的可以開**會」。
德國巴伐利亞科學院萊布尼茨超級計算中心(lrz)運營的supermuc,是一款採用了革新性溫水冷卻技術的超級計算機。
水冷伺服器系統
據了解,lrz全部採用了聯想nextscale system系統,在該實驗室實現了1.1的pue值,擁有9216節點,峰值運算速度2897000萬億次(gflops),整機效能高達90.95%,5年來整體電費下降37%:從2760萬歐元降至1740萬歐元,節省超過1000萬歐元。
水冷系統降低能耗40%
與傳統風冷系統相比,lrz水冷系統省掉的風扇節省了10%的能耗,此外冷卻系統減少20%能耗,6%能耗節省來自軟體管理。因此實現了節省40%總能耗的設計思路。
據工作人員介紹,lrz超算部分功耗為2兆瓦,冷卻本身不消耗電力,採用自然冷卻方式,可以稱之為「免費冷卻」。其他主要是水幫浦迴圈等消耗的電力,占得非常少。超算中心冷卻水溫度一般在45度左右,自然冷卻可以降到38度,有一定的溫差,因此可以滿足伺服器冷卻需求。此外,lrz還利用系統散熱後的餘熱對建築物進行供暖,將歐洲人的環保理念發揮得淋漓盡致。
思考:水冷散熱方式在我國推廣的並不好,絕大多數資料中心、高效能計算中心都採用傳統風冷散熱。新技術方面國外使用者嘗試的比較多,還有利用高緯度地區冬天寒冷的空氣進行散熱、利用山洞、海水冷卻等等,但在國內的推廣卻是鳳毛麟角。之前筆者曾經採訪過一家資料中心企業,很多年前他們在天津嘗試過新風(自然風)冷卻系統,但北方城市空氣汙染和腐蝕現象比較嚴重,最終只能繼續改回傳統空調風冷。不過隨著技術的不斷發展,現在也出現了更符合「國情」的空氣過濾系統。
相比之下水冷更容易被國內使用者接受,據了解,此次top500的冠軍神威太湖之光就採用了水冷散熱。而國內也有企業在內蒙、東北等高緯度地區建設自然風冷卻資料中心,在除夏季之外的其他三個季節均可用新風冷卻,極大降低冷卻成本,加入空氣過濾系統也可以減少空氣腐蝕現象。新技術正在逐步被中國市場所接受。
向伺服器上傳檔案
模擬form表單 前端 var formdata new formdata 自帶的函式 通過ajax上傳 ajax handlemodifysucc function data 後端 controller層 獲取前端換過來的資料 const modifycompany req,res req.bod...
linux使用scp實現伺服器A向伺服器B傳輸檔案
scp是有security的檔案copy,基於ssh登入。操作起來比較方便,比如要把當前乙個檔案copy到遠端另外一台主機上,可以如下命令。複製 如下 scp home daisy full.tar.gz root 172.19.2.75 home root 然後會提示你輸入另外那台172.19.2...
ajax 向伺服器傳送請求
ajax 向伺服器傳送請求 1.將請求傳送到伺服器,使用xmlhttprequest物件的 open 和 send 方法。方法 method 請求的型別 get 或者 post url 檔案在伺服器上的位置 該檔案可以是任何型別的檔案,比如 txt,xml,asp,php async true 非同...