**《segment-based predominant learning swarm optimizer for large-scale optimization》閱讀筆記。
1.spl更新方法。對於種**,隨機選擇兩個粒子將其適應度值進行比較,劃分rg (good)和rp(poor),相對較好的粒子rg和相對較差的粒子rp,大小分別為(粒子數/2)。(x_rg_rp_j)是rp中的粒子j在rg中的學習粒子的位置,(x_rg_rand)是rg中隨機選擇的粒子。
其中,(rp_j)是rp中第j個相對較差的粒子,總維度m被完全劃分為:g=, g(j,i) 表示第j個相對較差的粒子將從g_i中學習的對應的相對較好的粒子,x ̂是種群的加權平均位置,r是[0,1]之間的隨機數,φ=0.1為控制影響因子。η是用於避免零分母的小正值。
2. 動態分塊。分解池s=,相對效能改進r_s=初始化為1,集合s中元素選擇概率為p_s=。
其中,f是指上一代的全域性最優適應度值,f ̃是當代全域性最優適應度值。得到集合p_s,使用輪盤賭的選擇方式得到集合s中維度分塊數目。
3. spl策略使得進化過程中種群的多樣性提高,收斂速度變緩。
4.總算法流程圖
大規模機器學習流程的構建與部署
文章講的是大規模機器學習流程的構建與部署,現在有許多的機器學習演算法實現是可以擴充套件到大資料集上的 其中包括矩陣分解 svm 邏輯回歸 lasso 等等 實際上,機器學習專家們很樂於指出的一點是 如果你能把機器學習問題轉化為乙個簡單的數值優化問題,你就幾近成功了。當然,現實的問題是,很多機器學習專...
cacti效能優化筆記 面向大規模集群的監控管理
2009 10 9 21 52zysno1 目標 單台cacti伺服器,同時監控1000 server,50000 rrd 檔案.保證圖表資料的連續和流暢,每一輪資料採集時間控制在3分鐘之內。硬體環境 intel r xeon r cpu e5420 2.50ghz 4 cores 4g memor...
HPE發布多款AI優化的大規模可擴充套件系統
hpe即將發布全新高效能計算系統,主要針對大規模並行處理和人工智慧 ai 相關的任務進行了優化。據了解,此次新發布的hpe apollo 6000 gen10 hpe sgi 8600以及hpe apollo 10系列系統將從2017年7月開始全球供貨,主要針對那些需要處理海量資料的研究機構和 機構...