第一次技術群面,十個人和兩個面試官,題目是訪問量由百萬級突破到千萬級會遇到的問題以及處理方法。然後單獨面試。那時候還沒用過hbase也不曉得各位大佬再聊些什麼,有幸過了,再複試。
目錄
1、前端
1.1 把靜態頁面和等靜態資源放到cdn中
1.1.1 cdn 的定義
1.1.2 沒有cdn的訪問過程
1.1.3 引用cdn
1.1.4 cdn的其他作用
2 負載均衡
2.1 負載均衡演算法:
3 資料庫
3.1 水平或者是垂直分表。
問題訪問的效率會變得緩慢,主要是想怎麼提高訪問的效率。
cdn(content delivery network)內容分發網路。
防禦ddos攻擊。
ddos我的理解:利用網路節點資源傳送大量請求到目標伺服器,導致伺服器拒絕服務真正的使用者。
cdn主要是做到了分流,隔離的效果。
我的話來說就是:負載均衡器(想象成領導者)調負載小的伺服器(閒的那乙個組員)給他分配任務。
1、接到任務後按順序分發給可以接受任務的伺服器,這就是輪詢。適用於每乙個鏈結請求的時間都差不多;不適用於的情況:我有5個伺服器,第一次分別有請求的編號為1-5,3號請求的請求的時間最長,然後是第二次請求的編號分別為6-10,第8個請求連線的時間也是很長,這不坑慘的第三個伺服器?
2、找到負載最少的,優先選擇連線數最少,假如存請求連線時間較長就優先選擇這個辦法。
3、根據請求源的 ip 的雜湊(hash)來選擇要**的伺服器。這可以使同型別的使用者都被同乙個伺服器服務。
首先是每次插入或者刪除記錄,資料庫都要相應地更新索引,索引假如太多例如一本字典的索引比實際有用的內容要多那樣查起來是十分費勁的。還有就是在很多時候查詢出來一條資料可能很也有冗餘無用的結果
以上是我的拙見,有什麼意見
Python 刷訪問量
ip通過 獲取,我使用的的是https 協議的 根據自己需求選擇http或者https 協議的頁面。廢話不多說,直接上 coding utf 8 from urllib import request import requests import random import time import r...
NGINX訪問量統計
1.根據訪問ip統計uv awk access.log sort uniq c wc l 2.統計訪問url統計pv awk access.log wc l 3.查詢訪問最頻繁的url awk access.log sort uniq c sort n k 1 r more 4.查詢訪問最頻繁的ip...
linux nginx訪問量統計
nginx訪問量統計 1.根據訪問ip統計uv awk access.log sort uniq c wc l 2.統計訪問url統計pv awk access.log wc l 3.查詢訪問最頻繁的url awk access.log sort uniq c sort n k 1 r more 4...