mongodb擴容方案
1、 現狀
兩塊100g的iscsi儲存,分別掛載在/mnt/mongodata和/mnt/mongodata2
其中player_db,repository_d_telecom,task_db,upns_db在mongodata2上,並通過軟鏈的方式連到mongodata
2、 擴容步驟一(停機前準備)
在現有4臺mongodb主機10.127.6.112/117/121/126上,分別分配500giscsi儲存,格式化並掛載到/mnt/mongotemp上
3、 擴容步驟二(停機)
發布pc端和手機端停機公告,測試公告有效後進行下一步
4、 擴容步驟三(停機後操作過程)
按照126,121,117,112的順序關閉4臺mongodb應用
將兩塊資料盤內容複製到新的儲存上
cp –r /mnt /mongodata2/* /mnt/mongotemp
cp –r /mnt/mongodata/* /mnt/mongotemp
確認複製完畢後,先移除mongodata的掛載,將500g儲存掛載到mongodata
umount –l /mnt/mongodata
umount –l /mnt/mongotemp
按112,117,121,126的順序啟動mongodb,並檢視同步是否正常
5、 結果確認
檢視閘道器和基礎資料是否有報錯,資料庫連線是否恢復,若無法自動重連則重啟應用
嘗試登陸並測試各業務,確認是否成功。
撤銷維護公告
一周後,**原有的兩塊100g儲存
6、 回退方案
恢復掛載
重啟相關應用,並確認業務恢復,撤消維護公告
kafka 資料不丟失
設定引數 props.put bootstrap.servers 10.176.2.170 9092,10.176.1.97 9092,10.176.7.57 9092 producer用於壓縮資料的壓縮型別。預設是無壓縮 props.put compression.type gzip 增加延遲 p...
Kafka重複消費,不丟失資料
kafka0.11.0.0版本正式支援精確一次處理語義exactly once semantic eos kafka冪等性參考 1 冪等producer 保證單個分割槽的只會傳送一次,不會出現重複訊息 2 事務 transation 保證原子性的寫入多個分割槽,即寫入到多個分割槽的訊息要麼全部成功,...
Kafka如何保證資料不丟失
kafka的ack機制 在kafka傳送資料的時候,每次傳送訊息都會有乙個確認反饋機制,確保訊息正常的能夠被收到,其中狀態有0,1,1。producer.type sync request.required.acks 1 producer.type async request.required.ac...