1:雲搜二期使用k8s提升了哪些點?
環境打包(使用倉庫鏡像版本,完美解決)
自動化部署,重置分片,重建 (一期未能有效的實現重建,重置分片功能)
資源極大優化:包括機器利用率(減少了50%+的機器),剔除01版本,配額(限制應用最大最低使用資源),資源隔離 (可以對商業應用建立集羣,保證高優先級)
2: 對於上面的點,雲搜二期是如何將搜索雲化的? @hxx可以按這個來扯雲蒐集羣二期
a:首先將各模塊容器化(查詢+數據流程各個模塊都容器化了)
b:init容器解決數據流程自動化(啓動時判斷有無副本,如果沒有就全量,有的話就拷貝,除了第一個啓動的需要建
全量其餘都能快速的拷貝了),init容器退出說明該啓動增量流程了
3:部署在雲端提供的優勢
可靠性 (不會有節點宕機情況發生,節點會自動重啓和自動遷移)
負載均衡 (service自帶屬性)
健康檢查及監控 (撞線)
4: 春節期間,cachesize 設置過小,應用耗時暴漲
背景:爲了節省在分配時佔用的機器內存資源,將cache size和qps相關聯了,導致qps在春節期間暴漲的應用,緩存穿透,耗時急劇增加!
解決: 重新設計cache size,至少設置一個最低值!
反思:前期爲了提高機器資源利用率,削減性能指標,爲充分考慮到風險!
5: 錯刪除 merger deployment 恢復操作
a: 恢復merger deployment,需要使用k8sctrl 來執行 deployment 的創建
b: 恢復merger後,svc的ip和端口沒有變(因爲不是刪除的svc),預期是可查詢,但是卻不可行
c: 不可行報錯爲 proxy連接merger異常,此處原因proxy bug: merger異常後,proxy不會自動恢復重連(在k8s svc 的ip port都是重複的情況下不會