日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

背景

進入6月后,隨著一個主要功能版本api的上線,服務端的QPS翻了一倍,平時服務器的CPU使用穩定在30%上下,高峰期則在60%上下,但是偶爾會有單臺機器出現持續數分鐘突然飆到90%以上,導致大量api響應緩慢超過客戶端等待時間,觸發其主動斷開連接產生大量Nginx499。

問題分析與解決

問題期間器資源情況

仔細查看問題期間的zabbix監控數據,發現90%的CPU占用中有10%上下是sys time, 5%上下是softirq time,兩者相加可占到接近20%, interrupt和context switch數由之前的10k/s飆升至20k+/s。

定位kafka log發送代碼

首先猜測就是某個新加功能實現有bug,可能造成長時間未執行完成,多個類似請求長期占用CPU而后又被切換為其他線程,反復在這些耗時請求中來回切換卻沒法完成任意一個請求,并造成后續請求在隊列中排隊等待,導致大量請求超時響應。直接入手分析定位新增的某個復雜功能接口,確認不存在死循環的可能,懷疑是接口太耗性能長期占用CPU導致后續請求來不及處理最終連鎖反應導致雪崩。

仔細分析其實現,發現總共會觸發30+次kafka log發送,之前一直認為使用異步批量發送kafka log的情況下,多發幾次log應該不會存在什么問題,不過這里一個請求觸發30+次 kafka log發送確實有點太多了。

本著懷疑的精神決定實際驗證一番kafka log發送耗時,結果發現每次kafka調用耗時居然在0.2-2ms之間波動,這相當于該復雜接口功能請求光是發送kafka消息就需要6-60ms時間,與之前認為應該很快的假設不符!

進一步分析原因,發現原來沿用的kafka producer初始化配置有大坑,其設置了batch_size=20之前一直理解為是每20條log觸發一次實際發送,結果起始batch_size的單位是字節,其表示的是每滿20字節觸發一次實際發送==!所以實際效果是每次kafka log send都會觸發實際發送。通過修改batch_size為64k并設置linger_ms為500ms,驗證kafka log一邊為批量發送模式后,再次測試kafka消息單次調用耗時變為了<0.1ms。
修改線上api服務kafka參數,并將復雜接口kafka send操作從30+次優化為10+次,reload服務后,意外發現內存占用居然還降了50%(2G=>1G),但是對于日常interrupt、context switch次數未觀察到明顯下降。

修改后連續幾天未再出現CPU飆升偶發問題,但是堅持不到一周再次有機器出現類似問題,優化前平均1~2天一次,多的時候一天就有兩三次,優化后出現頻率降低為一周兩三次,從這個角度來看優化具有一定效果。

嘗試擴容解決

由于剛上了一個大版本功能,客戶端確實新增了很多api調用,隨著新版本覆蓋用戶數逐步升高,單機負載逐步升高,于是考慮再擴個容看能否解決問題,在某天下午快速擴容一臺機器后,晚上又出現了該問題,該簡單方案宣告失敗。

定位linux內存水位

在前兩個方案嘗試解決問題失敗后,開始細究一下每5分鐘打印一次的機器top快照,仔細硬瞅之下還真發現點端倪:查看了單臺機器過去近10次CPU飆漲時段的指標,發現free內存一般在CPU飆漲前剩余不到200M,而CPU恢復正常后free內存一般都剩余>1G,這個看上去有點不同尋常。進一步按圖索驥觀察到
kswapd_low_wmark_hit_quickly取值每天增長上千次,直覺上感覺是偏高的。
難道問題是free內存不足、回收引起的?然而zabbix監控上顯示的可用內存一直都是>5G,理論上不應該存在不足才對,進一步探究了解到了free內存回收與內存水位的概念。

內存水位作用

Linux的設計思路是盡量多的使用空閑內存,除了保留一定量的真正空閑立馬可用的內存作為free內存保證系統正常運轉外,其他空閑內存會盡量用于系統緩存(buffer+cache),當free內存不足時則從buffer、cache中回收為free內存即可,而一般我們說linux的可用內存都是指available內存,其實際包括free+可回收的buffer+cache內存,這也是zabbix監控中可用內存使用的指標。
那實際應該保留多少free內存以及何時觸發回收free內存呢?這里就需要引入linux的內存水位(watermark)概念了,具體可參考這篇文章--Linux內核調整watermark_scale_factor以緩解direct reclaim。簡單來說就是linux設置了min/low/high三個內存水位,對應free內存在不同水位線的行為如下:

  • free > high,內存充足,什么都不用做
  • free內存由>high下降至<low,喚醒kswapd開始內存回收--其他進程依然可以正常申請內存
  • 若free內存一直下降至<min, 分配新內存的進程會直接觸發自己同步內存回收操作--direct claim
  • kswapd終于回收free內存至>high,休眠100ms休眠100ms期間若free又下降至<low,則再次喚醒kswapd,并自增kswapd_low_wmark_hit_quickly值休眠100ms后若free變為<high,kswapd需繼續回收內存至>high,而后繼續休眠100ms,并自增kswapd_low_wmark_hit_quickly值休眠100ms后若free依然>high,kswapd將進入長期sleep等待下次被喚醒

內存水位計算與調整

而watermark的min/low/high三者的取值具體是由兩個內核參數min_free_kbytes和watermark_scale_factor決定的,簡單來說--參考
vm內核參數之內存水位min_free_kbytes和保留內存lowmem_reserve_ratio
:

watermark[WMARK_MIN] = (min_free_kbytes/4) * zone.pages/zone.allpageswatermark[WMARK_LOW] = 5/4watermark[WMARK_MIN]watermark[WMARK_HIGH] = 3/2*watermark[WMARK_MIN]

min水位直接由min_free_kbytes決定(后面的zone.pages/zone.allpages表示不同內存區按占總物理內存的比例均分對應水位值),而后min/low/high之間的差值則=1/4low,所以在一臺8G(7969M)的線上機器上min/low/high取值默認為:

Node 0, zone      DMA  per-node stats      nr_inactive_anon 21704      nr_active_anon 171130      nr_inactive_file 1490263      nr_active_file 153139--Node 0, zone    DMA32  pages free     58451        min      6322        low      7902        high     9482   node_scanned  0--Node 0, zone   Normal  pages free     13169        min      10540        low      13175        high     15810   node_scanned  0

主要的Normal區域的min/low/high差值也就105400.254KB=10M左右,如果線上有突增流量,很可能一下子就跑到low乃至min水位之下了。

內存水位調整效果

通過watermark_scale_factor參數將默認值10/10000調整為200/10000,內存水位取值變為:

Node 0, zone      DMA  per-node stats      nr_inactive_anon 21910      nr_active_anon 278859      nr_inactive_file 1366921      nr_active_file 150022--Node 0, zone    DMA32  pages free     56340        min      6342        low      21660        high     36978   node_scanned  0--Node 0, zone   Normal  pages free     35915        min      10520        low      35926        high     61332   node_scanned  0

Normal zone內存水位min/low/high差值變為:low-min=99MB,調整完后對單臺機器逐步放量至近期峰值的150%流量測試,未再出現該問題,至今2周過去了,線上機器未再出現該問題。
另一個驗證水位調整效果的數據是查看并自增
kswapd_low_wmark_hit_quickly值變化值,在調整水位值之前,每天kswapd_low_wmark_hit_quickly新增在1000左右,調整后變為100次,降低了一個數量級。

分享到:
標簽:飆升 CPU
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定