背景
進入6月后,隨著一個主要功能版本api的上線,服務端的QPS翻了一倍,平時服務器的CPU使用穩定在30%上下,高峰期則在60%上下,但是偶爾會有單臺機器出現持續數分鐘突然飆到90%以上,導致大量api響應緩慢超過客戶端等待時間,觸發其主動斷開連接產生大量Nginx499。
問題分析與解決
問題期間器資源情況
仔細查看問題期間的zabbix監控數據,發現90%的CPU占用中有10%上下是sys time, 5%上下是softirq time,兩者相加可占到接近20%, interrupt和context switch數由之前的10k/s飆升至20k+/s。
定位kafka log發送代碼
首先猜測就是某個新加功能實現有bug,可能造成長時間未執行完成,多個類似請求長期占用CPU而后又被切換為其他線程,反復在這些耗時請求中來回切換卻沒法完成任意一個請求,并造成后續請求在隊列中排隊等待,導致大量請求超時響應。直接入手分析定位新增的某個復雜功能接口,確認不存在死循環的可能,懷疑是接口太耗性能長期占用CPU導致后續請求來不及處理最終連鎖反應導致雪崩。
仔細分析其實現,發現總共會觸發30+次kafka log發送,之前一直認為使用異步批量發送kafka log的情況下,多發幾次log應該不會存在什么問題,不過這里一個請求觸發30+次 kafka log發送確實有點太多了。
本著懷疑的精神決定實際驗證一番kafka log發送耗時,結果發現每次kafka調用耗時居然在0.2-2ms之間波動,這相當于該復雜接口功能請求光是發送kafka消息就需要6-60ms時間,與之前認為應該很快的假設不符!
進一步分析原因,發現原來沿用的kafka producer初始化配置有大坑,其設置了batch_size=20之前一直理解為是每20條log觸發一次實際發送,結果起始batch_size的單位是字節,其表示的是每滿20字節觸發一次實際發送==!所以實際效果是每次kafka log send都會觸發實際發送。通過修改batch_size為64k并設置linger_ms為500ms,驗證kafka log一邊為批量發送模式后,再次測試kafka消息單次調用耗時變為了<0.1ms。
修改線上api服務kafka參數,并將復雜接口kafka send操作從30+次優化為10+次,reload服務后,意外發現內存占用居然還降了50%(2G=>1G),但是對于日常interrupt、context switch次數未觀察到明顯下降。
修改后連續幾天未再出現CPU飆升偶發問題,但是堅持不到一周再次有機器出現類似問題,優化前平均1~2天一次,多的時候一天就有兩三次,優化后出現頻率降低為一周兩三次,從這個角度來看優化具有一定效果。
嘗試擴容解決
由于剛上了一個大版本功能,客戶端確實新增了很多api調用,隨著新版本覆蓋用戶數逐步升高,單機負載逐步升高,于是考慮再擴個容看能否解決問題,在某天下午快速擴容一臺機器后,晚上又出現了該問題,該簡單方案宣告失敗。
定位linux內存水位
在前兩個方案嘗試解決問題失敗后,開始細究一下每5分鐘打印一次的機器top快照,仔細硬瞅之下還真發現點端倪:查看了單臺機器過去近10次CPU飆漲時段的指標,發現free內存一般在CPU飆漲前剩余不到200M,而CPU恢復正常后free內存一般都剩余>1G,這個看上去有點不同尋常。進一步按圖索驥觀察到
kswapd_low_wmark_hit_quickly取值每天增長上千次,直覺上感覺是偏高的。
難道問題是free內存不足、回收引起的?然而zabbix監控上顯示的可用內存一直都是>5G,理論上不應該存在不足才對,進一步探究了解到了free內存回收與內存水位的概念。
內存水位作用
Linux的設計思路是盡量多的使用空閑內存,除了保留一定量的真正空閑立馬可用的內存作為free內存保證系統正常運轉外,其他空閑內存會盡量用于系統緩存(buffer+cache),當free內存不足時則從buffer、cache中回收為free內存即可,而一般我們說linux的可用內存都是指available內存,其實際包括free+可回收的buffer+cache內存,這也是zabbix監控中可用內存使用的指標。
那實際應該保留多少free內存以及何時觸發回收free內存呢?這里就需要引入linux的內存水位(watermark)概念了,具體可參考這篇文章--Linux內核調整watermark_scale_factor以緩解direct reclaim。簡單來說就是linux設置了min/low/high三個內存水位,對應free內存在不同水位線的行為如下:
- free > high,內存充足,什么都不用做
- free內存由>high下降至<low,喚醒kswapd開始內存回收--其他進程依然可以正常申請內存
- 若free內存一直下降至<min, 分配新內存的進程會直接觸發自己同步內存回收操作--direct claim
- kswapd終于回收free內存至>high,休眠100ms休眠100ms期間若free又下降至<low,則再次喚醒kswapd,并自增kswapd_low_wmark_hit_quickly值休眠100ms后若free變為<high,kswapd需繼續回收內存至>high,而后繼續休眠100ms,并自增kswapd_low_wmark_hit_quickly值休眠100ms后若free依然>high,kswapd將進入長期sleep等待下次被喚醒
內存水位計算與調整
而watermark的min/low/high三者的取值具體是由兩個內核參數min_free_kbytes和watermark_scale_factor決定的,簡單來說--參考
vm內核參數之內存水位min_free_kbytes和保留內存lowmem_reserve_ratio
:
watermark[WMARK_MIN] = (min_free_kbytes/4) * zone.pages/zone.allpageswatermark[WMARK_LOW] = 5/4watermark[WMARK_MIN]watermark[WMARK_HIGH] = 3/2*watermark[WMARK_MIN]
min水位直接由min_free_kbytes決定(后面的zone.pages/zone.allpages表示不同內存區按占總物理內存的比例均分對應水位值),而后min/low/high之間的差值則=1/4low,所以在一臺8G(7969M)的線上機器上min/low/high取值默認為:
Node 0, zone DMA per-node stats nr_inactive_anon 21704 nr_active_anon 171130 nr_inactive_file 1490263 nr_active_file 153139--Node 0, zone DMA32 pages free 58451 min 6322 low 7902 high 9482 node_scanned 0--Node 0, zone Normal pages free 13169 min 10540 low 13175 high 15810 node_scanned 0
主要的Normal區域的min/low/high差值也就105400.254KB=10M左右,如果線上有突增流量,很可能一下子就跑到low乃至min水位之下了。
內存水位調整效果
通過watermark_scale_factor參數將默認值10/10000調整為200/10000,內存水位取值變為:
Node 0, zone DMA per-node stats nr_inactive_anon 21910 nr_active_anon 278859 nr_inactive_file 1366921 nr_active_file 150022--Node 0, zone DMA32 pages free 56340 min 6342 low 21660 high 36978 node_scanned 0--Node 0, zone Normal pages free 35915 min 10520 low 35926 high 61332 node_scanned 0
Normal zone內存水位min/low/high差值變為:low-min=99MB,調整完后對單臺機器逐步放量至近期峰值的150%流量測試,未再出現該問題,至今2周過去了,線上機器未再出現該問題。
另一個驗證水位調整效果的數據是查看并自增
kswapd_low_wmark_hit_quickly值變化值,在調整水位值之前,每天kswapd_low_wmark_hit_quickly新增在1000左右,調整后變為100次,降低了一個數量級。