1.概述
我們都知道隨著業(yè)務(wù)系統(tǒng)的發(fā)展和使用,數(shù)據(jù)庫存儲的業(yè)務(wù)數(shù)據(jù)量會越來越大,逐漸成為了業(yè)務(wù)系統(tǒng)的瓶頸。在阿里巴巴開發(fā)手冊中也建議:單表行數(shù)超過500萬行或者單表容量超過2GB才推薦進行分庫分表,如果預(yù)計三年后數(shù)據(jù)量根本達不到這個級別,請不要在創(chuàng)建表時就分庫分表。數(shù)據(jù)庫最終都是存儲在磁盤上,隨著數(shù)據(jù)量變大,會導(dǎo)致數(shù)據(jù)操作變得緩慢,無論是計算還是IO,但是話又說回來,單表數(shù)據(jù)量大就一定要進行分庫分表操作嗎?答案是否定的,因為分庫分表本身是一個“很重”的操作,這里就不賣關(guān)子了,直接來看看分庫分表帶來的以下問題和挑戰(zhàn):
- 重構(gòu)適配系統(tǒng) 本身我們的業(yè)務(wù)系統(tǒng)不可能一開始開發(fā)上線的時候就會分庫分表,都是隨著系統(tǒng)使用和時間推移數(shù)據(jù)量日益膨脹才考慮的,進行分庫分表我們業(yè)務(wù)服務(wù)項目代碼需要從單一數(shù)據(jù)庫表適配成多庫多表,這是一次極其繁重的重構(gòu)任務(wù),還涉及到數(shù)據(jù)遷移、備份、擴容等操作問題,該任務(wù)上線鏈路之長、風(fēng)險之大不言而喻,這也是很多小公司即使數(shù)據(jù)量上來了也不會馬上分庫分表的原因吧。
- 事務(wù)問題 目前數(shù)據(jù)庫只能夠?qū)崿F(xiàn)本地事務(wù),也就是在同一個數(shù)據(jù)庫中,可以允許一組操作要么全都正確執(zhí)行,要么都不執(zhí)行,從而確保數(shù)據(jù)庫的一致性。單從分區(qū)角度出發(fā),實際上仍然是一張表,一個庫中,它不會存在事務(wù)一致性的問題,但是會使得事務(wù)變得非常復(fù)雜。而分庫分表會涉及到分布式事務(wù),目前數(shù)據(jù)庫并不支持跨庫事務(wù),所以在這一塊需要解決分布式事務(wù)可能帶來的不一致性
- 分頁、排序、聚合函數(shù)問題 分頁需要按照執(zhí)行的字段進行排序,當(dāng)排序字段就是分片字段的時候,通過分片規(guī)則就比較容易定位到指定的分片;當(dāng)排序字段并非分片字段的時候,就需要在不同分區(qū)、分表中進行排序并且返回,然后再將不同分區(qū)、分表中返回的結(jié)果集進行匯總和再次排序,最終得到返回結(jié)果。取得頁數(shù)越多,性能受影響也就越大。因為在分區(qū)、分表的時候都已經(jīng)限定了分片字段,而其他字段是跟著分片的字段被分到不同的區(qū)域或者表中,這樣各個分區(qū)、分表中的數(shù)據(jù)可能是隨機的,為了排序的準確性,需要將所有分區(qū)、分表節(jié)點的前的數(shù)據(jù)都排好序做合并,最后進行整體排序,這樣的操作是非常耗費CPU和內(nèi)存資源的,所以在分區(qū)、分表的情況下、分頁數(shù)越大,系統(tǒng)的性能也會越差。同樣、在使用聚合函數(shù),如Max、Min、Sum、Count進行計算的時候,也會像排序那樣在每個分區(qū)、分表執(zhí)行相應(yīng)的函數(shù),然后再將各個分區(qū)、分表的結(jié)果集進行匯總和再次計算,最終將結(jié)果返回。
- 全局主鍵避免重復(fù) 單表主鍵id自增能夠保證id不重復(fù),但是分庫分表之后,多張表就不能保證主鍵id不重復(fù)了,這時候就要使用分布式id算法進行生成。
- 數(shù)據(jù)遷移、擴容問題 隨著數(shù)據(jù)持續(xù)增加分表后還需要進行動態(tài)新增表時,這個時候就要考慮數(shù)據(jù)遷移以及擴容問題。一般做法是先讀出歷史數(shù)據(jù),然后按照指定的分表規(guī)則再將數(shù)據(jù)寫入各個分表中。這本身就是繁雜之事。
當(dāng)然以上問題并不是說分庫分表是一個不可取的方案,現(xiàn)在分庫分表方案在很多公司系統(tǒng)都有應(yīng)用的,這里想表達的是需要根據(jù)個人公司業(yè)務(wù)系統(tǒng)數(shù)據(jù)特點,綜合評估做權(quán)衡來選擇解決數(shù)據(jù)量大的實施方案。
項目推薦:基于SpringBoot2.x、SpringCloud和SpringCloudAlibaba企業(yè)級系統(tǒng)架構(gòu)底層框架封裝,解決業(yè)務(wù)開發(fā)時常見的非功能性需求,防止重復(fù)造輪子,方便業(yè)務(wù)快速開發(fā)和企業(yè)技術(shù)棧框架統(tǒng)一管理。引入組件化的思想實現(xiàn)高內(nèi)聚低耦合并且高度可配置化,做到可插拔。嚴格控制包依賴和統(tǒng)一版本管理,做到最少化依賴。注重代碼規(guī)范和注釋,非常適合個人學(xué)習(xí)和企業(yè)使用
Github地址:https://github.com/plasticene/plasticene-boot-starter-parent
Gitee地址:https://gitee.com/plasticene3/plasticene-boot-starter-parent
微信公眾號:Shepherd進階筆記
交流探討qun:Shepherd_126
2.業(yè)務(wù)數(shù)據(jù)量大的解決方案
2.1 數(shù)據(jù)歸檔
來分析一個美團業(yè)務(wù)場景:我們?nèi)粘C刻禳c外賣,平時會去查看一年前的訂單,看看一年前吃了什么嗎?答案是幾乎不會,或者說這種查詢的請求量比較小,出現(xiàn)這種請求大概是有人問你很早之前點的那家外賣好吃,但是你不喜歡記不得了,你幫她查找一下的場景吧~~。由此可見,我們可以根據(jù)這一特點進行數(shù)據(jù)歷史歸檔,即數(shù)據(jù)做冷、熱區(qū)分存儲。當(dāng)然這個區(qū)分時限要根據(jù)自身系統(tǒng)數(shù)據(jù)特點來指定時限是一年還是半年....這樣就能保證我們高頻查詢的熱數(shù)據(jù)量不大了。
在查詢歷史數(shù)據(jù)表時,可以限制查詢條件如必須選擇日期范圍,日期范圍不能超過N個月等等從而減輕查詢壓力。處理歷史存量數(shù)據(jù)比較簡單,因為歷史數(shù)據(jù)一般不會變更了,所以一般只需要兩個步驟進行歸檔:
- 遷移滿足限定數(shù)據(jù)到指定歷史歸檔表
- 根據(jù)主鍵分批刪除業(yè)務(wù)原表數(shù)據(jù),從而降低業(yè)務(wù)數(shù)據(jù)量
這里需要強調(diào)一下,不能一次性刪除所有數(shù)據(jù),因為數(shù)據(jù)量太大可能會引發(fā)超時,鎖表,長事務(wù)等問題,而是應(yīng)該根據(jù)ID分批刪除,例如每次刪除500或1000條數(shù)據(jù)。操作步驟如下:
SELECT MAX(id) AS maxId FROM t WHERE create_time < '指定時間'
查出滿足歸檔條件的數(shù)據(jù)最大id,接下來就可以分批歸檔和刪除了,初始化 startId=0,每次歸檔500條
select * into t_bak from t where id > startId and id <= maxId limit 500
查詢歸檔表獲取最大id:maxBakId,賦值給startId方便下次分批歸檔刪除
select max(id) from t_bak
數(shù)據(jù)刪除:
delete from t where id <= maxBakId
重復(fù)上面的歸檔刪除操作,直至startId到maxId結(jié)束
2.2 讀寫分離和熱點緩存
大部分的業(yè)務(wù)系統(tǒng)場景都是讀多寫少,讀寫比一般都在幾十左右,平均每發(fā)生幾十次查詢請求,才有一次更新請求。換句話來說,數(shù)據(jù)庫需要應(yīng)對的絕大部分請求都是只讀查詢請求。針對這種情況我們可以通過讀寫分離方案來降低數(shù)據(jù)庫壓力。
圖片
主庫負責(zé)執(zhí)行應(yīng)用程序發(fā)來的所有數(shù)據(jù)更新請求,然后異步將數(shù)據(jù)變更實時同步到所有的從庫中去,這樣,主庫和所有從庫中的數(shù)據(jù)是完全一樣的。多個從庫共同分擔(dān)應(yīng)用的查詢請求。
對于一些高頻訪問的熱點數(shù)據(jù),我們可以提前預(yù)處理使用redis緩存,這樣也可以有效降低數(shù)據(jù)庫的壓力。
2.3 同步異構(gòu)數(shù)據(jù)源
我們知道MySQL會隨著數(shù)據(jù)量增大而查詢變慢,那么我們換成其他數(shù)據(jù)源來完成OLAP查詢場景不就得了。特別是在當(dāng)下大數(shù)據(jù)時代,現(xiàn)在互聯(lián)網(wǎng)公司一般都具備與之規(guī)模相對應(yīng)的大數(shù)據(jù)服務(wù)或者平臺,那么作為業(yè)務(wù)開發(fā)者要善于應(yīng)用公司大數(shù)據(jù)能力,減輕業(yè)務(wù)數(shù)據(jù)庫壓力。比如我們可以把數(shù)據(jù)同步到ES、HBASE等平臺。
使用elasticsearch來實現(xiàn)海量數(shù)據(jù)搜索就是一個不錯的選擇,elasticsearch是一個基于Lucene的搜索服務(wù)器。它提供了一個分布式多用戶能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用JAVA開發(fā)的,并作為Apache許可條款下的開放源碼發(fā)布,是當(dāng)前流行的企業(yè)級搜索引擎。能夠達到實時搜索,穩(wěn)定,可靠,快速,安裝使用方便。但是如何實現(xiàn)MySQL數(shù)據(jù)同步elasticsearch呢?
答案是阿里的開源項目Canal,就是用來解決異構(gòu)數(shù)據(jù)源數(shù)據(jù)同步這個問題的,Canal項目利用了MySQL數(shù)據(jù)庫主從同步的原理,將Canal Server模擬成一臺需要同步的從庫,從而讓主庫將binlog日志流發(fā)送到Canal Server接口。Canal項目對binlog日志的解析進行了封裝,我們可以直接得到解析后的數(shù)據(jù),而不需要理會binlog的日志格式。而且Canal項目整合了zookeeper,整體實現(xiàn)了高可用,可伸縮性強
圖片
2.4 分庫分表
如果通過以上:歷史數(shù)據(jù)歸檔、數(shù)據(jù)同步異構(gòu)數(shù)據(jù)源、讀寫分離、熱點緩存都不能解決MySQL單表數(shù)據(jù)壓力的,這時我們只能拆分數(shù)據(jù)表,即把單庫單表數(shù)據(jù)遷移到多庫多表中。這也是一線流量互聯(lián)網(wǎng)公司需要面對的,你試想一下淘寶雙11那幾天要上架多少商品,產(chǎn)生多少訂單,這已經(jīng)不是前面的方案所能解決了,只能分庫分表了。當(dāng)然分庫分表是一個復(fù)雜的操作,也不是三言兩語就能全面講清楚的,且也不是我們今天主要議題,所以我這里粗略概述一下,感興趣的可自行查閱相關(guān)資料。
垂直拆分
垂直拆分就是按照業(yè)務(wù)拆分,我們將電商數(shù)據(jù)庫拆分成三個庫,訂單庫、商品庫。支付庫,訂單表在訂單庫,商品表在商品庫,支付表在支付庫。這樣每個庫只需要存儲本業(yè)務(wù)數(shù)據(jù),物理隔離不會互相影響。
水平拆分
按照垂直拆分方案,現(xiàn)在我們已經(jīng)有三個庫了,平穩(wěn)運行了一段時間。但是隨著業(yè)務(wù)增長,每個單庫單表的數(shù)據(jù)量也越來越大,逐漸到達瓶頸。
這時我們就要對數(shù)據(jù)表進行水平拆分,所謂水平拆分就是根據(jù)某種規(guī)則將單庫單表數(shù)據(jù)分散到多庫多表,從而減小單庫單表的壓力。
水平拆分策略有很多方案,最重要的一點是選好ShardingKey,也就是按照哪一列進行拆分,怎么分取決于我們訪問數(shù)據(jù)的方式。
比如我們可以根據(jù)時間范圍分片,根據(jù)創(chuàng)建時間分配到不同的表中。也可以根據(jù)哈希分表,哈希分片可以較為均勻?qū)?shù)據(jù)分散在數(shù)據(jù)庫中。我們現(xiàn)在將訂單庫拆分為4個庫編號為[0,3],每個庫4張表編號為[0,3],根據(jù)分布式id%編號落庫,當(dāng)然也有其他分片方案,這取決于你們公司業(yè)務(wù)數(shù)據(jù)特點。
3.如何實時同步數(shù)據(jù)到elasticsearch支持海量查詢
我一開始就強調(diào)了分庫分表帶來的問題,可見今天的重點肯定不是采用分庫分表來解決數(shù)據(jù)量大的問題的,所以我接下來來講講我司的解決方案:數(shù)據(jù)歸檔+讀寫分離+同步異構(gòu)數(shù)據(jù)源
數(shù)據(jù)歸檔可以有效降低數(shù)據(jù)庫數(shù)據(jù)量,讀寫分離可以降低單數(shù)據(jù)庫的讀寫壓力,異構(gòu)數(shù)據(jù)源es滿足日常查詢性能要求。
數(shù)據(jù)歸檔的操作步驟前面說過了,至于數(shù)據(jù)庫讀寫分離實現(xiàn)方案等后續(xù)有時間再分析一波,今天主要講講如何高效實時同步elasticsearch滿足查詢要求。直接看架構(gòu)圖:
圖片
數(shù)據(jù)同步elasticsearch大概有兩種:
1.針對代碼中進行數(shù)據(jù)庫的增刪改操作時,同時進行elasticsearch的增刪改操作。這種方式代碼侵入性強,耦合度高,實時性高,改造起來比較痛苦,因為你不能錯過任何一個增刪改的地方同步操作es,否則就會出現(xiàn)數(shù)據(jù)不一致問題。
2.利用監(jiān)聽mysql binlog同步,實時性強,對于應(yīng)用無任何侵入性,且性能更好,不會造成資源浪費。正好阿里巴巴開源的canal就是干這個的,完美解決問題。通過上面的架構(gòu)圖知道可以通過canal client拿到canal server對binlog的解析直接同步到es,但是這種方式處理比較慢,等于我們是一條一條的去同步,很多情況下es的索引表是一張大寬表,是來自MySQL幾張表join的信息,這要求我們同步的時候還要根據(jù)主鍵通過join sql語句查出數(shù)據(jù)再同步,自然就更慢了。所以要使用消息隊列kafka進行數(shù)據(jù)削峰填谷,批量操作是保證實時性的關(guān)鍵。
4.總結(jié)
以上全部就是我們對海量數(shù)據(jù)實時搜索的解決方案淺析,各有利弊。我們可以根據(jù)自身的業(yè)務(wù)數(shù)據(jù)情況選擇合適的方案即可,切勿動不動就來分庫分表,顯得有點不知深淺。
本文轉(zhuǎn)載自微信公眾號「Shepherd進階筆記」