真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

如何解決MongoDB謹防索引seek的效率問題-創(chuàng)新互聯(lián)

這篇文章主要介紹如何解決MongoDB謹防索引seek的效率問題,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

創(chuàng)新互聯(lián)專注于企業(yè)全網(wǎng)整合營銷推廣、網(wǎng)站重做改版、扎囊網(wǎng)站定制設(shè)計、自適應(yīng)品牌網(wǎng)站建設(shè)、H5高端網(wǎng)站建設(shè)、商城網(wǎng)站建設(shè)、集團公司官網(wǎng)建設(shè)、成都外貿(mào)網(wǎng)站制作、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁設(shè)計等建站業(yè)務(wù),價格優(yōu)惠性價比高,為扎囊等各大城市提供網(wǎng)站開發(fā)制作服務(wù)。

背景

最近線上的一個工單分析服務(wù)一直不大穩(wěn)定,監(jiān)控平臺時不時發(fā)出數(shù)據(jù)庫操作超時的告警。

運維兄弟溝通后,發(fā)現(xiàn)在每天凌晨1點都會出現(xiàn)若干次的業(yè)務(wù)操作失敗,而數(shù)據(jù)庫監(jiān)控上并沒有發(fā)現(xiàn)明顯的異常。

在該分析服務(wù)的日志中發(fā)現(xiàn)了某個數(shù)據(jù)庫操作產(chǎn)生了 SocketTimeoutException。

開發(fā)同學一開始希望通過調(diào)整 MongoDB Java Driver 的超時參數(shù)來規(guī)避這個問題。
但經(jīng)過詳細分析之后,這樣是無法根治問題的,而且超時配置應(yīng)該如何調(diào)整也難以評估。

下面是關(guān)于對這個問題的分析、調(diào)優(yōu)的過程。

初步分析

從出錯的信息上看,是數(shù)據(jù)庫的操作響應(yīng)超時了,此時客戶端配置的 SocketReadTimeout 為 60s。
那么,是什么操作會導(dǎo)致數(shù)據(jù)庫 60s 還沒能返回呢?

業(yè)務(wù)操作

如何解決MongoDB謹防索引seek的效率問題

左邊的數(shù)據(jù)庫是一個工單數(shù)據(jù)表(t_work_order),其中記錄了每張工單的信息,包括工單編號(oid)、最后修改時間(lastModifiedTime)

分析服務(wù)是Java實現(xiàn)的一個應(yīng)用程序,在每天凌晨1:00 會拉取出前一天修改的工單信息(要求按工單號排序)進行處理。

由于工單表非常大(千萬級),所以在處理時會采用分頁的做法(每次取1000條),使用按工單號翻頁的方式:

第一次拉取

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true}})
  .sort({"oid":1}).limit(1000)

第二次拉取,以第一次拉取的最后一條記錄的工單號作為起點

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true, $gt: "VXZ190"}})
  .sort({"oid":1}).limit(1000)
..

根據(jù)這樣的查詢,開發(fā)人員給數(shù)據(jù)表使用的索引如下:

db.t_work_order.ensureIndexes({
  "oid" : 1,
  "lastModifiedTime" : -1
})

盡管該索引與查詢字段基本是匹配的,但在實際執(zhí)行時卻表現(xiàn)出很低的效率:
第一次拉取時間非常的長,經(jīng)常超過60s導(dǎo)致報錯,而后面的拉取時間則會快一些

為了精確的模擬該場景,我們在測試環(huán)境中預(yù)置了小部分數(shù)據(jù),對拉取記錄的SQL執(zhí)行Explain:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}
  "oid": {$exists: true}})
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

輸出結(jié)果如下

"nReturned" : 1000,
"executionTimeMillis" : 589,
"totalKeysExamined" : 136661,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
    "oid" : [
        "[MinKey, MaxKey]"
    ],
    "lastModifiedTime" : [
        "(new Date(1554806697106), new Date(1554803097106))"
    ]
},
"keysExamined" : 136661,
"seeks" : 135662,

在執(zhí)行過程中發(fā)現(xiàn),檢索1000條記錄,居然需要掃描 13.6 W條索引項!

其中,幾乎所有的開銷都花費在了 一個seeks操作上了。

索引seeks的原因

官方文檔對于 seeks 的解釋如下:

The number of times that we had to seek the index cursor to a new position in order to complete the index scan.

翻譯過來就是:

seeks 是指為了完成索引掃描(stage),執(zhí)行器必須將游標定位到新位置的次數(shù)。

我們都知道 MongoDB 的索引是B+樹的實現(xiàn)(3.x以上),對于連續(xù)的葉子節(jié)點掃描來說是非常快的(只需要一次尋址),那么seeks操作太多則表示整個掃描過程中出現(xiàn)了大量的尋址(跳過非目標節(jié)點)。
而且,這個seeks指標是在3.4版本支持的,因此可以推測該操作對性能是存在影響的。

為了探究 seeks 是怎么產(chǎn)生的,我們對查詢語句嘗試做了一些變更:

去掉 exists 條件

exists 條件的存在是因為歷史問題(一些舊記錄并不包含工單號的字段),為了檢查exists查詢是否為關(guān)鍵問題,修改如下:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}
  })
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

執(zhí)行后的結(jié)果為:

"nReturned" : 1000,
"executionTimeMillis" : 1533,
"totalKeysExamined" : 272322,
"totalDocsExamined" : 272322,
 
...

"inputStage" : {
  "stage" : "FETCH",
  "filter" : {
      "$and" : [
          {
              "lastModifiedTime" : {
                  "$lt" : ISODate("2019-04-09T10:44:57.106Z")
              }
          },
          {
              "lastModifiedTime" : {
                  "$gt" : ISODate("2019-04-09T09:44:57.106Z")
              }
          }
      ]
},

...

"indexBounds" : {
    "oid" : [
        "[MinKey, MaxKey]"
    ],
    "lastModifiedTime" : [
        "[MaxKey, MinKey]"
    ]
},
"keysExamined" : 272322,
"seeks" : 1,

這里發(fā)現(xiàn),去掉 exists 之后,seeks 變成了1次,但整個查詢掃描了 27.2W 條索引項! 剛好是去掉之前的2倍。

seeks 變?yōu)?次說明已經(jīng)使用了葉節(jié)點順序掃描的方式,然而由于掃描范圍非常大,為了找到目標記錄,會執(zhí)行順序掃描并過濾大量不符合條件的記錄。

在 FETCH 階段出現(xiàn)了 filter可說明這一點。與此同時,我們檢查了數(shù)據(jù)表的特征:同一個工單號是存在兩條記錄的!于是可以說明:

在存在exists查詢條件時,執(zhí)行器會選擇按工單號進行seeks跳躍式檢索,如下圖:

如何解決MongoDB謹防索引seek的效率問題

在不存在exists條件的情況下,執(zhí)行器選擇了葉節(jié)點順序掃描的方式,如下圖:

如何解決MongoDB謹防索引seek的效率問題

gt 條件和反序

除了第一次查詢之外,我們對后續(xù)的分頁查詢也進行了分析,如下:

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true, $gt: "VXZ190"}})
  .sort({"oid":1}).limit(1000)
  .explain("executionStats")

上面的語句中,主要是增加了$gt: "VXZ190"這一個條件,執(zhí)行過程如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1004,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
  "oid" : [ 
    "(\"VXZ190\", {})"
  ],
  "lastModifiedTime" : [ 
    "(new Date(1554806697106), new Date(1554803097106))"
  ]
},
"keysExamined" : 1004,
"seeks" : 5,

可以發(fā)現(xiàn),seeks的數(shù)量非常少,而且檢索過程只掃描了1004條記錄,效率是很高的。

那么,是不是意味著在后面的數(shù)據(jù)中,滿足查詢的條件的記錄非常密集呢?

為了驗證這一點,我們將一開始第一次分頁的查詢做一下調(diào)整,改為按工單號降序的方式(從后往前掃描):

db.t_work_order.find({
  "lastModifiedTime":{
   $gt: new Date("2019-04-09T09:44:57.106Z"),
   $lt: new Date("2019-04-09T10:44:57.106Z")}, 
  "oid": {$exists: true}})
  .sort({"oid":-1}).limit(1000)
  .explain("executionStats")

新的"反序查詢語句"的執(zhí)行過程如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1001,
"totalDocsExamined" : 1000,

...

"direction" : "backward",
"indexBounds" : {
  "oid" : [ 
    "[MaxKey, MinKey]"
  ],
  "lastModifiedTime" : [ 
    "(new Date(1554803097106), new Date(1554806697106))"
  ]
},
"keysExamined" : 1001,
"seeks" : 2,

可以看到,執(zhí)行的效率更高了,幾乎不需要什么 seeks 操作!

經(jīng)過一番確認后,我們獲知了在所有數(shù)據(jù)的分布中,工單號越大的記錄其更新時間值也越大,基本上我們想查詢的目標數(shù)據(jù)都集中在尾端。

于是就會出現(xiàn)一開始提到的,第一次查詢非常慢甚至超時,而后面的查詢就快了。

上面提到的兩個查詢執(zhí)行路線如圖所示:

加入$gt 條件,從中間開始檢索

如何解決MongoDB謹防索引seek的效率問題

反序,從后面開始檢索

如何解決MongoDB謹防索引seek的效率問題

優(yōu)化思路

通過分析,我們知道了問題的癥結(jié)在于索引的掃描范圍過大,那么如何優(yōu)化,以避免掃描大量記錄呢?

從現(xiàn)有的索引及條件來看,由于同時存在gt、exists以及葉子節(jié)點的時間范圍限定,不可避免的會產(chǎn)生seeks操作,
而且查詢的性能是不穩(wěn)定的,跟數(shù)據(jù)分布、具體查詢條件都有很大的關(guān)系。

于是一開始所提到的僅僅是增加 socketTimeout 的閾值可能只是治標不治本,一旦數(shù)據(jù)的索引值分布變化或者數(shù)據(jù)量持續(xù)增大,可能會發(fā)生更嚴重的事情。

回到一開始的需求場景,定時器要求讀取每天更新的工單(按工單號排序),再進行分批處理。

那么,按照化零為整的思路,新增一個lastModifiedDay字段,這個存儲的就是lastModifiedTime對應(yīng)的日期值(低位取整),這樣在同一天內(nèi)更新的工單記錄都有同樣的值。

建立組合索引 {lastModifiedDay:1, oid:1},相應(yīng)的查詢條件改為:

{
 "lastModifiedDay": new Date("2019-04-09 00:00:00.000"),
 "oid": {$gt: "VXZ190"}
} 
-- limit 1000

執(zhí)行結(jié)果如下:

"nReturned" : 1000,
"executionTimeMillis" : 6,
"totalKeysExamined" : 1000,
"totalDocsExamined" : 1000,

...

"indexBounds" : {
    "lastModifiedDay" : [
        "(new Date(1554803000000), new Date(1554803000000))"
    ],
    "oid" : [
        "(\"VXZ190\", {})"
    ]
},
"keysExamined" : 1000,
"seeks" : 1,

這樣優(yōu)化之后,每次查詢最多只掃描1000條記錄,查詢速度是非??斓?!

以上是“如何解決MongoDB謹防索引seek的效率問題”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計公司行業(yè)資訊頻道!

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。


名稱欄目:如何解決MongoDB謹防索引seek的效率問題-創(chuàng)新互聯(lián)
文章轉(zhuǎn)載:http://weahome.cn/article/doddej.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部