真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!-創(chuàng)新互聯(lián)

最近的一個項目是風(fēng)控過程數(shù)據(jù)實時統(tǒng)計分析和聚合的一個 OLAP 分析監(jiān)控平臺,日流量峰值在 10 到 12 億上下,每年數(shù)據(jù)約 4000 億條,占用空間大概 200T。

站在用戶的角度思考問題,與客戶深入溝通,找到恭城網(wǎng)站設(shè)計與恭城網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗,讓設(shè)計與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:成都做網(wǎng)站、網(wǎng)站設(shè)計、外貿(mào)營銷網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣、域名注冊、虛擬主機、企業(yè)郵箱。業(yè)務(wù)覆蓋恭城地區(qū)。

面對這樣一個數(shù)據(jù)量級的需求,我們的數(shù)據(jù)如何存儲和實現(xiàn)實時查詢將是一個嚴(yán)峻的挑戰(zhàn)。

經(jīng)過對 Elasticsearch 多方調(diào)研和超過幾百億條數(shù)據(jù)的插入和聚合查詢的驗證之后,我們總結(jié)出以下幾種能夠有效提升性能和解決這一問題的方案:

  1. 集群規(guī)劃
  2. 存儲策略
  3. 索引拆分
  4. 壓縮
  5. 冷熱分區(qū)等

本文所使用的 Elasticsearch 版本為 5.3.3。

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

什么是時序索引?其主要特點體現(xiàn)在如下兩個方面:

存,以時間為軸,數(shù)據(jù)只有增加,沒有變更,并且必須包含 timestamp(日期時間,名稱隨意)字段。

其作用和意義要大于數(shù)據(jù)的 id 字段,常見的數(shù)據(jù)比如我們通常要記錄的操作日志、用戶行為日志、或股市行情數(shù)據(jù)、服務(wù)器 CPU、內(nèi)存、網(wǎng)絡(luò)的使用率等。

取,一定是以時間范圍為第一過濾條件,然后是其他查詢條件,比如近一天、一周、本月等等,然后在這個范圍內(nèi)進(jìn)行二次過濾。

比如性別或地域等,查詢結(jié)果中比較關(guān)注的是每條數(shù)據(jù)和 timestamp 字段具體發(fā)生的時間點,而非 id。

此類數(shù)據(jù)一般用于 OLAP、監(jiān)控分析等場景。

一、集群部署規(guī)劃

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

我們都知道在 Elasticsearch(下稱 ES)集群中有兩個主要角色:Master Node 和 Data Node,其他如 Tribe Node 等節(jié)點可根據(jù)業(yè)務(wù)需要另行設(shè)立。

為了讓集群有更好的性能表現(xiàn),我們應(yīng)該對這兩個角色有一個更好的規(guī)劃,在 Nodes 之間做讀取分離,保證集群的穩(wěn)定性和快速響應(yīng),在大規(guī)模的數(shù)據(jù)存儲和查詢的壓力之下能夠坦然面對,各自愉快的協(xié)作。

1、Master Nodes

Master Node,整個集群的管理者,負(fù)有對 index 的管理、shards 的分配,以及整個集群拓?fù)湫畔⒌墓芾淼裙δ堋?/p>

眾所周知,Master Node 可以通過 Data Node 兼任,但是,如果對群集規(guī)模和穩(wěn)定要求很高的話,就要職責(zé)分離,Master Node 推薦獨立,它的狀態(tài)關(guān)乎整個集群的存活。

Master 的配置:

node.master: true

        node.data: false

        node.ingest: false

這樣 Master 不參與 I、O,從數(shù)據(jù)的搜索和索引操作中解脫出來,專門負(fù)責(zé)集群的管理工作,因此 Master Node 的節(jié)點配置可以相對低一些。

另外防止 ES 集群 split brain(腦裂),合理配置 discovery.zen.minimum_master_nodes 參數(shù),官方推薦 master-eligible nodes / 2 + 1 向下取整的個數(shù)。

這個參數(shù)決定選舉 Master 的 Node 個數(shù),太小容易發(fā)生“腦裂”,可能會出現(xiàn)多個 Master,太大 Master 將無法選舉。

2、Data Nodes

Data Node 是數(shù)據(jù)的承載者,對索引的數(shù)據(jù)存儲、查詢、聚合等操作提供支持。

這些操作嚴(yán)重消耗系統(tǒng)的 CPU、內(nèi)存、IO 等資源,因此,應(yīng)該把最好的資源分配給 Data Node,因為它們是真正干累活的角色,同樣 Data Node 也不兼任 Master 的功能。

Data 的配置:

node.master: false

        node.data: true

        node.ingest: false
3、Coordinating Only Nodes

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

ES 本身是一個分布式的計算集群,每個 Node 都可以響應(yīng)用戶的請求,包括 Master Node、Data Node,它們都有完整的 Cluster State 信息。

正如我們知道的一樣,在某個 Node 收到用戶請求的時候,會將請求轉(zhuǎn)發(fā)到集群中所有索引相關(guān)的 Node 上,之后將每個 Node 的計算結(jié)果合并后返回給請求方。

我們暫且將這個 Node 稱為查詢節(jié)點,整個過程跟分布式數(shù)據(jù)庫原理類似。那問題來了,這個查詢節(jié)點如果在并發(fā)和數(shù)據(jù)量比較大的情況下,由于數(shù)據(jù)的聚合可能會讓內(nèi)存和網(wǎng)絡(luò)出現(xiàn)瓶頸。

因此,在職責(zé)分離指導(dǎo)思想的前提下,這些操作我們也應(yīng)該從這些角色中剝離出來,官方稱它是 Coordinating Nodes,只負(fù)責(zé)路由用戶的請求,包括讀、寫等操作,對內(nèi)存、網(wǎng)絡(luò)和 CPU 要求比較高。

本質(zhì)上,Coordinating Only Nodes 可以籠統(tǒng)的理解為是一個負(fù)載均衡器,或者反向代理,只負(fù)責(zé)讀,本身不寫數(shù)據(jù)。

它的配置是:

 ? node.master: false

? ? ? ? node.data: false

? ? ? ? node.ingest: false

? ? ? ? search.remote.connect: false

增加 Coordinating Nodes 的數(shù)量可以提高 API 請求響應(yīng)的性能,我們也可以針對不同量級的 Index 分配獨立的 Coordinating Nodes 來滿足請求性能。

那是不是越多越好呢?在一定范圍內(nèi)是肯定的,但凡事有個度,過了負(fù)作用就會突顯,太多的話會給集群增加負(fù)擔(dān)。

在做 Master 選舉的時候會先確保所有 Node 的 Cluster State 是一致的,同步的時候會等待每個 Node 的 Acknowledgement 確認(rèn),所以適量分配可以讓集群暢快的工作。

search.remote.connect 是禁用跨集群查詢,防止在進(jìn)行集群之間查詢時發(fā)生二次路由:

二、Routing

類似于分布式數(shù)據(jù)庫中的分片原則,將符合規(guī)則的數(shù)據(jù)存儲到同一分片。ES 通過哈希算法來決定數(shù)據(jù)存儲于哪個 Shard:

shard_num = hash(_routing) % num_primary_shards

其中 hash(_routing) 得出一個數(shù)字,然后除以主 Shards 的數(shù)量得到一個余數(shù),余數(shù)的范圍是 0 到 number_of_primary_shards - 1,這個數(shù)字就是文檔所在的 Shard。

Routing 默認(rèn)是 id 值,當(dāng)然可以自定義,合理指定 Routing 能夠大幅提升查詢效率,Routing 支持 GET、Delete、Update、Post、Put 等操作。

如:

PUT my_index/my_type/1?routing=user1

{

"title": "This is a document"

}

GET my_index/my_type/1?routing=user1

不指定 Routing 的查詢過程:

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

簡單的來說,一個查詢請求過來以后會查詢每個 Shard,然后做結(jié)果聚合,總的時間大概就是所有 Shard 查詢所消耗的時間之和。

指定 Routing 以后:

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

會根據(jù) Routing 查詢特定的一個或多個 Shard,這樣就大大減少了查詢時間,提高了查詢效率。

當(dāng)然,如何設(shè)置 Routing 是一個難點,需要一點技巧,要根據(jù)業(yè)務(wù)特點合理組合 Routing 的值,來劃分 Shard 的存儲,最終保持?jǐn)?shù)據(jù)量相對均衡。

可以組合幾個維度做為 Routing ,有點類似于 Hbase Key,例如不同的業(yè)務(wù)線加不同的類別,不同的城市和不同的類型等等,如:

 ? _search?routing=beijing:按城市。

? ? ? ? _search?routing=beijing_user123:按城市和用戶。

? ? ? ? _search?routing=beijing_android,shanghai_android:按城市和手機類型等。

數(shù)據(jù)不均衡?假如你的業(yè)務(wù)在北京、上海的數(shù)據(jù)遠(yuǎn)遠(yuǎn)大于其他二三線城市的數(shù)據(jù)。

再例如我們的業(yè)務(wù)場景,A 業(yè)務(wù)線的數(shù)據(jù)量級遠(yuǎn)遠(yuǎn)大于 B 業(yè)務(wù)線,有時候很難通過 Routing 指定一個值保證數(shù)據(jù)在所有 Shards 上均勻分布,會讓部分 Shard 變的越來越大,影響查詢性能,怎么辦?

一種解決辦法是單獨為這些數(shù)據(jù)量大的渠道創(chuàng)建獨立的 Index

這樣可以根據(jù)需要在不同 Index 之間查詢,然而每個 Index 中 Shards 的數(shù)據(jù)可以做到相對均衡。

另一種辦法是指定 Index 參數(shù) index.routing_partition_size,來解決最終可能產(chǎn)生群集不均衡的問題,指定這個參數(shù)后新的算法如下:

shard_num = (hash(_routing) + hash(_id) % routing_partition_size) % num_primary_shards

index.routing_partition_size 應(yīng)具有大于 1 且小于 index.number_of_shards 的值。

最終數(shù)據(jù)會在 routing_partition_size 幾個 Shard 上均勻存儲,是哪個 Shard 取決于 hash(_id) % routing_partition_size 的計算結(jié)果。

指定參數(shù) index.routing_partition_size 后,索引中的 Mappings 必須指定 _routing 為 "required": true,另外 Mappings 不支持 parent-child 父子關(guān)系。

很多情況下,指定 Routing 后會大幅提升查詢性能,畢竟查詢的 Shard 只有那么幾個,但是如何設(shè)置 Routing 是個難題,可根據(jù)業(yè)務(wù)特性巧妙組合。

三、索引拆分

Index 通過橫向擴展 Shards 實現(xiàn)分布式存儲,這樣可以解決 Index 大數(shù)據(jù)存儲的問題。

但在一個 Index 變的越來越大,單個 Shard 也越來越大,查詢和存儲的速度也越來越慢。

更重要的是一個 Index 其實是有存儲上限的(除非你設(shè)置足夠多的 Shards 和機器),如官方聲明單個 Shard 的文檔數(shù)不能超過 20 億(受限于 Lucene index,每個 Shard 是一個 Lucene index)。

考慮到 I、O,針對 Index 每個 Node 的 Shards 數(shù)最好不超過 3 個,那面對這樣一個龐大的 Index,我們是采用更多的 Shards,還是更多的 Index,我們?nèi)绾芜x擇?

Index 的 Shards 總量也不宜太多,更多的 Shards 會帶來更多的 I、O 開銷,其實答案就已經(jīng)很明確,除非你能接受長時間的查詢等待。

Index 拆分的思路很簡單,時序索引有一個好處就是只有增加,沒有變更,按時間累積,天然對索引的拆分友好支持,可以按照時間和數(shù)據(jù)量做任意時間段的拆分。

ES 提供的 Rollover Api + Index Template 可以非常便捷和友好的實現(xiàn) Index 的拆分工作,把單個 index docs 數(shù)量控制在百億內(nèi),也就是一個 Index 默認(rèn) 5 個 Shards 左右即可,保證查詢的即時響應(yīng)。

簡單介紹一下 Rollover API 和 Index Template 這兩個東西,如何實現(xiàn) index 的拆分。

1、Index Template

我們知道 ES 可以為同一目的或同一類索引創(chuàng)建一個 Index Template,之后創(chuàng)建的索引只要符合匹配規(guī)則就會套用這個 Template,不必每次指定 Settings 和 Mappings 等屬性。

一個 Index 可以被多個 Template 匹配,那 Settings 和 Mappings 就是多個 Template 合并后的結(jié)果。

有沖突通過 Template 的屬性"order" : 0 從低到高覆蓋(這部分據(jù)說會在 ES6 中會做調(diào)整,更好的解決 Template 匹配沖突問題)。

示例:

 ? PUT _template/template_1{

? ? ? ? "index_patterns" : ["log-*"],

? ? ? ? "order" : 0,

? ? ? ? "settings" : {

? ? ? ? ? ? "number_of_shards" : 5

? ? ? ? },

? ? "aliases" : {

? ? ? ? ?"alias1" : {}

? ? ? ? }

? ? }
2、Rollover Index

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

Rollover Index 可以將現(xiàn)有的索引通過一定的規(guī)則,如數(shù)據(jù)量和時間,索引的命名必須是 logs-000001 這種格式,并指定 aliases,示例:

 ? PUT /logs-000001

? ? {

? ? ? ? ?"aliases": {

? ? ? ? ?"logs_write": {}

? ? ? ? }

? ? }

? ? # Add > 1000 documents to logs-000001

? ? ?POST /logs_write/_rollover

? ? ?{

? ? ? "conditions": {

? ? ? ? ? ? "max_age": "7d",

? ? ? ? ? ? ?"max_docs": 1000

? ? ? ? }

? ? }

先創(chuàng)建索引并指定別名 logs_write,插入 1000 條數(shù)據(jù),然后請求 _rollover api 并指定拆分規(guī)則。

? 如果索引中的數(shù)據(jù)大于規(guī)則中指定的數(shù)據(jù)量或者時間過時,新的索引將被創(chuàng)建,索引名稱為 logs-000002,并根據(jù)規(guī)則套用 Index Template, 同時別名 logs_write 也將被變更到 logs-000002。

注意事項:

索引命名規(guī)則必須如同:logs-000001。

索引必須指定 aliases。

Rollover Index API 調(diào)用時才去檢查索引是否超出指定規(guī)則,不會自動觸發(fā),需要手動調(diào)用,可以通過 Curator 實現(xiàn)自動化。

如果符合條件會創(chuàng)建新的索引,老索引的數(shù)據(jù)不會發(fā)生變化,如果你已經(jīng)插入 2000 條,拆分后還是 2000 條。

插入數(shù)據(jù)時一定要用別名,否則你可能一直在往一個索引里追加數(shù)據(jù)。

技巧是按日期滾動索引:

PUT /

{

"aliases": {

"logs_write": {}

}

}

假如生成的索引名為 logs-2017.04.13-1,如果你在當(dāng)天執(zhí)行 Rollover 會生成 logs-2017.04.13-000001,次日的話是 logs-2017.04.14-000001。

這樣就會按日期進(jìn)行切割索引,那如果你想查詢 3 天內(nèi)的數(shù)據(jù)可以通過日期規(guī)則來匹配索引名,如:

GET /,,/_search

到此,我們就可以通過 Index Template 和 Rollover API 實現(xiàn)對 Index 的任意拆分,并按照需要進(jìn)行任意時間段的合并查詢,這樣只要你的時間跨度不是很大,查詢速度一般可以控制在毫秒級,存儲性能也不會遇到瓶頸。

四、Hot-Warm 架構(gòu)

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

冷熱架構(gòu),為了保證大規(guī)模時序索引實時數(shù)據(jù)分析的時效性,可以根據(jù)資源配置不同將 Data Nodes 進(jìn)行分類形成分層或分組架構(gòu)。

一部分支持新數(shù)據(jù)的讀寫,另一部分僅支持歷史數(shù)據(jù)的存儲,存放一些查詢發(fā)生機率較低的數(shù)據(jù)。

即 Hot-Warm 架構(gòu),對 CPU,磁盤、內(nèi)存等硬件資源合理的規(guī)劃和利用,達(dá)到性能和效率的大化。

我們可以通過 ES 的 Shard Allocation Filtering 來實現(xiàn) Hot-Warm 的架構(gòu)。

實現(xiàn)思路如下:

將 Data Node 根據(jù)不同的資源配比打上標(biāo)簽,如:Host、Warm。

定義 2 個時序索引的 Index Template,包括 Hot Template 和 Warm Template,Hot Template 可以多分配一些 Shard 和擁有更好資源的 Hot Node。

用 Hot Template 創(chuàng)建一個 Active Index 名為 active-logs-1,別名 active-logs,支持索引切割。

插入一定數(shù)據(jù)后,通過 roller over api 將 active-logs 切割,并將切割前的 Index 移動到 Warm Nodes 上,如 active-logs-1,并阻止寫入。

通過 Shrinking API 收縮索引 active-logs-1 為 inactive-logs-1,原 Shard 為 5,適當(dāng)收縮到 2 或 3,可以在 Warm Template 中指定,減少檢索的 Shard,使查詢更快。

通過 force-merging api 合并 inactive-logs-1 索引每個 Shard 的 Segment,節(jié)省存儲空間。

刪除 active-logs-1。

1、Hot,Warm Nodes

Hot Nodes

擁有最好資源的 Data Nodes,如更高性能的 CPU、SSD 磁盤、內(nèi)存等資源,這些特殊的 Nodes 支持索引所有的讀、寫操作。

如果你計劃以 100 億為單位來切割 Index,那至少需要三個這樣的 Data Nodes,Index 的 Shard 數(shù)為 5,每個 Shard 支持 20 億 Documents 數(shù)據(jù)的存儲。

為這類 Data Nodes 打上標(biāo)簽,以便我們在 Template 中識別和指定,啟動參數(shù)如下:

./bin/elasticsearch -Enode.attr.box_type=hot

或者配置文件:

node.attr.box_type: hot

Warm Nodes

存儲只讀數(shù)據(jù),并且查詢量較少,但用于存儲長多時間歷史數(shù)據(jù)的 Data Nodes,這類 Nodes 相對 Hot Nodes 較差的硬件配置,根據(jù)需求配置稍差的 CPU、機械磁盤和其他硬件資源,至于數(shù)量根據(jù)需要保留多長時間的數(shù)據(jù)來配比,同樣需要打上標(biāo)簽,方法跟 Hot Nodes 一樣,指定為 Warm,box_type: warm。

2、Hot,Warm Template

Hot Template

我們可以通過指定參數(shù)"routing.allocation.include.box_type": "hot",讓所有符合命名規(guī)則索引的 Shard 都將被分配到 Hot Nodes 上:

PUT _template/active-logs

{

"template": "active-logs-*",

"settings": {

"number_of_shards": 5,

"number_of_replicas": 1,

"routing.allocation.include.box_type": "hot",

"routing.allocation.total_shards_per_node": 2

},

"aliases": {

"active-logs": {}

}

}
Warm Template

同樣符合命名規(guī)則索引的 Shard 會被分配到 Warm Nodes 上,我們指定了更少的 Shards 數(shù)量和復(fù)本數(shù)。

注意,這里的復(fù)本數(shù)為 0,和 best_compression 級別的壓縮,方便做遷移等操作,以及進(jìn)行一些數(shù)據(jù)的壓縮:

PUT _template/inactive-logs

{

"template": "inactive-logs-*",

"settings": {

"number_of_shards": 1,

"number_of_replicas": 0,

"routing.allocation.include.box_type": "warm",

"codec": "best_compression"

}

}

假如我們已經(jīng)創(chuàng)建了索引 active-logs-1 ,當(dāng)然你可以通過 _bulk API 快速寫入測試的數(shù)據(jù),然后參考上文中介紹的 Rollover API 進(jìn)行切割。

3、Shrink Index
Rollover API 切割以后,active-logs-1 將變成一個冷索引,我們將它移動到 Warm Nodes 上。

先將索引置為只讀狀態(tài),拒絕任何寫入操作,然后修改 index.routing.allocation.include.box_type 屬性,ES 會自動移動所有 Shards 到目標(biāo) Data Nodes 上:

PUT active-logs-1/_settings

{

"index.blocks.write": true,

"index.routing.allocation.include.box_type": "warm"

}

Cluster Health API 可以查看遷移狀態(tài),完成后進(jìn)行收縮操作,其實相當(dāng)于復(fù)制出來一個新的索引,舊的索引還存在。

POST active-logs-1/_shrink/inactive-logs-1

我們可以通過 Head 插件查看整個集群索引的變化情況。

Forcemerge

到目前為止我們已經(jīng)實現(xiàn)了索引的冷熱分離,和索引的收縮,我們知道每個 Shard 下面由多個 Segment 組成,那 inactive-logs-1 的 Shard 數(shù)是 1,但 Segment 還是多個。

這類索引不會在接受寫入操作,為了節(jié)約空間和改善查詢性能,通過 Forcemerge API 將 Segment 適量合并:

PUT inactive-logs-1/_settings

{ "number_of_replicas": 1 }

ES 的 Forcemerge 過程是先創(chuàng)建新的 Segment 刪除舊的,所以舊 Segment 的壓縮方式 best_compression 不會在新的 Segment 中生效,新的 Segment 還是默認(rèn)的壓縮方式。

現(xiàn)在 inactive-logs-1 的復(fù)本還是 0,如果有需要的話,可以分配新的復(fù)本數(shù):

PUT inactive-logs-1/_settings

{ "number_of_replicas": 1 }

最后刪除 active-logs-1,因為我們已經(jīng)為它做了一個查詢復(fù)本 inactive-logs-1。

DELETE active-logs-1

走到這里,我們就已經(jīng)實現(xiàn)了 Index 的 Hot-Warm 架構(gòu),根據(jù)業(yè)務(wù)特點將一段時間的數(shù)據(jù)放在 Hot Nodes,更多的歷史數(shù)據(jù)存儲于 Warm Nodes。

五、其他優(yōu)化方案

這一部分我們會展示更多的優(yōu)化方案。

1、索引隔離

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

在多條業(yè)務(wù)線的索引共用一個 ES 集群時會發(fā)生流量被獨吃獨占的情況,因為大家都共用相同的集群資源,流量大的索引會占用大部分計算資源而流量小的也會被拖慢,得不到即時響應(yīng),或者說業(yè)務(wù)流量大的索引可以按天拆分,幾個流量小的索引可以按周或月拆分。

這種情況下我們可以將規(guī)模大的索引和其他相對小規(guī)模的索引獨立存儲,分開查詢或合并查詢。

除了 Master Nodes 以外,Data Nodes 和 Coordinating Nodes 都可以獨立使用(其實如果每個索引的量都特別大也應(yīng)該采用這種架構(gòu)),還有一個好處是對方的某個 Node 掛掉,自己不受影響。

同樣利用 ES 支持 Shard Allocation Filtering 功能來實現(xiàn)索引的資源獨立分配,先將 Nodes 進(jìn)行打標(biāo)簽,劃分區(qū)域,類似于 Hot-Warm 架構(gòu):

node.attr.zone=zone_a、node.attr.zone=zone_b

或者:

node.attr.zone =zone_hot_a、node.attr.zone=zone_hot_b

等打標(biāo)簽的方式來區(qū)別對應(yīng)不同的索引,然后在各自的 Index Template 中指定不同的 node.attr.zone 即可。

如"index.routing.allocation.include.zone" : "zone_a,zone_hot_a",或者排除法"index.routing.allocation.exclude.size": "zone_hot_b"分配到 zone_hot_b 以外的所有 Data Nodes 上。

更多用法可以參考 Hot-Warm 架構(gòu),或 shard-allocation-filtering:

2、跨數(shù)據(jù)中心

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

如果你的業(yè)務(wù)遍布全國各地,四海八荒,如果你數(shù)據(jù)要存儲到多個機房,如果你的 Index 有幾萬個甚至更多( Index 特別多,集群龐大會導(dǎo)致 Cluster State 信息量特別大,因為 Cluster State 包含了所有 Shard、Index、Node 等所有相關(guān)信息,它存儲在每個 Node 上,這些數(shù)據(jù)發(fā)生變化都會實時同步到所有 Node 上,當(dāng)這個數(shù)據(jù)很大的時候會對集群的性能造成影響)。

這些情況下我們會考慮部署多個 ES Cluster,那我們將如何解決跨集群查詢的問題呢?

目前 ES 針對跨集群操作提供了兩種方案 Tribe Node 和 Cross Cluster Search。

Tribe Node

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

需要一個獨立的 Node 節(jié)點,加入其他 ES Cluster,用法有點類似于 Coordinating Only Node。

所不同的是 Tribe 是針對多個 ES 集群之間的所有節(jié)點,Tribe Node 收到請求廣播到相關(guān)集群中所有節(jié)點,將結(jié)果合并處理后返回。

表面上看起來 Tribe Node 將多個集群串連成了一個整體,遇到同名 Index 發(fā)生沖突,會選擇其中一個 Index,也可以指定:

tribe:

on_conflict: prefer_t1

t1:

cluster.name: us-cluster

discovery.zen.ping.multicast.enabled: false

discovery.zen.ping.unicast.hosts: ['usm1','usm2','usm3']

t2:

cluster.name: eu-cluster

discovery.zen.ping.multicast.enabled: false

discovery.zen.ping.unicast.hosts: ['eum1','eum2','eum3']
Cross Cluster Search

百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!

Cross Cluster Search 可以讓集群中的任意一個節(jié)點聯(lián)合查詢其他集群中的數(shù)據(jù), 通過配置 elasticsearch.yml 或者 API 來啟用這個功能,API 示例:

PUT _cluster/settings

{

"persistent": {

"search": {

"remote": {

"cluster_one": {

"seeds": [

"127.0.0.1:9300"

]

...

}

}

}

}

}

提交以后整個集群所有節(jié)點都會生效,都可以做為代理去做跨集群聯(lián)合查詢,不過我們最好還是通過 Coordinating Only Nodes 去發(fā)起請求。

POST /cluster_one:decision,decision/_search

{

"match_all": {}

}

對集群 cluster_one 和本集群中名為 Decision 的索引聯(lián)合查詢。

目前這個功能還在測試階段,但未來可能會取代 Tribe Node,之間的大的差異是 Tribe Node 需要設(shè)置獨立的節(jié)點,而 Cross Cluster Search 不需要,集群中的任意一個節(jié)點都可以兼任。

比如可以用我們的 Coordinating Only Nodes 做為聯(lián)合查詢節(jié)點,另一個優(yōu)點是配置是動態(tài)的,不需要重啟節(jié)點。

實際上可以理解為是一個 ES 集群之間特定的動態(tài)代理工具,支持所有操作,包括 Index 的創(chuàng)建和修改,并且通過 Namespace 對 Index 進(jìn)行隔離,也解決了 Tribe Node 之 Index 名稱沖突的問題。

六、總結(jié)

我們在文中介紹了幾種方案用來解決時序索引的海量數(shù)據(jù)存儲和查詢的問題,根據(jù)業(yè)務(wù)特點和使用場景來單獨或組合使用能夠發(fā)揮出意想不到的效果。

特別是 Nodes 之間的讀寫分離、索引拆分、Hot-Warm 等方案的組合應(yīng)用對索引的查詢和存儲性能有顯著的提升。

另外 Routing 在新版本中增加了 routing_partition_size,解決了 Shard 難以均衡的問題。

如果你的索引 Mapping 中沒有 parent-child 關(guān)聯(lián)關(guān)系可以考慮使用,對查詢的性能提升非常有效。

創(chuàng)新互聯(lián)www.cdcxhl.cn,專業(yè)提供香港、美國云服務(wù)器,動態(tài)BGP最優(yōu)骨干路由自動選擇,持續(xù)穩(wěn)定高效的網(wǎng)絡(luò)助力業(yè)務(wù)部署。公司持有工信部辦法的idc、isp許可證, 機房獨有T級流量清洗系統(tǒng)配攻擊溯源,準(zhǔn)確進(jìn)行流量調(diào)度,確保服務(wù)器高可用性。佳節(jié)活動現(xiàn)已開啟,新人活動云服務(wù)器買多久送多久。


網(wǎng)站名稱:百億級實時查詢優(yōu)化實戰(zhàn),讓你的Elasticsearch飛起來!-創(chuàng)新互聯(lián)
鏈接分享:http://weahome.cn/article/dpjeie.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部