真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

ceph-mds中standby_replay高速熱備狀態(tài)的示例分析

這篇文章主要介紹了ceph-mds中standby_replay高速熱備狀態(tài)的示例分析,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

來(lái)賓網(wǎng)站建設(shè)公司創(chuàng)新互聯(lián),來(lái)賓網(wǎng)站設(shè)計(jì)制作,有大型網(wǎng)站制作公司豐富經(jīng)驗(yàn)。已為來(lái)賓近千家提供企業(yè)網(wǎng)站建設(shè)服務(wù)。企業(yè)網(wǎng)站搭建\外貿(mào)網(wǎng)站制作要多少錢(qián),請(qǐng)找那個(gè)售后服務(wù)好的來(lái)賓做網(wǎng)站的公司定做!

ceph的MDS是cephFS文件存儲(chǔ)服務(wù)的元數(shù)據(jù)服務(wù)。

當(dāng)創(chuàng)建cephfs后便會(huì)有ceph-mds服務(wù)進(jìn)行管理。默認(rèn)情況下ceph會(huì)分配一個(gè)mds服務(wù)管理cephfs,即使已經(jīng)創(chuàng)建多個(gè)mds服務(wù),如下:

[root@ceph-admin my-cluster]# ceph-deploy mds create ceph-node01 ceph-node02
.......
[root@ceph-admin ~]# ceph -s
  cluster:
    id:     06dc2b9b-0132-44d2-8a1c-c53d765dca5d
    health: HEALTH_OK
 
  services:
    mon: 2 daemons, quorum ceph-admin,ceph-node01
    mgr: ceph-admin(active)
    mds: mytest-fs-1/1/1 up  {0=ceph-admin=up:active}, 2 up:standby
    osd: 3 osds: 3 up, 3 in
    rgw: 2 daemons active
 
  data:
    pools:   8 pools, 64 pgs
    objects: 299  objects, 137 MiB
    usage:   3.4 GiB used, 297 GiB / 300 GiB avail
    pgs:     64 active+clean

此時(shí)mds中只有ceph-admin處于active狀態(tài),其余處于standby狀態(tài)。

standby已近是一種災(zāi)備狀態(tài),但事實(shí)上切換速度比較緩慢,對(duì)于實(shí)際業(yè)務(wù)系統(tǒng)必定會(huì)造成影響。

測(cè)試情況如下:

[root@ceph-admin my-cluster]# killall ceph-mds
[root@ceph-admin my-cluster]# ceph -s
  cluster:
    id:     06dc2b9b-0132-44d2-8a1c-c53d765dca5d
    health: HEALTH_WARN
            1 filesystem is degraded
 
  services:
    mon: 2 daemons, quorum ceph-admin,ceph-node01
    mgr: ceph-admin(active)
    mds: mytest-fs-1/1/1 up  {0=ceph-node02=up:rejoin}, 1 up:standby
    osd: 3 osds: 3 up, 3 in
    rgw: 2 daemons active
 
  data:
    pools:   8 pools, 64 pgs
    objects: 299  objects, 137 MiB
    usage:   3.4 GiB used, 297 GiB / 300 GiB avail
    pgs:     64 active+clean
 
[root@ceph-admin my-cluster]# ceph -s
  cluster:
    id:     06dc2b9b-0132-44d2-8a1c-c53d765dca5d
    health: HEALTH_OK
 
  services:
    mon: 2 daemons, quorum ceph-admin,ceph-node01
    mgr: ceph-admin(active)
    mds: mytest-fs-1/1/1 up  {0=ceph-node02=up:active}, 1 up:standby
    osd: 3 osds: 3 up, 3 in
    rgw: 2 daemons active
 
  data:
    pools:   8 pools, 64 pgs
    objects: 299  objects, 137 MiB
    usage:   3.4 GiB used, 297 GiB / 300 GiB avail
    pgs:     64 active+clean
 
  io:
    client:   20 KiB/s rd, 3 op/s rd, 0 op/s wr

系統(tǒng)在active的mds被kill之后,standby的mds在經(jīng)過(guò)rejoin狀態(tài)后才變成了active,大約經(jīng)過(guò)3-5s。而在生產(chǎn)環(huán)境中由于元數(shù)據(jù)的數(shù)據(jù)量更龐大,往往會(huì)更漫長(zhǎng)。

而要讓mds更快切換,需要將我們的mds服務(wù)切換至standby_replay狀態(tài),官方對(duì)于此狀態(tài)的說(shuō)明如下:

The MDS is following the journal of another up:active MDS. Should the active MDS fail, having a standby MDS in replay mode is desirable as the MDS is replaying the live journal and will more quickly takeover. A downside to having standby replay MDSs is that they are not available to takeover for any other MDS that fails, only the MDS they follow.

事實(shí)上就是standby_replay會(huì)實(shí)時(shí)根據(jù)active的mds元數(shù)據(jù)日志進(jìn)行同步更新,這樣就能加快切換的速率,那么如何讓mds運(yùn)行在standby_replay狀態(tài)?

[root@ceph-node01 ~]# ps aufx|grep mds
root      700547  0.0  0.0 112704   976 pts/1    S+   13:45   0:00          \_ grep --color=auto mds
ceph      690340  0.0  0.5 451944 22988 ?        Ssl  10:09   0:03 /usr/bin/ceph-mds -f --cluster ceph --id ceph-node01 --setuser ceph --setgroup ceph
[root@ceph-node01 ~]# killall ceph-mds
[root@ceph-node01 ~]# /usr/bin/ceph-mds -f --cluster ceph --id ceph-node01 --setuser ceph --setgroup ceph --hot-standby 0
starting mds.ceph-node01 at -

我們手動(dòng)關(guān)閉了ceph-mds服務(wù)并且添加了--hot-standby 參數(shù)重新啟動(dòng)了mds服務(wù)。

接下來(lái)看到,ceph-node02的mds已經(jīng)處于standby-replay狀態(tài):

[root@ceph-admin my-cluster]# ceph -s
  cluster:
    id:     06dc2b9b-0132-44d2-8a1c-c53d765dca5d
    health: HEALTH_OK
 
  services:
    mon: 2 daemons, quorum ceph-admin,ceph-node01
    mgr: ceph-admin(active)
    mds: mytest-fs-1/1/1 up  {0=ceph-admin=up:active}, 1 up:standby-replay, 1 up:standby
    osd: 3 osds: 3 up, 3 in
    rgw: 2 daemons active
 
  data:
    pools:   8 pools, 64 pgs
    objects: 299  objects, 137 MiB
    usage:   3.4 GiB used, 297 GiB / 300 GiB avail
    pgs:     64 active+clean
 
  io:
    client:   851 B/s rd, 1 op/s rd, 0 op/s wr

當(dāng)然或者可以ceph-mds的啟動(dòng)腳本來(lái)讓服務(wù)啟動(dòng)時(shí)自動(dòng)處于standby-replay狀態(tài)

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“ceph-mds中standby_replay高速熱備狀態(tài)的示例分析”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!


文章標(biāo)題:ceph-mds中standby_replay高速熱備狀態(tài)的示例分析
標(biāo)題鏈接:http://weahome.cn/article/iecchi.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部