真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Ceph概念介紹及組件介紹-創(chuàng)新互聯(lián)

一:Ceph基礎介紹

  • Ceph是一個可靠地、自動重均衡、自動恢復的分布式存儲系統(tǒng),根據(jù)場景劃分可以將Ceph分為三大塊,分別是對象存儲、塊設備存儲和文件系統(tǒng)服務。

  • Ceph相比其它存儲的優(yōu)勢點在于它不單單是存儲,同時還充分利用了存儲節(jié)點上的計算能力,在存儲每一個數(shù)據(jù)時,都會通過計算得出該數(shù)據(jù)存儲的位置,盡量將數(shù)據(jù)分布均衡,同時由于Ceph的良好設計,采用了CRUSH算法、HASH環(huán)等方法,使得它不存在傳統(tǒng)的單點故障的問題,且隨著規(guī)模的擴大性能并不會受到影響。

二:核心組件介紹

  • Ceph OSD(必裝)

全稱是Object Storage Device,主要功能包括存儲數(shù)據(jù),處理數(shù)據(jù)的復制、恢復、回補、平衡數(shù)據(jù)分布,并將一些相關(guān)數(shù)據(jù)提供給Ceph Monitor

榕江網(wǎng)站建設公司成都創(chuàng)新互聯(lián)公司,榕江網(wǎng)站設計制作,有大型網(wǎng)站制作公司豐富經(jīng)驗。已為榕江1000+提供企業(yè)網(wǎng)站建設服務。企業(yè)網(wǎng)站搭建\外貿(mào)網(wǎng)站制作要多少錢,請找那個售后服務好的榕江做網(wǎng)站的公司定做!
  • Ceph Monitor(必裝)
    Ceph的監(jiān)控器,主要功能是維護整個集群健康狀態(tài),提供一致性的決策,包含了Monitor map,即集群map,monitor本身不存儲任何集群數(shù)據(jù)

  • Managers(必裝)
    Ceph Manager守護進程(ceph-mgr)負責跟蹤運行時指標和Ceph集群的當前狀態(tài),包括存儲利用率,當前性能指標和系統(tǒng)負載。Ceph Manager守護進程還基于python的插件來管理和公開Ceph集群信息,包括基于Web的Ceph Manager Dashboard和 REST API。高可用性通常至少需要兩個管理器。

  • Ceph MDS(可選
    全稱是Ceph Metadata Server,主要保存的是Ceph的文件系統(tǒng)(File System)的元數(shù)據(jù)(metadata),不是必須安裝,當需要使用CephFS的時候才會使用

三:基礎組件介紹

  • rados
    自身是一個完整的分布式對象存儲系統(tǒng),它具有可靠、智能、分布式等特性,Ceph的高可靠、高可拓展、高性能、高自動化都是由這一層來提供的,用戶數(shù)據(jù)的存儲最終也都是通過這一層來進行存儲的,RADOS可以說就是Ceph的核心,主要由兩部分構(gòu)成,分別是OSD和Monitor

  • Librados
    它是一個庫,它允許應用程序通過訪問該與RADOS系統(tǒng)進行交互,支持多種編程語言,比如C、C++,Python等

  • radosgw
    RADOSGW是一套基于當前流行的RESTFUL協(xié)議的網(wǎng)關(guān),并且兼容S3和Swif,只有當使用對象存儲時才會用到

  • rbd
    RBD通過Linux內(nèi)核客戶端和QEMU/KVM驅(qū)動來提供一個分布式的塊設備,可以理解為像linux的LVM一樣,從Ceph的集群中劃分出一塊磁盤,用戶可以直接在上面做文件系統(tǒng)和掛載目錄

  • CephFs
    通過Linux內(nèi)核客戶端和fuse來提供一個兼容POSIX的文件系統(tǒng),當一些linux系統(tǒng)不支持mount命令或者需要更高級的操作時,會用到ceph-fuse

四:術(shù)語介紹,名詞解釋

crush
是Ceph使用的數(shù)據(jù)分布算法,類似一致性哈希,讓數(shù)據(jù)分配到預期的地方


map
上面說過,monitor組件負責監(jiān)視整個集群的運行狀況,如各節(jié)點之間的狀態(tài)、集群配置信息,這些信息由維護集群成員的守護程序來提供,如何存放這些信息呢,答案就是map,ceph monitor map主要包括如下這幾個

  • Monitor map:包括有關(guān)monitor 節(jié)點端到端的信息,其中包括 Ceph 集群ID,監(jiān)控主機名和IP以及端口。并且存儲當前版本信息以及最新更改信息,通過 "ceph mon dump" 查看 monitor map
  • OSD map:包括一些常用的信息,如集群ID、創(chuàng)建OSD map的 版本信息和最后修改信息,以及pool相關(guān)信息,主要包括pool 名字、pool的ID、類型,副本數(shù)目以及PGP等,還包括數(shù)量、狀態(tài)、權(quán)重、最新的清潔間隔和OSD主機信息。通過命令 "ceph osd dump" 查看
  • PG map:包括當前PG版本、時間戳、最新的OSD Map的版本信息、空間使用比例,以及接近占滿比例信息,同事,也包括每個PG ID、對象數(shù)目、狀態(tài)、OSD 的狀態(tài)以及深度清理的詳細信息。通過命令 "ceph pg dump" 可以查看相關(guān)狀態(tài)
  • CRUSH map: CRUSH map 包括集群存儲設備信息,故障域?qū)哟谓Y(jié)構(gòu)和存儲數(shù)據(jù)時定義失敗域規(guī)則信息。通過 命令 "ceph osd crush map" 查看
  • MDS map:MDS Map 包括存儲當前 MDS map 的版本信息、創(chuàng)建當前的Map的信息、修改時間、數(shù)據(jù)和元數(shù)據(jù)POOL ID、集群MDS數(shù)目和MDS狀態(tài),可通過"ceph mds dump"查看

副本
副本是ceph存放數(shù)據(jù)的份數(shù),可以理解為對一個文件備份的份數(shù),ceph默認的副本數(shù)是3,即一個主(primary ),一個次(secondary),一個次次(tertiary),只有primary osd的副本才解釋客戶端請求,它將數(shù)據(jù)寫入其他osd
如下,可以看到這個叫做testpool的pool中有一個叫做object1的object,他的map信息獲取后可以看到
這個對象在osd1上面是主,在osd0和osd2上是次和次次,也就是說在副本數(shù)為3的情況下,每個osd存儲一個副本

[root@ceph-1 ~]# ceph osd map testpool object1
osdmap e220 pool 'testpool' (38) object 'object1' -> pg 38.bac5debc (38.0) -> up ([1,0,2], p1) acting ([1,0,2], p1)

其他內(nèi)容解釋

  • osdmap e220 此map的版本號
  • pool 'testpool' (38) 此pool的名字和ID
  • object 'object1' 此object的名字
  • pg 38.bac5debc (38.0) pg的號碼,即38.0
  • up ([1,0,2], p1) up set ,按順序表示副本存在于哪個osd上,osd0(primary)osd1(secondary)和osd2(tertiary)
  • acting ([1,0,2], p1) acting set 通常情況下和up set相同,不同的情況需要理解pg_temp,即如果pg的acting set 為[0,1,2], 此時如果osd.0出現(xiàn)故障,導致CRUSH算法重新分配該pg的acting set 為[3,1,2]. 此時osd.3為該pg的主osd,但是osd.3并不能負擔該pg的讀操作,因為其上現(xiàn)在還沒有數(shù)據(jù)。所以向monitor申請一個臨時的pg,osd.1為臨時主osd,這時acting set依然為[0,1,2],up set 變?yōu)閇1,3,2],此時就出來acting set 和up set的不同。當osd.3 backfill完成之后,該pg的up set恢復為acting set, 也就是acting set 和 up set都為[0,1,2]

object

ceph最底層的存儲單元,即對象,每個對象包含元數(shù)據(jù)和原始數(shù)據(jù),當用戶要將數(shù)據(jù)存儲到ceph集群時,存儲數(shù)據(jù)會被分為多個對象,每個對象的大小是可以設置的,默認是4MB,可以將object堪稱是ceph存儲的最小單元


pg和pgp

pg是用來存放object的
pgp是相當于pg存放在osd的一種排列組合,他不影響副本個數(shù),只影響副本排列順序


pool
pool是一個邏輯存儲概念,我們創(chuàng)建pool的時候,需要指定pg和pgp,Ceph 的池是一個用來存儲對象的邏輯分區(qū) ,Ceph每個池都包含一定數(shù)量 PG 進而實現(xiàn)把一定數(shù)量的對象映射到集群內(nèi)部不同 OSD
此,因此, 每一個池都是交叉分布在集群所有節(jié)點上的 ,也就是說pool是分布在整個集群上面的,這樣就能夠提供足夠的彈性

五:易混點辨析

object與pg的關(guān)系
由于object的數(shù)量很多,所以Ceph引入了pg的概念用于管理object,每個object最后都會通過CRUSH計算映射到某個pg中,一個pg可以包含多個object


pg與osd的關(guān)系
pg也需要通過CRUSH計算映射到osd中去存儲,如果是三副本的,則每個pg都會映射到三個osd,比如[osd.0,osd.1,osd.2],那么osd.0是存放該pg的主副本,osd.1和osd.2是存放該pg的從副本,保證了數(shù)據(jù)的冗余


pg和pool的關(guān)系
pool也是一個邏輯存儲概念,我們創(chuàng)建存儲池pool的時候,都需要指定pg和pgp的數(shù)量,邏輯上來說pg是屬于某個存儲池的,就有點像object是屬于某個pg的


pg和pgp的關(guān)系

  • pg是用來存放object的,pgp相當于是pg存放osd的一種排列組合,比如三個osd 1 2 3,副本數(shù)設置為3 且ceph默認副本數(shù)就是為3,假設此時pgp是1的話,那么此時一個對象是只可能是按照osd0 osd1 osd2 這唯一一種順序排列,假設此時pgp是2的話,那么此時這個對象可能是按照osd0 osd1 osd2 和 osd1 osd0 osd2 這兩種中的一種順序排列,假設此時pgp是3的話,那么此時就有三種順序排列,所以pgp實際上并不影響pg的副本數(shù),只影響pg副本在osd分布的順序排列的組合的可選數(shù)量,那么也可以理解pgp的作用就是均衡集群內(nèi)osd的數(shù)據(jù)
  • pg是指定存儲池存儲對象的目錄有多少個,pgp是存儲池pg的OSD分布組合個數(shù)
  • pg的增加會引起pg內(nèi)的數(shù)據(jù)進行分裂,分裂相同的OSD上新生成的pg當中
  • pgp的增加會引起部分pg的分布進行變化,但是不會引起pg內(nèi)對象的變動

存儲數(shù)據(jù), object, pg,pgp, pool, osd, 存儲磁盤的關(guān)系

  • 這個12M的文件被分成,objectA,objectB,objectC三個對象,分別存儲在pgA,pgB,pgC這三個pg里,pgA,pgB,pgC這三個pg又分別歸poolA,poolB,poolC管理,而每個pg分布在哪個osd上,是有選擇性的,而有多少種選擇,就由pgp決定,這里設pgp為1,那么圖上顯示的就是其中可能的一種pg分布排序,而且是唯一的,如果pgp為2,那么除了圖上顯示的分布排除算一種外,會有另外一種分布排序,可能是pgA在osd1上,pgB在osd3上,pgC在osd2上,當然也可能有其他的分布排序,但是這里假設pgp為2,所以只有兩種可供選擇

Ceph概念介紹及組件介紹

另外,這里又另一張圖,是我在別的大佬的文章里發(fā)現(xiàn)的也不錯,就也放到這里把
Ceph概念介紹及組件介紹

另外有需要云服務器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內(nèi)外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。


文章題目:Ceph概念介紹及組件介紹-創(chuàng)新互聯(lián)
網(wǎng)站URL:http://weahome.cn/article/dscphs.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部