今天就跟大家聊聊有關(guān)kubernetes中ceph RBD如何使用,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。
目前成都創(chuàng)新互聯(lián)已為近1000家的企業(yè)提供了網(wǎng)站建設(shè)、域名、網(wǎng)頁(yè)空間、網(wǎng)站改版維護(hù)、企業(yè)網(wǎng)站設(shè)計(jì)、龍亭網(wǎng)站維護(hù)等服務(wù),公司將堅(jiān)持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長(zhǎng),共同發(fā)展。
備注:大量的放置組(例如,每個(gè)OSD為100個(gè))可導(dǎo)致更好的平衡。不能過多,推薦100個(gè)。
(OSD * 100) PG總數(shù)= ------------ 泳池大小
如:群集有9個(gè) OSD,默認(rèn)池大小為3。因此,PG為.
9 * 100 PG總數(shù)= ------------ = 300 3
創(chuàng)建一個(gè)名為kube的新池,其放置組數(shù)為100
ceph osd pool create kube 150
語(yǔ)法:
ceph osd pool create {pool-name} {pg-num} {pool-name} – 池的名稱。它必須是唯一的。 {pg-num} –池的放置組總數(shù)。
查看創(chuàng)建結(jié)果
ceph osd lspools 1 device_health_metrics 2 kube
略
ceph osd pool application enable kube rbd
補(bǔ)充:
--- Ceph Filesystem --- $ sudo ceph osd pool application enablecephfs --- Ceph Block Device --- $ sudo ceph osd pool application enable rbd --- Ceph Object Gateway --- $ sudo ceph osd pool application enable rgw
rbd pool init kube
補(bǔ)充:
//要禁用應(yīng)用程序,請(qǐng)使用: ceph osd pool application disable{--yes-i-really-mean-it} //獲取特定池或全部池的I / O信息 ceph osd pool stats [{pool-name}] //刪除池,請(qǐng)執(zhí)行: ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]
cat >external-storage-rbd-provisioner.yaml<2.2 應(yīng)用文件以創(chuàng)建資源
kubectl apply -f external-storage-rbd-provisioner.yaml serviceaccount/rbd-provisioner created clusterrole.rbac.authorization.k8s.io/rbd-provisioner created clusterrolebinding.rbac.authorization.k8s.io/rbd-provisioner created role.rbac.authorization.k8s.io/rbd-provisioner created rolebinding.rbac.authorization.k8s.io/rbd-provisioner created deployment.apps/rbd-provisioner created2.3 確認(rèn)RBD卷 pod正在運(yùn)行
備注:取決于拉取鏡像的速度
kubectl get pods -l app=rbd-provisioner -n kube-system NAME READY STATUS RESTARTS AGE rbd-provisioner-8ddb7f6c7-zssl5 1/1 Running 0 18s3.創(chuàng)建配置storageclass的Secret
3.1 創(chuàng)建k8s訪問ceph的用戶 在ceph的mon或者admin節(jié)點(diǎn)
ceph auth get-or-create client.kube mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=kube' -o ceph.client.kube.keyring3.2 查看key(在ceph的mon或者admin節(jié)點(diǎn))
獲取
admin
用戶的key
(ceph
的admin
用戶,非kubernetes
的用戶)ceph auth get-key client.admin AQAXcD9f2B24GhAA/RJvMLvnpO0zAb+XYQ2YuQ==獲取
kube
用戶的key
ceph auth get-key client.kube AQC8fz9fNLGyIBAAyOu9bGSx7zA2S3b4Ve4vNQ==3.3 密鑰添加為Kubernetes中的secret
3.3.1 創(chuàng)建 admin secret
kubectl create secret generic ceph-secret --type="kubernetes.io/rbd" \ --from-literal=key=AQAXcD9f2B24GhAA/RJvMLvnpO0zAb+XYQ2YuQ== \ --namespace=kube-system3.3.2 在 default 命名空間創(chuàng)建pvc用于訪問ceph的 secret
kubectl create secret generic ceph-user-secret --type="kubernetes.io/rbd" \ --from-literal=key=AQC8fz9fNLGyIBAAyOu9bGSx7zA2S3b4Ve4vNQ== \ --namespace=default3.3.3 查看創(chuàng)建結(jié)果
kubectl get secrets ceph-admin-secret -n kube-system NAME TYPE DATA AGE ceph-admin-secret kubernetes.io/rbd 1 22h4. 配置StorageClass
4.1 創(chuàng)建資源文件
cat >storageclass-ceph-rdb.yaml<4.2 創(chuàng)建yaml
kubectl apply -f storageclass-ceph-rdb.yaml
備注
kube-ceph-rdb 是要?jiǎng)?chuàng)建的StorageClass的名稱
Ceph Monitors 的地址可以通過
ceph -s
列出4.3 查看sc生效結(jié)果
kubectl get sc NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE dynamic-ceph-rdb ceph.com/rbd Delete Immediate false 5m8s6.測(cè)試使用 storageclass
6.1 創(chuàng)建測(cè)試PVC
cat >ceph-rdb-pvc-test.yaml<6.2 查看PVC&PV
kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ceph-rdb-claim Bound pvc-9eee5a95-7842-4356-af3d-562255a0d7ee 2Gi RWO kube-ceph-rdb 33s kubectl get pv NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE pvc-9eee5a95-7842-4356-af3d-562255a0d7ee 2Gi RWO Delete Bound default/ceph-rdb-claim kube-ceph-rdb 38s6.3 創(chuàng)建 nginx pod 掛載測(cè)試
cat >nginx-pod.yaml<6.4 查看部署結(jié)果
kubectl get pods -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES nginx-pod1 1/1 Running 0 39s 10.20.235.135 k8s036.5 訪問測(cè)試
6.5.1 創(chuàng)建訪問內(nèi)容
kubectl exec -ti nginx-pod1 -- /bin/sh -c 'echo This is from Ceph RBD!!! > /usr/share/nginx/html/index.html'6.5.2 curl訪問測(cè)試
curl http://10.20.235.135 This is from Ceph RBD!!!6.6 清理測(cè)試的PVC
kubectl delete -f nginx-pod.yaml kubectl delete -f ceph-rdb-pvc-test.yaml看完上述內(nèi)容,你們對(duì)kubernetes中ceph RBD如何使用有進(jìn)一步的了解嗎?如果還想了解更多知識(shí)或者相關(guān)內(nèi)容,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。
當(dāng)前名稱:kubernetes中cephRBD如何使用
網(wǎng)頁(yè)地址:http://weahome.cn/article/joeopg.html