如何使用Longhorn管理云原生分布式SQL數(shù)據(jù)庫(kù),很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
唐河網(wǎng)站建設(shè)公司成都創(chuàng)新互聯(lián),唐河網(wǎng)站設(shè)計(jì)制作,有大型網(wǎng)站制作公司豐富經(jīng)驗(yàn)。已為唐河上千家提供企業(yè)網(wǎng)站建設(shè)服務(wù)。企業(yè)網(wǎng)站搭建\成都外貿(mào)網(wǎng)站制作要多少錢,請(qǐng)找那個(gè)售后服務(wù)好的唐河做網(wǎng)站的公司定做!
Longhorn是Kubernetes的云原生分布式塊存儲(chǔ),易于部署和升級(jí),100%開源且持久,由業(yè)界采用最為廣泛的Kubernetes管理平臺(tái)創(chuàng)建者Rancher Labs推出,并于去年10月捐獻(xiàn)給CNCF。Longhorn的內(nèi)置增量快照和備份功能可確保volume數(shù)據(jù)的安全,而其直觀的UI可以方便地管理持久卷的計(jì)劃備份。使用Longhorn,你可以獲得最細(xì)的管理粒度和最大的控制程度,并且可以輕松地在另一個(gè)Kubernetes中創(chuàng)建一個(gè)災(zāi)備恢復(fù)的volume,并在發(fā)生緊急情況時(shí)進(jìn)行故障轉(zhuǎn)移。
YugabyteDB是一個(gè)云原生分布式SQL數(shù)據(jù)庫(kù),它可以運(yùn)行在Kubernetes環(huán)境中,所以它可以與Longhorn和許多其他CNCF項(xiàng)目互操作。YugabyteDB是一個(gè)開源的高性能分布式SQL數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)基于Google Spanner的可擴(kuò)展性和容錯(cuò)設(shè)計(jì)而構(gòu)建。Yugabyte的SQL API(YSQL)與PostgreSQL兼容。
如果你正在尋找一種方法來輕松地在100%的云原生基礎(chǔ)架構(gòu)之上開始應(yīng)用程序開發(fā),那么這篇文章正是為你準(zhǔn)備的。我們將一步一步告訴你如何部署一個(gè)完整的云原生基礎(chǔ)架構(gòu)堆棧,該堆棧由Google Kubernetes Engine、Rancher企業(yè)級(jí)Kubernetes管理平臺(tái)、Longhorn分布式塊存儲(chǔ)以及YugabyteDB分布式SQL數(shù)據(jù)庫(kù)組成。
YugabyteDB作為StatefulSet部署在Kubernetes上,并且需要持久存儲(chǔ)。Longhorn可用于備份YugabyteDB本地磁盤,從而允許配置大規(guī)模持久卷。將Longhorn和YugabyteDB結(jié)合使用,有以下好處:
不必管理本地磁盤——它們由Longhorn進(jìn)行管理
Longhorn和YugabyteDB可以配置大規(guī)模的持久卷
Longhorn和YugabyteDB都支持多云部署,可以幫助企業(yè)避免云廠商鎖定
此外,Longhorn可以在一個(gè)地理區(qū)域內(nèi)進(jìn)行同步復(fù)制。如果YugabyteDB跨區(qū)域進(jìn)行部署并且其中任意一個(gè)區(qū)域中的節(jié)點(diǎn)發(fā)生故障,那么YugabyteDB只能使用來自另一區(qū)域的數(shù)據(jù)重建該節(jié)點(diǎn),這會(huì)產(chǎn)生跨區(qū)域流量。而這會(huì)導(dǎo)致成本更改,并且會(huì)降低所恢復(fù)的性能。而將Longhorn與YugabyteDB結(jié)合使用,你可以無(wú)縫地重建該節(jié)點(diǎn),因?yàn)長(zhǎng)onghorn會(huì)在該區(qū)域內(nèi)進(jìn)行本地復(fù)制。這意味著YugabyteDB最終不必從另一個(gè)區(qū)域復(fù)制數(shù)據(jù),進(jìn)而降低了成本并提升了性能。在此部署設(shè)置中,如果整個(gè)區(qū)域發(fā)生故障,YugabyteDB僅需執(zhí)行一個(gè)跨區(qū)域節(jié)點(diǎn)重建。
我們將在已經(jīng)使用了Longhorn的Google Kubernetes集群上運(yùn)行YugabyteDB集群:
YugabyteDB(使用Helm Chart)-版本2.1.2 https://docs.yugabyte.com/latest/quick-start/install/macos/
Rancher(使用Docker Run)-版本2.4
Longhorn(使用Rancher UI)-版本0.8.0
一個(gè)Google Cloud Platform賬號(hào)
Rancher是一個(gè)開源的企業(yè)級(jí)Kubernetes管理平臺(tái)。它使得Run Kubernetes Everywhere更為輕松和簡(jiǎn)單,滿足IT人員的需求并增強(qiáng)DevOps團(tuán)隊(duì)的能力。
Rancher需要64位的Ubuntu16.04或18.04和至少4GB內(nèi)存的Linux主機(jī)。在此示例中,我們將使用安裝在GCP VM實(shí)例上的Rancher UI設(shè)置Google Kubernetes Engine(GKE)集群。
使用Rancher在GCP上設(shè)置Kubernetes集群所需的步驟包括:
在GCP中創(chuàng)建一個(gè)具有所需IAM角色的Service Account
創(chuàng)建一個(gè)運(yùn)行Ubuntu 18.04的VM實(shí)例
在VM實(shí)例上安裝Rancher
生成一個(gè)Service Account密鑰
通過Rancher UI設(shè)置GKE集群
首先,我們需要?jiǎng)?chuàng)建一個(gè)附加到GCP項(xiàng)目的Service Account。要完成此操作,訪問路徑是:【IAM & admin > Service accounts】
選擇【Create New Service Account】,給其命名并點(diǎn)擊【Create】。
接下來,我們需要添加所需的角色到Service Account以便能夠使用Rancher設(shè)置Kubernetes集群。添加下面顯示的角色并創(chuàng)建Service Account。
角色添加完成之后,點(diǎn)擊【Continue and Done】。
現(xiàn)在我們需要?jiǎng)?chuàng)建一個(gè)Ubuntu VM實(shí)例,它將會(huì)被托管在GCP上。執(zhí)行路徑為:【Compute Engine > VM Instances > Create New Instance】
出于本次demo的目的,我選擇了n1-standard-2機(jī)器類型。選擇Ubuntu鏡像,需要點(diǎn)擊【Boot Disk > Change】并且在操作系統(tǒng)的選項(xiàng)中選擇Ubuntu,版本選擇Ubuntu 18.04
需要檢查一下是否允許HTTPS流量,檢查路徑為【Firewall > Allow HTTPS traffic】
使用以上設(shè)置創(chuàng)建VM實(shí)例僅需幾分鐘。創(chuàng)建完成后,使用SSH連接到VM。在將terminal連接到VM的情況下,下一步是通過執(zhí)行以下命令來安裝Rancher:
$ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher
注意:如果沒有找到Docker,請(qǐng)按照以下說明在Ubuntu VM上安裝它:
https://www.digitalocean.com/community/tutorials/how-to-install-and-use-docker-on-ubuntu-18-04
要訪問Rancher server UI并創(chuàng)建登錄名,請(qǐng)打開瀏覽器并轉(zhuǎn)到安裝它的IP地址。
例如:https://
注意:如果你在嘗試訪問Rancher UI時(shí)遇到任何問題,請(qǐng)嘗試使用Chrome Incognito模式加載頁(yè)面或禁用瀏覽器緩存。
按照提示創(chuàng)建一個(gè)新帳戶。
創(chuàng)建帳戶后,請(qǐng)轉(zhuǎn)到https://
選擇GKE并給集群命名。
現(xiàn)在我們需要從之前創(chuàng)建的GCP Service Account中添加私鑰??梢栽凇綢AM & admin > Service Accounts > Create Key】下找到。
這將生成一個(gè)包含私鑰詳細(xì)信息的JSON文件。
復(fù)制JSON文件的內(nèi)容到Rancher UI中的Service Account部分并單擊【Next】。
考慮到本教程的目的,我選擇了n1-standard-4機(jī)器類型,打開了【Node Pool Autoscaling】,并將最大節(jié)點(diǎn)數(shù)設(shè)置為24。單擊【Create】。
通過確保將集群的狀態(tài)設(shè)置為Active來驗(yàn)證是否已創(chuàng)建集群。請(qǐng)耐心等待,這將需要幾分鐘的時(shí)間。
還可以通過轉(zhuǎn)到【Kubernetes Engine>Clusters】從GCP項(xiàng)目訪問該集群。
Rancher安裝完成后,我們可以使用其UI來在GKE集群上安裝和設(shè)置Longhorn。
單擊該集群,在本例中為longhorn-demo,然后選擇【System】。
接下來點(diǎn)擊【Apps>Launch】,搜索Longhorn,并點(diǎn)擊該卡片。
給deployment命名,也可以使用默認(rèn)名稱,然后點(diǎn)擊【Launch】。安裝完成后,你可以通過點(diǎn)擊/index.html鏈接來訪問Longhorn UI。
驗(yàn)證是否已安裝Longhorn,并且GKE集群節(jié)點(diǎn)是否可見。
下一步是在GKE集群上安裝YugabyteDB。可以通過執(zhí)行以下鏈接中的步驟來完成:
https://docs.yugabyte.com/latest/deploy/kubernetes/helm-chart/
以下將概述這些步驟:
首先,通過使用Helm版本命令來檢查Helm是否已經(jīng)安裝:
$ helm version Client: &version.Version{SemVer:"v2.14.1", GitCommit:"5270352a09c7e8b6e8c9593002a73535276507c0", GitTreeState:"clean"} Error: could not find tiller
如果你遇到與Tiller相關(guān)的問題,例如上述錯(cuò)誤,則可以使用升級(jí)選項(xiàng)初始化Helm:
$ helm init --upgrade --wait $HELM_HOME has been configured at /home/jimmy/.helm. Tiller (the Helm server-side component) has been installed into your Kubernetes Cluster. Please note: by default, Tiller is deployed with an insecure 'allow unauthenticated users' policy. To prevent this, run `helm init` with the --tiller-tls-verify flag. For more information on securing your installation see: https://docs.helm.sh/using_helm/#securing-your-helm-installation
根據(jù)以下文檔,你應(yīng)該能夠使用Helm chart來安裝YugabyteDB:
https://docs.yugabyte.com/latest/deploy/kubernetes/single-zone/oss/helm-chart/
在創(chuàng)建集群之前,你需要有一個(gè)service account,它應(yīng)該被授予集群管理員的角色。使用以下命令創(chuàng)建一個(gè)yugabyte-helm service account,并授予cluster-admin的集群角色。
$ kubectl create -f https://raw.githubusercontent.com/yugabyte/charts/master/stable/yugabyte/yugabyte-rbac.yaml serviceaccount/yugabyte-helm created clusterrolebinding.rbac.authorization.k8s.io/yugabyte-helm created
$ helm init --service-account yugabyte-helm --upgrade --wait $HELM_HOME has been configured at /home/jimmy/.helm. Tiller (the Helm server-side component) has been upgraded to the current version.
$ kubectl create namespace yb-demo namespace/yb-demo created
$ helm repo add yugabytedb https://charts.yugabyte.com "yugabytedb" has been added to your repositories
$ helm repo update Hang tight while we grab the latest from your chart repositories... ...Skip local chart repository ...Successfully got an update from the "yugabytedb" chart repository ...Successfully got an update from the "stable" chart repository Update Complete.
我們將使用Helm chart來安裝YugabyteDB并且將使用Load Balancer公開UI端點(diǎn)和YSQL、Yugabyte SQL API。此外,我們將在資源不足的環(huán)境中使用Helm資源選項(xiàng),并指定Longhorn存儲(chǔ)類。這將需要一段時(shí)間,需要耐心等待。你可以在文檔中找到關(guān)于Helm的詳細(xì)說明:
https://docs.yugabyte.com/latest/deploy/kubernetes/gke/helm-chart/
$ helm install yugabytedb/yugabyte --set resource.master.requests.cpu=0.1,resource.master.requests.memory=0.2Gi,resource.tserver.requests.cpu=0.1,resource.tserver.requests.memory=0.2Gi,storage.master.storageClass=longhorn,storage.tserver.storageClass=longhorn --namespace yb-demo --name yb-demo --timeout 1200 --wait
執(zhí)行以下命令以檢查YugabyteDB集群的狀態(tài):
$ helm status yb-demo
你還可以通過訪問GKE的“Services & Ingress and Workloads”頁(yè)面來驗(yàn)證是否已安裝所有組件并進(jìn)行通信。
你也可以通過訪問端口7000上yb-master-ui服務(wù)的端點(diǎn)來查看管理UI中的YugabyteDB安裝。
你還可以通過執(zhí)行以下命令登錄到PostgreSQL兼容的shell:
kubectl exec -n yb-demo -it yb-tserver-0 /home/yugabyte/bin/ysqlsh -- -h yb-tserver-0.yb-tservers.yb-demo ysqlsh (11.2-YB-2.0.12.0-b0) Type "help" for help. yugabyte=#
現(xiàn)在,你可以開始創(chuàng)建數(shù)據(jù)庫(kù)對(duì)象和處理數(shù)據(jù)了。
接下來,重新加載Longhorn dashboard,以驗(yàn)證YugabyteDB volume已正確設(shè)置。Volume的數(shù)量現(xiàn)在應(yīng)該處于可見狀態(tài):
單擊【volume】以管理volume。各個(gè)volume應(yīng)該可見。
現(xiàn)在可以通過選擇它們以及所需的操作來管理volume。
就是它!現(xiàn)在,你已經(jīng)可以在有Longhorn作為分布式塊存儲(chǔ)的GKE上運(yùn)行YugabyteDB了!
看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對(duì)創(chuàng)新互聯(lián)的支持。