※配置配額系統(tǒng)
網(wǎng)站建設(shè)哪家好,找成都創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設(shè)計(jì)、網(wǎng)站建設(shè)、微信開發(fā)、小程序開發(fā)、集團(tuán)企業(yè)網(wǎng)站建設(shè)等服務(wù)項(xiàng)目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了城區(qū)免費(fèi)建站歡迎大家使用!
磁盤配額就是管理員可以為用戶所能使用的磁盤空間進(jìn)行配額限制,每一用戶只能使用最大配額范圍內(nèi)的磁盤空間,比如一些網(wǎng)盤就是基于這個(gè)功能來做的,分配給用戶固定的空間,花錢買,可以將空間設(shè)置的更大。
功能作用
磁盤配額可以限制指定賬戶能夠使用的磁盤空間,這樣可以避免因某個(gè)用戶的過度的使用磁盤空間造成其它用戶無法運(yùn)行或工作甚至影響系統(tǒng)運(yùn)行。這個(gè)功能不止是linux有,windows系統(tǒng)當(dāng)中也有磁盤配額。
綜述
它是在內(nèi)核中運(yùn)行的,以文件系統(tǒng)為單位啟用,對不同組合用戶的策略不同,根據(jù)塊或者節(jié)點(diǎn)進(jìn)行限制
執(zhí)行軟限制(soft limit)
硬限制(hard limit)
初始化
分區(qū)掛載選項(xiàng):usrquota、grpquota
當(dāng)你相對某個(gè)分區(qū)做磁盤配額時(shí),需要在/etc/fstab中的掛載選項(xiàng)寫上這兩項(xiàng)才能做磁盤配額,完成之后需要重新掛載(mount –o remount device mount_point)
初始化數(shù)據(jù)庫:quotacheck
quotacheck [ -gubcfinvdMmR ] [ -F quota-format ] -a | filesystem
選項(xiàng):
-c:創(chuàng)建
-u:對某個(gè)用戶設(shè)置磁盤配額
-g:對某個(gè)組設(shè)置磁盤配額
-m:不用重新掛載
例如我想對/home做磁盤配額就需要初始化數(shù)據(jù)庫
quotacheck –cumg /home
初始化完成后會在/home目錄下生成兩個(gè)文件aquota.group,aquota.user
啟用配額
quotaon mount_point
關(guān)閉配額
quotaoff mount_point
編輯配額:通過打開文件編輯內(nèi)容
Disk quotas for user hadoop (uid 500):
Filesystem blocks soft hard inodes soft hard
/dev/mapper/VolGroup-lv_home 2048 0 0 12 0 0
blocks:當(dāng)前目錄下的文件總大小
soft:觸發(fā)警告的初始值,最低容量限制
hard:允許儲存最大的容量限制
inodes:當(dāng)前目錄的文件數(shù)量
soft:文件的最小值
hadr:單個(gè)文件大小的最大值
當(dāng)我們相對hadoop用戶設(shè)置磁盤配置時(shí)只需要更改blocks后面的soft和hard限制,大小根據(jù)自己的實(shí)際情況來定,也可以定義創(chuàng)建單個(gè)文件的大小
命令行直接編輯
setquota username 4096 5120 40 50 /home
這里的限制容量大小的默認(rèn)值為字節(jié)
示例
setquota hadoop 4096 5120 40 50 /home
有時(shí)候需要批量設(shè)置某些用戶的磁盤配額,一個(gè)個(gè)重新創(chuàng)建太麻煩,這里介紹一種批量創(chuàng)建的方法:
edquota -p user1 user2將user1設(shè)定要的配額值給user2同樣設(shè)定
edquota -p xxxx `awk -F: ’$3 >499 {print $1}’ /etc/passwd`
查詢磁盤配額
quota
repquota -a
假如有多個(gè)分區(qū)為quota,可用repquota -u 掛載點(diǎn) 查詢單個(gè)分區(qū)的使用情況
※RAID
什么是RAID?
RAID(Redundant Arry of Inexpensive Disk)稱為廉價(jià)磁盤冗余陣列。RAID的基本想法是把多個(gè)便宜的小磁盤組合到一起,成為一個(gè)磁盤組,使性能達(dá)到或超過一個(gè)容量巨大、價(jià)格貴的磁盤,目前RAID技術(shù)大致分為兩種:基于硬件的RAID技術(shù)和軟件實(shí)現(xiàn)的RAID,其中l(wèi)inux下通過自帶的軟件(mdadm)就能實(shí)現(xiàn)RAID的功能,所以它配置靈活、管理方便。同時(shí)使用RAID,還可以實(shí)現(xiàn)將幾個(gè)屋里磁盤合并成為一個(gè)更大的虛擬設(shè)備,從而達(dá)到性能改進(jìn)和數(shù)據(jù)冗余的目的,當(dāng)然基于硬件的RAID解決的方案比基于軟件RAID技術(shù)在使用性能上稍勝一籌,具體表現(xiàn)在檢測和修復(fù)多為錯(cuò)誤的能力、錯(cuò)誤磁盤自動檢測和陣列重建等方面。
作用
提高IO能力,磁盤并行讀寫
提高耐用性,磁盤冗余來實(shí)現(xiàn)
級別,多塊磁盤組織在一起的工作方式有所不同
RAID實(shí)現(xiàn)的方式
外接式磁盤整理額:
通過擴(kuò)展卡提供適配能力
內(nèi)接式RAID:主板集成RAID控制器,安裝OS前在BIOS中配置
軟RAID,例如mdadm
RAID級別
RAID-0
也稱為為條帶模式,即把連續(xù)的數(shù) 據(jù)分散到多個(gè)磁盤上存取,如圖所示,當(dāng)系統(tǒng)有數(shù)據(jù)請求就可以被多個(gè)磁盤并行的執(zhí)行,每個(gè)磁盤執(zhí)行屬于它自己的那部分?jǐn)?shù)據(jù)請求,這種數(shù)據(jù)上的并行操作可以充 分利用總線的帶寬,顯著提高磁盤整體存取性能。因?yàn)樽x取和寫入實(shí)在設(shè)備上并行完成的,讀取和寫入性能將會增加這通常是運(yùn)行RAID-0的原因,但RAID-0沒有數(shù)據(jù)冗余,如果磁盤出現(xiàn)故障,那么僵無法恢復(fù)任何數(shù)據(jù)。成本低,要求至少兩個(gè)磁盤,一般只是在那些對數(shù)據(jù)安全性要求不高的情況下才被使用。
容錯(cuò)性 | 無 | 冗余 | 無 |
熱備盤 | 無 | 讀性能 | 高 |
隨機(jī)寫性能 | 高 | 連續(xù)寫性能 | 高 |
需要的磁盤數(shù) | 2或2N個(gè) | 可用容量 | 100% |
典型應(yīng)用 | 無故障的迅速讀寫,要求安全性不高,如圖形工作站 |
RAID-1
RAID-1又稱為鏡像,一個(gè)具有全冗余的模式,如圖,RAID可以用兩個(gè)或2n個(gè)磁盤,并使用0塊或更多的備用磁盤,每次寫數(shù)據(jù)時(shí)會同時(shí)寫入鏡像盤,這種陣列可靠性高,但其有效容量減小到總?cè)萘康囊话悖瑫r(shí)這些磁盤的大小應(yīng)該相等,只要系統(tǒng)中任何一對鏡像盤中至少有一塊磁盤可以使用,甚至可以在一半數(shù)量的硬盤出現(xiàn)問題時(shí)系統(tǒng)都可以正常運(yùn)行,出現(xiàn)硬盤故障的RAID系統(tǒng)不再可靠,應(yīng)當(dāng)及時(shí)的更換損壞的硬盤,否則剩余的鏡像盤也出現(xiàn)問題,那么整個(gè)系統(tǒng)就會崩,更換新盤后原有數(shù)據(jù)會需要很長時(shí)間同步鏡像,外界對數(shù)據(jù)的訪問不會受到影響,只是這時(shí)整個(gè)系統(tǒng)的性能有所下降,RAID 1磁盤控制器的負(fù)載相當(dāng)大,用多個(gè)磁盤控制器可以提高數(shù)據(jù)的安全性和可用性。
容錯(cuò)性 | 有 | 冗余 | 有 |
熱備盤 | 有 | 讀性能 | 高 |
隨機(jī)寫性能 | 低 | 連續(xù)寫性能 | 低 |
需要的磁盤數(shù) | 2或2N個(gè) | 可用容量 | 50% |
RAID-4
RAID4在一個(gè)磁盤上保存校驗(yàn)信息,兵役RAID0的方式將數(shù)據(jù)寫入其他磁盤,如果一個(gè)磁盤出現(xiàn)故障,可以使用校驗(yàn)信息來重建所有數(shù)據(jù),如果兩個(gè)磁盤出現(xiàn)故障,那么所有數(shù)據(jù)豆?jié){丟失,RAID4不常使用,原因是將校驗(yàn)信息存儲在同一個(gè)磁盤上,每次寫入其他磁盤時(shí),都必須更新這些信息,大致大寫的寫入數(shù)據(jù)容易造成校驗(yàn)判的瓶頸。
容錯(cuò)性 | 有 | 冗余 | 有 |
熱備盤 | 有 | 讀性能 | 高 |
隨機(jī)寫性能 | 低 | 連續(xù)寫性能 | 低 |
需要的磁盤數(shù) | 2或以上 | 可用容量 | (n-1)/n |
RAID-5
RAID可以理解為是RAID0和RAID1的折中方案,但沒有完全使用RAID1的鏡像理念,而是使用了就奇偶校驗(yàn)信息來作為數(shù)據(jù)恢復(fù)的方式,沒有單獨(dú)指定的校驗(yàn)盤,而是交的存取數(shù)據(jù)及奇偶校驗(yàn)信息與所有磁盤上,在讀寫性能上都提升了,對于RAID5來說大部分?jǐn)?shù)據(jù)傳輸只對一塊磁盤操作,可進(jìn)行秉性操作,在RAID5中有寫損失,即每一次寫操作,將產(chǎn)生四個(gè)實(shí)際的讀寫操作,其中兩次讀舊的數(shù)據(jù)及就信息,兩次寫心得數(shù)據(jù)及奇偶信息。
容錯(cuò)性 | 有 | 冗余 | 奇偶校驗(yàn) |
熱備盤 | 有 | 讀性能 | 高 |
隨機(jī)寫性能 | 低 | 連續(xù)寫性能 | 低 |
需要的磁盤數(shù) | 3個(gè)或3個(gè)以上 | 可用容量 | (n-1)/n |
典型應(yīng)用 | 隊(duì)數(shù)據(jù)傳輸要求安全性高如金融,數(shù)據(jù)庫,存儲 |
RAID6
RAID6是RAID家族中的新技術(shù),是在RAID5的基礎(chǔ)上擴(kuò)展而來的,所以同RAID5一樣,數(shù)據(jù)和校驗(yàn)碼都是被分成數(shù)據(jù)塊然后分貝存儲到磁盤陣列的各個(gè)硬盤上。RAID加入了一個(gè)獨(dú)立的校驗(yàn)磁盤,它把分布在磁盤上的校驗(yàn)碼都備份在一起,這樣在磁盤整列就允許多個(gè)磁盤同時(shí)出現(xiàn)故障,但消耗了太多的磁盤空間。
容錯(cuò)性 | 有 | 冗余 | 奇偶校驗(yàn) |
熱備盤 | 有 | 讀性能 | 高 |
隨機(jī)寫性能 | 低 | 連續(xù)寫性能 | 低 |
需要的磁盤數(shù) | 4個(gè)或4個(gè)以上 | 可用容量 | (n-2)/n |
典型應(yīng)用 | 隊(duì)數(shù)據(jù)傳輸要求安全性高如金融,數(shù)據(jù)庫,存儲 |
RAID-10
RAID-10是一個(gè)RAID0與RAID1的組合體,它是利用奇偶校驗(yàn)實(shí)現(xiàn)條帶及鏡像,所以它記性了RAID0的快速和RAID1的安全,我們知道,RAID1在這里就是一個(gè)冗余的備份陣列,而RAID0則負(fù)責(zé)數(shù)據(jù)的讀寫速度,更多的情況是從主通路分出兩路,做Striping操作,即把數(shù)據(jù)分割,而這分出來的每一路則再分兩路,做Mirroring操作,即互做鏡像
容錯(cuò)性 | 有 | 冗余 | 奇偶校驗(yàn) |
熱備盤 | 有 | 讀性能 | 高 |
隨機(jī)寫性能 | 高 | 連續(xù)寫性能 | 高 |
需要的磁盤數(shù) | 4個(gè)或4個(gè)以上 | 可用容量 | 50% |
典型應(yīng)用 | 隊(duì)數(shù)據(jù)傳輸要求安全性高如金融,數(shù)據(jù)庫,存儲 |
RAID-01
RAID-01以四個(gè)磁盤組成的RAID 0+1為例,其數(shù)據(jù)存儲方式如圖所示:RAID 0+1是存儲性能和數(shù)據(jù)安全兼顧的方案。它在提供與RAID 1一樣的數(shù)據(jù)安全保障的同時(shí),也提供了與RAID 0近似的存儲性能。由于RAID 0+1也通過數(shù)據(jù)的100%備份功能提供數(shù)據(jù)安全保障,因此RAID 0+1的磁盤空間利用率與RAID 1相同,存儲成本高。當(dāng)鏡像盤的中任意一個(gè)磁盤壞帶,數(shù)據(jù)將會丟失
軟RAID
通過軟件的方式來實(shí)現(xiàn)raid各個(gè)級別的功能,性能沒有硬件raid那么強(qiáng)大,但它可以用來在測試環(huán)境當(dāng)中使用。linux當(dāng)中使用mdadm這個(gè)工具來實(shí)現(xiàn)raid的功能
mdadm:為軟RAID提供管理界面
為空余磁盤添加冗余,結(jié)合內(nèi)核中的md(mutil devices),RAID設(shè)備可命令為/dev/md0、/dev/md1等等
mdadm:模式化的工具
語法格式:mdadm [mode]
支持的RAID級別:Linux supports LINEAR md devices, RAID0 (striping), RAID1 (mirror-
ing), RAID4, RAID5, RAID6, RAID10, MULTIPATH, FAULTY, and CONTAINER.
模式:
創(chuàng)建模式 -C
專用選項(xiàng)
-l 指定raid級別
-n 指定設(shè)備數(shù)量
-a 自動為其創(chuàng)建設(shè)備文件 yes|no
-c 指定chunk大小一般設(shè)定為2^n,默認(rèn)為64k
-x 指定空閑盤個(gè)數(shù),當(dāng)其中某個(gè)盤壞掉,自動頂上去
管理模式 -F
-a –add 添加磁盤
–r –remove 刪除磁盤
-f –fail 模擬損壞磁盤
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md0 -r /dev/sdb2
mdadm /dev/md0 -f /dev/sdb3
監(jiān)控模式 –F
查看軟raid的狀態(tài),相當(dāng)于查看/proc/mdstat
增長模式 –G
比如我要想某個(gè)raid設(shè)備當(dāng)中添加一塊新磁盤以擴(kuò)大raid的容量
mdadm –G /dev/md0 –n4 -a /dev/sdf1
裝配模式 -A
當(dāng)raid設(shè)備時(shí)停止的狀態(tài)時(shí),可以使用此模式將其激活
mdadm –A /dev/md0 /dev/sdb1 /dev/sdb2 /dev/sdb3
查看RAID的陣列的詳細(xì)信息
mdadm -D /dev/md0或者查看文件/proc/mdstat
停止陣列
mdadm -S /dev/md0
將當(dāng)前RAID信息保存至配置文件,以便以后進(jìn)行裝配
mdadm -D –s >/etc/mdadm.conf
刪除raid
在raid之前必須要先停止raid設(shè)備,然后刪除raid信息
mdadm –zero-superblock /dev/sdb1
mdadm –zero-superblock /dev/sdb2
mdadm –zero-superblock /dev/sdb3
示例:
創(chuàng)建一個(gè)可用空間為1G的RAID1設(shè)備,要求其chunk大小為128k,文件系統(tǒng)為ext4,有一個(gè)空閑盤,開機(jī)可自動掛載至/backup目錄
由于RAID1的利用率是100%,所以這里只需要創(chuàng)建一塊空間大小為1G的分區(qū),將分區(qū)類型改為fd,然后創(chuàng)建raid,然后又要求需要一塊空閑盤,所以還得創(chuàng)建一個(gè)大小同為1G的分區(qū),分區(qū)類型也得改為fd,開機(jī)需要自動掛載,這是需要將條目寫到/etc/fstab d當(dāng)中去
第一步、分兩個(gè)區(qū)大小都為1G,完成后更改分區(qū)的類型為fd Linux auto raid類型
第二步、創(chuàng)建raid mdadm -C /dev/md0–a yes -c 128k -l 1 -n 1 -x 1 /dev/sdc{5,6}
第三步、格式化 mke2fs –t ext4 /dev/md0
第四步、將條目寫到/etc/fstab中去,實(shí)現(xiàn)開機(jī)自動掛載
2:創(chuàng)建由三塊硬盤組成的可用空間為2G的RAID5設(shè)備,要求其chunk大小為256k,文件系統(tǒng)為ext4,開機(jī)可自動掛載至/mydata目錄
※邏輯卷管理
LVM是 Logical Volume Manager(邏輯卷管理)的簡寫,它是Linux環(huán)境下對磁盤分區(qū)進(jìn)行管理的一種機(jī)制,它由Heinz Mauelshagen在Linux 2.4內(nèi)核上實(shí)現(xiàn),目前最新版本為:穩(wěn)定版1.0.5,開發(fā)版 1.1.0-rc2,以及LVM2開發(fā)版。Linux用戶安裝Linux操作系統(tǒng)時(shí) 遇到的一個(gè)常見的難以決定的問題就是如何正確地評估各分區(qū)大小,以分配合適的硬盤空間。與傳統(tǒng)的磁盤與分區(qū)相比,LVM為計(jì)算機(jī)提供了更高層次的磁盤存儲。它使系統(tǒng)管理員可以更方便的為應(yīng)用與用戶分配存儲空間。在LVM管理下的存儲卷可以按需要隨時(shí)改變大小與移除(可能需對文件系統(tǒng)工具進(jìn)行升級)
好處
允許對卷進(jìn)行方便操作的抽象層,包括重新設(shè)定文件系統(tǒng)大小
允許在多個(gè)物理設(shè)備間重新組織文件系統(tǒng)
將設(shè)備指定為物理卷,用一個(gè)或多個(gè)物理卷來創(chuàng)建一個(gè)卷組
lvm可以彈性的更改lvm的容量
LVM基本術(shù)語
物理存儲介質(zhì):這里指系統(tǒng)的存儲設(shè)備如/dev/sda /dev/sdb等等
物理卷:物理卷就是指硬盤分區(qū)或邏輯上與磁盤分區(qū)具有同樣的功能
卷組:LVM卷組類似于lvm系統(tǒng)中的物理硬盤,其有物理卷組成??梢栽诰斫M上創(chuàng)建一個(gè)或多個(gè)lvm分區(qū),lvm卷組由一個(gè)或多個(gè)物理卷組成
邏輯卷:lvm的邏輯卷類似于硬盤分區(qū),在邏輯卷之上可以建立文件系統(tǒng)
PE(physical extend)每個(gè)一個(gè)物理卷被劃分為PE的基本單元,具有唯一編號的PE是可以被LVM尋址的最小單元,默認(rèn)為4MB,可以更改
LE:邏輯卷也被劃分成為LE的可被尋址的基本單位,在同一卷組中,LE的大小和PE是相同的。
簡單的說就是:
PV:是物理的磁盤分區(qū)
VG:LVM中的物理的磁盤分區(qū),也就是PV,必須加入VG,可以將VG理解為一個(gè)倉庫或者是幾個(gè)大的硬盤。
LV:也就是從VG中劃分的邏輯分區(qū)
dm:device mapper:將一個(gè)或多個(gè)底層設(shè)備組織成一個(gè)邏輯設(shè)備的模塊
設(shè)備名:/dev/dm-#
軟連接
/dev/mapper/Vg_name-Lv_name
/dev/mapper/vol0-root
/dev/Vg_name_Lv_name
/dev/vol0/root
pv管理工具
pvs:簡要查看pv信息
pvdisplay:詳細(xì)查看pv信息,也可在后面跟某個(gè)設(shè)備,查看某個(gè)pv的詳細(xì)信息
創(chuàng)建pv
pvcreate
pvcreate [–commandprofile ProfileName] [-d|–debug] [-h|–help] [-t|–test]
[-v|–verbose] [–version] [-f[f]|–force [–force]] [-y|–yes] [–labelsector]
[–bootloaderareasize size] [-M|–metadatatype type] [–[pv]metadatacopies Num-
berOfCopies] [–metadatasize size] [–metadataignore {y|n}] [–dataalignment
alignment] [–dataalignmentoffset alignment_offset] [–restorefile file]
[–norestorefile] [–setphysicalvolumesize size] [-u|–uuid uuid] [-Z|–zero
{y|n}] PhysicalVolume [PhysicalVolume…]
pvcreate /dev/sdb1 /dev/sdb2 /dev/sdb3
vg管理工具
顯示卷組
vgs:簡要顯示vg信息
vgdisplay:詳細(xì)顯示vg信息
創(chuàng)建卷組
vgcreate
vgcreate [-s|–physicalextentsize PhysicalEx- tentSize[bBsSkKmMgGtTpPeE]] [–shared] [–systemid SystemID] [-t|–test] [-v|–verbose] [–version] [PHYSICAL DEVICE OPTIONS] VolumeGroupName PhysicalDe-vicePath [PhysicalDevicePath…]
vgcreate vg0 /dev/sdb1 /dev/sdb2 /dev/sdb3
管理卷組
vgextend 拉伸卷組
vgextend vg0 /dev/sdc1 /dev/sdc2
刪除卷組
vgremove,先將數(shù)據(jù)移動到指定的設(shè)備上,然后再刪除,將底層存在pv上的數(shù)據(jù)移動到其他硬盤,pvmove /dev/sdb{1,2,3} /dev/sdc{1,2,3}
vgreduce vg0 /dev/sdb{1,2,3} 將卷組上的pv移除
vgremove vg0 最后移除卷組
lv管理工具
lvs:簡要顯示邏輯卷的信息
lvdisplay:詳細(xì)顯示邏輯卷的信息
創(chuàng)建邏輯卷
lvcreate
lvcreate [-a|–activate [ [–cachesettings key=value] [-c|–chunksize ChunkSize] [{-l|–extents]LogicalExtentsNumber[%{FREE|PVS|VG}] | -L|–size LogicalVolumeSize}[-i|–stripes Stripes [-I|–stripesize StripeSize]]] [-h|-?|–help][-s|–snapshot] [-t|–test] [–type SegmentType] [-v|–verbose]
lvcreate -L [mMgGtT] -n lv_name vgname
-l # :使用多少個(gè)PE的容量來創(chuàng)建邏輯卷
-L :直接指定使用多大容量來創(chuàng)建卷組
重新設(shè)定文件系統(tǒng)的大小
fsadm[options] resize device [new_size[BKMGTEP]]
resize2fs [-f] [-F] [-M] [-P] [-p] device [new_size]
擴(kuò)展邏輯卷
lvextend -L [+]#[mMgGtT] / dev/VG_NAME/LV_NAME 擴(kuò)大物理邊界
resize2fs /dev/VG_NAME/LV_NAME 擴(kuò)大邏輯邊界
示例:
1、創(chuàng)建一個(gè)至少有兩個(gè)PV組成的大小為10G的名為testvg的VG;要求PE大小為16MB, 而后在卷組中創(chuàng)建大小為5G的邏輯卷testlv;掛載至/users目錄
第一步分兩個(gè)分區(qū),并且大小為10G更改分區(qū)類型為8e
第二步、創(chuàng)建pv pvcreate /dev/sdc2 /dev/sdc3
第三步、創(chuàng)建卷組 vgcreate vg0 -s 16M /dev/sdc2 /dev/sdc3
第四部、創(chuàng)建卷組 lvcreate -L 20G–n testvg vg0
第五步、格式化掛載 mke2fs–t ext4 /dev/vg0/testlv ,mount /dev/vg0/testlv /users (如果目錄實(shí)現(xiàn)不存在需要創(chuàng)建)
第六步、為了開機(jī)能夠掛載寫到/etc/fstab 當(dāng)中去
2、擴(kuò)展testlv至7G,要求archlinux用戶的文件不能丟失
要擴(kuò)展必須先要查看testlv他的卷組當(dāng)中的剩余空間還夠不夠,如果卷組當(dāng)中的剩余空間不夠的,需要再創(chuàng)建一個(gè)分區(qū),然后拉伸卷組的空間,之后擴(kuò)展邏輯卷,使用lvextend之后只是拉伸了物理空間,而邏輯空間的還是沒有改變,這里需要執(zhí)行resize2fs device這條命令來動態(tài)拉伸邏輯卷的空間
第一步、查看卷組所剩空間大小vgdisplay vg0查看FREE PE那一項(xiàng)還有沒有空間,正好我這里是有的
第二步、拉伸邏輯卷 lvextend -L +2G /dev/vg0/testlv
第三步、使其生效 resize2fs /dev/vg0/testlv