真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

磁盤IO和網(wǎng)絡(luò)IO該如何評估、監(jiān)控、性能定位和優(yōu)化-創(chuàng)新互聯(lián)

磁盤 IO 和網(wǎng)絡(luò) IO 該如何評估、監(jiān)控、性能定位和優(yōu)化

我們提供的服務(wù)有:網(wǎng)站設(shè)計(jì)制作、網(wǎng)站設(shè)計(jì)、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、汕尾ssl等。為近千家企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的汕尾網(wǎng)站制作公司

生產(chǎn)中經(jīng)常遇到一些IO延時(shí)長導(dǎo)致的系統(tǒng)吞吐量下降、響應(yīng)時(shí)間慢等問題,例如交換機(jī)故障、網(wǎng)線老化導(dǎo)致的丟包重傳;存儲陣列條帶寬度不足、緩存不足、QoS限制、RAID級別設(shè)置不當(dāng)?shù)纫鸬腎O延時(shí)。

一、評估 IO 能力的前提

評估一個(gè)系統(tǒng)IO能力的前提是需要搞清楚這個(gè)系統(tǒng)的IO模型是怎么樣的。那么IO模型是什么,為什么要提煉IO模型呢?

(一)、IO模型

在實(shí)際的業(yè)務(wù)處理過程中,一般來說IO比較混雜,比如說讀寫比例、IO尺寸等等,都是有波動(dòng)的。所以我們提煉IO模型的時(shí)候,一般是針對某一個(gè)特定的場景來建立模型,用于IO容量規(guī)劃以及問題分析。

最基本的模型包括:

  • IOPS
  • 帶寬
  • IO的尺寸(大?。?/li>

如果是磁盤IO,那么還需要關(guān)注:

  • 磁盤IO分別在哪些盤
  • 讀IO和寫IO的比例
  • 讀IO是順序的還是隨機(jī)的
  • 寫IO是順序的還是隨機(jī)的

(二)、為什么要提煉IO模型

不同模型下,同一臺存儲,或者說同一個(gè)LUN,能夠提供的IOPS、帶寬(MBPS)、響應(yīng)時(shí)間3大指標(biāo)的大值是不一樣的。

當(dāng)存儲中提到IOPS大能力的時(shí)候,一般采用隨機(jī)小IO進(jìn)行測試,此時(shí)占用的帶寬是非常低的,響應(yīng)時(shí)間也會比順序的IO要長很多。如果將隨機(jī)小IO改為順序小IO,那么IOPS還會更大。當(dāng)測試順序大IO時(shí),此時(shí)帶寬占用非常高,但I(xiàn)OPS卻很低。

因此,做IO的容量規(guī)劃、性能調(diào)優(yōu)需要分析業(yè)務(wù)的IO模型是什么。

二、評估工具

(一)、磁盤IO評估工具

磁盤IO能力的評估工具有很多,例如orion、iometer,dd、xdd、iorate,iozone,postmark,不同的工具支持的操作系統(tǒng)平臺有所差異,應(yīng)用場景上也各具特色。

有的工具可以模擬應(yīng)用場景,比如orion是oracle出品,模擬Oracle數(shù)據(jù)庫IO負(fù)載(采用與Oracle相同的IO軟件棧)。

即模擬oracle應(yīng)用對文件或磁盤分區(qū)進(jìn)行讀寫(可指定讀寫比例、io size,順序or隨機(jī))這里就需要提前知道自己的IO模型。如果不知道,可以采用自動(dòng)模式,讓orion自動(dòng)的跑一遍,可以得出不同進(jìn)程的并發(fā)讀寫下,高的IOPS、MBPS,以及對應(yīng)的響應(yīng)時(shí)間。

比對dd,僅僅是對文件進(jìn)行讀寫,沒有模擬應(yīng)用、業(yè)務(wù)、場景的效果。

postmark可以實(shí)現(xiàn)文件讀寫、創(chuàng)建、刪除這樣的操作。適合小文件應(yīng)用場景的測試。

(二)、網(wǎng)絡(luò)IO評估工具

ping:最基本的,可以指定包的大小。

iperf、ttcp:測試tcp、udp協(xié)議大的帶寬、延時(shí)、丟包。

衡量windows平臺下的帶寬能力,工具比較多:NTttcp、LANBench、pcattcp、LAN Speed Test (Lite)、NETIO、NetStress。

三、主要監(jiān)控指標(biāo)和常用監(jiān)控工具

(一)、磁盤IO

對于存儲IO:unix、linux平臺,Nmon、iostat是比較好的工具。

nmon用于事后分析,iostat可用于實(shí)時(shí)查看,也可以采用腳本記錄下來事后分析。

1.IOPS

總IOPS:Nmon DISK_SUMM Sheet:IO/Sec

每個(gè)盤對應(yīng)的讀IOPS :Nmon DISKRIO Sheet

每個(gè)盤對應(yīng)的寫IOPS :Nmon DISKWIO Sheet

總IOPS:命令行iostat -Dl:tps

每個(gè)盤對應(yīng)的讀IOPS :命令行iostat -Dl:rps

每個(gè)盤對應(yīng)的寫IOPS :命令行iostat -Dl:wps

2.帶寬

總帶寬:Nmon DISK_SUMM Sheet:Disk Read KB/s,Disk Write KB/s

每個(gè)盤對應(yīng)的讀帶寬:Nmon DISKREAD Sheet

每個(gè)盤對應(yīng)的寫帶寬:Nmon DISKWRITE Sheet

總帶寬:命令行iostat -Dl:bps

每個(gè)盤對應(yīng)的讀帶寬:命令行iostat -Dl:bread

每個(gè)盤對應(yīng)的寫帶寬:命令行iostat -Dl:bwrtn

3.響應(yīng)時(shí)間

每個(gè)盤對應(yīng)的讀響應(yīng)時(shí)間:命令行iostat -Dl:read - avg serv,max serv

每個(gè)盤對應(yīng)的寫響應(yīng)時(shí)間:命令行iostat -Dl:write - avg serv,max serv

4.其他

磁盤繁忙程度、隊(duì)列深度、每秒隊(duì)列滿的次數(shù)等等。

(二)、網(wǎng)絡(luò)IO

1.帶寬

最好在網(wǎng)絡(luò)設(shè)備處直接查看流量(比較準(zhǔn)),如果在業(yè)務(wù)的服務(wù)器也可以查看

Nmon:NET Sheet

命令行topas:Network:BPS、B-In、B-Out

2.響應(yīng)時(shí)間

簡單的方法,可采用ping命令查看ping的延時(shí)是否在合理范圍,是否有丟包現(xiàn)象。

有些交換機(jī)對ping命令設(shè)置了較低的優(yōu)先級,可能在回復(fù)、轉(zhuǎn)發(fā)ping包的時(shí)候有延遲,因此ping的結(jié)果不一定能反映真實(shí)情況。如果需要更為精確的測量可以探針捕獲從某服務(wù)器建立TCP連接時(shí)發(fā)送的SYN包后開始計(jì)時(shí)起,到其收到對端發(fā)回的TCP SYNACK后的時(shí)間差。

更為準(zhǔn)確、利于后期分析的方法是采用專業(yè)的網(wǎng)絡(luò)設(shè)備在網(wǎng)絡(luò)設(shè)備的端口處進(jìn)行報(bào)文捕獲和計(jì)算分析。

四、性能定位與優(yōu)化

(一)、對磁盤IO爭用的調(diào)優(yōu)思路有哪些?

典型問題:針對主要爭用是IO相關(guān)的場景下,調(diào)優(yōu)的思路有哪些?主要的技術(shù)或者方法是什么?

一、首先要搞清楚IO爭用是因?yàn)閼?yīng)用等層面的IO量過大導(dǎo)致,還是系統(tǒng)層面不能承載這些IO量。

如果應(yīng)用層面有過多不必要的讀寫,首先解決應(yīng)用問題。

舉例1:數(shù)據(jù)庫里面用于sort的buffer過小,當(dāng)做sort的時(shí)候,有大量的內(nèi)存與磁盤之間的數(shù)據(jù)交換,那么這類IO可以通過擴(kuò)大sort buffer的內(nèi)存來減少或避免。

舉例2:從應(yīng)用的角度,一些日志根本不重要,不需要寫,那么可以把日志級別調(diào)低、甚至不記錄日志,數(shù)據(jù)庫層面可以加hint “no logging”。

二、存儲問題的分析思路

存儲IO問題可能出現(xiàn)在IO鏈路的各個(gè)環(huán)節(jié),分析IO瓶頸是主機(jī)/網(wǎng)絡(luò)/存儲中的哪個(gè)環(huán)節(jié)導(dǎo)致的。

IO從應(yīng)用->內(nèi)存緩存->塊設(shè)備層->HBA卡->驅(qū)動(dòng)->交換網(wǎng)絡(luò)->存儲前端->存儲cache->RAID組->磁盤,經(jīng)過了一個(gè)很長的鏈條。

需要逐段分析:

1、主機(jī)側(cè):應(yīng)用->內(nèi)存緩存->塊設(shè)備層→HBA卡->驅(qū)動(dòng)

2、網(wǎng)絡(luò)側(cè):交換網(wǎng)絡(luò)

3、存儲側(cè):存儲前端-》存儲cache-》RAID組-》磁盤

分析思路:

1、主機(jī)側(cè)

當(dāng)主機(jī)側(cè)觀察到的時(shí)延很大,存儲側(cè)的時(shí)延較小,則可能是主機(jī)側(cè)或網(wǎng)絡(luò)存在問題。

主機(jī)是I/O的發(fā)起端,I/O特性首先由主機(jī)的業(yè)務(wù)軟件和操作系統(tǒng)軟件和硬件配置等決定。例如,在“服務(wù)隊(duì)列滿”這一章節(jié)介紹的I/O 隊(duì)列長度參數(shù)(queue_depth),當(dāng)然,還有許多其他的參數(shù)(如: driver 可以向存儲發(fā)的大的 I/O、光纖卡DMA memor區(qū)域大小、塊設(shè)備并發(fā)數(shù)、HBA卡并發(fā)數(shù))。

若排查完成,性能問題還是存在,則需要對組網(wǎng)及鏈路、存儲側(cè)進(jìn)行性能問題排查。

2、網(wǎng)絡(luò)側(cè)

當(dāng)主機(jī)側(cè)觀察到的時(shí)延很大,存儲側(cè)的時(shí)延較小,且排查主機(jī)側(cè)無問題時(shí),則性能問題可能出現(xiàn)在鏈路上。

可能的問題有:帶寬達(dá)到瓶頸、交換機(jī)配置不當(dāng)、交換機(jī)故障、多路徑選路錯(cuò)誤、線路的電磁干擾、光纖線有損、接口松動(dòng)等。帶寬達(dá)到瓶頸、交換機(jī)配置不當(dāng)、多路徑選路錯(cuò)誤、線路的電磁干擾等。

3、存儲側(cè)

如果主機(jī)側(cè)時(shí)延與存儲側(cè)時(shí)延都很大且相差較小,說明問題可能出現(xiàn)在存儲上。首先需要了解當(dāng)前存儲側(cè)所承載的IO模型、存儲資源配置,并從存儲側(cè)收集性能數(shù)據(jù),按照I/O路徑進(jìn)行性能問題的定位。

常見原因如硬盤性能達(dá)到上限、鏡像帶寬達(dá)到上限、存儲規(guī)劃(如條帶過?。⒂脖P域和存儲池劃分(例如劃分了低速的磁盤)、thin LUN還是thick LUN、LUN對應(yīng)的存儲的緩存設(shè)置(緩存大小、緩存類型,內(nèi)存還是SSD);

IO的Qos限制的磁盤IO的帶寬、LUN優(yōu)先級設(shè)置、存儲接口模塊數(shù)量過小、RAID劃分(比如RAID10>RAID5>RAID6)、條帶寬度、條帶深度、配置快照、克隆、遠(yuǎn)程復(fù)制等增值功能拖慢了性能、是否有重構(gòu)、balancing等操作正在進(jìn)行、存儲控制器的CPU利用率過高、LUN未格式化完成引起短時(shí)的性能問題、cache刷入磁盤的參數(shù)(高低水位設(shè)置),甚至數(shù)據(jù)在盤片的中心還是邊緣等等。

具體每個(gè)環(huán)節(jié) 都有一些具體的方法、命令、工具來查看性能表現(xiàn),這里不再贅述。

(二)、關(guān)于低延遲事務(wù)、高速交易的應(yīng)用在IO方面可以有哪些調(diào)優(yōu)思路和建議?

典型問題:關(guān)于近期在一些證券行業(yè)碰到的低延遲事務(wù)、高速交易的應(yīng)用需求,在IO模型路徑方面可以有哪些可以調(diào)優(yōu)的思路和建議?

對于低延遲事務(wù),可以分析一下業(yè)務(wù)是否有持久化保存日志的需要,或者說保存的安全程度有多高,以此來決定采用什么樣的IO。

1.從業(yè)務(wù)角度

比如說業(yè)務(wù)上不需要保存日志,那就不用寫IO。

或者保存級別不高,那就可以只寫一份數(shù)據(jù),對于保存級別較高的日志,一般要雙寫、或多寫。

2.從存儲介質(zhì)角度

1)可以全部采用SSD

2)或者采用SSD作為存儲的二級緩存(一級緩存是內(nèi)存)

3)或者存儲服務(wù)器里面采用存儲分級(將熱點(diǎn)數(shù)據(jù)遷移到SSD、SAS等性能較好的硬盤上)

4)可以采用RAMDISK(內(nèi)存作為磁盤用)

5)增加LUN所對應(yīng)的存儲服務(wù)器的緩存

3.從配置的角度

普通磁盤存儲的LUN,可以設(shè)置合理的RAID模式(比如RAID10)去適應(yīng)你的業(yè)務(wù)場景。

分條的深度大于等于一個(gè)IO的大小、有足夠的寬度支持并發(fā)寫。

4.IO路徑的角度

采用高速的組網(wǎng)技術(shù),而不用iSCSI之類的低速方式。

(三)、網(wǎng)絡(luò)IO問題定位思路和方法

與磁盤IO類似,網(wǎng)絡(luò)IO同樣需要分段查找和分析。通過網(wǎng)絡(luò)抓包和分析的工具,診斷網(wǎng)絡(luò)的延時(shí)、丟包等異常情況出現(xiàn)在哪一段,然后具體分析。

同時(shí),抓主機(jī)端的IPtrace可以幫助診斷不少的網(wǎng)絡(luò)問題

性能指標(biāo)之資源指標(biāo)-網(wǎng)絡(luò)IO--初步診斷-trace查看

字?jǐn)?shù) 2817閱讀 4748評論 0贊 1

如果從應(yīng)用層面或者ping等手段定位到網(wǎng)絡(luò)有延時(shí)、抖動(dòng)、丟包、中斷等異常情況時(shí),需要進(jìn)行深入的診斷分析。

此時(shí)最好的方法是采用專業(yè)的網(wǎng)絡(luò)抓包設(shè)備進(jìn)行網(wǎng)絡(luò)包捕獲,并采用該廠商相應(yīng)的工具進(jìn)行分析診斷。不但不影響服務(wù)器本身的性能,并且可以比較快速地得出一些診斷結(jié)論。目前市場上這方面的廠商和工具也比較多。

然而本節(jié)將介紹另一種初步分析問題的手段-iptrace。通過在業(yè)務(wù)系統(tǒng)上監(jiān)控iptrace日志,之后通過wireshark工具進(jìn)行分析,即可對問題有個(gè)大致的判斷。

1、iptrace抓取

舉例說明

開啟監(jiān)控:startsrc -s iptrace "-a -s 目標(biāo)機(jī)IP -b -S 1500 -L 1073741824 /var/trace/iptrace.out"

該命令的含義是:iptrace記錄本機(jī)與目標(biāo)機(jī)雙向傳輸?shù)男畔?,抓取的?shù)據(jù)包大限制為1500字節(jié),日志記錄大為1073741824字節(jié)(1G大?。?。

關(guān)閉監(jiān)控:stopsrc -s iptrace

2、Wireshark簡介

Wireshark是windows平臺用于查看網(wǎng)口數(shù)據(jù)包的工具。核心功能是快速篩選自己需要的信息然后快速定位問題。使用Wireshark打開iptrace.out文件如下圖:

No --- 截獲的網(wǎng)絡(luò)包序號

Time --- 時(shí)間

Source --- 數(shù)據(jù)源IP

Destination --- 目標(biāo)IP

Length --- 消息包總字節(jié)長度

Protocol --- 消息包協(xié)議類型

Info --- 消息包相關(guān)基本信息

以下是對應(yīng)的OSI七層模型

Frame:物理層的數(shù)據(jù)幀概況

Ethernet II:數(shù)據(jù)鏈路層以太網(wǎng)幀頭部信息

Internet Protocol Version 4:互聯(lián)網(wǎng)層IP包頭部信息

Transmission Control Protocol:傳輸層TCP的數(shù)據(jù)段頭部信息

WebSphere MQ:應(yīng)用層的信息,此處是MQ

常用篩選命令

可以按照需求篩選顯示網(wǎng)絡(luò)包列表,常用篩選條件如下:

1 按消息包長度篩選frame.len== (Length的值)

2 按數(shù)據(jù)源ip 篩選 ip.src eq 10.x.x.x

3 同時(shí)篩選源IP 以及協(xié)議類型ip.src eq 10.x.x.x && mq

4 按需求的協(xié)議類型篩選 mq && tcp

3、分析實(shí)例

打開iptrace文件后,首先查看右側(cè)標(biāo)黑色的部分,這是wireshark認(rèn)為有問題的網(wǎng)絡(luò)傳輸。

以作者實(shí)踐當(dāng)中的一個(gè)例子,系統(tǒng)環(huán)境當(dāng)中網(wǎng)絡(luò)延時(shí)非常不穩(wěn)定,抓取iptrace用wireshark打開之后,發(fā)現(xiàn)大量的黑色條帶,幾乎找不到不出錯(cuò)的時(shí)間段。

這其中的問題五花八門,例如有:

  1. 大量的tcp keep-alive ack/ tcp keep-alive
  2. 大量下一個(gè)回復(fù)包的SEQ值不等于ACK
  3. RST ACK
  4. 大量Retransmission
  5. Previous segment uncaptured
  6. ACKed Unseen segment
  7. 大量Dup ack
  8. Destination unreachable

在幾分鐘的trace當(dāng)中竟然有這么多問題,也是醉了。

3.1 大量的tcp keep-alive / tcp keep-alive ack

幾乎10個(gè)數(shù)據(jù)包里面就有2個(gè)tcp keep-alive / tcp keep-alive ack的數(shù)據(jù)包,大量占用網(wǎng)絡(luò)帶寬

首先,服務(wù)器的keep alive相關(guān)參數(shù)設(shè)置略有問題

no -a| grep tcp

tcp_keepcnt = 8

tcp_keepidle = 20

tcp_keepinit = 50

tcp_keepintvl = 2

這些參數(shù)的含義是:如果tcp連接有10秒鐘空閑,沒有報(bào)文傳輸(tcp_keepidle = 20,單位是0.5秒),那么開始發(fā)送探測(tcp alive),如果探測不成功,則后續(xù)每1秒發(fā)送一次 (tcp_keepintvl = 2),如果連續(xù)發(fā)送8次,對方?jīng)]反應(yīng),把這個(gè)tcp連接關(guān)了。

這個(gè)探測比默認(rèn)值來講的確有些頻繁,但試想,如果探測一次成功了的話,后續(xù)就不需要探測了。為什么有這么多的探測呢?

3.2 大量下一個(gè)回復(fù)包的SEQ值不等于ACK

正常情況下回復(fù)的seq數(shù)值=等于上一條請求的ACK數(shù)值,而trace中看到幾乎所有keep alive的確認(rèn)包(ACK)中的SEQ值=keep alive發(fā)起方的ACK+1。即每次探測后,對方的回復(fù)都不是期望的結(jié)果,因此后續(xù)不停的繼續(xù)探測,導(dǎo)致了大量的keep alive包。

Seq和Ack兩個(gè)字段是TCP可靠傳輸服務(wù)的關(guān)鍵部分,Seq是網(wǎng)絡(luò)包序列號(TCP把數(shù)據(jù)看成是有序的字節(jié)流,TCP隱式地對數(shù)據(jù)流的每個(gè)字節(jié)進(jìn)行編號)。Ack是期望得到的下一個(gè)回復(fù)包的序列號(即Seq值)。

3.3 RST ACK

RST可能是B發(fā)的太多,A告訴B 不要發(fā)包,直到A再次通知B可以發(fā)包。 或者是A關(guān)閉異常連接,清空緩存。

由于只發(fā)現(xiàn)一條RST ACK,因此并未深入分析。

3.4 大量Retransmission重傳

重傳意味著網(wǎng)絡(luò)質(zhì)量不佳,可能的原因有擁堵、目標(biāo)機(jī)回復(fù)延遲、網(wǎng)絡(luò)設(shè)備丟包、網(wǎng)線質(zhì)量不佳、接口松動(dòng)、電磁干擾等。

3.5 Previous segment uncaptured

先前片段未能捕獲,當(dāng)前收到報(bào)文的序列號值高于該連接的下一個(gè)期望序列號值時(shí),表明之前的一個(gè)或多個(gè)網(wǎng)絡(luò)包未捕獲到。Previous segment uncaptured在正常通訊過程中也經(jīng)常出現(xiàn),且出現(xiàn)次數(shù)不多,因此并未深入分析。

3.6 ACKed Unseen segment

Tcp ACKed unseen segment 網(wǎng)絡(luò)包回復(fù)的先前片段未截獲到,與Tcp Previoud segment not captured先前片段未能捕獲,問題相似。由于Previous segment uncaptured在正常通訊過程中也經(jīng)常出現(xiàn),且出現(xiàn)次數(shù)不多,因此并未深入分析。

3.7 大量Dup ack

Dup ACK是沒有收到對方的應(yīng)答(ACK),需要對方重復(fù)應(yīng)答,3次以上的Dup ACK會造成重傳和傳輸降速。后分析發(fā)現(xiàn),系統(tǒng)環(huán)境中對方服務(wù)器發(fā)送出來的數(shù)據(jù)包在核心交換大機(jī)側(cè)的接口處就有大量亂序。

3.8 Destination unreachable

目標(biāo)不可達(dá)。由于只出現(xiàn)一次這個(gè)報(bào)錯(cuò),因此并未深入分析

綜上,從iptrace的結(jié)果中可以看到表現(xiàn)出來的問題很多,但經(jīng)過初步分析,主要問題歸結(jié)起來是1)對端回復(fù)的TCP包的SEQ值不是預(yù)期值,2)網(wǎng)絡(luò)質(zhì)量不佳。下一步就需要研究出問題的對端節(jié)點(diǎn)以及采用網(wǎng)絡(luò)抓包設(shè)備判斷哪一段網(wǎng)絡(luò)質(zhì)量不佳。

(四)、誤判為IO問題的案例

很多時(shí)候,應(yīng)用響應(yīng)時(shí)間很慢,看似是IO問題,實(shí)則不然,這里舉兩個(gè)例子

1.【案例分享】:Oracle buffer等待占總時(shí)間的大頭

在一個(gè)場景中,oracle的awr報(bào)告top10事件的第一名是:buffer busy waits

buffer busy waits是個(gè)比較general的等待,是session等待某個(gè)buffer引起的,但具體是什么buffer并不清楚,比如log sync等待也會引起buffer busy wait。

這是個(gè)連帶指標(biāo),分析是暫且不管,需要看看他臨近的問題事件是什么。

awr報(bào)告top10事件的第二名是enq:TX - index contention

這里的臨近事件就是enq:TX - index contention, index contention常由大量并發(fā)INSERT 造成的 index split 引起,也就是說不斷更新索引的過程中,二叉樹不斷長大。需要分裂,分裂的時(shí)候,其他session就需要等著。(這里的分析需要些數(shù)據(jù)庫知識)

之后的調(diào)優(yōu)過程中,將索引分區(qū),避免競爭。調(diào)整后重新測試,Index contention、Bufferbusy wait雙雙從top10事件中消失了

這類數(shù)據(jù)庫相關(guān)的等待事件非常常見,看似是等待IO,實(shí)際上是數(shù)據(jù)庫的規(guī)劃設(shè)計(jì)有問題。

2.【案例分享】:ping延時(shí)間歇性暴增

某業(yè)務(wù)系統(tǒng)的響應(yīng)時(shí)間很不穩(wěn)定,該系統(tǒng)有兩類服務(wù)器構(gòu)成,可以簡單理解為A和B,A為客戶端,B為服務(wù)端,A處業(yè)務(wù)的響應(yīng)時(shí)間非常不穩(wěn)定。

第一步:

從各類資源(CPU、內(nèi)存、網(wǎng)絡(luò)IO、磁盤IO)中追查原因。最終發(fā)現(xiàn)A與B直接的網(wǎng)絡(luò)延時(shí)非常不穩(wěn)定。A ping B,在局域網(wǎng)環(huán)境,按理說延時(shí)應(yīng)該是0ms-1ms之間,而我們在業(yè)務(wù)高峰時(shí)發(fā)現(xiàn),隔一小段時(shí)間就有100-200ms的延時(shí)出現(xiàn)。即使在沒有業(yè)務(wù)的情況下,ping也30-40ms的延時(shí)。

第二步:

那么好,著手定位網(wǎng)絡(luò)問題吧。

開始排查網(wǎng)路。換A的物理端口、換交換機(jī)、換網(wǎng)線、換對端的物理端口等等一系列措施之后,發(fā)現(xiàn)問題依然存在。

第三步:

采用網(wǎng)絡(luò)探測設(shè)備,從交換機(jī)兩側(cè)端口抓包,分析一個(gè)tcp連接的建立過程時(shí)間消耗在哪里。分析后發(fā)現(xiàn),200ms的延時(shí),都是在B測。即一個(gè)tcp連接建立過程在A側(cè)和交換機(jī)側(cè)幾乎沒有什么時(shí)間消耗。

第四步:

B側(cè)多臺分區(qū)共用一個(gè)物理機(jī)。猜測是否是分區(qū)過多導(dǎo)致。當(dāng)只有一個(gè)LPAR啟動(dòng)的時(shí)候,沒有ping的延時(shí),當(dāng)啟動(dòng)一部分LPAR時(shí)候,延時(shí)較小,當(dāng)所有LPAR均啟動(dòng),ping 延時(shí)較大。

問題根本原因:

此時(shí),問題水落石出,原來是由于分區(qū)過多導(dǎo)致了B回復(fù)A的ping有了延時(shí)。那么為什么會出現(xiàn)這種情況呢?一個(gè)物理機(jī)上CPU資源是有限的(本環(huán)境中是3顆),即使只有一個(gè)LPAR,其上面的N個(gè)進(jìn)程也會去輪流使用CPU,何況此時(shí)是M臺LPAR,MN個(gè)進(jìn)程去輪流使用這三個(gè)CPU,當(dāng)然調(diào)度算法并不是這么簡單,這里僅僅是從理論上做個(gè)說明。

假設(shè)每個(gè)CPU時(shí)間片是10ms,那么極端情況下,一個(gè)進(jìn)程要等到CPU需要等待(MN-1)*10(ms)/3。

況且,這么多LPAR的進(jìn)程輪詢一遍CPU,CPU里面的cache 數(shù)據(jù)估計(jì)早就被擠走了,重新加載是比較耗時(shí)的。

應(yīng)對方法:

之前LPAR也設(shè)置了保障的CPU(MIPS數(shù)量的保障),但只有數(shù)量沒有質(zhì)量(上述提到的CPU cache問題,即親和性問題)

應(yīng)對方法是:將重要的LPAR分配dedicated CPU,保證CPU資源的質(zhì)量,保證輪詢CPU的客戶盡量少,這樣CPU cache中的數(shù)據(jù)盡量不被清走。經(jīng)驗(yàn)證,ping延時(shí)基本消失,方法有效。

本案例是一起看似是網(wǎng)絡(luò)問題,但實(shí)際是資源調(diào)度方式的問題。

順便提一句,很多情況下,客戶端的響應(yīng)時(shí)間不穩(wěn)定都是由服務(wù)器端的服務(wù)能力不穩(wěn)定造成的。一般情況下都是應(yīng)用、數(shù)據(jù)庫的問題造成。而本案例是操作系統(tǒng)層面答復(fù)ping出現(xiàn)間歇性延時(shí),很容易誤導(dǎo)我們的分析判斷。

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。


新聞標(biāo)題:磁盤IO和網(wǎng)絡(luò)IO該如何評估、監(jiān)控、性能定位和優(yōu)化-創(chuàng)新互聯(lián)
分享地址:http://weahome.cn/article/diedoh.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部