|
一.理解Linux的性能
我們可以在文章的開始就列出一個列表,列出可能影響Linux操作系統(tǒng)性能的一些調(diào)優(yōu)參數(shù),但這樣做其實并沒有什么價值。因為性能調(diào)優(yōu)是一個非常困難的任務,它要求對硬件、操作系統(tǒng)、和應用都有著相當深入的了解。如果性能調(diào)優(yōu)非常簡單的話,那些我們要列出的調(diào)優(yōu)參數(shù)早就寫入硬件的微碼或者操作系統(tǒng)中了,我們就沒有必要再繼續(xù)讀這篇文章了。 當面對一個使用單獨IDE硬盤的有20000用戶的數(shù)據(jù)庫服務器時,即使我們使用數(shù)周時間去調(diào)整I/O子系統(tǒng)也是徒勞無功的,通常一個新的驅(qū)動或者應用程序的一個更新卻可以使這個服務器的性能得到明顯的提升。正如我們前面提到的,不要忘記系統(tǒng)的性能是受多方面因素影響的。理解操作系統(tǒng)管理系統(tǒng)資源的方法將幫助我們在面對問題時更好的判斷應該對哪個子系統(tǒng)進行調(diào)整。 下面的部分對Linux操作系統(tǒng)的架構(gòu)進行了簡單的介紹,對Linux內(nèi)核的完整的分析超出了我們這本紅皮書的內(nèi)容,感興趣的讀者可以尋找相關(guān)文檔做更深入的研究。本書對Linux性能的調(diào)整主要針對Red Hat發(fā)行版本。 1.Linux的CPU調(diào)度 任何計算機的基本功能都十分簡單,那就是計算。為了實現(xiàn)計算的功能就必須有一個方法去管理計算資源、處理器和計算任務(也被叫做線程或者進程)。非常感謝Ingo Molnar,他為Linux內(nèi)核帶來了O(1)CPU調(diào)度器,區(qū)別于舊有的O(n)調(diào)度器,新的調(diào)度器是動態(tài)的,可以支持負載均衡,并以恒定的速度進行操作。 新調(diào)度器的可擴展性非常好,無論進程數(shù)量或者處理器數(shù)量,并且調(diào)度器本身的系統(tǒng)開銷更少。新調(diào)取器的算法使用兩個優(yōu)先級隊列。 ·活動運行隊列 ·過期運行隊列 調(diào)度器的一個重要目標是根據(jù)優(yōu)先級權(quán)限有效地為進程分配CPU 時間片,當分配完成后它被列在CPU的運行隊列中,除了 CPU 的運行隊列之外,還有一個過期運行隊列。當活動運行隊列中的一個任務用光自己的時間片之后,它就被移動到過期運行隊列中。在移動過程中,會對其時間片重新進行計算。如果活動運行隊列中已經(jīng)沒有某個給定優(yōu)先級的任務了,那么指向活動運行隊列和過期運行隊列的指針就會交換,這樣就可以讓過期優(yōu)先級列表變成活動優(yōu)先級的列表。通常交互式進程(相對與實時進程而言)都有一個較高的優(yōu)先級,它占有更長的時間片,比低優(yōu)先級的進程獲得更多的計算時間,但通過調(diào)度器自身的調(diào)整并不會使低優(yōu)先級的進程完全被餓死。新調(diào)度器的優(yōu)勢是顯著的改變Linux內(nèi)核的可擴展性,使新內(nèi)核可以更好的處理一些有大量進程、大量處理器組成的企業(yè)級應用。新的O(1)調(diào)度器包含仔2.6內(nèi)核中,但是也向下兼容2.4內(nèi)核。 新調(diào)度器另外一個重要的優(yōu)勢是體現(xiàn)在對NUMA(non-uniform memory architecture)和SMP(symmetric multithreading processors)的支持上,例如INTEL@的超線程技術(shù)。 改進的NUMA支持保證了負載均衡不會發(fā)生在CECs或者NUMA節(jié)點之間,除非發(fā)生一個節(jié)點的超出負載限度。Linux的CPU調(diào)度器沒有使用大部分UNIX和Windows操作系統(tǒng)使用的進程-線程模式,它只使用了線程。在Linux中一個進程表示為一組線程,可以用線程組ID或者TDGID代替標準UNIX中的進程ID或者PID。然而大多數(shù)Linux命令例如ps和top都使用PIDs表達,因此在下面的文章中我們會經(jīng)常使用進程和線程組。 2.Linux的內(nèi)存架構(gòu) 今天我們面對選擇32位操作系統(tǒng)還是64位操作系統(tǒng)的情況。對企業(yè)級用戶它們之間最大的區(qū)別是64位操作系統(tǒng)可以支持大于4GB的內(nèi)存尋址。從性能角度來講,我們需要了解32位和64位操作系統(tǒng)都是如何進行物理內(nèi)存和虛擬內(nèi)存的映射的。 在下面圖示中我們可以看到64位和32位Linux內(nèi)核在尋址上有著顯著的不同。探究物理內(nèi)存到虛擬內(nèi)存的映射超出了本文研究的范圍,因此這里我們只是著重研究一下Linux內(nèi)存架構(gòu)的特點。 在32位架構(gòu)中,比如IA-32,Linux內(nèi)核可以直接尋址的范圍只有物理內(nèi)存的第一個GB(如果去掉保留部分還剩下896MB),訪問內(nèi)存必須被映射到這小于1GB的所謂ZONE_NORMAL空間中,這個操作是由應用程序完成的。但是分配在ZONE_HIGHMEM中的內(nèi)存頁將導致性能的降低。 在另一方面,64位架構(gòu)比如x86-64(也稱作EM64T或者AMD64)。ZONE_NORMAL空間將擴展到64GB或者128GB(實際上可以更多,但是這個數(shù)值受到操作系統(tǒng)本身支持內(nèi)存容量的限制)。正如我們看到的,使用64位操作系統(tǒng)我們排除了因ZONE_HIGHMEM部分內(nèi)存對性能的影響的情況。 3.虛擬內(nèi)存管理 因為操作系統(tǒng)將內(nèi)存都映射為虛擬內(nèi)存,所以操作系統(tǒng)的物理內(nèi)存結(jié)構(gòu)對用戶和應用來說通常都是不可見的。如果想要理解Linux系統(tǒng)內(nèi)存的調(diào)優(yōu),我們必須了解Linux的虛擬內(nèi)存機制。應用程序并不分配物理內(nèi)存,而是向Linux內(nèi)核請求一部分映射為虛擬內(nèi)存的內(nèi)存空間。如下圖所示虛擬內(nèi)存并不一定是映射物理內(nèi)存中的空間,如果應用程序有一個大容量的請求,也可能會被映射到在磁盤子系統(tǒng)中的swap空間中。 另外要提到的是,通常應用程序不直接將數(shù)據(jù)寫到磁盤子系統(tǒng)中,而是寫入緩存和緩沖區(qū)中。Bdflush守護進程將定時將緩存或者緩沖區(qū)中的數(shù)據(jù)寫到硬盤上。 Linux內(nèi)核處理數(shù)據(jù)寫入磁盤子系統(tǒng)和管理磁盤緩存是緊密聯(lián)系在一起的。相對于其他的操作系統(tǒng)都是在內(nèi)存中分配指定的一部分作為磁盤緩存,Linux處理內(nèi)存更加有效,默認情況下虛擬內(nèi)存管理器分配所有可用內(nèi)存空間作為磁盤緩存,這就是為什么有時我們觀察一個配置有數(shù)G內(nèi)存的Linux系統(tǒng)可用內(nèi)存只有20MB的原因。 同時Linux使用swap空間的機制也是相當高效率的,如下圖所示虛擬內(nèi)存空間是由物理內(nèi)存和磁盤子系統(tǒng)中的swap空間共同組成的。如果虛擬內(nèi)存管理器發(fā)現(xiàn)一個已經(jīng)分配完成的內(nèi)存分頁已經(jīng)長時間沒有被調(diào)用,它將把這部分內(nèi)存分頁移到swap空間中。經(jīng)常我們會發(fā)現(xiàn)一些守護進程,比如getty,會隨系統(tǒng)啟動但是卻很少會被應用到。這時為了釋放昂貴的主內(nèi)存資源,系統(tǒng)會將這部分內(nèi)存分頁移動到swap空間中。上述就是Linux使用swap空間的機制,當swap分區(qū)使用超過50%時,并不意味著物理內(nèi)存的使用已經(jīng)達到瓶頸了,swap空間只是Linux內(nèi)核更好的使用系統(tǒng)資源的一種方法。 4.模塊化的I/O調(diào)度器 就象我們知道的Linux2.6內(nèi)核為我們帶來了很多新的特性,這其中就包括了新的I/O調(diào)度機制。舊的2.4內(nèi)核使用一個單一的I/O調(diào)度器,2.6內(nèi)核為我們提供了四個可選擇的I/O調(diào)度器。因為Linux系統(tǒng)應用在很廣闊的范圍里,不同的應用對I/O設(shè)備和負載的要求都不相同,例如一個筆記本電腦和一個10000用戶的數(shù)據(jù)庫服務器對I/O的要求肯定有著很大的區(qū)別。 (1)Anticipatory anticipatory I/O調(diào)度器創(chuàng)建假設(shè)一個塊設(shè)備只有一個物理的查找磁頭(例如一個單獨的SATA硬盤),正如anticipatory調(diào)度器名字一樣,anticipatory調(diào)度器使用“anticipatory”的算法寫入硬盤一個比較大的數(shù)據(jù)流代替寫入多個隨機的小的數(shù)據(jù)流,這樣有可能導致寫I/O操作的一些延時。這個調(diào)度器適用于通常的一些應用,比如大部分的個人電腦。 (2)Complete Fair Queuing (CFQ) Complete Fair Queuing(CFQ)調(diào)度器是Red Hat Enterprise Linux使用的標準算法。CFQ調(diào)度器使用QoS策略為系統(tǒng)內(nèi)的所有任務分配相同的帶寬。CFQ調(diào)度器適用于有大量計算進程的多用戶系統(tǒng)。它試圖避免進程被餓死和實現(xiàn)了比較低的延遲。 (3)Deadline deadline調(diào)度器是使用deadline算法的輪詢的調(diào)度器,提供對I/O子系統(tǒng)接近實時的操作,deadline調(diào)度器提供了很小的延遲和維持一個很好的磁盤吞吐量。如果使用deadline算法請確保進程資源分配不會出現(xiàn)問題。 (4)NOOP NOOP調(diào)度器是一個簡化的調(diào)度程序它只作最基本的合并與排序。與桌面系統(tǒng)的關(guān)系不是很大,主要用在一些特殊的軟件與硬件環(huán)境下,這些軟件與硬件一般都擁有自己的調(diào)度機制對內(nèi)核支持的要求很小,這很適合一些嵌入式系統(tǒng)環(huán)境。作為桌面用戶我們一般不會選擇它。 5.網(wǎng)絡(luò)子系統(tǒng) 新的網(wǎng)絡(luò)中斷緩和(NAPI)對網(wǎng)絡(luò)子系統(tǒng)帶來了改變,提高了大流量網(wǎng)絡(luò)的性能。Linux內(nèi)核在處理網(wǎng)絡(luò)堆棧時,相比降低系統(tǒng)占用率和高吞吐量更關(guān)注可靠性和低延遲。所以在某些情況下,Linux建立一個防火墻或者文件、打印、數(shù)據(jù)庫等企業(yè)級應用的性能可能會低于相同配置的Windows服務器。 在傳統(tǒng)的處理網(wǎng)絡(luò)封包的方式中,如下圖藍色箭頭所描述的,一個以太網(wǎng)封包到達網(wǎng)卡接口后,如果MAC地址相符合會被送到網(wǎng)卡的緩沖區(qū)中。網(wǎng)卡然后將封包移到操作系統(tǒng)內(nèi)核的網(wǎng)絡(luò)緩沖區(qū)中并且對CPU發(fā)出一個硬中斷,CPU會處理這個封包到相應的網(wǎng)絡(luò)堆棧中,可能是一個TCP端口或者Apache應用中。 這是一個處理網(wǎng)絡(luò)封包的簡單的流程,但從中我們可以看到這個處理方式的缺點。正如我們看到的,每次適合網(wǎng)絡(luò)封包到達網(wǎng)絡(luò)接口都將對CPU發(fā)出一個硬中斷信號,中斷CPU正在處理的其他任務,導致切換動作和對CPU緩存的操作。你可能認為當只有少量的網(wǎng)絡(luò)封包到達網(wǎng)卡的情況下這并不是個問題,但是千兆網(wǎng)絡(luò)和現(xiàn)代的應用將帶來每秒鐘成千上萬的網(wǎng)絡(luò)數(shù)據(jù),這就有可能對性能造成不良的影響。 正是因為這個情況,NAPI在處理網(wǎng)絡(luò)通訊的時候引入了計數(shù)機制。對第一個封包,NAPI以傳統(tǒng)的方式進行處理,但是對后面的封包,網(wǎng)卡引入了POLL的輪詢機制:如果一個封包在網(wǎng)卡DMA環(huán)的緩存中,就不再為這個封包申請新的中斷,直到最后一個封包被處理或者緩沖區(qū)被耗盡。這樣就有效的減少了因為過多的中斷CPU對系統(tǒng)性能的影響。同時,NAPI通過創(chuàng)建可以被多處理器執(zhí)行的軟中斷改善了系統(tǒng)的可擴展性。NAPI將為大量的企業(yè)級多處理器平臺帶來幫助,它要求一個啟用NAPI的驅(qū)動程序。在今天很多驅(qū)動程序默認沒有啟用NAPI,這就為我們調(diào)優(yōu)網(wǎng)絡(luò)子系統(tǒng)的性能提供了更廣闊的空間。 6.Linux文件系統(tǒng) Linux作為一個開源操作系統(tǒng)的優(yōu)勢之一就是為用戶提供了多種操作系統(tǒng)的支持。現(xiàn)代Linux內(nèi)核幾乎可以支持所有計算機系統(tǒng)常用的文件系統(tǒng),從基本的FAT到高性能的文件系統(tǒng)例如JFS。因為Red Hat Enterprise Linux主要支持兩種文件系統(tǒng)(ext2和ext3),我們將主要介紹它們的特點,對其他Linux文件系統(tǒng)我們僅做簡要介紹。 (1)ext2 ext2文件系統(tǒng)是ext3文件系統(tǒng)的前身。是一個快速、簡便的文件系統(tǒng),它與目前大部分文件系統(tǒng)的顯著不同就是ext2不支持日志。 (2)ext3,Red Hat默認的文件系統(tǒng) 自從Red Hat 7.2開始,安裝默認的文件系統(tǒng)就是ext3。Ext3是應用廣泛的ext2文件系統(tǒng)的更新版本,它加入了對日志的支持。下面列舉了這個文件系統(tǒng)的一些特性。 ·可用性:ext3可以保證數(shù)據(jù)寫入磁盤的一致性,萬一出現(xiàn)了非正常的關(guān)機(電源的失效或者系統(tǒng)的崩潰),服務器不需要花費時間去校驗數(shù)據(jù)的一致性,因此極大的減少了系統(tǒng)恢復的時間。 ·數(shù)據(jù)完整性:加入特殊的日志功能,所有數(shù)據(jù),包括文件數(shù)據(jù)和元數(shù)據(jù)都是有日志記錄的。 ·速度:通過data=writeback參數(shù),你可以根據(jù)應用的需要來調(diào)整數(shù)據(jù)的寫入速度。 ·靈活性:從ext2轉(zhuǎn)換到ext3文件系統(tǒng)是非常簡單的并且不需要重新格式化硬盤。通過執(zhí)行tune2fs命令和編輯/etc/fstab文件,你可以非常容易的將ext2文件系統(tǒng)更新到ext3文件系統(tǒng)。Ext3文件系統(tǒng)也可以禁用日志后作為ext2使用。利用一些第三方的工具軟件可以更靈活的使用ext3文件系統(tǒng),比如PartitionMagic可以編輯ext3分區(qū)。 (3)ReiserFS ReiserFS是一個快速的日志文件系統(tǒng),它優(yōu)化了磁盤空間的使用、加快了故障恢復速度。今天ReiserFS是SUSE Linux默認的文件系統(tǒng)。 (4)JFS JFS是一個完全64位的文件系統(tǒng),它可以支持非常大的文件和分區(qū)。JFS是由IBM為AIX系統(tǒng)開發(fā)的,現(xiàn)在在GPL license下以及可以使用了。JFS對大容量的分區(qū)和文件,尤其是HPC和數(shù)據(jù)庫應用來說是一種理想的操作系統(tǒng)。如果你想了解更多關(guān)于JFS的信息,請訪問下面鏈接 http://jfs. (5)XFS XFS是SGI為IRIX系統(tǒng)開發(fā)的高性能的日志文件系統(tǒng)。它的特點和應用都和JFS相當接近。 7.Proc文件系統(tǒng) proc文件系統(tǒng)不是一個實時文件系統(tǒng),但是它的作用卻非常大。它提供了一個運行中的內(nèi)核的接口,并不存儲實際的數(shù)據(jù)。Proc文件系統(tǒng)使系統(tǒng)管理員可以監(jiān)控和調(diào)整內(nèi)核運行狀態(tài)。下圖描述了一個proc文件系統(tǒng)的示例,大部分Linux性能調(diào)優(yōu)工具都需要借助proc文件系統(tǒng)的信息來進行工作。 在proc文件系統(tǒng)中,我們可以看到分別記錄不同信息的多個子目錄,但是proc目錄下的大部分文件可讀性都不是很強,建議最好使用可讀性更強的工具例如vmstat等來查看proc中記錄的信息。請牢記proc目錄的相應目錄結(jié)構(gòu)。 ·在/proc目錄下的文件 proc根目錄下保存著一些記錄了系統(tǒng)信息的文件,這些文件你可以通過vmstat和cpuinfo等工具來讀取。 ·數(shù)字1到X 各個以數(shù)字為名稱的文件夾,代表的是運行進程的PID。例如,目錄1記錄了init進程的一些統(tǒng)計信息。 ·acpiapci是一個現(xiàn)代桌面和筆記本電腦的電源配置和管理接口,因為apci主要是一個個人電腦的技術(shù),所以在一些服務器系統(tǒng)上經(jīng)常被禁用??梢栽L問下面鏈接獲得更多acpi的相關(guān)信息http://www. ·bus 這個子目錄記錄了系統(tǒng)的總線子系統(tǒng)的信息,例如pci總線或者usb接口。 ·irq irq子目錄下記錄了系統(tǒng)的中斷信息。 ·net net子目錄記錄了一些關(guān)于你的網(wǎng)卡的重要信息,比如接收的多點廣播封包或者每個網(wǎng)卡的路由。 ·scsi scsi子目錄包含了關(guān)于系統(tǒng)的scsi子系統(tǒng)的信息,例如連接的設(shè)備或者驅(qū)動的版本。ips子目錄是記錄關(guān)于IBM ServerRAID陣列卡信息的。 ·sys sys目錄下包含了一些可以調(diào)整的內(nèi)核參數(shù)。 ·tty tty子目錄包含了系統(tǒng)虛擬終端的信息。 8.理解Linux調(diào)優(yōu)參數(shù) 在我們介紹Linux系統(tǒng)的各種調(diào)優(yōu)參數(shù)和性能監(jiān)測工具之前,需要先討論一些關(guān)于性能調(diào)優(yōu)的參數(shù)。因為Linux是一個開源操作系統(tǒng),所以又大量可用的性能監(jiān)測工具。對這些工具的選擇取決于你的個人喜好和對數(shù)據(jù)細節(jié)的要求。所有的性能監(jiān)測工具都是按照同樣的規(guī)則來工作的,所以無論你使用哪種監(jiān)測工具都需要理解這些參數(shù)。下面列出了一些重要的參數(shù),有效的理解它們是很有用處的。 (1)處理器參數(shù) ·CPU utilization 這是一個很簡單的參數(shù),它直觀的描述了每個CPU的利用率。在xSeries架構(gòu)中,如果CPU的利用率長時間的超過80%,就可能是出現(xiàn)了處理器的瓶頸。 ·Runable processes 這個值描述了正在準備被執(zhí)行的進程,在一個持續(xù)時間里這個值不應該超過物理CPU數(shù)量的10倍,否則CPU方面就可能存在瓶頸。 ·Blocked 描述了那些因為等待I/O操作結(jié)束而不能被執(zhí)行的進程,Blocked可能指出你正面臨I/O瓶頸。 ·User time 描述了處理用戶進程的百分比,包括nice time。如果User time的值很高,說明系統(tǒng)性能用在處理實際的工作。 ·System time 描述了CPU花費在處理內(nèi)核操作包括IRQ和軟件中斷上面的百分比。如果system time很高說明系統(tǒng)可能存在網(wǎng)絡(luò)或者驅(qū)動堆棧方面的瓶頸。一個系統(tǒng)通常只花費很少的時間去處理內(nèi)核的操作。 ·Idle time 描述了CPU空閑的百分比。 ·Nice time 描述了CPU花費在處理re-nicing進程的百分比。 ·Context switch 系統(tǒng)中線程之間進行交換的數(shù)量。 ·Waiting CPU花費在等待I/O操作上的總時間,與blocked相似,一個系統(tǒng)不應該花費太多的時間在等待I/O操作上,否則你應該進一步檢測I/O子系統(tǒng)是否存在瓶頸。 ·Interrupts Interrupts值包括硬Interrupts和軟Interrupts,硬Interrupts會對系統(tǒng)性能帶來更多的不利影響。高的Interrupts值指出系統(tǒng)可能存在一個軟件的瓶頸,可能是內(nèi)核或者驅(qū)動程序。注意Interrupts值中包括CPU時鐘導致的中斷(現(xiàn)代的xServer系統(tǒng)每秒1000個Interrupts值)。 (2)內(nèi)存參數(shù) ·Free memory 相比其他操作系統(tǒng),Linux空閑內(nèi)存的值不應該做為一個性能參考的重要指標,因為就像我們之前提到過的,Linux內(nèi)核會分配大量沒有被使用的內(nèi)存作為文件系統(tǒng)的緩存,所以這個值通常都比較小。 ·Swap usage 這個值描述了已經(jīng)被使用的swap空間。Swap usage只表示了Linux管理內(nèi)存的有效性。對識別內(nèi)存瓶頸來說,Swap In/Out才是一個比較又意義的依據(jù),如果Swap In/Out的值長期保持在每秒200到300個頁面通常就表示系統(tǒng)可能存在內(nèi)存的瓶頸。 ·Buffer and cache 這個值描述了為文件系統(tǒng)和塊設(shè)備分配的緩存。注意在Red Hat Enterprise Linux 3和更早一些的版本中,大部分空閑內(nèi)存會被分配作為緩存使用。在Red Hat Enterprise Linux 4以后的版本中,你可以通過修改/proc/sys/vm中的page_cache_tuning來調(diào)整空閑內(nèi)存中作為緩存的數(shù)量。 ·Slabs 描述了內(nèi)核使用的內(nèi)存空間,注意內(nèi)核的頁面是不能被交換到磁盤上的。 ·Active versus inactive memory 提供了關(guān)于系統(tǒng)內(nèi)存的active內(nèi)存信息,Inactive內(nèi)存是被kswapd守護進程交換到磁盤上的空間。 (3)網(wǎng)絡(luò)參數(shù) ·Packets received and sent 這個參數(shù)表示了一個指定網(wǎng)卡接收和發(fā)送的數(shù)據(jù)包的數(shù)量。 ·Bytes received and sent 這個參數(shù)表示了一個指定網(wǎng)卡接收和發(fā)送的數(shù)據(jù)包的字節(jié)數(shù)。 ·Collisions per second 這個值提供了發(fā)生在指定網(wǎng)卡上的網(wǎng)絡(luò)沖突的數(shù)量。持續(xù)的出現(xiàn)這個值代表在網(wǎng)絡(luò)架構(gòu)上出現(xiàn)了瓶頸,而不是在服務器端出現(xiàn)的問題。在正常配置的網(wǎng)絡(luò)中沖突是非常少見的,除非用戶的網(wǎng)絡(luò)環(huán)境都是由hub組成。 ·Packets dropped 這個值表示了被內(nèi)核丟掉的數(shù)據(jù)包數(shù)量,可能是因為防火墻或者是網(wǎng)絡(luò)緩存的缺乏。 ·Overruns Overruns表達了超出網(wǎng)絡(luò)接口緩存的次數(shù),這個參數(shù)應該和packets dropped值聯(lián)系到一起來判斷是否存在在網(wǎng)絡(luò)緩存或者網(wǎng)絡(luò)隊列過長方面的瓶頸。 ·Errors 這個值記錄了標志為失敗的幀的數(shù)量。這個可能由錯誤的網(wǎng)絡(luò)配置或者部分網(wǎng)線損壞導致,在銅口千兆以太網(wǎng)環(huán)境中部分網(wǎng)線的損害是影響性能的一個重要因素。 (4)塊設(shè)備參數(shù) ·Iowait CPU等待I/O操作所花費的時間。這個值持續(xù)很高通常可能是I/O瓶頸所導致的。 ·Average queue length I/O請求的數(shù)量,通常一個磁盤隊列值為2到3為最佳情況,更高的值說明系統(tǒng)可能存在I/O瓶頸。 ·Average wait 響應一個I/O操作的平均時間。Average wait包括實際I/O操作的時間和在I/O隊列里等待的時間。 ·Transfers per second 描述每秒執(zhí)行多少次I/O操作(包括讀和寫)。Transfers per second的值與kBytes per second結(jié)合起來可以幫助你估計系統(tǒng)的平均傳輸塊大小,這個傳輸塊大小通常和磁盤子系統(tǒng)的條帶化大小相符合可以獲得最好的性能。 ·Blocks read/write per second 這個值表達了每秒讀寫的blocks數(shù)量,在2.6內(nèi)核中blocks是1024bytes,在早些的內(nèi)核版本中blocks可以是不同的大小,從512bytes到4kb。 ·Kilobytes per second read/write 按照kb為單位表示讀寫塊設(shè)備的實際數(shù)據(jù)的數(shù)量。 |
|
|