他是對(duì)系統(tǒng)的整體情況進(jìn)行統(tǒng)計(jì),不足之處是無法對(duì)某個(gè)進(jìn)程進(jìn)行深入分析。vmstat 工具提供了一種低開銷的系統(tǒng)性能觀察方式。因?yàn)?nbsp;vmstat 本身就是低開銷工具,在非常高負(fù)荷的服務(wù)器上,你需要查看并監(jiān)控系統(tǒng)的健康情況,在控制窗口還是能夠使用vmstat 輸出結(jié)果。在學(xué)習(xí)vmstat命令前,我們先了解一下Linux系統(tǒng)中關(guān)于物理內(nèi)存和虛擬內(nèi)存相關(guān)信息。
物理內(nèi)存和虛擬內(nèi)存區(qū)別:
我們知道,直接從物理內(nèi)存讀寫數(shù)據(jù)要比從硬盤讀寫數(shù)據(jù)要快的多,因此,我們希望所有數(shù)據(jù)的讀取和寫入都在內(nèi)存完成,而內(nèi)存是有限的,這樣就引出了物理內(nèi)存與虛擬內(nèi)存的概念。
物理內(nèi)存就是系統(tǒng)硬件提供的內(nèi)存大小,是真正的內(nèi)存,相對(duì)于物理內(nèi)存,在linux下還有一個(gè)虛擬內(nèi)存的概念,虛擬內(nèi)存就是為了滿足物理內(nèi)存的不足而提出的策略,它是利用磁盤空間虛擬出的一塊邏輯內(nèi)存,用作虛擬內(nèi)存的磁盤空間被稱為交換空間(Swap Space)。
作為物理內(nèi)存的擴(kuò)展,linux會(huì)在物理內(nèi)存不足時(shí),使用交換分區(qū)的虛擬內(nèi)存,更詳細(xì)的說,就是內(nèi)核會(huì)將暫時(shí)不用的內(nèi)存塊信息寫到交換空間,這樣以來,物理內(nèi)存得到了釋放,這塊內(nèi)存就可以用于其它目的,當(dāng)需要用到原始的內(nèi)容時(shí),這些信息會(huì)被重新從交換空間讀入物理內(nèi)存。
linux的內(nèi)存管理采取的是分頁存取機(jī)制,為了保證物理內(nèi)存能得到充分的利用,內(nèi)核會(huì)在適當(dāng)?shù)臅r(shí)候?qū)⑽锢韮?nèi)存中不經(jīng)常使用的數(shù)據(jù)塊自動(dòng)交換到虛擬內(nèi)存中,而將經(jīng)常使用的信息保留到物理內(nèi)存。
要深入了解linux內(nèi)存運(yùn)行機(jī)制,需要知道下面提到的幾個(gè)方面:
首先,Linux系統(tǒng)會(huì)不時(shí)的進(jìn)行頁面交換操作,以保持盡可能多的空閑物理內(nèi)存,即使并沒有什么事情需要內(nèi)存,Linux也會(huì)交換出暫時(shí)不用的內(nèi)存頁面。這可以避免等待交換所需的時(shí)間。
其次,linux進(jìn)行頁面交換是有條件的,不是所有頁面在不用時(shí)都交換到虛擬內(nèi)存,linux內(nèi)核根據(jù)”最近最經(jīng)常使用“算法,僅僅將一些不經(jīng)常使用的頁面文件交換到虛擬內(nèi)存,有時(shí)我們會(huì)看到這么一個(gè)現(xiàn)象:linux物理內(nèi)存還有很多,但是交換空間也使用了很多。其實(shí),這并不奇怪,例如,一個(gè)占用很大內(nèi)存的進(jìn)程運(yùn)行時(shí),需要耗費(fèi)很多內(nèi)存資源,此時(shí)就會(huì)有一些不常用頁面文件被交換到虛擬內(nèi)存中,但后來這個(gè)占用很多內(nèi)存資源的進(jìn)程結(jié)束并釋放了很多內(nèi)存時(shí),剛才被交換出去的頁面文件并不會(huì)自動(dòng)的交換進(jìn)物理內(nèi)存,除非有這個(gè)必要,那么此刻系統(tǒng)物理內(nèi)存就會(huì)空閑很多,同時(shí)交換空間也在被使用,就出現(xiàn)了剛才所說的現(xiàn)象了。關(guān)于這點(diǎn),不用擔(dān)心什么,只要知道是怎么一回事就可以了。
最后,交換空間的頁面在使用時(shí)會(huì)首先被交換到物理內(nèi)存,如果此時(shí)沒有足夠的物理內(nèi)存來容納這些頁面,它們又會(huì)被馬上交換出去,如此以來,虛擬內(nèi)存中可能沒有足夠空間來存儲(chǔ)這些交換頁面,最終會(huì)導(dǎo)致linux出現(xiàn)假死機(jī)、服務(wù)異常等問題,linux雖然可以在一段時(shí)間內(nèi)自行恢復(fù),但是恢復(fù)后的系統(tǒng)已經(jīng)基本不可用了。
因此,合理規(guī)劃和設(shè)計(jì)linux內(nèi)存的使用,是非常重要的。
虛擬內(nèi)存原理:
在系統(tǒng)中運(yùn)行的每個(gè)進(jìn)程都需要使用到內(nèi)存,但不是每個(gè)進(jìn)程都需要每時(shí)每刻使用系統(tǒng)分配的內(nèi)存空間。當(dāng)系統(tǒng)運(yùn)行所需內(nèi)存超過實(shí)際的物理內(nèi)存,內(nèi)核會(huì)釋放某些進(jìn)程所占用但未使用的部分或所有物理內(nèi)存,將這部分資料存儲(chǔ)在磁盤上直到進(jìn)程下一次調(diào)用,并將釋放出的內(nèi)存提供給有需要的進(jìn)程使用。
在Linux內(nèi)存管理中,主要是通過“調(diào)頁P(yáng)aging”和“交換Swapping”來完成上述的內(nèi)存調(diào)度。調(diào)頁算法是將內(nèi)存中最近不常使用的頁面換到磁盤上,把活動(dòng)頁面保留在內(nèi)存中供進(jìn)程使用。交換技術(shù)是將整個(gè)進(jìn)程,而不是部分頁面,全部交換到磁盤上。
分頁(Page)寫入磁盤的過程被稱作Page-Out,分頁(Page)從磁盤重新回到內(nèi)存的過程被稱作Page-In。當(dāng)內(nèi)核需要一個(gè)分頁時(shí),但發(fā)現(xiàn)此分頁不在物理內(nèi)存中(因?yàn)橐呀?jīng)被Page-Out了),此時(shí)就發(fā)生了分頁錯(cuò)誤(Page Fault)。
當(dāng)系統(tǒng)內(nèi)核發(fā)現(xiàn)可運(yùn)行內(nèi)存變少時(shí),就會(huì)通過Page-Out來釋放一部分物理內(nèi)存。經(jīng)管Page-Out不是經(jīng)常發(fā)生,但是如果Page-out頻繁不斷的發(fā)生,直到當(dāng)內(nèi)核管理分頁的時(shí)間超過運(yùn)行程式的時(shí)間時(shí),系統(tǒng)效能會(huì)急劇下降。這時(shí)的系統(tǒng)已經(jīng)運(yùn)行非常慢或進(jìn)入暫停狀態(tài),這種狀態(tài)亦被稱作thrashing(顛簸)
1.命令格式:
vmstat [-a] [-n] [-S unit] [delay [ count]]
vmstat [-s] [-n] [-S unit]
vmstat [-m] [-n] [delay [ count]]
vmstat [-d] [-n] [delay [ count]]
vmstat [-p disk partition] [-n] [delay [ count]]
vmstat [-f]
vmstat [-V]
2.命令功能:
用來顯示虛擬內(nèi)存的信息
3.命令參數(shù):
-a:顯示活躍和非活躍內(nèi)存
-f:顯示從系統(tǒng)啟動(dòng)至今的fork數(shù)量 。
-m:顯示slabinfo
-n:只在開始時(shí)顯示一次各字段名稱。
-s:顯示內(nèi)存相關(guān)統(tǒng)計(jì)信息及多種系統(tǒng)活動(dòng)數(shù)量。
delay:刷新時(shí)間間隔。如果不指定,只顯示一條結(jié)果。
count:刷新次數(shù)。如果不指定刷新次數(shù),但指定了刷新時(shí)間間隔,這時(shí)刷新次數(shù)為無窮。
-d:顯示磁盤相關(guān)統(tǒng)計(jì)信息。
-p:顯示指定磁盤分區(qū)統(tǒng)計(jì)信息
-S:使用指定單位顯示。參數(shù)有 k 、K 、m 、M ,分別代表1000、1024、1000000、1048576字節(jié)(byte)。默認(rèn)單位為K(1024 bytes)
-V:顯示vmstat版本信息。
4.使用實(shí)例:
實(shí)例1:顯示虛擬內(nèi)存使用情況
命令:vmstat
輸出:
[root@localhost ~]# vmstat 5 6
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 3029876 199616 690980 0 0 0 2 3 2 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 41 1009 39 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 3 1004 36 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 4 1004 36 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 6 1003 33 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 5 1003 33 0 0 100 0 0
vmstat命令輸出信息詳細(xì)說明:
字段說明:
Procs(進(jìn)程):
r: 運(yùn)行隊(duì)列中進(jìn)程數(shù)量
b: 等待IO的進(jìn)程數(shù)量
Memory(內(nèi)存):
swpd: 使用虛擬內(nèi)存大小
free: 可用內(nèi)存大小
buff: 用作緩沖的內(nèi)存大小
cache: 用作緩存的內(nèi)存大小
Swap:
si: 每秒從交換區(qū)寫到內(nèi)存的大小
so: 每秒寫入交換區(qū)的內(nèi)存大小
IO:(現(xiàn)在的Linux版本塊的大小為1024bytes)
bi: 每秒讀取的塊數(shù)
bo: 每秒寫入的塊數(shù)
系統(tǒng):
in: 每秒中斷數(shù),包括時(shí)鐘中斷。
cs: 每秒上下文切換數(shù)。
CPU(以百分比表示):
us: 用戶進(jìn)程執(zhí)行時(shí)間(user time)
sy: 系統(tǒng)進(jìn)程執(zhí)行時(shí)間(system time)
id: 空閑時(shí)間(包括IO等待時(shí)間),中央處理器的空閑時(shí)間 。以百分比表示。
wa: 等待IO時(shí)間
備注: 如果 r經(jīng)常大于 4 ,且id經(jīng)常少于40,表示cpu的負(fù)荷很重。如果pi,po 長期不等于0,表示內(nèi)存不足。如果disk 經(jīng)常不等于0, 且在 b中的隊(duì)列 大于3, 表示 io性能不好。Linux在具有高穩(wěn)定性、可靠性的同時(shí),具有很好的可伸縮性和擴(kuò)展性,能夠針對(duì)不同的應(yīng)用和硬件環(huán)境調(diào)整,優(yōu)化出滿足當(dāng)前應(yīng)用需要的最佳性能。因此企業(yè)在維護(hù)Linux系統(tǒng)、進(jìn)行系統(tǒng)調(diào)優(yōu)時(shí),了解系統(tǒng)性能分析工具是至關(guān)重要的。
命令:vmstat 5 5
表示在5秒時(shí)間內(nèi)進(jìn)行5次采樣。將得到一個(gè)數(shù)據(jù)匯總他能夠反映真正的系統(tǒng)情況。
實(shí)例2:顯示活躍和非活躍內(nèi)存
命令:vmstat -a 2 5
輸出:
[root@localhost ~]# vmstat -a 2 5
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free inact active si so bi bo in cs us sy id wa st
0 0 0 3029752 387728 513008 0 0 0 2 3 2 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1005 34 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 22 1004 36 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1004 33 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1003 32 0 0 100 0 0
[root@localhost ~]#
說明:
使用-a選項(xiàng)顯示活躍和非活躍內(nèi)存時(shí),所顯示的內(nèi)容除增加inact和active外,其他顯示內(nèi)容與例子1相同。
字段說明:
Memory(內(nèi)存):
inact: 非活躍內(nèi)存大小(當(dāng)使用-a選項(xiàng)時(shí)顯示)
active: 活躍的內(nèi)存大?。ó?dāng)使用-a選項(xiàng)時(shí)顯示)
實(shí)例3:查看系統(tǒng)已經(jīng)fork了多少次
命令:vmstat -f
輸出:
[root@SCF1129 ~]# vmstat -f
12744849 forks
[root@SCF1129 ~]#
說明:
這個(gè)數(shù)據(jù)是從/proc/stat中的processes字段里取得的
實(shí)例4:查看內(nèi)存使用的詳細(xì)信息
命令:vmstat -s
輸出:
[root@localhost ~]# vmstat -s
4043760 total memory
1013884 used memory
513012 active memory
387728 inactive memory
3029876 free memory
199616 buffer memory
690980 swap cache
6096656 total swap
0 used swap
6096656 free swap
83587 non-nice user cpu ticks
132 nice user cpu ticks
278599 system cpu ticks
913344692 idle cpu ticks
814550 IO-wait cpu ticks
10547 IRQ cpu ticks
21261 softirq cpu ticks
0 stolen cpu ticks
310215 pages paged in
14254652 pages paged out
0 pages swapped in
0 pages swapped out
288374745 interrupts
146680577 CPU context switches
1351868832 boot time
367291 forks
說明:
這些信息的分別來自于/proc/meminfo,/proc/stat和/proc/vmstat。
實(shí)例5:查看磁盤的讀/寫
命令:vmstat -d
輸出:
[root@localhost ~]# vmstat -d
disk- ------------reads------------ ------------writes----------- -----IO------
total merged sectors ms total merged sectors ms cur sec
ram0 0 0 0 0 0 0 0 0 0 0
ram1 0 0 0 0 0 0 0 0 0 0
ram2 0 0 0 0 0 0 0 0 0 0
ram3 0 0 0 0 0 0 0 0 0 0
ram4 0 0 0 0 0 0 0 0 0 0
ram5 0 0 0 0 0 0 0 0 0 0
ram6 0 0 0 0 0 0 0 0 0 0
ram7 0 0 0 0 0 0 0 0 0 0
ram8 0 0 0 0 0 0 0 0 0 0
ram9 0 0 0 0 0 0 0 0 0 0
ram10 0 0 0 0 0 0 0 0 0 0
ram11 0 0 0 0 0 0 0 0 0 0
ram12 0 0 0 0 0 0 0 0 0 0
ram13 0 0 0 0 0 0 0 0 0 0
ram14 0 0 0 0 0 0 0 0 0 0
ram15 0 0 0 0 0 0 0 0 0 0
sda 33381 6455 615407 63224 2068111 1495416 28508288 15990289 0 10491
hdc 0 0 0 0 0 0 0 0 0 0
fd0 0 0 0 0 0 0 0 0 0 0
md0 0 0 0 0 0 0 0 0 0 0
[root@localhost ~]#
說明:
這些信息主要來自于/proc/diskstats.
merged:表示一次來自于合并的寫/讀請(qǐng)求,一般系統(tǒng)會(huì)把多個(gè)連接/鄰近的讀/寫請(qǐng)求合并到一起來操作.
實(shí)例6:查看/dev/sda1磁盤的讀/寫
命令:vmstat -p /dev/sda1
輸出:
[root@SCF1129 ~]# df
文件系統(tǒng) 1K-塊 已用 可用 已用% 掛載點(diǎn)
/dev/sda3 1119336548 27642068 1034835500 3% /tmpfs 32978376 0 32978376 0% /dev/shm
/dev/sda1 1032088 59604 920056 7% /boot
[root@SCF1129 ~]# vmstat -p /dev/sda1
sda1 reads read sectors writes requested writes
18607 4249978 6 48[root@SCF1129 ~]# vmstat -p /dev/sda3
sda3 reads read sectors writes requested writes
429350 35176268 28998789 980301488[root@SCF1129 ~]#
說明:
這些信息主要來自于/proc/diskstats。
reads:來自于這個(gè)分區(qū)的讀的次數(shù)。
read sectors:來自于這個(gè)分區(qū)的讀扇區(qū)的次數(shù)。
writes:來自于這個(gè)分區(qū)的寫的次數(shù)。
requested writes:來自于這個(gè)分區(qū)的寫請(qǐng)求次數(shù)。
實(shí)例7:查看系統(tǒng)的slab信息
命令:vmstat -m
輸出:
[root@localhost ~]# vmstat -m
Cache Num Total Size Pages
ip_conntrack_expect 0 0 136 28
ip_conntrack 3 13 304 13
ip_fib_alias 11 59 64 59
ip_fib_hash 11 59 64 59
AF_VMCI 0 0 960 4
bio_map_info 100 105 1064 7
dm_mpath 0 0 1064 7
jbd_4k 0 0 4096 1
dm_uevent 0 0 2608 3
dm_tio 0 0 24 144
dm_io 0 0 48 77
scsi_cmd_cache 10 10 384 10
sgpool-128 32 32 4096 1
sgpool-64 32 32 2048 2
sgpool-32 32 32 1024 4
sgpool-16 32 32 512 8
sgpool-8 45 45 256 15
scsi_io_context 0 0 112 34
ext3_inode_cache 51080 51105 760 5
ext3_xattr 36 88 88 44
journal_handle 18 144 24 144
journal_head 56 80 96 40
revoke_table 4 202 16 202
revoke_record 0 0 32 112
uhci_urb_priv 0 0 56 67
UNIX 13 33 704 11
flow_cache 0 0 128 30
msi_cache 33 59 64 59
cfq_ioc_pool 14 90 128 30
cfq_pool 12 90 216 18
crq_pool 16 96 80 48
deadline_drq 0 0 80 48
as_arq 0 0 96 40
mqueue_inode_cache 1 4 896 4
isofs_inode_cache 0 0 608 6
hugetlbfs_inode_cache 1 7 576 7
Cache Num Total Size Pages
ext2_inode_cache 0 0 720 5
ext2_xattr 0 0 88 44
dnotify_cache 0 0 40 92
dquot 0 0 256 15
eventpoll_pwq 3 53 72 53
eventpoll_epi 3 20 192 20
inotify_event_cache 0 0 40 92
inotify_watch_cache 1 53 72 53
kioctx 0 0 320 12
kiocb 0 0 256 15
fasync_cache 0 0 24 144
shmem_inode_cache 254 290 768 5
posix_timers_cache 0 0 128 30
uid_cache 0 0 128 30
ip_mrt_cache 0 0 128 30
tcp_bind_bucket 3 112 32 112
inet_peer_cache 0 0 128 30
secpath_cache 0 0 64 59
xfrm_dst_cache 0 0 384 10
ip_dst_cache 5 10 384 10
arp_cache 1 15 256 15
RAW 3 5 768 5
UDP 5 10 768 5
tw_sock_TCP 0 0 192 20
request_sock_TCP 0 0 128 30
TCP 4 5 1600 5
blkdev_ioc 14 118 64 59
blkdev_queue 20 30 1576 5
blkdev_requests 13 42 272 14
biovec-256 7 7 4096 1
biovec-128 7 8 2048 2
biovec-64 7 8 1024 4
biovec-16 7 15 256 15
biovec-4 7 59 64 59
biovec-1 23 202 16 202
bio 270 270 128 30
utrace_engine_cache 0 0 64 59
Cache Num Total Size Pages
utrace_cache 0 0 64 59
sock_inode_cache 33 48 640 6
skbuff_fclone_cache 7 7 512 7
skbuff_head_cache 319 390 256 15
file_lock_cache 1 22 176 22
Acpi-Operand 4136 4248 64 59
Acpi-ParseExt 0 0 64 59
Acpi-Parse 0 0 40 92
Acpi-State 0 0 80 48
Acpi-Namespace 2871 2912 32 112
delayacct_cache 81 295 64 59
taskstats_cache 4 53 72 53
proc_inode_cache 1427 1440 592 6
sigqueue 0 0 160 24
radix_tree_node 13166 13188 536 7
bdev_cache 23 24 832 4
sysfs_dir_cache 5370 5412 88 44
mnt_cache 26 30 256 15
inode_cache 2009 2009 560 7
dentry_cache 60952 61020 216 18
filp 479 1305 256 15
names_cache 3 3 4096 1
avc_node 14 53 72 53
selinux_inode_security 994 1200 80 48
key_jar 2 20 192 20
idr_layer_cache 74 77 528 7
buffer_head 164045 164800 96 40
mm_struct 51 56 896 4
vm_area_struct 1142 1958 176 22
fs_cache 35 177 64 59
files_cache 36 55 768 5
signal_cache 72 162 832 9
sighand_cache 68 84 2112 3
task_struct 76 80 1888 2
anon_vma 458 864 24 144
pid 83 295 64 59
shared_policy_node 0 0 48 77
Cache Num Total Size Pages
numa_policy 37 144 24 144
size-131072(DMA) 0 0 131072 1
size-131072 0 0 131072 1
size-65536(DMA) 0 0 65536 1
size-65536 1 1 65536 1
size-32768(DMA) 0 0 32768 1
size-32768 2 2 32768 1
size-16384(DMA) 0 0 16384 1
size-16384 5 5 16384 1
size-8192(DMA) 0 0 8192 1
size-8192 7 7 8192 1
size-4096(DMA) 0 0 4096 1
size-4096 110 111 4096 1
size-2048(DMA) 0 0 2048 2
size-2048 602 602 2048 2
size-1024(DMA) 0 0 1024 4
size-1024 344 352 1024 4
size-512(DMA) 0 0 512 8
size-512 433 480 512 8
size-256(DMA) 0 0 256 15
size-256 1139 1155 256 15
size-128(DMA) 0 0 128 30
size-64(DMA) 0 0 64 59
size-64 5639 5782 64 59
size-32(DMA) 0 0 32 112
size-128 801 930 128 30
size-32 3005 3024 32 112
kmem_cache 137 137 2688 1
這組信息來自于/proc/slabinfo。
slab:由于內(nèi)核會(huì)有許多小對(duì)象,這些對(duì)象構(gòu)造銷毀十分頻繁,比如i-node,dentry,這些對(duì)象如果每次構(gòu)建的時(shí)候就向內(nèi)存要一個(gè)頁(4kb),而其實(shí)只有幾個(gè)字節(jié),這樣就會(huì)非常浪費(fèi),為了解決這個(gè)問題,就引入了一種新的機(jī)制來處理在同一個(gè)頁框中如何分配小存儲(chǔ)區(qū),而slab可以對(duì)小對(duì)象進(jìn)行分配,這樣就不用為每一個(gè)對(duì)象分配頁框,從而節(jié)省了空間,內(nèi)核對(duì)一些小對(duì)象創(chuàng)建析構(gòu)很頻繁,slab對(duì)這些小對(duì)象進(jìn)行緩沖,可以重復(fù)利用,減少內(nèi)存分配次數(shù)。
總結(jié):
目前說來,對(duì)于服務(wù)器監(jiān)控有用處的度量主要有:
r(運(yùn)行隊(duì)列)
pi(頁導(dǎo)入)
us(用戶CPU)
sy(系統(tǒng)CPU)
id(空閑)
注意:如果r經(jīng)常大于4 ,且id經(jīng)常少于40,表示cpu的負(fù)荷很重。如果bi,bo 長期不等于0,表示內(nèi)存不足。
通過VMSTAT識(shí)別CPU瓶頸:
r(運(yùn)行隊(duì)列)展示了正在執(zhí)行和等待CPU資源的任務(wù)個(gè)數(shù)。當(dāng)這個(gè)值超過了CPU數(shù)目,就會(huì)出現(xiàn)CPU瓶頸了。
Linux下查看CPU核心數(shù)的命令:
cat /proc/cpuinfo|grep processor|wc -l
當(dāng)r值超過了CPU個(gè)數(shù),就會(huì)出現(xiàn)CPU瓶頸,解決辦法大體幾種:
1. 最簡單的就是增加CPU個(gè)數(shù)和核數(shù)
2. 通過調(diào)整任務(wù)執(zhí)行時(shí)間,如大任務(wù)放到系統(tǒng)不繁忙的情況下進(jìn)行執(zhí)行,進(jìn)爾平衡系統(tǒng)任務(wù)
3. 調(diào)整已有任務(wù)的優(yōu)先級(jí)
通過vmstat識(shí)別CPU滿負(fù)荷:
首先需要聲明一點(diǎn)的是,vmstat中CPU的度量是百分比的。當(dāng)us+sy的值接近100的時(shí)候,表示CPU正在接近滿負(fù)荷工作。但要注意的是,CPU 滿負(fù)荷工作并不能說明什么,Linux總是試圖要CPU盡可能的繁忙,使得任務(wù)的吞吐量最大化。唯一能夠確定CPU瓶頸的還是r(運(yùn)行隊(duì)列)的值。
通過vmstat識(shí)別RAM瓶頸:
數(shù)據(jù)庫服務(wù)器都只有有限的RAM,出現(xiàn)內(nèi)存爭(zhēng)用現(xiàn)象是Oracle的常見問題。
首先用free查看RAM的數(shù)量:
[oracle@oracle-db02 ~]$ free
total used free shared buffers cached
Mem: 2074924 2071112 3812 0 40616 1598656
-/+ buffers/cache: 431840 1643084
Swap: 3068404 195804 2872600
當(dāng)內(nèi)存的需求大于RAM的數(shù)量,服務(wù)器啟動(dòng)了虛擬內(nèi)存機(jī)制,通過虛擬內(nèi)存,可以將RAM段移到SWAP DISK的特殊磁盤段上,這樣會(huì) 出現(xiàn)虛擬內(nèi)存的頁導(dǎo)出和頁導(dǎo)入現(xiàn)象,頁導(dǎo)出并不能說明RAM瓶頸,虛擬內(nèi)存系統(tǒng)經(jīng)常會(huì)對(duì)內(nèi)存段進(jìn)行頁導(dǎo)出,但頁導(dǎo)入操作就表明了服務(wù)器需要更多的內(nèi)存了, 頁導(dǎo)入需要從SWAP DISK上將內(nèi)存段復(fù)制回RAM,導(dǎo)致服務(wù)器速度變慢。
解決的辦法有幾種:
1. 最簡單的,加大RAM;
2. 改小SGA,使得對(duì)RAM需求減少;
3. 減少RAM的需求。(如:減少PGA)