zabbix執行自定義腳本時出現需要root權限的問題:
可以使用sudo來解決權限不足的問題
但是sudo要求用戶密碼並且不允許沒有終端的用戶執命令,所以需要修改配置文件,visudo
# Disable "ssh hostname sudo <cmd>", because it will show the password in clear. # You have to run "ssh -t hostname sudo <cmd>". # #Defaults requiretty #取消終端要求 zabbix ALL= NOPASSWD:/etc/zabbix/externalscripts/raid_check_status.sh,/etc/zabbix/externalscripts/raid_scanraid_pd.py,/etc/zabbix/externalscripts/disk_used.sh #取消密碼輸入要求
rancher loadbalance使用的是haproxy,負載均衡容器的數量不能大於(已添加)主機的數量
io系統的壓力測試工具-fio
fio是一個非常靈活的io測試工具,他可以通過多線程或進程模擬各種io操作
隨着塊設備的發展,特別是SSD盤的出現,設備的並行度越來越高。要想利用好這些設備,有個訣竅就是提高設備的iodepth, 一次餵給設備更多的IO請求,讓電梯算法和設備有機會來安排合併以及內部並行處理,提高總體效率。
應用程序使用IO通常有二種方式:同步和異步。 同步的IO一次只能發出一個IO請求,等待內核完成才返回,這樣對於單個線程iodepth總是小於1,但是可以通過多個線程併發執行來解決,通常我們會用16-32個線程同時工作把iodepth塞滿。 異步的話就是用類似libaio這樣的Linux native aio一次提交一批,然後等待一批的完成,減少交互的次數,會更有效率。
io隊列深度通常對不同的設備很敏感,那麼如何用fio來探測出合理的值呢?在fio的幫助文檔裏是如何解釋iodepth相關參數的
iodepth=int
iodepth_batch=int
iodepth_batch_complete=int
iodepth_low=int
fsync=int
direct=bool
這幾個參數在libaio的引擎下的作用,會用iodepth值來調用io_setup準備一個可以一次提交iodepth個IO的上下文,同時申請一個io請求隊列用於保持IO。 在壓測進行的時候,系統會生成特定的IO請求,往io請求隊列裏面扔,當隊列裏面的IO數量達到iodepth_batch值的時候,就調用io_submit批次提交請求,然後開始調用io_getevents開始收割已經完成的IO。 每次收割多少呢?由於收割的時候,超時時間設置爲0,所以有多少已完成就算多少,最多可以收割iodepth_batch_complete值個。隨着收割,IO隊列裏面的IO數就少了,那麼需要補充新的IO。 什麼時候補充呢?當IO數目降到iodepth_low值的時候,就重新填充,保證OS可以看到至少iodepth_low數目的io在電梯口排隊着。
下載
[root@vmforDB05 tmp]# wget ftp://ftp.univie.ac.at/systems/linux/dag/redhat/el5/en/x86_64/dag/RPMS/fio-2.0.6-1.el5.rf.x86_64.rpm
安裝
[root@vmforDB05 tmp]# rpm -ivh fio-2.0.6-1.el5.rf.x86_64.rpm
測試下
[root@vmforDB05 ~]# fio -filename=/dev/mapper/cachedev -direct=1 -rw=randread -bs=8k -size 1G -numjobs=8 -runtime=30 -group_reporting -name=file
file: (g=0): rw=randread, bs=8K-8K/8K-8K, ioengine=sync, iodepth=1
...
file: (g=0): rw=randread, bs=8K-8K/8K-8K, ioengine=sync, iodepth=1
fio 2.0.6
Starting 8 processes
Jobs: 1 (f=1): [____r___] [13.2% done] [200K/0K /s] [24 /0 iops] [eta 03m:30s]
file: (groupid=0, jobs=8): err= 0: pid=22052
read : io=4632.0KB, bw=156907 B/s, iops=19 , runt= 30229msec
clat (usec): min=168 , max=1585.8K, avg=409213.69, stdev=234820.76
lat (usec): min=169 , max=1585.8K, avg=409214.35, stdev=234820.77
clat percentiles (msec):
| 1.00th=[ 28], 5.00th=[ 61], 10.00th=[ 114], 20.00th=[ 200],
| 30.00th=[ 273], 40.00th=[ 334], 50.00th=[ 392], 60.00th=[ 445],
| 70.00th=[ 510], 80.00th=[ 578], 90.00th=[ 717], 95.00th=[ 816],
| 99.00th=[ 1057], 99.50th=[ 1221], 99.90th=[ 1582], 99.95th=[ 1582],
| 99.99th=[ 1582]
bw (KB/s) : min= 4, max= 202, per=12.72%, avg=19.46, stdev=13.99
lat (usec) : 250=0.17%
lat (msec) : 50=4.15%, 100=4.84%, 250=16.58%, 500=42.14%, 750=24.18%
lat (msec) : 1000=6.56%, 2000=1.38%
cpu : usr=0.03%, sys=0.09%, ctx=1102, majf=0, minf=244
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=579/w=0/d=0, short=r=0/w=0/d=0
Run status group 0 (all jobs):
READ: io=4632KB, aggrb=153KB/s, minb=156KB/s, maxb=156KB/s, mint=30229msec, maxt=30229msec
Disk stats (read/write):
dm-0: iOS=578/0, merge=0/0, ticks=169684/0, in_queue=169733, util=98.95%, aggrios=0/0, aggrmerge=0/0, aggrticks=0/0, aggrin_queue=0, aggrutil=0.00%
loop0: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00%
loop1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00%
[root@vmforDB05 ~]#
fio可以通過配置文件來配置壓力測試的方式,可以用選項 --debug=io來檢測fio是否工作
[root@vmforDB05 tmp]# cat fio_test
[global]
bsrange=512-2048
ioengine=libaio
userspace_reap
rw=randrw
rwmixwrite=20
time_based
runtime=180
direct=1
group_reporting
randrepeat=0
norandommap
ramp_time=6
iodepth=16
iodepth_batch=8
iodepth_low=8
iodepth_batch_complete=8
exitall
[test]
filename=/dev/mapper/cachedev
numjobs=1
常用參數說明
bsrange=512-2048 //數據塊的大小範圍,從512bytes到2048 bytes
ioengine=libaio //指定io引擎
userspace_reap //配合libaio,提高異步io的收割速度
rw=randrw //混合隨機對寫io,默認讀寫比例5:5
rwmixwrite=20 //在混合讀寫的模式下,寫佔20%
time_based //在runtime壓力測試周期內,如果規定數據量測試完,要重複測試
runtime=180 //在180秒,壓力測試將終止
direct=1 //設置非緩衝io
group_reporting //如果設置了多任務參數numjobs,用每組報告代替每job報告
randrepeat=0 //設置產生的隨機數是不可重複的
norandommap
ramp_time=6
iodepth=16
iodepth_batch=8
iodepth_low=8
iodepth_batch_complete=8
exitall //一個job完成,就停止所有的
filename=/dev/mapper/cachedev //壓力測試的文件名
numjobs=1 //job的默認數量,也就是併發數,默認是1
size=200G //這job總共的io大小
refill_buffers //每次提交後都重複填充io buffer
overwrite=1 //設置文件可覆蓋
sync=1 //設置異步io
fsync=1 //一個io就同步數據
invalidate=1 //開始io之前就失效buffer-cache
directory=/your_dir // fielname參數值的前綴
thinktime=600 //在發佈io前等待600秒
thinktime_spin=200 //消費cpu的時間,thinktime的剩餘時間sleep
thinktime_blocks=2 //在thinktime之前發佈的block數量
bssplit=4k/30:8k/40:16k/30 //隨機讀4k文件佔30%、8k佔40%、16k佔30%
rwmixread=70 //讀佔70%
-------end-------