Redis之-AOF

AOF是基於日誌的,類似於Oracle的redo,Mysql的binlog日誌。

Aof 的配置
appendonly no # 是否打開 aof日誌功能

appendfsync always # 每1個命令,都立即同步到aof. 安全,速度慢
appendfsync everysec # 折衷方案,每秒寫1次
appendfsync no # 寫入工作交給操作系統,由操作系統判斷緩衝區大小,統一寫入到aof. 同步頻率低,速度快,

no-appendfsync-on-rewrite yes: # 正在導出rdb快照的過程中,要不要停止同步aof
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增長率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫
appendfilename /var/dir/appendonly.aof #文件的路徑

做個試驗:
1,編輯redis.conf文件
開啓aof功能,並命名aof filename
2,pkill -9 redis
3,重新啓動redis
[root@test-laoyangtest redis]# pkill -9 redis
[root@test-laoyangtest redis]# ./bin/redis-server ./redis.conf
4,查看aof目錄下aof文件
[root@test-laoyangtest dir]# more laoyang-appendonly.aof --爲空
5,設定幾個鍵值,然後在查看aof文件
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set site www.woda.com
OK
127.0.0.1:6379> set www baidu.com
OK

aof文件有內容產生了
[root@test-laoyangtest dir]# more laoyang-appendonly.aof
2
$6
SELECT
$1
0
3
$3
set
$4
site
$12
www.woda.com
*3
$3
set
$3
www
$9
baidu.com

這樣有個問題,如果是自動增長的值,同一個key,操作100次,aof來回要走100條記錄。如何解決?
所有的key在內存中,有1個具體的狀態,把key的值,逆化成命令
比如,set age 1 然後incr age了100次。那麼最後aof 可以直接set age 101(這個操作叫aof重寫)解決aof越來越大的問題。

【這兩個參數控制】
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增長率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫

使用工具來進行寫入2w個命令
[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 20000

====== MSET (10 keys) ======
20000 requests completed in 0.32 seconds
50 parallel clients
3 bytes payload
keep alive: 1

95.03% <= 1 milliseconds
99.75% <= 7 milliseconds
100.00% <= 7 milliseconds
62695.92 requests per second ---持久化的時間增長

[root@test-laoyangtest redis]# cd /var/dir/
[root@test-laoyangtest dir]# ll
總用量 8
-rw-r--r-- 1 root root 116 6月 18 15:14 dump.rdb
-rw-r--r-- 1 root root 102 6月 18 15:02 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
總用量 13M
-rw-r--r-- 1 root root 1.7K 6月 18 15:32 dump.rdb
-rw-r--r-- 1 root root 13M 6月 18 15:32 laoyang-appendonly.aof

因爲現在設定的重寫是64M重寫,我們插入20w數據試試

[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 200000
46.13% <= 1 milliseconds
87.99% <= 2 milliseconds
98.80% <= 3 milliseconds
99.72% <= 4 milliseconds
99.84% <= 5 milliseconds
99.89% <= 6 milliseconds
99.90% <= 8 milliseconds
99.91% <= 9 milliseconds
99.92% <= 10 milliseconds
99.93% <= 13 milliseconds
99.94% <= 14 milliseconds
99.95% <= 47 milliseconds
99.96% <= 48 milliseconds
99.97% <= 49 milliseconds
99.98% <= 55 milliseconds
100.00% <= 56 milliseconds
100.00% <= 56 milliseconds
36596.52 requests per second

[root@test-laoyangtest dir]# ll -h
總用量 59M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 59M 6月 18 15:41 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
總用量 2.5M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 2.5M 6月 18 15:42 laoyang-appendonly.aof #重寫了

這會兒也可能還有冗餘命令,我們可以讓在內存中的,重寫一下。再次減少冗餘
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> bgrewriteaof
Background append only file rewriting started
127.0.0.1:6379>

[root@test-laoyangtest dir]# ll -h
總用量 5.2M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 5.2M 6月 18 15:44 laoyang-appendonly.aof #重寫以前是5.2MB
[root@test-laoyangtest dir]# ll -h
總用量 2.0M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 2.0M 6月 18 16:19 laoyang-appendonly.aof #重寫以後是2MB,取消了一些冗餘數據。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章