拒绝脚本分割日志,从Logrotate做起


大家可能都有管理日志的需要,比如定时压缩日志,或者当日志超过一定大小时就自动分裂成两个文件等。之前我都是程序里面自带的日志切割功能去实现,比如说apache,而没有自带这种功能的程序则写一个脚本放在定时任务里面执行,但后来我发现其实Linux自带的logrotate命令就能够实现这样的功能,所以今天和大家一起探讨研究一下这个非常方便的工具。

  简介

logrotate实用程序旨在简化系统上日志文件的管理,从而生成大量日志文件。 Logrotate允许自动轮换压缩,删除和邮寄日志文件。可以将Logrotate设置为每天,每周,每月或当日志文件达到特定大小时处理日志文件。

  安装方式

yum -y install logrotate

  使用说明

logrotate的配置文件是/etc/logrotate.conf,而/etc/logrotate.d/是用于存储其他配置文件的目录。该目录里的所有文件都会被主动的读入 /etc/logrotate.conf中执行。

vim /etc/logrotate.conf
weekly
rotate 4
create
dateext
include /etc/logrotate.d

ls /etc/logrotate.d/
ConsoleKit  dracut  exim  iscsiuiolog  nginx  php-fpm  ppp  syslog  yum

vim /etc/logrotate.d/nginx
/var/log/nginx/*log {     #为nginx日志的存储目录,可以根据实际情况进行修改
    daily    #日志文件将按天轮循
    rotate 10    #一次存储10个日志文件。对于第11个日志文件,时间最久的那个日志文件将被删除
    missingok    #在日志轮循期间,任何错误将被忽略,例如“文件无法找到”之类的错误
    notifempty    #如果是空文件的话,不进行转储
    compress    #在轮循任务完成后,已轮循的归档将使用gzip进行压缩
    sharedscripts    #运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会执行一次脚本
    postrotate     #在所有其它指令完成后,postrotate和endscript里面指定的命令将被执行。在这种情况下,rsyslogd进程将立即再次读取其配置并继续运行
        /bin/kill -USR1 $(cat /var/run/nginx.pid 2>/dev/null) 2>/dev/null || :
    endscript
}

daily:日志文件将按天轮循
weekly:日志文件将按周轮循
monthly:日志文件将按月轮循
nocompress:不需要压缩时,用这个参数
copytruncate:用于还在打开中的日志文件,把当前日志备份并截断
nocopytruncate:备份日志文件但是不截断
create mode owner group:转储文件,使用指定的文件模式创建新的日志文件
nocreate:不建立新的日志文件
delaycompress 和 compress 一起使用时,转储的日志文件到下一次转储时才压缩
nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。
size size 当日志文件到达指定的大小时才转储,Size 可以指定 bytes (缺省)以及KB (sizek)或者MB (sizem).
dateext:定义日志文件后缀是日期格式,也就是切割后文件是:xxx.log-20160402.gz这样的格式。如果该参数被注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式
delaycompress:总是与compress选项一起用,delaycompress选项指示logrotate不要将最近的归档压缩,压缩将在下一次轮循周期进行。这在你或任何软件仍然需要读取最新归档时很有用
create 640 nginx adm:以指定的权限和用书属性,创建全新的日志文件,同时logrotate也会重命名原始日志文件。
rotate count 指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份

  配置切割时间

logrotate的切割时间默认是在 /etc/anacrontab 里面配置的,而START_HOURS_RANGE 就是配置的 logrotate 的执行时间

vim /etc/anacrontab
# /etc/anacrontab: configuration file for anacron

# See anacron(8) and anacrontab(5) for details.

SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# the maximal random delay added to the base delay of the jobs
RANDOM_DELAY=45
# the jobs will be started during the following hours only
START_HOURS_RANGE=3-22

#period in days delay in minutes job-identifier command
1 5 cron.daily nice run-parts /etc/cron.daily
7 25 cron.weekly nice run-parts /etc/cron.weekly
@monthly 45 cron.monthly nice run-parts /etc/cron.monthly

一般使用脚本都是执行完了切割日志的命令之后是对 nginx 进行平滑重启,即 reload
下面提供一种新的方法:请在测试环境下测试完成之后在进行生产环境的更改,根据所在环境或者配置不同可能存在差异
向nginx主进程发送USR1信号,重新打开日志文件,否则会继续往mv后的文件写数据的。原因在于:linux系统中,内核是根据文件描述符来找文件的。如果不这样操作导致日志切割失败。
kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'`


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章