之后我发现在 nginx 的日志存储目录下,日志都被切割了,这很正常,但是经过我查看,在 crontab 下面并没有脚本文件进行 nginx 的日志切割,这
使我有点摸不到头脑,以我之前的观念都是脚本进行日志切割,然后放到定时任务中按天执行。
之后搜索了网上的文章,找到了切割 nginx的日志是一个服务执行的
服务名: logrotate ,安装方式: yum -y install logrotate
Ubuntu下安装方式: apt-get -y install logrotate
不知道是不是自己之前买的云服务器一般都是最基本的安装,可能没有安装到这个软件吧
如果是yum方式安装的nginx,系统默认会自动通过logrotate这个日志管理软件,按天进行分割。
查看 logrotate 在服务器中的文件位置
[root@123~]# rpm -ql logrotate /etc/cron.daily/logrotate /etc/logrotate.conf /etc/logrotate.d /usr/sbin/logrotate /usr/share/doc/logrotate-3.7.8 /usr/share/doc/logrotate-3.7.8/CHANGES /usr/share/doc/logrotate-3.7.8/COPYING /usr/share/man/man5/logrotate.conf.5.gz /usr/share/man/man8/logrotate.8.gz
logrotate的配置文件是/etc/logrotate.conf,而/etc/logrotate.d/是用于存储其他配置文件的目录。该目录里的所有文件都会被主动的读入 /etc/logrotate.conf中执行。
[root@123~]# ls /etc/logrotate.d/ nginx ppp syslog wpa_supplicant yum
看到配置文件下面有 nginx 的配置文件,内容如下:
[root@123~]# cat /etc/logrotate.d/nginx /var/log/nginx/*log { #为nginx日志的存储目录,可以根据实际情况进行修改 daily #日志文件将按天轮循 rotate 10 #一次存储10个日志文件。对于第11个日志文件,时间最久的那个日志文件将被删除 missingok #在日志轮循期间,任何错误将被忽略,例如“文件无法找到”之类的错误 notifempty #如果是空文件的话,不进行转储 compress #在轮循任务完成后,已轮循的归档将使用gzip进行压缩 sharedscripts #运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会 #执行一次脚本 postrotate #在所有其它指令完成后,postrotate和endscript里面指定的命令将被执行。在这种情况下,rsyslogd进程将立即再 #次读取其配置并继续运行。注意:这两个关键字必须单独成行 /bin/kill -USR1 $(cat /var/run/nginx.pid 2>/dev/null) 2>/dev/null || : endscript } daily:日志文件将按天轮循 weekly:日志文件将按周轮循 monthly:日志文件将按月轮循 nocompress:不需要压缩时,用这个参数 copytruncate:用于还在打开中的日志文件,把当前日志备份并截断 nocopytruncate:备份日志文件但是不截断 create mode owner group:转储文件,使用指定的文件模式创建新的日志文件 nocreate:不建立新的日志文件 delaycompress 和 compress 一起使用时,转储的日志文件到下一次转储时才压缩 nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。 size size 当日志文件到达指定的大小时才转储,Size 可以指定 bytes (缺省)以及KB (sizek)或者MB (sizem). dateext:定义日志文件后缀是日期格式,也就是切割后文件是:xxx.log-20160402.gz这样的格式。如果该参数被注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式 delaycompress:总是与compress选项一起用,delaycompress选项指示logrotate不要将最近的归档压缩,压缩将在下一次轮循周期进行。这在你或任何软件仍然需要读取最新归档时很有用 create 640 nginx adm:以指定的权限和用书属性,创建全新的日志文件,同时logrotate也会重命名原始日志文件。 rotate count 指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份
logrotate的切割时间默认是在 /etc/anacrontab 里面配置的:
START_HOURS_RANGE 就是配置的 logrotate 的执行时间
[root@123~]# cat /etc/anacrontab # /etc/anacrontab: configuration file for anacron # See anacron(8) and anacrontab(5) for details. SHELL=/bin/sh PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root # the maximal random delay added to the base delay of the jobs RANDOM_DELAY=45 # the jobs will be started during the following hours only START_HOURS_RANGE=3-22 #period in days delay in minutes job-identifier command 1 5 cron.daily nice run-parts /etc/cron.daily 7 25 cron.weekly nice run-parts /etc/cron.weekly @monthly 45 cron.monthly nice run-parts /etc/cron.monthly
一般使用脚本都是执行完了切割日志的命令之后是对 nginx 进行平滑重启,即 reload
下面提供一种新的方法:请在测试环境下测试完成之后在进行生产环境的更改,根据所在环境或者配置不同可能存在差异
#向nginx主进程发送USR1信号,重新打开日志文件,否则会继续往mv后的文件写数据的。原因在于:linux系统中,内核是根据文件描述符来找文件的。如果不这样操作导致日志切割失败。
kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'`
如果你也和我一样遇到了,日志自动切割但是并没有发现定时任务中运行,请收藏此文章。
参考文章:https://www.cnblogs.com/ilanni/p/5365420.html
此文章更为详细:https://www.cnblogs.com/kevingrace/p/6307298.html
原文地址:http://blog.51cto.com/10309478/2104320