现在的位置: 首页 > 综合 > 正文

Linux 自动日志切割

2012年04月08日 综合 ⁄ 共 1727字 ⁄ 字号 暂无评论

使用自动日志需要注意以下:
1、nginx日志目录权限,以我的安装路径为例/usr/local/nginx,那我的日志目录就是在/usr/local/nginx/logs里;使用了包含变量

自动日志,那么这个目录nginx的用户需要有写入的权限,否则将不可能生成日志。默认情况下,nginx的运行用户为nobady。 我的

习惯是安装一个程序然后给他分配一个专用账户使用。

2、缓存将不会被使用,因为使用了变量的原因吧(这一点我还没有完全理解)

3、每条日志,要先打开文件,然后写入,最后关闭文件,如此循环。此时,需要开启nginx的open_log_file_cache功能,缓存经常

被使用的日志文件描述符缓存。open_log_file_cache 默认为off
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;

max 最大的文件描述符数量,最大的缓存数量
inactive 在多少时间内不活动,就会被删除
min_uses 如果在inactive时间内,使用超过该参数定义的次数,就会被缓存
valid 多少时间检查一次。

http {

…………
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';

access_log logs/$server_name.access.log main;
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;

………… 省去了其他行
}

最后,日志文件名会以在server_name中定义的名字开始。例:svr3.labexam.com.access.log

4、关于日志切割:
完成以上三项后,并不是工作的结束,只是又一个开始。日志会随着访问量的增大急速增长,所以需要做日志的切割!

以下是一个脚本:

#!/bin/bash
#made by cheng
#blog:myhat.blog.51cto.com
#!/bin/bash
#made by cheng
#blog:myhat.blog.51cto.com
#last_time=2011/08/16

#your logs store
log_path=/data
nginx_pid=/usr/local/nginx/logs/nginx.pid
nginx_log=/usr/local/nginx/logs
yesterday=`date -d "yesterday" +%Y%m%d`
host=`ls -l $nginx_log/*.access.log | awk -F " " '{print $9}' | awk -F ".access" '{print $1}' | awk -F "$nginx_log/" '{print $2}'`

for i in $host
do
if [ ! -d $log_path/$i/$yesterday ];then
mkdir -p $log_path/$i/$yesterday
else
if [ ! -f $log_path/$i/$yesterday/$yesterday.access.log ];then

mv $nginx_log/$i.access.log \
$log_path/$i/$yesterday/$yesterday.access.log
kill -USR1 `cat $nginx_pid`
else
mv -bf $nginx_log/$i.access.log \
$log_path/$i/$yesterday/$yesterday.access.log_1
kill -USR1 `cat $nginx_pid`
fi
fi
done

最后需要做的是,把这个脚本放到crontab里,让其00:00时运行!
运行该脚本后,会自动根据虚拟主机的主机名建立主目录,在该目录下层放新建前一天的日期目录,然后把昨天的日志放到这个目录里。实现每天一次日志切割。
*******该脚本运行的前提是,使用了自动日志的功能。

给我留言

留言无头像?