nginx自动日志功能与日志自动切割脚本
<
成都创新互联是一家集网站建设,金乡企业网站建设,金乡品牌网站建设,网站定制,金乡网站建设报价,网络营销,网络优化,金乡网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。div>关于nginx包含变量的自动日志:
使用自动日志需要注意以下:
1、nginx日志目录权限,以我的安装路径为例/usr/local/nginx,那我的日志目录就是在/usr/local/nginx/logs里;使用了包含变量自动日志,那么这个目录nginx的用户需要有写入的权限,否则将不可能生成日志。默认情况下,nginx的运行用户为nobady。 我的习惯是安装一个程序然后给他分配一个专用账户使用。
2、缓存将不会被使用,因为使用了变量的原因吧(这一点我还没有完全理解)
3、每条日志,要先打开文件,然后写入,最后关闭文件,如此循环。此时,需要开启nginx的open_log_file_cache功能,缓存经常被使用的日志文件描述符缓存。open_log_file_cache 默认为off
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;
max 的文件描述符数量,的缓存数量
inactive 在多少时间内不活动,就会被删除
min_uses 如果在inactive时间内,使用超过该参数定义的次数,就会被缓存
valid 多少时间检查一次。
http {
…………
log_format main ‘$remote_addr � $remote_user [$time_local] “$request” ‘
‘$status $body_bytes_sent “$http_referer” ‘
‘”$http_user_agent” “$http_x_forwarded_for”‘;
access_log logs/$server_name.access.log main;
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;
………… 省去了其他行
}
最后,日志文件名会以在server_name中定义的名字开始。例:svr3.labexam.com.access.log
4、关于日志切割:
完成以上三项后,并不是工作的结束,只是又一个开始。日志会随着访问量的增大急速增长,所以需要做日志的切割!
以下是一个脚本:
#!/bin/bash
#made by cheng
#blog:myhat.blog.51cto.com
#last_time=2011/08/18
#存档的环境变量
log_path=/data1/backup_log
nginx_pid=/usr/local/webserver/nginx/nginx.pid
nginx_log=/data1/logs
yesterday=`date -d “yesterday” +%Y%m%d`
#获取有规则的access.log名称,以后于后面建立目录使用
host=`ls -l $nginx_log/*.access.log | awk -F ” ” ‘{print $9}’ | awk -F “.access” ‘{print $1}’ | awk -F “$nginx_log/” ‘{print $2}’`
#循环建立目录与移动日志。
for i in $host
do
if [ ! -d $log_path/$i/$yesterday ];then
mkdir -p $log_path/$i/$yesterday
fi
if [ ! -f $log_path/$i/$yesterday/$yesterday.access.log ];then
mv $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log
kill -USR1 `cat $nginx_pid`
else
mv -bf $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log_1
kill -USR1 `cat $nginx_pid`
fi
done
最后需要做的是,把这个脚本放到crontab里,让其00:00时运行!
运行该脚本后,会自动根据虚拟主机的主机名建立主目录,在该目录下层放新建前一天的日期目录,然后把昨天的日志放到这个目录里。实现每天一次日志切割。
*******该脚本运行的前提是,使用了自动日志的功能。
使用自动日志需要注意以下:
1、nginx日志目录权限,以我的安装路径为例/usr/local/nginx,那我的日志目录就是在/usr/local/nginx/logs里;使用了包含变量自动日志,那么这个目录nginx的用户需要有写入的权限,否则将不可能生成日志。默认情况下,nginx的运行用户为nobady。 我的习惯是安装一个程序然后给他分配一个专用账户使用。
2、缓存将不会被使用,因为使用了变量的原因吧(这一点我还没有完全理解)
3、每条日志,要先打开文件,然后写入,最后关闭文件,如此循环。此时,需要开启nginx的open_log_file_cache功能,缓存经常被使用的日志文件描述符缓存。open_log_file_cache 默认为off
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;
max 的文件描述符数量,的缓存数量
inactive 在多少时间内不活动,就会被删除
min_uses 如果在inactive时间内,使用超过该参数定义的次数,就会被缓存
valid 多少时间检查一次。
http {
…………
log_format main ‘$remote_addr � $remote_user [$time_local] “$request” ‘
‘$status $body_bytes_sent “$http_referer” ‘
‘”$http_user_agent” “$http_x_forwarded_for”‘;
access_log logs/$server_name.access.log main;
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;
………… 省去了其他行
}
最后,日志文件名会以在server_name中定义的名字开始。例:svr3.labexam.com.access.log
4、关于日志切割:
完成以上三项后,并不是工作的结束,只是又一个开始。日志会随着访问量的增大急速增长,所以需要做日志的切割!
以下是一个脚本:
#!/bin/bash
#made by cheng
#blog:myhat.blog.51cto.com
#last_time=2011/08/18
#存档的环境变量
log_path=/data1/backup_log
nginx_pid=/usr/local/webserver/nginx/nginx.pid
nginx_log=/data1/logs
yesterday=`date -d “yesterday” +%Y%m%d`
#获取有规则的access.log名称,以后于后面建立目录使用
host=`ls -l $nginx_log/*.access.log | awk -F ” ” ‘{print $9}’ | awk -F “.access” ‘{print $1}’ | awk -F “$nginx_log/” ‘{print $2}’`
#循环建立目录与移动日志。
for i in $host
do
if [ ! -d $log_path/$i/$yesterday ];then
mkdir -p $log_path/$i/$yesterday
fi
if [ ! -f $log_path/$i/$yesterday/$yesterday.access.log ];then
mv $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log
kill -USR1 `cat $nginx_pid`
else
mv -bf $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log_1
kill -USR1 `cat $nginx_pid`
fi
done
最后需要做的是,把这个脚本放到crontab里,让其00:00时运行!
运行该脚本后,会自动根据虚拟主机的主机名建立主目录,在该目录下层放新建前一天的日期目录,然后把昨天的日志放到这个目录里。实现每天一次日志切割。
*******该脚本运行的前提是,使用了自动日志的功能。
新闻名称:nginx自动日志功能与日志自动切割脚本
当前地址:http://myzitong.com/article/cjggds.html