标签:出现 去掉 vfs 分割 awk gre 日志统计 ++ 数据
1、 nginx日志统计独立ip的个数: awk ‘{print $1}‘ /access.log | sort | uniq | wc -l
2、 查询访问最多的前10个ip awk ‘{print $1}‘ /access.log | sort | uniq -c | sort -nr | head -10 3、 查看某段时间的 grep "2012:0[3-6]" nginx.log | 4、 访问次数最多的IP netstat -ntu | tail -n +3 | awk ‘{ print $5}‘ | cut -d : -f 1 | sort | uniq -c| sort -n -r | head -n 5
注释:
tail -n +3
// 去掉前两行 awk ‘{ print $5}‘
// 取数据的低5域(第5列) cut -d: -f 1
// 取IP部分。 sort
// 对IP部分进行排序。 uniq -c
// 打印每一重复行出现的次数。(并去掉重复行) sort -n -r
// 按照重复行出现的次序倒序排列。 head -n 5
// 取排在前5位的IP 5、 假设统计一天 access.log 日志每小时每IP访问次数 awk -vFS="[:]" ‘{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}‘ logs/access.log
标签:出现 去掉 vfs 分割 awk gre 日志统计 ++ 数据
原文地址:http://www.cnblogs.com/sharesdk/p/7851774.html