网站如何做seo推广,天猫网上购物商城,潍坊网站建设价,蓬莱住房和规划建设管理局网站当服务器压力比较大#xff0c;跑起来很费力时候。我们经常做站点页面优化#xff0c;会去查找那些页面访问次数比较多#xff0c;而且比较费时。 找到那些访问次数高#xff0c;并且比较耗时的地址#xff0c;就行相关优化#xff0c;会取得立竿见影的效果的。 下面是我…当服务器压力比较大跑起来很费力时候。我们经常做站点页面优化会去查找那些页面访问次数比较多而且比较费时。 找到那些访问次数高并且比较耗时的地址就行相关优化会取得立竿见影的效果的。 下面是我在做优化时候经常用到的一段shell 脚本。 这个也可以算是统计web页面的slowpage 慢访问页面象mysql slowquery 。以下是我的nginx 配制log_format main $remote_addr - $remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for $request_time;access_log /var/log/nginx/access.log main buffer32k;从上面配置可以看到ip在 第一列页面耗时是在最后一列中间用空格分隔。 因此在awk 中分别可以用$1$NF 读取到当前值。 其中NF是常量代表整个列数。下面是分析代码的shell文件可以存为slow.sh#!/bin/shexport PATH/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;export LANGzh_CN.GB2312;function usage(){echo $0 filelog options;exit 1;}function slowlog(){#set -x;field$2;files$1;end2;msg;[[ $2 1 ]] field1end2msg总访问次数统计;[[ $2 2 ]] field3end4msg平均访问时间统计;echo -e \r\n\r\n;echo -n $msg;seq -s # 30 | sed -e s/[0-9]*//g;awk {split($7,bbb,?);arr[bbb[1]]arr[bbb[1]]$NF; arr2[bbb[1]]arr2[bbb[1]]1; } END{for ( i in arr ) { print i:arr2[i]:arr[i]:arr[i]/arr2[i]}} $1 | sort -t: $field -$end -rn |grep pages |head -30 | sed s/:/\t/g}[[ $# 2 ]] usage;slowlog $1 $2;只需要执行slow.sh 日志文件 1或者21三十条访问最平凡的页面2三十条访问最耗时的页面执行结果如下chmod x ./slow.shchmod x slow.sh./slow.sh /var/log/nginx/./slow.sh /var/log/nginx/access.log 2平均访问时间统计#############################/pages/########1.php 4 120.456 30.114/pages/########2.php 1 16.161 16.161/pages/########3.php 212 1122.49 5.29475/pages/########4.php 6 28.645 4.77417..................希望以上脚本对大家会有一定帮助。