服务器IIS常见问题?
10.23 14:57:01发布
清水
一、处理死链接,错误链接
我们在上几篇文章中已经说到了通过日志可以查找出一些无法访问的死链接和错误链接,这个链接会被搜索引擎加入地址索引数据库中,为了让搜索引擎下次不对这些链接进行再一次的访问那么就要运用到 ROBOTS(具体用法看其它关于 ROBOTS用法)进行屏蔽,一些有规律的死链接可以进行批量的屏蔽。这样做当然是为了搜索引擎对我们网站的友好程度了,对于用户来说,有死链接的出现网站就应该有404页面的出现,可以引导用户使用网站其他页面而不是离开。提高网站的pv量,同时也是一个用户体验的设置
二、处理禁止访问的内容
同理如果发现网站有部分禁止内容有蜘蛛爬行的记录,那站长就要注意了,对这些内容要尽快的保护起来,同样也可以通过 ROBOTS进行屏蔽,不让蜘蛛爬行,不过ROB0TS只是一个网站跟搜索引擎的协议,蜘蛛不一定会绝对的遵循。所以还可以通过比如游客无法访问等限制来让蜘蛛无法到达。
三、数据量太大不好分析
用信很多人的日志应该是很大的,特别是有流量有排名网站的日志更可能多达几M,那对于这虑大的数据怎么办好呢?难道是一个人手工的去分析吗?这个是不可能的,数据过多是无法一个人可以搞得定的,大家就要充分的利用一些外部资源,比如一些空间商提供的日志分析功能(一般是大的空间商),或者是一个日志分析工具,不过这些也有一定的局限性,有时分析得不够全面,不能两全其美。希望以后可以有更好的分析
最多设置5个标签!
一、处理死链接,错误链接
我们在上几篇文章中已经说到了通过日志可以查找出一些无法访问的死链接和错误链接,这个链接会被搜索引擎加入地址索引数据库中,为了让搜索引擎下次不对这些链接进行再一次的访问那么就要运用到 ROBOTS(具体用法看其它关于 ROBOTS用法)进行屏蔽,一些有规律的死链接可以进行批量的屏蔽。这样做当然是为了搜索引擎对我们网站的友好程度了,对于用户来说,有死链接的出现网站就应该有404页面的出现,可以引导用户使用网站其他页面而不是离开。提高网站的pv量,同时也是一个用户体验的设置
二、处理禁止访问的内容
同理如果发现网站有部分禁止内容有蜘蛛爬行的记录,那站长就要注意了,对这些内容要尽快的保护起来,同样也可以通过 ROBOTS进行屏蔽,不让蜘蛛爬行,不过ROB0TS只是一个网站跟搜索引擎的协议,蜘蛛不一定会绝对的遵循。所以还可以通过比如游客无法访问等限制来让蜘蛛无法到达。
三、数据量太大不好分析
用信很多人的日志应该是很大的,特别是有流量有排名网站的日志更可能多达几M,那对于这虑大的数据怎么办好呢?难道是一个人手工的去分析吗?这个是不可能的,数据过多是无法一个人可以搞得定的,大家就要充分的利用一些外部资源,比如一些空间商提供的日志分析功能(一般是大的空间商),或者是一个日志分析工具,不过这些也有一定的局限性,有时分析得不够全面,不能两全其美。希望以后可以有更好的分析
一周热门 更多>