对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容相同但详细参数差别的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
好比许多网站都有筛选功效,通过筛选功效发生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价钱的租房”,首先网站(包罗现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站名贵的抓取配额。那么该若何制止这种情形呢?
我们以北京某团购网站为例,看看该网站是若何行使robots巧妙制止这种蜘蛛黑洞的:
对于通俗的筛选效果页,该网站选择使用静态链接,如:https://bj.XXXXX.com/category/zizhucan/weigongcun
同样是条件筛选效果页,当用户选择差别排序条件后,会天生带有差别参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),天生的参数也都是差别的。如:https://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
https://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c
对于该团购网来说,只让搜索引擎抓取筛选效果页就可以了,而种种带参数的效果排序页面则通过robots规则拒绝提供给搜索引擎。
robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即克制搜索引擎接见网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏障了低质量页面,为Baiduspider提供了更友好的网站结构,制止了黑洞的形成。
(责任编辑:网络)

评论列表