当前位置:首页 > 站长新闻

百度:巧用robots避免蜘蛛黑洞

时间:2018-01-18 19:00:00来源:站长新闻作者:SEO探针小编阅读:77次「手机版」
 

黑蜘蛛博客

百度站长平台刚刚发布了一个小技巧:巧用robots避免蜘蛛黑洞。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高。

如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。

这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。

那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:https://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:https://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

https://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为baiduspider提供了更友好的网站结构,避免了黑洞的形成。

扩展阅读:蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

相关阅读

值得推荐的4条营销手段:节假日如何巧用社交媒体

  节日永远是一年中最特别的时候,它突出了3F元素---家庭(family)、食物(food)以及……争夺(fighting)。我所说的争

巧用“用户画像”进行个性化运营

标签体系方法    首先,这里的标签指的就是某个用户特征的一种表示,或者说是某一用户特征符号表示。将用户的所有特征定义为一些

网站seomanbetx体育如何吸引蜘蛛,如何提升网站的收录速度以及

  搜索引擎为了抓取尽可能多的页面,它会自动跟踪页面的链接,通常采用广度优先、深度优先这两种遍历方法。理论上说,无论是采用深

怎样可以让网站快速被蜘蛛抓取

SEO全称为搜索引擎manbetx体育,是指通过站内manbetx体育、站外manbetx体育等方式,提升搜索引擎收录排名。既然有SEO技术,便会有相应的从业人员,他们被称为白

什么是蜘蛛池? 蜘蛛池对SEO有什么影响

  很多SEOmanbetx体育人员,都在追求百度快速收录与百度快速排名等捷径!蜘蛛池,一个既熟悉又陌生的词,我们知道搜索引擎网页的收录,完全取决

分享到:

栏目导航

推荐阅读

热门阅读