蜘蛛不抓取网站的原因

发布日期:2015-11-07

文章来源:

关键词:蜘蛛不抓取网站的原因

  一、脚本或图片上显示内容过多

  很多企业为了让用户看到一个美观又丰富的网站,在网站上放置大量的高质量高清晰的图片或者动画,往往把一些重要的内容放在这些图片、动画或者JS脚本上,这样是非常不利于百度蜘蛛爬寻的。因为蜘蛛根本就不能看到这些,看到图片和flsh它会绕道而行。其实我们要做的就是在保持网站整体美观的前提下,把这些改成能让蜘蛛识别的东西。我们可以借助一些工具虚拟的查看蜘蛛的爬行路径,从中观察哪些信息被蜘蛛丢掉了。然后将这些信息引导给搜索引擎蜘蛛。

 

 

  二、导航过于复杂

  导航不能过于复杂,如果太复杂的话也会对优化不利。开始设计导航的时候我们就应该注意,不要让导航太复杂,或是站点嵌套太多,这样蜘蛛也不会去一层一层的爬寻。导航的设计要遵循简洁易用的原则,保证我们的用户在打开三个页面后就可以找到想要的页面。如果您有兴趣,可以到我们的搜索引擎营销

 

  推荐阅读:做外贸和营销需要做的准备