海之韵BLOG | 耿真的个人网站 | 鲁ICP备15001313号 | 本站永久网址:https://www.gengzhen.cn

网站收录越来越少是怎么回事?

发布:耿真(GengZhen) 2021-5-21 8:54 分类: 技术文章 这篇文章没有标签

对于企业SEOer来说,需要面对一个现实的问题,那就是假如搜索引擎蜘蛛不中意于你的站点,即使投入再多的精力与时间都是竹篮打水。所以要在开始进行一系列优化之前就需要对优化的站点整体结构有一个针对性的规划。
  首先我们需要知道搜索引擎的运转模式,搜索引擎借助我们常说的搜索引擎蜘蛛在互联网中的链接中爬行抓取站点,然后根据一定的算法与规则对我们的站点进行排名。当然不否认搜索引擎也会有人工干预的情况,尤其是国内的搜索引擎,我们对这一部分暂且不讨论。对于我们的站点来说让搜索引擎蜘蛛最大限度的造访我们的站点是我们优化排名的关键。可以看到现今很多站点因为结构模式与布局的混乱导致经常与蜘蛛失之交臂,失去大量的机遇。下面笔者就列举几个在网站构建中经常遇到的问题及解决建议,希望能够帮助大家避免一些与搜索引擎蜘蛛失之交臂的遗憾。
  过分的在图片或脚本上显示内容
  搜索引擎并不是能够很好的识别到所有的内容,在一些信息上,它还是很瞎的。比如一些站点上优秀的图片或者FLSH,蜘蛛并不能很少的识别。而作为很多站长为了让站点看起来更加的美观,就绞尽脑汁的做出大量的高质量图片、动画,而且将很多重要的内容都置于这些图片、Flsh或者脚本上。结果到头来竹篮打水,百忙一场。
  对此耿真seo认为最简单的方式就是在保留美观的前提下,将站点的重要内容转换为蜘蛛能够识别的内容,同时我们可以借助一些站长工具模拟蜘蛛的爬行情况,观察有什么信息会被遗漏的。然后将这些信息引导给搜索引擎蜘蛛。
  复杂的导航
  数多SEOer在设计站点的时候因为没有构架好,很容易出现导航负责化的问题,导航一层嵌套着一层,搜索引擎蜘蛛需要翻越这一层又一层的导航来找到目标的内容页面。说句现实的话,这就是在考验搜索引擎蜘蛛的忍耐力,跟访客较劲,这种做法是以卵击石,后果将不是不言而喻的。
  企业网站的导航设计应遵循简洁易用的原则,确保访客可以在三次点击之内进入想要的内容页面。
  不连贯的连接操作
  了解搜索引擎爬行是借助链接的,对此在建立连接的同时,需要小心的考虑如何命名它们,搜索引擎蜘蛛是不可能像人类那样有判断的标准,其主要是以url地址为评判标准,假如站点出现2个不一样的连接代码但是指向同一个内容,这时候蜘蛛可能开始迷糊了,虽然你知晓其中的含义。但考虑到站点“寄人篱下”的缘故,因此还必须让搜索引擎蜘蛛也清楚其中的含义。
  对此必须有连贯的连接,如果你的站点有出现类似的状况,建议使用301跳转重新定义新的内容,让蜘蛛明白站点的连接代码。
  错误的站内地图
  总所周知站点地图可以让搜索引擎蜘蛛可以更加有效能的爬行我们的站点,这个功能会让爬虫更有倾向性的浏览你的网站网页,而在制作地图文件的时候也需要更加的谨慎,给搜索引擎一个明确的指示,才能发挥其真正的效能。
  假如你的站点使用的是一些常规的建站系统组件的话,可以直接使用插件进行站点地图的生成,一般的建站系统都有相关的插件。如果不行,就建立一个HTML代码连接到其他的网页,然后通过站长工具提交给搜索引擎索引收录
嘻嘻大笑可怜吃惊害羞调皮鄙视示爱大哭开心偷笑嘘奸笑委屈抱抱愤怒思考日了狗胜利不高兴阴险乖酷滑稽
提交评论

清空信息
关闭评论
温馨提示本站内所有原创内容禁止转载,谢谢合作!

本页已获评论0/刷新53 次

关注耿真SEO微信公众号