该如何解决网站收录的问题呢?

seo优化 2018-10-28 14:36www.168986.cn长沙seo优化

  该如何解决网站收录的问题呢?

  1、主动提交内容

  2、网站地图提交

  3、内容不要放置太深

  4、调用随机文章激活页面新鲜度

  5、网站内容推荐,增加曝光度

  狼蚁网站SEO优化分别开始讲解

  一、主动提交内容

  做seo的朋友应该都知道,百度推出了一个百度站长平台,里面有很多很实用的seo工具,百度给我们提供了主动提交工具和自动提交工具。

  有了这两个工具,可以让我们时间把内容提交给搜索引擎了,当你提交过后,只要网站不是太差,蜘蛛都会时间过来爬取

  1、主动提交

  主动提交的话,是需要一点点小技术,需要开发程序才能实现实时推送的功能,让然周振兴有找人开发过这个小程序,如果有需要可以找我要。

  用法很简单,当你的文章更新了,就用程序提交网址就可以了,具体的如果你感兴趣,可以加我ktzzxing

  2、自动提交

  而自动提交没没那么复杂了,只要在网页的底部,加上js代码就可以了,当用户浏览这篇文章的时候,就能推送到搜索引擎那边去了,是不是很方便。

  现在网站做,一定要用这个功能。

  这个功能还有一个好处,当我们原创写了一篇文章后,就提交给搜索,后面如果有人抄袭你的文章也是没用了,按照先来后到顺序,哈哈。

  二、网站地图提交

  网站地图确实太重要了,可以让蜘蛛更好的理解整个网站的结构,有利于爬取。

  我们通常的做法是,把网站地图链接放在网页顶部,很容易就抓取到了

  还有,你可以把网站地图的链接放在robots文件中,蜘蛛访问网站件事情就去访问robots文件,主要读取robots文件,就能发现这个网站地图链接,很方便。

  如果你还不知道怎么做网站地图的话,这里推荐个插件

  软件名字SitemapX

  一般我们常用的cms程序都会带相应的网站地图功能

  记住,这个地图一定要有哦。

  三、内容不要放置太深

  当内容放置太深的时候,蜘蛛很难怕爬取到。

  目录深到底有多深呢?

  比如.xxx./x1/x2/x3/1.html

  这个内容的目录相对较深了,也是很多网站常见的布局手法,这样放置有利于文档的检索,但确实有点不利于蜘蛛的爬取,怎么说呢,有利有弊把。

  那么该如何解决这个问题呢?

  方法是把这些不容易被蜘蛛抓取到的链接,放在一些曝光度高的页面,加上它们的链接,就可以顺利爬取了。比如在首页放个链接,频道页相应位置放一个链接等。

  对了,还有一种情况是列表页的问题

  一般我们列表页都是防止10篇文章,然后其他是按照分页形式,1-2-3-4-5-6这样去翻页了,其实在这里翻页的目录也是有点深了,如果你经常观察蜘蛛的爬取行为就知道,有时候很难爬那么深。

  那么如何解决呢?

  1、减少目录深度

  2、增加调用篇数(根据网站的情况增加至20篇)

  经过这些技巧处理后,蜘蛛就能容易抓取到这些内容了

  四、调用随机文章激活页面新鲜度

  经常观察网址日志会发现,当蜘蛛访问页面成功的时候,返回码是200,然后过了一会又来访问了网页,这个时候的返回码是304,位什么前后不一样了呢?

  200代表访问成功

  304代表无无任何修改网页

  如果蜘蛛频繁来反问,返回码一只是304,那么估计蜘蛛减减的也会缩短光顾的频率,如果时间长了对收录也不好。

  解决方法

  将每个页面加入随机调用文章,每一次访问都能保持网页有所变动,进一步的为没一个页面增加新鲜度。

  事实也证明长期不更新的页面就是收录率低下。

  五、网站内容推荐,增加曝光度

  内容推荐也是一个不错的方法,通过网站日志挖掘出蜘蛛没有光顾的内容,然后提取出来,在想要的频道,或者内容页做一些重要的推荐,有了链接入口,蜘蛛就可以顺着入口爬过去,这样大大的增加了收录的几率。

  主要分享着5点,不过如果你只是看了不去做,那估计也不会有进步,网站收录也还是个问题。

  ,要收录的前提是你的页面是可抓取的,而且页面质量够可以,比如页面与页面之间的相似度问题等。

  后面在开篇文章重点讲解一下什么样的内容才是蜘蛛喜欢的内容。

Copyright © 2016-2025 www.168986.cn 狼蚁网络 版权所有 Power by