- 注册时间
- 2012-10-22
- 最后登录
- 2017-3-8
- 阅读权限
- 90
- 积分
- 31948
- 精华
- 0
- 帖子
- 1795
TA的每日心情 | 开心 2017-3-8 16:33 |
---|
签到天数: 882 天 连续签到: 3 天 [LV.10]以坛为家III
|
第一,合理设置网站的roobots文件。网站roobots文件有以下几个重要作用:1、有效屏蔽网站站内的死链接。2、可以分别设置不同权重的重要页面。比如一些广告板块,一些仅仅为了展示给用户但是并不希望蜘蛛抓取参与排名计算的页面,都可以用roobots屏蔽抓取。3、对于网站后台或者一些比较隐私的内容进行屏蔽。在这里笔者告诉大家两点robots.txt文件的基本语法。第一条是:User-agent,即搜索引擎蜘蛛的名称;第二条是:Disallow,即不允许抓取的部分。当然还有一些通配符以及具体的细节用法我们可以百度搜索下,或者参照一些seo类的书籍进行设置,总之网站roobots文件是必须设置的,它是明确告知搜索引擎对于网站抓取级别的总大纲是蜘蛛访问网站的第一个访问文件,所以一定要在优化过程中予以重视。
第二,为网站设置合理的网站地图。网站地图是引导蜘蛛快速抓取整个网站目录结构非常有效的途径,地图顾名思义,我们一般去一个陌生的城市都会购买一份当地的地图,通过地图可以直观的看到自己所在的地点和目标地点的直接距离,从而选择合适的出行方式。而网站地图也是一个道理,蜘蛛犹如一个陌生人,来到我们站点之后通过对于网站地图的熟悉,就能轻而易举的对于整体网站路径有个明确的认知,接着有主意对于权重页的判断和甄别主要表现在对于更新频繁的栏目进行有效的抓取,对于一些更新率低或者不更新的栏目,降低爬行次数甚至不爬行,就网站本身而言一个动态的网站地图有助于提高网站的收录速度。
第四,为网站设置404和301跳转。404页面主要是针对网站错误链接而生的,由于网站改版、转移空间、备份恢复等势必会造成网站很多错误页无法访问的问题,很多时候自己不注意还发现不了,但是这些错误页对于网站用户的伤害是非常大的,影响了用户体验,这个时候404页面,就是告诉用户,这个页面不存在,然后通过一个回路链接导入网站其他部分,这样不是非常友好的给用户提示了吗,通过回路可以让客户继续逗留在网站之中,增加了用户的停留时间,从而降低跳出率。另外,301也是常用的手段,主要是为了网站设置首选域的问题,一般站长会将不带wwww的域名永久重定向到www主机头上面去,另外网站域名在更换的时候或者重新申请新域名时也常常采用这种手法。就是将不在使用的域名永久重定向到现在的这个新域名上,这样新域名就很好的继承了原来域名的权重,非常有利于网站权重的继续稳定的延续。
|
|