雅酷SEO论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1283|回复: 2
打印 上一主题 下一主题

本站建站初期收录排名不好的原因总结

[复制链接]

650

主题

0

好友

3575

积分

QQ游客

  • TA的每日心情
    奋斗
    2014-6-1 22:10
  • 签到天数: 8 天

    连续签到: 1 天

    [LV.3]偶尔看看II

    跳转到指定楼层
    楼主
    发表于 2012-10-31 11:02:35 |只看该作者 |倒序浏览
    本站建站之初,收录、排名都不是很好,下边列出几个主要原因,也相当于为一些SEO新手提个醒吧。

    1、文章的原创

    博客中的每一篇文章都是本人原创的,不过因为很多文章是以前发布在chinaz、admin5和seowhy上边的,没怎么改动都整理到这个博客上了,所以在搜索引擎看来,我是在大量的复制其他网站的内容。因此会认为我的博客原创性很低,自然不会给好的排名。不过这个是在建站之初就考虑到的,但还是这样做了。毕竟,这个博客是我总结经验、和大家交流的地方,如果为了排名放弃很多其他的东西,太不值得。为了SEO排名不敢把自己写的文章放在自己的站上,那才是一个博主的悲哀啊,呵呵!

    2、网站的改版

    不断的改动title,不断的增减模块、改模板。我喜欢不断的折腾网站,我的信条是“在试验中总结,在改版中永生”。经常为了一两个实验就血淋淋的毁掉一个流量、排名还不是很差的站。例如为了测试百度分享的一些数据可能安了又卸卸了又安然后换空间换程序,例如为了测试长尾效应一天生成几十篇文章等等。在这些测试中,自己的收获也很多,以后还会继续做一些SEO试验。不过话说回来,如果你的主要目标是做排名,那么最好不要频繁修改网站架构、模板、页面title,最好一次定型。

    3、Robots.txt的限制

    因为知道自己喜欢折腾,所以最开始的时候就做了robotst限制。后来分析网站日志发现百度爬虫来过。可怜的小爬虫吃了闭门羹,灰溜溜的走了。在此,表扬百度一下,居然遵守了robots协议。而以前一直守规矩的谷歌小爬虫这次却不守规矩了,进来之后一顿乱抓。

    个人百度和谷歌对robots.txt限制的网站可能会延缓抓取吧。也就是说如果你的网站一开始没做robots限制,爬虫来了就抓,然后快照也很快就放出来了;如果你用robots限制一段时间,过一段时间又取消限制了,那么爬虫来得就不像以前那么积极了,快照放出时间也会需要得久一些。当然,只要你坚持原创的更新几篇,爬虫又会像以前那样积极来访了。

    其实原因还有很多,例如什么空间访问速度慢(国外空间)、服务器宕机(一天会有那么几分钟)、网站建站时间太短(百度、谷歌对新站都会有一段时间的考核的,这段时间内网站很难有特别好的排名),不过,一切都无所谓啦。坚持原创,坚持高质量,每天更新,相信用不了多久,本站就会赢得百度、谷歌的欢心了。

    分享到: QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    分享淘帖0 分享分享0 收藏收藏0 支持支持1 反对反对0
    回复

    使用道具 举报

    650

    主题

    0

    好友

    3575

    积分

    QQ游客

  • TA的每日心情
    奋斗
    2014-6-1 22:10
  • 签到天数: 8 天

    连续签到: 1 天

    [LV.3]偶尔看看II

    沙发
    发表于 2012-10-31 11:03:11 |只看该作者
    学习了。。。。。。。。。。
    回复

    使用道具 举报

    200

    主题

    0

    好友

    1万

    积分

    超级版主

    Rank: 8Rank: 8

  • TA的每日心情
    擦汗
    2019-6-28 11:16
  • 签到天数: 227 天

    连续签到: 1 天

    [LV.7]常住居民III

    板凳
    发表于 2013-4-3 21:51:40 |只看该作者
    “在试验中总结,在改版中永生”
    该会员没有填写今日想说内容.
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    百度SEO教程|谷歌SEO学术|百度SEO谷歌|网站SEO优化|雅酷SEO论坛  

    GMT+8, 2024-11-29 04:51

    Powered by Discuz! X2.5

    © 2001-2012 Comsenz Inc.

    回顶部