雅酷SEO论坛

标题: 百度蜘蛛抓取页面规则 [打印本页]

作者: 林海雪原    时间: 2015-2-3 19:54
标题: 百度蜘蛛抓取页面规则

对于一名seo新手来说,想要学好seo,系统的学习流程是不必不可少的。掌握好每一个基础知识点的是为了后期更好优化网站。网上关于搜索引擎抓取页面规则的文章多如牛毛,但是真正写清楚这个的却很少。今天重庆seo就来好好谈谈这个问题。

百度蜘蛛程序,其实就是搜索引擎的一个自动应用程序,它的作用就是在互联网中浏览信息,然后把这些信息都抓取到搜索引擎的服务器上,然后建立索引库等等,简单理解:我们可以把搜索引擎蜘蛛当做一个用户,然后这个用户来访问我们的网站,然后在把我们网站的内容保存到自己的电脑上!

百度蜘蛛工作的第一步:爬行抓取你网站的网页

爬虫是循着链接来到我们网站的,并且循着链接抓取的,目的是下载感兴趣的东西,抓取你网站上面的链接文字,抓取链接的目的是爬向新的页面。

百度蜘蛛工作的第二步:过滤存储你网站的网页

百度蜘蛛在抓取内容的时候,并且对于蜘蛛来说,并不是所有的内容都有,抓取他的索引库里面,会进行挑选,对于一些不需要的内容,百度蜘蛛是不会去抓取的,第一、互联网重复度太高的页面,第二、不能识别的,这些内容是搜索不需要的。百度蜘蛛不能抓取图片,图片视频,Flash,frame js等等。这些东西都是被过滤的。对于表格来说主要是是抓取里面的文字。当百度快照打开有网站图片图片出现,这个是百度直接调用我们网站的图片。

网页更新频度严重影响着搜索引擎蜘蛛程度对网站的爬行,爬取次数越多意味着网页收录几率会越大、收录数量越多。更新频率、数量,文章内容质量都关于百度蜘蛛的爬行抓取起着很关键作用。通俗来说,也就是百度蜘蛛更喜欢有规律出现的、新的、质量高的内容。







欢迎光临 雅酷SEO论坛 (http://www.yaiku.com/) Powered by Discuz! X2.5