- 注册时间
- 2012-10-19
- 最后登录
- 2016-12-15
- 阅读权限
- 1
- 积分
- 3575
- 精华
- 0
- 帖子
- 1401
TA的每日心情 | 奋斗 2014-6-1 22:10 |
---|
签到天数: 8 天 连续签到: 1 天 [LV.3]偶尔看看II
|
1.1.网站地图
一)网站地图对于 seo 的作用
二)网站地图设计的六个技巧
三)网站地图生成与提交
1.2.robots。txt
1.3.Nofollow.
1)nofollow 的介绍...
2)nofollow 标签通常有两种使用方法..
3)友情链接中的 nofollow.....
1.1.网站地图:
对于 seo 来说,网站地图的好处如下:
1)为搜索引擎蜘蛛提供可以浏览整个网站的链接;
2)为搜索引擎蜘蛛提供一些链接,指向动态页面或者采用其他方法比较难
以到达的页面;
3)作为一种潜在的着陆页面,可以为搜索流量进行优化;
4)如果访问者试图访问网站所在域内并不存在的 URL,那么这个访问者就
会被转到“无法找到文件”的错误页面, 而网站地图可以作为该页面的“准”内
容。
一)网站地图对于 seo 的作用:
1、为搜索引擎蜘蛛提供可以浏览整个网站的链接;
2、为搜索引擎蜘蛛提供一些链接,指向动态页面或者采用其他方法比较难
以到达的页面;
3、作为一种潜在的着陆页面,可以为搜索流量进行优化;
4、如果访问者试图访问网站所在域内并不存在的 URL,那么这个访问者就
会被转到“无法找到文件”的错误页面,而网站地图可以作为该页面的“准”内
容。
5、地图的主要目的是方便搜索引擎蜘蛛抓取的,如果地图存在死链或坏链,
会影响网站在搜索引擎中网站权重的,所以要仔细检查有无错误的链接地址,提
交前通过站长工具,检查网站的链接是否有效。
二)网站地图设计的六个技巧:
网站地图的作用非常重要,它不仅要满足访问用户的需求,还要取悦搜索引
擎蜘蛛。在设计上也有一些技巧来让用户和蜘蛛都获得满意:
1)网站地图要包含最重要的一些页面,如果网站地图包含太多链接,人们
浏览的时候就会迷失。因此如果网站页面总数超过了 100 个的话,就需要挑选出
最重要的页面。
2)网站地图布局一定要简洁,所有的链接都是标准的 HTML 文本,并且要尽
可能多的包含关键字。
3)尽量在站点地图上增加文本说明,增加文本会给蜘蛛提供更加有索引价
值的内容,以及有关内容的更多线索。
4)在每个页面里面放置网站地图的链接
用户一般会期望每个页面的底部都有一个指向网站地图的链接, 你可以充分
利用人们的这一习惯。如果网站有一个搜索栏的话,那么可以在这个搜索栏的附
近增加一个指向网站地图的链接, 甚至可以在搜索结果页面的某个固定位置放置
网站地图的链接。
5)确保网站地图里的每一个链接都是正确、有效的。如果在网站地图里出
现的链接是坏链和死链,对搜索引擎的影响是非常不好的。如果链接比较少,你
可以把所有的链接都点一遍,以确保每一个链接是有效的。如果链接比较多,可
以使用一些链接检查工具来检测。
6)可以把 sitemap 写进 robots.txt 里,在引擎爬虫进来抓取网页的时候,
会首先查看 robots.txt、如果首先把 sitemap 写进 robots.txt 里那么在效率上
大大提高很多,从而获得 SEM 的好感。
7)根据百虎网络的实战经历,网页能够给搜索者获得良好的体验尤为重要。
三)网站地图生成与提交:
网上有很多 sitemap 地图生成的方法, 比如在线生成、 软件生成等, sitemap
地图可以提交给各大搜索引擎,从而使搜索引擎更好的对网站页面进行收录,我
们也可以通过 robots.txt 来告诉搜索引擎地图的位置。
编辑本段网站地图格式
1、普通 Html 格式的网站地图
它的目的是帮助用户对站点的整体有个把握。Html 格式的网站地图根据网
站结构特征制定,尽量把网站的功能结构和服务内容富有条理地列出来。一般来
说,网站首页有一个链接指向该格式的网站地图。
2、XMLSitemap 通常称为 Sitemap(首字母大写 S) 。简单来讲,Sitemap 就
是网站上链接的列表。制作 Sitemap,并提交给搜索引擎可以使网站的内容完全
被收录,包括那些隐藏比较深的页面。这是一种网站与搜索引擎对话的好方式。
1.2.robots。txt:
robots.txt 是搜索引擎中访问网站的时候要查看的第一个文件。
Robots.txt 文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在
robots.txt, 如果存在, 搜索机器人就会按照该文件中的内容来确定访问的范围;
如果该文件不存在, 所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页
面。
robots.txt 必须放置在一个站点的根目录下,而且文件名必须全部小写。
语法:最简单的 robots.txt 文件使用两条规则:
User-Agent:适用下列规则的漫游器 ,
Disallow:要拦截的网页。
搜索引擎通过一种爬虫 spider 程序 (又称搜索蜘蛛、 robot、 搜索机器人等) ,
自动搜集互联网上的网页并获取相关信息。
鉴于网络安全与隐私的考虑,搜索引擎遵循 robots.txt 协议。通过根目录
中创建的纯文本文件 robots.txt,网站可以声明不想被 robots 访问的部分。每
个网站都可以自主控制网站是否愿意被搜索引擎收录, 或者指定搜索引擎只收录
指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目
录下是否存在 robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如
果存在,爬虫就会按照该文件中的内容来确定访问的范围。
robots.txt 必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt 文件的格式
User-agent: 定义搜索引擎的类型
Disallow: 定义禁止搜索引擎收录的地址
Allow: 定义允许搜索引擎收录的地址
我们常用的搜索引擎类型有:
google 蜘蛛:googlebot
百度蜘蛛:baiduspider
yahoo 蜘蛛:slurp
alexa 蜘蛛:ia_archiver
msn 蜘蛛:msnbot
altavista 蜘蛛:scooter
lycos 蜘蛛:lycos_spider_(t-rex)
alltheweb 蜘蛛:fast-webcrawler
inktomi 蜘蛛: slurp
|
|