![]() |
当前位置: 电脑软硬件应用网 > 设计学院 > 网页设计 > 正文 |
|
|||
网站优化教程:对robots.txt的优化 | |||
2010-5-6 8:04:46 文/佚名 出处:网页教学网 | |||
大家可以参考一下谷歌、百度和腾讯的robots写法: http://www.google.com/robots.txt http://www.baidu.com/robots.txt http://www.qq.com/robots.txt 大家了解完robots.txt后,那么我们可以用robots.txt来做什么? 1、用robots.txt屏蔽相似度高的页面或没内容的页面。 我们知道,搜索引擎收录网页后,会对网页进行“审核”,而当两个网页的相似度很高时,那么搜索引擎就会删除掉其中一个,并且会降低一点你网站的得分。 假设以下这两个链接,内容其实差不多,那么第一个链接就应该屏蔽掉。 /XXX?123 /123.html 像第一个的链接这样的链接非常多,那么我们要怎么屏蔽呢?其实只要屏蔽/XXX?就可以屏蔽所有的链接了。 代码如下: Disallow: /XXX? 同理,一些没有内容的页面我们也可以利用相同的办法将其屏蔽掉。 2、用robots.txt屏蔽多余的链接,一般保留静态的链接(既HTML、htm、shtml等)。 由于网站中经常会出现多个链接指向同一个页面的情况,而这样会让搜索引擎对网站的友好度降低。为了避免这一个情况,我们就可以通过robots.txt把 非主要的链接去掉。 比如以下两个链接指向同样的页面: /OOO?123 /123.html 那么我们就应该去掉第一个垃圾,代码如下: Disallow: /OOO?123 3、用robots.txt屏蔽死链 死链就是曾经存在的网页,因为改版或其他原因而失去效用后就变成死链,也就是说看似一个正常的网页链接,但点击后不能打开相对应的网页页面。 比如,原来在目录为/seo下的所有链接,因为目录地址的改变,现在都变成死链接了,那么我们可以用robots.txt把他屏蔽掉,代码如下: Disallow: /seo/ 4、告诉搜索引擎你的sitemap.xml地址 利用robots.txt可以告诉搜索引擎你sitemap.xml文件的地址,而不需要在网站上添加sitemap.xml的链接。具体代码如下: Sitemap: 你的sitemap地址 以上就是robots.txt的基本用法,一个好的网站必定会有一个好的robots.txt,因为robots.txt是搜索引擎了解你网站的一 个途径。另外在这里我推荐一下一个比较适合wordpress用户使用的robots.txt写法: User-agent: * Disallow: /wp- Disallow: /feed/ Disallow: /comments/feed Disallow: /trackback/ Sitemap: http://rainjer.com/sitemap.xml 最后,如果你觉得上面所说的还不能满足你的需要,那么你可以在谷歌或百度官方提供的robots.txt使用指南学习: 百度:http://www.baidu.com/search/robots.html 谷歌:http://www.google.com/support/forum/p/webmasters/thread?tid=4dbbe5f3cd2f6a13&hl=zh-CN |
|||
最新热点 | 最新推荐 | 相关文章 | ||
页面自动跳转的几种实现方法 网站内容的四种分类形式 或多或少的… 如何指定规范网页?rel="canonical" 浅谈网站评论体系设计的不足之处 网页中“上一篇”“下一篇”设计思考 网页设计进度指示器帮助用户预测步骤 网页用户体验:网页注册表单设计分析 网页设计常出现8大问题 网页设计的形象思维归纳 彻底去掉动易内容页顶部的“改变图片… |
关于45IT | About 45IT | 联系方式 | 版权声明 | 网站导航 | |
Copyright © 2003-2011 45IT. All Rights Reserved 浙ICP备09049068号 |