愚蠢的人类啊
  • 首页
  • SEO/sem
  • [随州SEO]robots.txt文件制作方法及原理详解

作者:我佛可悲2012-9-8 9:04分类: SEO/sem

话说还有很多朋友搞不清楚什么是robots文件,这个robots文件在深圳网站建设中有什么用?了解它有多大意义。那么今天我们深圳易网小编就带大家详细解说下robots.txt文件究竟是个什么东西,该怎么利用好这个小玩意。
一、robots.txt的基本概念
所谓的robots.txt文件,是每一个搜索引擎到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过这个文件,搜索引擎就可以知道在你的网站中,哪些文件是可以被索引的,哪些文件是被拒绝索引的。它好比是一个酒店的接待员,告诉你哪些地方可以去,哪些地方不能去,比如男士请勿入女厕,哈哈,就是这一样的道理。
二、robots.txt的基本语法
1) User-Agent键 后面的内容对应的是各个具体的搜索引擎爬行器的名称。如百度是Baiduspider,谷歌是Googlebot。
一般我们这样写:User-Agent: *
表示允许所有搜索引擎蜘蛛来爬行抓取。如果只想让某一个搜索引擎蜘蛛来爬行,在后面列出名字即可。如果是多个,则重复写。
注意:User-Agent:后面要有一个空格。
在robots.txt中,键后面加:号,后面必有一个空格,和值相区分开。例如,User-Agent: baiduspider
2)Disallow键
该键用来说明不允许搜索引擎蜘蛛抓取的URL路径。
例如:Disallow: /index.php 禁止网站index.php文件
Allow键——该键说明允许搜索引擎蜘蛛爬行的URL路径
例如:Allow: /index.php 允许网站的index.php
通配符*——代表任意多个字符
例如:Disallow: /*.jpg 网站所有的jpg文件被禁止了。
结束符$——表示以前面字符结束的url。
例如:Disallow: /?$ 网站所有以?结尾的文件被禁止。
三、robots.txt写法容易犯的错误
例1 允许所有的搜索引擎访问网站的任何部分
User-agent: *
Disallow:
例2. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
例3. 仅允许Baiduspider访问您的网站
User-agent: Baiduspider
Disallow:
例4. 仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
例5. 禁止spider访问特定目录
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/
注意事项:1)三个目录要分别写。2)请注意最后要带斜杠。3)带斜杠与不带斜杠的区别。
例6. 允许访问特定目录中的部分url
我希望a目录下只有b.htm允许访问,怎么写?
User-agent: *
Allow: /a/b.htm
Disallow: /a/
注:允许收录优先级要高于禁止收录。就是说对同一个目录或文件既有允许收录说明又有禁止收录注释的话按照允许收录为先为大处理。
例7. 禁止访问网站中所有的动态页面
User-agent: *
Disallow: /*?*
从例7开始说明通配符的使用。通配符包括("$" 结束符;
"*"任意符)
例8. 禁止搜索引擎抓取网站上所有图片
User-agent: *
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
其他很多情况呢,需要具体情况具体分析。只要你了解了这些语法规则以及通配符的使用,相信很多情况是可以解决的。
四、meta robots标签
meta是网页html文件的head标签里面的标签内容。它规定了此html文件对与搜索引擎的抓取规则。与robot.txt 不同,它只针对写在此html的文件。我们可以分为两种情况来分析
第一种情况:限制网页快照
很多搜索引擎都提供一个网页快照的功能。但是网页快照功能却有很多的弊端,例如事实内容在网页快照中更新不及时、索引网页快照浪费大量的服务器资源等。因此,我们有些时候可能并不需要搜索引擎来索引我们某个页面的网页快照。
解决这样问题的办法很简单,只需要在你的网页元标记中(和之间)放置如下的一段代码。
以上的一段代码限制了所有的搜索引擎建立你的网页快照。如果我们需要仅仅限制一个搜索引擎建立快照的话,就可以像如下这样去写
需要注意的是,这样的标记仅仅是禁止搜索引擎为你的网站建立快照,如果你要禁止搜索引擎索引你的这个页面的话,请参照后面的办法。
第二种情况:禁止搜索引擎抓取本页面。
在SEO中,禁止搜索引擎抓取本页面或者是允许搜索引擎抓取本页面是经常会用到的。因此我们需要对这一部分重点做一次讨论。
为了让搜索引擎禁止抓取本页面,我们一般的做法是在页面的元标记中加入如下的代码:
在 这里,META NAME="ROBOTS"是泛指所有的搜索引擎的,在这里我们也可以特指某个搜索引擎,例如META NAME="Googlebot"、META NAME="Baiduspide"、META NAME="**"等。content部分有四个命令:index、noindex、follow、nofollow,命令 间以英文的“,”分隔。
INDEX命令:告诉搜索引擎抓取这个页面
FOLLOW命令:告诉搜索引擎可以从这个页面上找到链接,然后继续访问抓取下去。
NOINDEX命令:告诉搜索引擎不允许抓取这个页面
NOFOLLOW命令:告诉搜索引擎不允许从此页找到链接、拒绝其继续访问。
根据以上的命令,我们就有了一下的四种组合
:可以抓取本页,而且可以顺着本页继续索引别的链接
:不许抓取本页,但是可以顺着本页抓取索引别的链接
:可以抓取本页,但是不许顺着本页抓取索引别的链接
:不许抓取本页,也不许顺着本页抓取索引别的链接。
这里需要注意的是,不可把两个对立的反义词写到一起,
或者直接同时写上两句
这里有一个简便的写法,如果是
的形式的话,可以写成:
如果是
的形式的话,可以写成:
当 然,我们也可以把禁止建立快照和对于搜索引擎的命令写到一个命令元标记中。从上面的文章中我们得知,禁止建立网页快照的命令是noarchive,那么我们就可以写成如下的形式:
如果是对于单独的某个搜索引擎不允许建立快照,例如百度,我们就可以写成:
如果在元标记中不屑关于蜘蛛的命令,那么默认的命令即为如下
五、用站长工具测试robots.txt
在谷歌站长工具中,添加网站后使用左侧的抓取工具的权限,就可以对网站的robots进行测试了。有朋友说看到还是云里雾里,还是不知道怎么写,没关系,深圳易网网站建设告诉你一个简单的方法,您可以去有些专门的网站上在线生成robots.txt文件,根据上面的说明设置即可,然后把文件上传到网站主程序根目录即可。
说了这么多大家应该终于知道了robots.txt文件究竟是什么、该怎么写robot文件了吧,可能还有朋友会觉得这个无所谓,不重要,那么小编在这里就奉献一个真实的案例,记得以前买一个仿站的源码,破解版的,就图个便宜嘛,在我把网站好不容易一点一点完全弄好后提交给搜索引擎,可是几天过去了百度和google都一直不收录那个站,而比它后提交的一个站点还先收录,这就让我郁闷了,而且左左右右检查了其它地方也没觉得有什么地方做错了,后来一个深圳易网的网站开发工程师朋友告诉我,说那是因为卖源码的在robots.txt里面动了手脚。而我却刚好没在乎这个东西,后来经过指导我一看文件我就傻眼了,里面这样的:
User-agent: *
Disallow: /
(以上这个是什么意思我在上面已经作了很具体的解释了哈。信不信由你,反正我是信了)
(深圳易网 ,深圳网站建设提供http://www.10000idc.net)
温馨提示欢迎分享,尊重原创,转载请注明出处,作者qq:1430427244 微信号:wofokebei

已有 149326 人欣赏

欢迎使用手机扫描访问本站,还可以关注微信哦~