Skip to content
  • 龙舞天翔小站
  • 知食汇

龙舞天翔资源共享

BWTECH DOCS CENTER

龙舞天翔资源共享
  • 资源共享首页
  • 网赚研究
    • 币圈及区块链游戏
  • 金融与管理
  • 网站开发建设
  • 网络营销优化
  • 精彩网文
  • 汽车生活
  • 德州扑克
  • 兴趣主题
  • Toggle search form

基础知识:robots.txt和Robots META标签

Posted on 2004-03-282021-08-16 By 龙舞天翔 基础知识:robots.txt和Robots META标签无评论

我们知道,搜索引擎都有自己的“搜索机器人”(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库。

对于网站管理者和内容提供者来说,有时候会有一些站点内容,不希望被ROBOTS抓取而公开。为了解决这个问题,ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是The Robots META标签。  

  • robots.txt
  • 什么是robots.txt?

robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被robots访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。

robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

网站 URL相应的 robots.txt的 URL
http://www.w3.org/http://www.w3.org/robots.txt
http://www.w3.org:80/http://www.w3.org:80/robots.txt
http://www.w3.org:1234/http://www.w3.org:1234/robots.txt
http://w3.org/http://w3.org/robots.txt
  • robots.txt的语法

“robots.txt”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

    ”<field>:<optionalspace><value><optionalspace>”。

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

User-agent:

该项的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在”robots.txt”文件中, “User-agent:*”这样的记录只能有一条。

Disallow :

该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow 开头的URL均不会被robot访问到。例如”Disallow: /help”对/help.html 和/help/index.html都不允许搜索引擎访问,而”Disallow: /help/”则允许robot访问/help.html,而不能访问/help/index.html。

任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在”/robots.txt”文件中,至少要有一条Disallow记录。如果 “/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

下面是一些robots.txt基本的用法:

  • 禁止所有搜索引擎访问网站的任何部分:
    User-agent: *
    Disallow: /
  • 允许所有的robot访问
    User-agent: *
    Disallow:
    或者也可以建一个空文件 “/robots.txt” file
  • 禁止所有搜索引擎访问网站的几个部分(下例中的cgi-bin、tmp、private目录)
    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /tmp/
    Disallow: /private/
  • 禁止某个搜索引擎的访问(下例中的BadBot)
    User-agent: BadBot
    Disallow: /
  • 只允许某个搜索引擎的访问(下例中的WebCrawler)
    User-agent: WebCrawler
    Disallow:

    User-agent: *
    Disallow: /
  • 常见搜索引擎机器人Robots名字




名称                     搜索引擎

Baiduspider            http://www.baidu.com

Scooter              http://www.altavista.com

ia_archiver             http://www.alexa.com

Googlebot           http://www.google.com

FAST-WebCrawler http://www.alltheweb.com

Slurp                  http://www.inktomi.com

MSNBOT            http://search.msn.com

  • robots.txt举例

下面是一些著名站点的robots.txt:

http://www.cnn.com/robots.txt

http://www.google.com/robots.txt

http://www.ibm.com/robots.txt

http://www.sun.com/robots.txt

http://www.eachnet.com/robots.txt

  • 常见robots.txt错误
  • 颠倒了顺序:
    错误写成
    User-agent: *
    Disallow: GoogleBot

    正确的应该是:
    User-agent: GoogleBot
    Disallow: *
    • 把多个禁止命令放在一行中:
      例如,错误地写成
      Disallow: /css/ /cgi-bin/ /images/

      正确的应该是
      Disallow: /css/
      Disallow: /cgi-bin/
      Disallow: /images/
    • 行前有大量空格
      例如写成
              Disallow: /cgi-bin/
      尽管在标准没有谈到这个,但是这种方式很容易出问题。
    • 404重定向到另外一个页面:
      当Robot访问很多没有设置robots.txt文件的站点时,会被自动404重定向到另外一个Html页面。这时Robot常常会以处理robots.txt文件的方式处理这个Html页面文件。虽然一般这样没有什么问题,但是最好能放一个空白的robots.txt文件在站点根目录下。
    • 采用大写。例如
      USER-AGENT: EXCITE
      DISALLOW:
      虽然标准是没有大小写的,但是目录和文件名应该小写:
      user-agent:GoogleBot
      disallow:
    • 语法中只有Disallow,没有Allow!
      错误的写法是:
      User-agent: Baiduspider      
      Disallow: /john/
      allow: /jane/
    • 忘记了斜杠/
      错误的写做:
      User-agent: Baiduspider      
      Disallow: css

      正确的应该是
      User-agent: Baiduspider      
      Disallow: /css/

下面一个小工具专门检查robots.txt文件的有效性:

http://www.searchengineworld.com/cgi-bin/robotcheck.cgi

  • Robots META标签

1、什么是Robots META标签

Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。具体的形式类似(见黑体部分):

<html>

<head>

<title>时代营销–网络营销专业门户</title>

<meta name=”Robots” content=”index,follow”>

<meta http-equiv=”Content-Type” CONTENT=”text/html; charset=gb2312″>

<meta name=”keywords” content=”营销… “>

<meta name=”description” content=”时代营销网是…”>

<link rel=”stylesheet” href=”/public/css.css” type=”text/css”>

</head>

<body>

…

</body>

</html>

2、Robots META标签的写法:

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。

INDEX 指令告诉搜索机器人抓取该页面;

FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。

这样,一共有四种组合:

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>

<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>

<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>

其中

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成

<META NAME=”ROBOTS” CONTENT=”ALL”>;

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成

<META NAME=”ROBOTS” CONTENT=”NONE”> 

需要注意的是:上述的robots.txt和Robots META标签限制搜索引擎机器人(ROBOTS)抓取站点内容的办法只是一种规则,需要搜索引擎机器人的配合才行,并不是每个ROBOTS都遵守的。

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:

<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。

Post Views: 272
系统及其他 Tags:META, robots.txt

文章导航

Previous Post: 让Internet充当商业“间谍”
Next Post: 建设企业网站之定位篇

发表回复 取消回复

要发表评论,您必须先登录。

2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 3 月    
  • GOOGLE ADSENSE
  • GOOGLE专项研究
  • PHP程序开发
  • 互联网电商
  • 健康与生活
  • 兴趣主题
  • 国内搜索引擎推广
  • 基础与规则
  • 外汇投资
  • 学习资讯
  • 币圈及区块链游戏
  • 德州扑克技术
  • 房地产风云
  • 收集待分类
  • 数码摄影
  • 杂文&随笔
  • 案例研究分析
  • 理财生财
  • 精品小说
  • 系统及其他
  • 经营管理
  • 网站运营理念
  • 网络优化营销
  • 网页前端
  • 美食与菜谱
  • 股市投资
  • 驾驶及维修

AXIE AXIE INFINITY DEFI Google META robots.txt SEO WEB2.0 windows 中医 中文搜索 买车 企业网站 加密货币 威廉·奥尼尔 实战 彩票 德州扑克 成交量 打新 技术指标 抑郁症 捂股 排名 搜索引擎 搜索引擎优化 攻略 无限注 晃晃悠悠 橄榄油 泡菜 流动性挖矿 炒股 焦虑症 看盘 短线操作 穷人 网络营销 美食 股票 菜谱 虚拟货币 行情 配股 酸甜白萝卜

近期文章

  • 玻璃阳光房应该用什么胶来密封防水
  • 什么是数字孪生?跟数据可视化的关系又是什么?
  • 为跨链注入新动力,HotCross能否成为Web 3.0的基建?
  • 为什么中医会如此衰落?因为我们没有看清中医的本质!
  • 中医没落的最大原因是什么?德国教授一针见血!

近期评论

    归档

    • 2022 年 3 月
    • 2022 年 1 月
    • 2021 年 12 月
    • 2021 年 11 月
    • 2021 年 10 月
    • 2021 年 9 月
    • 2021 年 8 月
    • 2021 年 7 月
    • 2021 年 4 月
    • 2016 年 12 月
    • 2012 年 1 月
    • 2008 年 1 月
    • 2006 年 3 月
    • 2006 年 2 月
    • 2005 年 12 月
    • 2005 年 11 月
    • 2005 年 10 月
    • 2005 年 3 月
    • 2005 年 1 月
    • 2004 年 12 月
    • 2004 年 10 月
    • 2004 年 9 月
    • 2004 年 8 月
    • 2004 年 7 月
    • 2004 年 6 月
    • 2004 年 4 月
    • 2004 年 3 月

    其他操作

    • 登录
    • 条目 feed
    • 评论 feed
    • WordPress.org

    Copyright © 2021 龙舞天翔资源共享.

    Powered by PressBook WordPress theme