如何使用robots禁止各大搜索引擎爬虫爬取网站入门指南_搜索基础教程

ps:由于公司网站配置的测试环境被百度爬虫抓取,干扰了线上正常环境的使用,刚好看到每次搜索淘宝时,都会有一句由于robots.txt文件存在限制指令无法提供内容描述,于是便去学习了一波1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)2.下面我们就来说一说如何设置robot

如何使用robots禁止各大搜索引擎爬虫爬取网站入门指南

ps:由于公司网站配置的测试环境被百度爬虫抓取,干扰了线上正常环境的使用,刚好看到每次搜索淘宝时,都会有一句由于robots.txt文件存在限制指令无法提供内容描述,于是便去学习了一波

如何使用robots禁止各大搜索引擎爬虫爬取网站入门指南_搜索基础教程

1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

2.下面我们就来说一说如何设置robots.txt文件

1).robots.txt文件必须是放在文件根目录上:

例如:

  ├─admin

  │  └─templates

  │          header.tpl.php

  │          task_add.tpl.php

  │   └─robots.txt

 2 ) .首先常用的命令为

User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

Allow : 允许爬取指定页面, 为 / 时爬取整站

3) 搜索引擎别称

Googlebot 谷歌

Baiduspider 百度

等等

类似我们测试环境就设置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

来源:http://www.cnblogs.com/jjq-exchange/p/9549989.html

海计划公众号
(0)
上一篇 2020/04/03 19:45
下一篇 2020/04/03 19:45

您可能感兴趣的内容