SEO优化,网站建设公司。十年行业积累,关键词闪电排名,客户实力见证!

「十堰SEO」Robots.txt文件进阶使用方法

「十堰SEO」Robots.txt文件进阶使用方法

关于Robots.txt在网站SEO优化中所发挥的作用和重要性,我们不再一一阐述了,十堰SEO今天主要来和大家聊一聊它的高级用法,也可以叫做进阶使用方法吧。

robots.txt文件高级应用
robots.txt文件高级应用

robots.txt使用要点总结

在介绍进阶使用方法之前,我们先来回顾一下robots.txt的使用要点:

1)文件名必须为小写。不能是RoBotS.TXT。

2)每个域名(不管是不是子域名)都只能最多有一个robots.txt文件,放置于网站根目录。yourname.com的robots.txt对abc.yourname.com没有约束。

3)每种协议都可以有一个robots.txt。如http://yourname.com和https://yourname.com可以分别有一个robots.txt。

4)每个端口可以有一个robots.txt。如http://yourname.com和http://yourname.com:8080可以分别有一个robots.txt。

5)user-agent的名称以及user-agent,allow,disallow,crawl-delay,sitemap这些指示符的大小写不敏感。

6)robots.txt所包含的URL为大小写敏感。分清大小写才能有效排除索引。

7)allow和disallow的URL必须是不包括协议、域名、端口的路径。disallow:
http://yourname.com/abc.htm就错了。改为disallow: /abc.htm

8)sitemap必须包括从http或https开始的完整的URL。

9)robots.txt不是死链提交工具,想要删除死链索引还是应该登陆各搜索引擎站长平台提交。

10)robots.txt只做减法,有没有这个文件的区别即是去不去做这个排除。删除robots.txt意味着完全开放爬虫漫游。

11)robots.txt只防君子不防小人。历史上发生过多次违反robots.txt的事件。网站要把机密信息放到登陆后。

12)要想严格不让搜索引擎索引还是推荐用noindex标签。但是百度并不支持。

13)crawl-delay并不被谷歌和百度支持,Yandex和Bing则支持。Yandex还支持host指示符来表示偏好的域名。

14)符号#用于注释。后面的内容会被忽略。

robots.txt指令中看不见的通配符*

这里要说的是通配符*。它代表任意长度的任意字符。请注意每一行allow,disallow之后都有一个看不见的*。

也就是说如果你写了disallow: /seo/,那么下面的内容就会影响到所有以/seo/开头的URL,比如:

http://yourname.com/seo/aaa.htm
http://yourname.com/seo/bbb.html
http://yourname.com/seo/ccc/

但是也有例外的情况,那就是allow和disallow之后没有任何赋值的情况。比如下面这种写法:

User-agent: *
Disallow: /cyberworld/map/ # This is an infinite virtual URL space

# Cybermapper 可以访问任意页面

User-agent: cybermapper
Disallow:

合并多个User-Agent

如果你有多个讨厌的机器人在抓取你的网页消耗你的资源,那你可能会通过disallow屏蔽他们(当然要他们是君子的前提下)。你可以通过user-agent一次性把他们屏蔽。

User-agent: bad-bot-a
User-agent: bad-bot-b
Disallow: /

这种写法在当你有多个user-agent,每个虽然都比较复杂但是都一样的情况下显得很有用。

User-agent: bad-bot-a
User-agent: bad-bot-b
Disallow: /XXX

这样你就可以让robots.txt变得简洁。

为不同的搜索引擎订制不同的Sitemap

如果我们想让某些搜索引擎只访问特定的sitemap,这种情况下该如何处理呢?除了在站长平台提交网站地图,我们还可以在robots.txt内实现。别忘了sitemap文件也是一个资源,我们一样可以用disallow去屏蔽掉。假定我们给百度的网站地图是sitemap-bd.xml文件,其他搜索引擎的地图文件是sitemap.xml,我们可以通过下面的方式来实现:

User-agent: *
Disallow: /sitemap-bd.xml
User-agent: baiduspider
Disallow: /sitemap.xml
Sitemap: http://yourdomain.com/sitemap-bd.xml
Sitemap: http://yourdomain.com/sitemap.xml

这样一来站点就有专门针对百度可见的地图文件了,而其他搜索引擎抓取的是另外一个网站地图文件。

Sitemap太大了该怎么办?

我们知道,一般来说搜索引擎对站点地图的大小和所包含的URL的数量都有所限制。比如百度对单个sitemap文件的限制是五万条URL和10MB的文件大小。在这种情况下,你可以在robots.txt中给出多个sitemap文件的URL。除了这种分拆方式,你还可以使用sitemap索引文件,比如下面这个例子。

timg (1).jpg
多个站点地图制作索引压缩例子

其他主流的搜索引擎也认这个索引格式。

那么问题来了,即便是这样,文件多且大,传输会变得非常没有效率。为了解决这个问题我们可以对站点地图进行GZIP压缩。像7-zip这样的压缩工具都可以对文件压缩。需要注意的是在压缩前你的单个站点地图文件仍然必须小于10MB并且包含URL数量小于五万条。

十堰SEO总结

以上就是我们介绍的robots.txt的高级应用,如果你再通过结合其他SEO方法,对网站排名相信能起到事半功倍的效果!

评论(148人参与,0人评论)

    发表评论

    电子邮件地址不会被公开。 必填项已用*标注

    Scroll Up