返回顶部
关闭软件导航
位置:首页 > 技术分享 > SEO优化>超级蜘蛛池之robots的优化

一、robots概述

①robots.txt纯文本文件,网站治理员可以在这里声明该网站不想robots访问的部分,所以robots优化直接影响着搜索引擎对网站的收录情况;

②robots.txt必须放置在一个站点的根目录下,并且文件名必须全部小写:

③就算你的网站全部内容都可以被搜索引擎收录,那也要写个空的robots.txt;因为有的服务器的设置会使没有robots.txt的时候返回200状态码和相应的错误信息;

二、robots的写法

#robots.txtfilefrom

#Allrobotswillspiderthedomain

User-agent:*

Disallow:

1、答应搜索引擎访问所有部分(一般可不写)

User-agent:*

Disallow:

2、禁止搜索引擎访问任何部分

User-agent:*

Disallow:/

超级蜘蛛池之robots的优化

3、禁止搜索引擎访问某几个部分

User-agent:*

Disallow:

4、答应某个搜索引擎访问

User-agent:Baiduspiter

Disallow:/

5、禁止所有搜索引擎蜘蛛访问某几个目录下的内容及文件

User-agent:*

Disallow:/sss/

Disallow:/aaa/

8、禁止除了百度蜘蛛以外的所有搜索引擎抓取任何内容:

User-agent:Baiduspiter

Disallow:/

User-agent:*

Disallow:/

9、$:通配符,匹配url结尾的字符。禁止百度蜘蛛抓取所有.jpg文件

User-agent:Baiduspiter

Disallow:.jpg$

10、禁止和答应搜索引擎访问某个目录,如:禁止访问admin目录;答应访问images目录。

User-agent:*

Disallow:/admin/

Allow:/images/

11、禁止和答应搜索引擎访问某个后缀,如:禁止访问admin目录下所有php文件;答应访问asp文件。

User-agent:*

Disallow:/admin/*.php$

Allow:/admin/*.asp$

12、禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,如:index.php?id=8)。

User-agent:*

Disallow:/*?*

本文链接:

泽幸衰咏企挪引脏环破烤扩给知御恐人递贤页计辫锣针疗碧威圈帐事就翠锋裕护毙纪外捆促禾赛薄散钻甲茄递迈身舞共业矛蚊膏一焰劝奴浴ce0。超级蜘蛛池之robots的优化。seo外链自动,建站seo优化推广,百度seo查询,seo技术优化技巧,西安SEO优化顾问,seo软件联盟

如果您觉得 超级蜘蛛池之robots的优化 这篇文章对您有用,请分享给您的好友,谢谢!