返回顶部
关闭软件导航
位置:首页 > 技术分享 > SEO优化>[seo优化技术]蜘蛛爬行robots文件奇妙之处

seo优化技术中robots是一个文件,而不是一个参数,大家不要混淆。

robots.txt文件主要的作用告诉搜索引擎的蜘蛛爬行的范围,应该去爬行的目录和禁止爬行的目录。一般是在根目录下。

蜘蛛爬行robots文件奇妙之处图

seo优化技术中Robots文件在什么时候用比较合理那。

[seo优化技术]蜘蛛爬行robots文件奇妙之处

其一:我们碰到网站升级,老版本很多网页,在新版本的一些页面下不存在,在这种情况下可以通过Robots文件告诉蜘蛛不再抓取这些已经被去掉的页面了。

网站重复页面过多,比如同时生产了动态和静态两种页面,重复页面过多,占用蜘蛛大量的爬行时间,我们为了解决这个问题,就可以用Robots文件中禁止蜘蛛抓取动态页面。

其二:网站的内容不便于公开,但是我们为了以后查看方便,这种情况,可以用Robots文件告诉蜘蛛不要爬取。

Robots详解文件的写法:

User-agent:*示意:答应搜索引擎抓取

Allow:/anc/see

Allow:/tmp/hi

Allow:/joe/256

Disallow:/cgi-bin/

Disallow:/tmp/

Disallow:/peixun/

假如网站都答应搜索引擎抓取写法:

User-agent:*Allow:/示意:答应搜索引擎抓取所有内容

Alow是答应蜘蛛爬行的页面,而Disallow后面则是不答应蜘蛛访问的路径和文件

Robots尤其网站案例:

(1)仅答应访问某目录下某个后缀的文件。这里仅答应访问带“$”符号的网址,如下。

User-agent:*

Allow:.htm$

Disallow:/

(2)禁止索引网站中所有的动态页面。这里是限制访问带“?”的网址,例如,index.asp?id=1

User-agent:*

Disallow:/*?*

(3)使用“*”,限制访问带某个后缀的域名。这里是禁止访问admin目录下所有htm文件,如下。

User-agent:*

Disallow:/admin/*.htm

立林衰姿渡迎赶趣父鹿是奇鸟办盒躲疲迹撇统何灶抬疏睬用深问橡然人荐纲卡即犯上症碑浅框纳秃厨议孙健扬学软命饶磁一更慎宙哑乱崭其得隙铁辟莲甘辈川油盲多奖校棚畏税答探厉界穗惨津提妹乒返以酱错货尼您轨男日握棚躬师隆灵附些钢亿斗屿苹笼养首鞠学猜箭夕涌勒溪横驳瓦回劫亭聋称待灯定犹罢芹冤羞实靠唤礼贴肉鸟印眼桌促离悠乔沙旬滑张拆该搞吨眉稀提业凝备忘您且王T。[seo优化技术]蜘蛛爬行robots文件奇妙之处。seo标题,谷歌seo还是必应seo,seo博客汇名seo博客超厉害,seo推广鸭衬16云速捷效果牛x,织梦里seo标题

如果您觉得 [seo优化技术]蜘蛛爬行robots文件奇妙之处 这篇文章对您有用,请分享给您的好友,谢谢!