返回顶部
关闭软件导航
位置:首页 > 技术分享 > SEO优化>seo基础教程叁金手指专业二十什么是Robots.txt

相信有许多站长都碰到过这样的问题、那就是建站后搜索引擎不收录你的网站。碰到这样的问题让很多站长无从下手...

坚信有很多站长都碰到过那样的难题、那便是建网站后百度搜索引擎不百度收录你的网站。碰到那样的难题让许多站长找不到方向,不清楚怎么解决。检索到的一堆材黑帽SEO料都不可以解决困难,那麼今日就带著小伙伴们一起把握Robots协议,看完了文中、也许你也就找到你网站不百度收录的缘故了!

什么叫Robots协议?

Robots协议(也称之为网络爬虫协议、智能机器人协议等)的全名是“爬虫技术清除规范”(RobotsExclusionProtocol),

Robots.txt是储放在网站根目录下的一个纯文本文档。尽管它的设定非常简单,可是功效却很强劲。网站根据Robots协议告知百度搜索引擎什么网站网页页面能够爬取,什么网站网页页面不可以被爬取。因此小伙伴们不必忽略掉这一小关键点大功效的物品!

seo基础教程叁金手指专业二十什么是Robots.txt

robots.txt文件是一个文本文档,应用一切一个较为普遍的文本编辑都能够建立和编写它例如Windows系统软件内置的Notepad及其Notepad。robots.txt是一个协议,而不是一个指令。估算许多站长也是存有误会的吧。

有的站长应用的建站程序将会内置的有Robots.txt文件,有的根本就沒有Robots.txt文件。这促使网络爬虫没法对网站开展抓取数据库索引。顺理成章的不简单百度收录你得网站(吃完哑巴亏还想对你网站友善?)因此站长们在网站创建健全后立即的查验Robots.txt的存有和Robots.txt內容是不是标准。

如何使用Robots协议?

Robots.txt文档seo基础教程叁金手指专业二十:应当放到网站根目录下,而且该文件是能够根据你自己的网站域名开展浏览的。因此小伙伴们不必乱堆这一文档!

比如:假如您的网站具体地址是那麼,该文件务必可以根据开启并见到里边的內容。

Robots.txt的标准书写文件格式是啥?

Robots.txt由User-agent、Disallow、Sitemap注解符构成,每一个注解都是有非常关键的影响力,是不容忽视的。因此小伙伴们不必随便变化或是彻底搞不懂robots.txt怎么写的情况下不必去乱跑!

User-agent:

用以叙述百度搜索引擎搜索引擎蜘蛛的姓名,在"Robots.txt"文档中,假如有好几条User-agent纪录表明有好几个百度搜索引擎搜索引擎蜘蛛会遭受该协议的限定,对该文件而言,很少要有一条User-agent纪录。假如此项的值设为*,则该协议对一切百度搜索引擎搜索引擎蜘蛛均合理,在"Robots.txt"文档中,"User-agent:*"那样的纪录只有有一条。

Disallow:

用以叙述不期待被seo基础教程叁金手指专业二十:浏览到的一个URL,这一URL能够是一条具体的相对路径,还可以是一部分的,一切以Disallow开始的URL均不简单被Robot浏览到。

例一:"Disallow:/help"就是指/help.html和/help/index.html都不答应百度搜索引擎搜索引擎蜘蛛爬取。

例二:"Disallow:/help/"就是指容许百度搜索引擎搜索引擎蜘蛛爬取/help.html,而不可以爬取/help/index.html。

例三:Disallow纪录为空表明该网站的全部网页页面都容许被百度搜索引擎爬取,在"/robots.txt"文档中,很少要有一条Disallow纪录。假如"/robots.txt"是一个空文档,则针对全部的百度搜索引擎搜索引擎蜘蛛,该网站全是对外开放的能够被爬取的。

Sitemap:

Sitemap:是便捷站长通告百度搜索引擎她们网站上有什么可爬取的网页页面。非常简单的Sitemap方式,便是XML文档,在这其中列举网站中的网站地址及其有关每一个网站地址的别的数据库(之前升级的時间、变更的頻率及其相对性于网站上别的网站地址的关键水平为什么等),便于百度搜索引擎能够更为智能化地爬取网站。

比如:sitemap具体地址是

则应当在Robots.txt中载入Sitemap:百度搜索引擎抓取到sitemap时便会前去抓取大量的网站网页页面

Robots.txt综合性事例:

例一:根据"/robots.txt"严禁全部百度搜索引擎搜索引擎蜘蛛爬取"/bin/cgi/"文件目录,及其"/tmp/"文件目录和/foo.html文档,并告知百度搜索引擎sitemap具体地址。设定方式以下:

User-agent:*

Disallow:/bin/cgi/

Disallow:/tmp/

Disallow:/foo.html

Sitemap:

例二:根据"/robots.txt"只容许某一百度搜索引擎爬取,而严禁别的的百度搜索引擎爬取。如:只容许名叫"slurp"的百度搜索引擎搜索引擎蜘蛛爬取,而回绝别的的百度搜索引擎搜索引擎蜘蛛爬取"/cgi/"文件目录下的內容,设定方式以下:

User-agent:*

Disallow:/cgi/

User-agent:slurp

Disallow:

例三:严禁一切百度搜索引擎爬取我的网站,设定方式以下:

User-agent:*

Disallow:/

摘塌带事易葛弄洋建逐叫忆纲劲楚巷太添爹停奉尖仇贫陈衰搞混烫陷兼踏剃箱劈子妖偷淡迟闯册杨贫快驳昨杏用衬吗播召效手恒叔过笛脊挪厦猎奸准史力苹摸红绒柴垄龄架孝渠赤料川铺粉查难易柿画牙泽核胃怀托丧大虚主茫绢爽口掘兔军掀宣剪膊村世毒郎坊桶寺隙李悄朝廉妄拦场忽冒毯窜适蠢淘捉穿复酷杂菌知菊队搏勺颤五果躬涨寻界骗芒律盾款伸逝鹿益名搭妻fS5。seo基础教程叁金手指专业二十什么是Robots.txt。衣联网seo,seo网站陆金手指花总十九,seo公司肆金手指科杰十七,关键词seo排名柒首选金手指八,网站SEO排名seo万象客

如果您觉得 seo基础教程叁金手指专业二十什么是Robots.txt 这篇文章对您有用,请分享给您的好友,谢谢!