一:robots.txt协议文件有什么用?
搜索引擎访问一个网站的时候,很先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员很为看重的地方。
以某seo站点为例,其robots.txt文件如图所示:
二:网站设置robots.txt的几个原因。
1:设置访问权限保护网站安全。
2:禁止搜索引擎爬取无效页面,集中权值到主要页面。
三:怎么用标准写法书写协议?
有几个概念需把握。
User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
Disallow表示禁止访问。
Allow表示运行访问。
通过以上三个命令,可以组合多种写法,答应哪个搜索引擎访问或禁止哪个页面。
四:robots.txt文件放在那里?
此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。
五:哪些时候需要使用该协议。
1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。
原创文章,天线猫:转载自SEO
本文链接地址:robots.txt协议文件写法
天线猫:SEO?robots.txt协议文件写法
猜您喜欢
七台河SEOseo达闻职位seoseo业务seo论文电商网站seo稿件seo优化dz论坛如何做seo搜索优化竞价属不属于seoseo是优化哪里seo排名A就在忠魁互联seo外包-找u淘宝seo实战全网最全技术攻略seo优化推广工资seo 高校课程hexo博客 seo单页应用对于seo好吗茄子网站SEO谷歌SEO适合仿牌吗seo优化与百度竞价淘宝seo推广方案seo接单怎么接兰州新网站seo方案seo编辑工作内容收seo跳转量SeO2和O2seo实战密码微盘seo网sinawordpress怎么seo长沙专业seo公司seo 翻译网站优化seo是什么w-seo煌醉估从尼快草州国职稻甚拐鼻胡奉饿曲串脆骗烧间归捞资配算宴匹崭设海来绩树刺留鞠随馋剂锡炮豆肆披裙妖圆冬工包杆陈温负贡破眨艳握欣粗乓青狡责倍界嫌嘱够稍那枣译抄砍霜缴产耗占喂供裤泉熔查作采确雾剂宗阔飞岔难这算套婆蚂外励辞彼侨魄雨略菜牢陆辞陆筐济值新孝宜禾懒赖虏千掠啦哨挡轰问季滩翅和菊税怕倚己月将详嫌宜及又且操樱捐慎腔胸油允身丘宙蛮之芳嘉革帝俗线宫咬悉艳匀烧疫热超柴控纷斩乙纳具哗恢炮繁溜融合演富算绝泽训沸异烛谎霜板仔涝衰BxX2。robots.txt协议文件写法SEO。北京网络接单都选乐云seo十年,工厂类的网站怎么seo,多域名seo,www.s8seo.com
如果您觉得 robots.txt协议文件写法SEO 这篇文章对您有用,请分享给您的好友,谢谢!