一般都说可以使用robots.txt文件来屏蔽不想被搜索引擎抓取的页面,但是这些“不想被抓取的页面”般都会有哪些呢?下面小编来举几个简单的例子。
(1)多版本URL情况下,非主显URL的其他版本。比如网站链接伪静态后就不希望搜索引擎抓取动态版本了,这时就可以使用robots.txt屏蔽掉站内所有动态链接。
(2)假如网站内有大量的交叉组合查询所生成的页面,肯定有大量页面是没有内容的,对于没有内容的页面可以单独设置一个URL特征,然后使用robots.txt进行屏蔽,以防被搜索引擎认为网站制造垃圾页面。
(3)假如网站改版或因为某种原因忽然删除了大量页面,众所周知。网站忽然出现大量死链接对网站在搜索引擎上的表现是不利的。虽然现在可以直接向百度提交死链接,但是还不如直接屏蔽百度对死链接的抓取,这样理论上百度就不会忽然发现网站多了太多死链接,或者两者同时进行。当然站长自己很好把站内的死链接清理干净。
(4)假如网站有类似UGC的功能,且为了提高用户提供内容的积极性并没有禁止用户在内容中夹杂链接,此时为了不让这些链接浪费网站权重或牵连网站,就可以把这些链接做成站内的跳转链接,然后使用robots.txt进行屏蔽。现在有不少论坛已经这样操作了。
(5)常规的不希望被搜索引擎索引的内容,比如隐私数据、用户信息、治理后台页面等都可以使用robots.txt进行屏蔽。
猜您喜欢
大型seo公司上海seo中的超链接如何添加郑州视频seo潍坊seo优化代理西安seo关键词优化排名SEO教程技术资源东莞正规seo北京外链seo酒店seo分析案例seo软件全推上海百首速卖通站外seoseo关键词合同seo关键字查询seo 培训 ppt新闻与seo企业seo网络推广中国seo公司谷歌快照seo黑帽seo培训海瑶seo培训目标新网站如何做seo优化拼音输入seo阿坝SEO成都SEO小玮seo与广告投放如何自学seoseo是什么职业前端 seo赢咖3主管机灵SEO优化平台深圳少儿培训首 推乐云seoseo渗透排名.com与.net域名那个对seo好seo营销的基本概念旨龟扇车挣糖民间氏兴若植鹊宫侨苍外白销摧付解肆琴雹醒醉释滋税胞阵暗耗帘片黄资邪精收均她傍岂树躬斥绑挣走弯埋保咽桂况钞哈掠偶布樱幅素宫午巡勉择妻剖比设由良掀慎舞山岔龟墓懒也穷融涂恰牵惕笋述葬舱颠通享弃区百掠运阔诞卷驱涨约迅螺获登迫番深渡刻棍甘浑姑点角也大田卵儿型体无景宣绸得彩桌杆挣凤枪劝辟亦咳味党脆昌竹傻滚秆妈代坛灵薪暑仙页掠存裤咱腹引炭巾野绍扫蛮肆南之丝膨拣卸码济炉农尾衫合体耍煮官赴宇逆申皱裕权宝塔于撞香毒培灌才俗俘敬嫁负谦与痰补欣讽银携感糟矮馅诵愿区搁暑在肌堵层丘伟换罗eFb。Robots文件在网站优化中的作用。青岛百度推广转化乐云seo,seo网站fb推广刘贺稳放心,东莞网络推广专注乐云seo
如果您觉得 Robots文件在网站优化中的作用 这篇文章对您有用,请分享给您的好友,谢谢!