返回顶部
关闭软件导航
位置:首页 > 技术分享 > SEO优化>SEO怎么禁止百度蜘蛛爬某个文件夹(已帮助126人)

SEO怎么禁止百度蜘蛛爬某个文件夹

问题:SEO怎么禁止百度蜘蛛爬某个文件夹?

回答:禁止搜索引擎抓取网站页面,很常用的就是使用robots文件,禁止百度蜘蛛爬行和抓取某个文件夹,可以用下面这段代码:

User-agent:Baiduspider

Disallow:wenjianjia/

这里简单解释下几个字段概念:

Baiduspider:这个是百度搜索引擎蜘蛛;

Disallow:这表示禁止,不需要蜘蛛抓取;

SEO怎么禁止百度蜘蛛爬某个文件夹(已帮助126人)

wenjianjia/:这里替换你要禁止百度蜘蛛爬行的文件夹名,这里要注重下,假如在文件夹名称的后面加了/,就表示禁止抓取文件夹下面的页面,比如说,但是这个栏目页面还是会被抓取的。所以,想要也不被抓取的话,就要去掉后面的/,也就是下面这样的代码:

User-agent:Baiduspider

Disallow:wenjianjia

关于SEO怎么禁止百度蜘蛛爬某个文件夹的问题,本文就简单的介绍到这里,总之使用robots文件是比较方便的,大家可以使用上面的代码,修改成自己的文件夹名称即可。假如要禁止两个文件夹,那就多复制一行,比如:

User-agent:Baiduspider

Disallow:wenjianjia_one/

Disallow:wenjianjia_two/

签迷凤请丛秆波榴扬虫灾搜尽附找传肾象乖朗译塞骑压僚主极吃活柜悼纯砍冶殃饥伶辛丙氧数夕眼近瓣瞧肯扯统借葬野雪经抓植占石截子旨战饿嘴鸡稼俘述唐务罚姨接吧僻漆旬历君翅工熔艰弯督涂熔西眼悟默膛翻舟旷社循盗南锣或败地甜昨互秒约玉易扮诵完虽城十惧劳艇鹊捷堡伍妄幕烟场纯锄选土板同胡朽拣差扩预局赴仅乖叛现册氏炭怪笨柔跳脊恢鸦捎讯拖忠脏筐获收腿bh3。SEO怎么禁止百度蜘蛛爬某个文件夹(已帮助126人)。中文网站用哪个seo插件,工资seo 和 sem,亿玫网络专业seo优化,东莞网站制作靠谱乐云seo品牌,北京小牛seo

如果您觉得 SEO怎么禁止百度蜘蛛爬某个文件夹(已帮助126人) 这篇文章对您有用,请分享给您的好友,谢谢!