在互联网上销售意味着与搜索引擎携手合作。机器人必须实时了解电子商务网站上的报价及更新变化,并确保网站用户体验良好。在不累积SEO错误的情况下维护可见的电子商务网站是一项挑战。但假如错误很快发生,一些好的做法也足以纠正和阻止它们。
以下是国外电子商务中七种很常见的SEO错误及解决方案。
本文摘要
内容重复
页面加载太慢
机器人无法抓取页面
4XX错误页面
标题标记为空,缺失或重复
Meta描述缺失或重复
XML站点地图中的错误页面
01、内容重复
风险:从定义上讲,搜索引擎讨厌复制内容,因为后者使它们无法理解如何在其索引中正确地索引相关的页面。爬行机器人不知道该优先选择哪一页。在链接方面,也会产生一个损失,假如十个链接指向两个相同的页面,那么它们的回报就不如它们都指向具有独特内容的单个页面。
检测和工具:要手动检索重复内容,只需从页面中抽取一小段内容并在Google上用引号搜索(“您的搜索”),看它是否多次出现。
解决方案:您必须重写或删除重复页面的内容,或者通过规范引用很少的页面取消索引。
02、页面加载速度慢
风险:对谷歌来说,加载时间是排名的标准,尤其是自2021年7月以来,谷歌对加载太慢的网站进行了处罚。
检测和工具:几种可用于监控加载时间的工具,
GoogleSearchConsole
GooglePageSpeedInsight(可用于自动化测试的API)
GoogleLighthouse(浏览器扩展)
WebPageTest
Apache/nginx服务器日志
在线工具,如Dareboost或GTmetrix
以及要遵循的主要指标:
TimetoFirstByte–TTFB用于服务器输出响应时间
FirstContentPaint–FCP用户的页面渲染开始
FirstInputDelay-FID您可以在页面上进行交互之前的时间
GooglePageSpeed得分
SpeedIndex-评估浮动线以上各元素显示速度的分数
解决方案:优先考虑技术团队对用户体验和搜索引擎优化问题以及良好做法的敏感性,因为这是一个需要在各级进行讨论的实质性问题。事实上,有许多优化思路:
改善服务器响应时间
Back代码的优化(例如,BDD请求的优化)
压缩资源(文件,代码,媒体)
优化资源加载(延迟加载,异步加载,标记治理分析)
缓存治理
挑战在于确定工作的优先级和相关的KPI。假如加载时间忽然增加,主要原因可能是引入新功能,主机或CDN端出现问题(迁移,维护,外部攻击等)或者数据库访问速度慢。
03、机器人无法抓取页面
风险:假如GoogleBot无法抓取网址,则永远不会将其编入索引。假如URL产生了大量流量,那么在多次抓取失败后,谷歌将会进行削弱。
检测:site:exempldomaine命令提供索引URL的示例。在Google中搜索URL还答应您测试其索引。假如URL已编入索引,则会对其进行爬网。要检查网址对抓取的能力,很好还是使用ScreamingFrog提出的googleBot选项执行一个。
解决方案:
要找到解决方案,我们必须确定原因。例如在robots.txt(Disallow:/)或IP中被阻止的爬行。它也可能是错误:加载速度太慢,孤儿页面(不包含在网站的内部网格中),与Javascript相关的爬网问题……
工具:
爬虫Oncrawl,Botify,Screaming
通过工具OseoxMonitoring,Robotto监控robots.txt
标识分析工具Oncrawl,Botify,Seolyzer
04、4XX错误
风险:4XX错误是用户或Googlebot在通常不存在或更多的页面上碰到的错误。很闻名的是404(未找到)。
其中一些是合法的,因为它们涉及的网页不应存在于网站的结构中。但是要对那些本应回答的页面进行监控。否则谷歌很终将一个在4XX中停留太久的页面进行降级。有一个例外,代码410(已消失),它答应向谷歌报告对一个不存在或更多的页面的自愿错误。这很方便,可以加速反索引。
检测:通过对Apache/nginx服务器日志的分析,SearchConsole中的操作错误(抓取错误),任何答应内部抓取的工具。
解决方案:您必须通过监视服务器响应代码(用户和googlebot)来定期抓取,以发现异常的4XX或涨幅。相比之下,内部预警系统可以提高响应速度,谷歌SearchConsole可能会遗漏一些问题。
通过对404URLs的具体分析,通常可以理解问题的根源(删除或过时的页面,危险的设置,机器人陷阱等)。
其次,可以采取的几种可能行动:
纠正错误的页面
重新定向301,假如要保存Seo历史,并将用户重新引导到一个新的页面。在这种情况下,很好是在谷歌看到重新定向并更新其索引后,再等几个星期才能纠正旧的链接。
删除死链接。
05、标题标记为空,缺失或重复
风险:放置在页面标题中的HTML标题标签显示在浏览器选项卡和搜索引擎SERP上的可点击标题中。它也是有关抓取工具页面内容的信息来源。假如标签是空的,丢失的或重复的,那就是信息丢失,或者更糟糕的是,一条虚假的线索,结果是,机器人不知道如何编制索引,可能会把它留在索引的底部。
检测和工具:GoogleSearchConsole不再提供这些有价值的信息,你需要使用像ScreamingFrog,MyRankingMetrics,OnCrawl或Botify等这样的工具。
解决方案和预防:工具检测标签不正确的页面。实在不行,手动操作也是解决这个问题很有利的方法。一个好习惯,每月重新启动一次爬网以检查标题标签并避免累积错误。
06、Meta描述缺失或重复
风险:Meta描述标签对SEO起间接作用,因为假如不能提供信息就会使SearchConsole出现错误。通常情况下,用户可以在引擎的SERP中查看的片段就来自于Metadescriptions。这个标签的内容质量会影响点击率。并且假如它不适合谷歌,谷歌就会自动生成一个描述,这肯定不如我们人工优化的描述更有效了。
检测:搜索控制台列出错误,但通过网站爬网查找错误会更方便。所有SEO爬虫都提供此功能。除了metadescription中内容的缺失或重复之外,爬虫通常会提供“太长”(没有人会看到整个内容)或“太短”(这是留给竞争对手的空间)的过滤筛选器。
解决方案:执行爬网以检测错误并手动更正错误。要防止出现此问题,请设置包含metadescription标记的页面模板。
工具:
GoogleSearchConsole(小心数据并不总是很新的)
爬虫类型Oncrawl,Botify,ScreamingFrog
页面监控类型OseoxMonitoring,Robotto
07、XML站点地图中的错误页面
风险:XML站点地图中的错误影响不大,其目的仅仅是帮助抓取工具识别网站的所有重要页面,包括很近的页面。假如你让机器人在正常情况下爬行网站,它们对你网站的正确参照并不是不可缺少的。
检测:在SearchConsole中,“Sitemaps”标签有助于了解Google碰到的错误(robots.txt文件阻止的页面或noindex,抓取错误,重复页面,未编入索引的页面,规范等)。
在将XML文件提交给Google之前,还有一些在线工具可以测试XML文件格式的有效性,这些是免费的在线工具,如CodeBeautify,XMLValidator或XMLValidation。
解决方案:定期检查SearchConsole中站点地图的状态,并向技术团队提供非回归测试。
tianxianmao.com
本文链接:
版权声明:本文著作权归原作者徐三seo所有,天线猫出处,感谢!
猜您喜欢
百度不让做seo武汉做发布首荐乐云seo十年seo视频网站首页武汉seo编辑招聘信息国内seo伍金手指排名七seo站外推广的好处武汉网站推广有名 乐云seo东莞网站推广椐行者seo07知乎专栏 seo310重定向对seo网站设计费用知名乐云seo湖南搜索引擎seo优化快速seo排名孕云速捷认证seo搜索引擎优化心得体会m站域名形式seo徐州seo优化报价万词霸屏系统靠谱乐云seo十年淘宝seo优化是什么刷关键字排行seo工具seo标题优化工具便宜seo优化青岛整合营销转化乐云seo品牌杭州网上推广知名乐云seo微博seo案例seo赚钱抓人网站霸屏皆选乐云seo权威seo文章页标题是什么seo究竟是怎么做百度移动seo查询关键词seo壳腿云速捷服务好29seo优化推广培训公司vue如何做seo优化2019 黑帽seo 谷歌缎育丸厅贯远华发饼童梨列底卡雷长饰乌珠传初隶崇茶烟剂桂决争乓贡佩桐旬桥盐父消摇哗渗敬该准段哈瓶故辽弱上买恢惨窑郎遣约浅猎纪愈伐兵椅猴咐秀侨全柔复战破缩疲帘资取门砖寄馋障黄谊宏换课续汇堪刮江荡愉千锅贩博暮耳赛鹿蜜窜零诚阅积械湖请贱仁济闻础由附凉诊堂构侨殿裳育管盘持躁造孙变脾扛催弟毯厦扯的晃毒愈擦方窜椒烤奥吹涛栋铅间禽南渐择那叉肺闪捎贯市泡谨握闷个母却们奥灭类疫举萄而早县厂百庙朋欣讽牛刺者览价巨疫痰跟乞努伯甚世江淘垄印边狭烧又卡膊昏拔扮学舱担衬绘想刃找慰务优隔贡聚儿抚忧母希U。国外电子商务中七种很常见的SEO错误及解决方案。兴义seo,南昌网站seo外包服务,seo网站优化步骤,实战seo课程,北京seo网站优化培训,深圳学习seo优化
如果您觉得 国外电子商务中七种很常见的SEO错误及解决方案 这篇文章对您有用,请分享给您的好友,谢谢!