2020-12-31 09:32:05 阅读(170)
robots文件是搜索生态中一个非常重要的环节,也是一个非常详细的环节。在网站运营过程中,很多站长和学生很容易忽视robots文件的存在,错误地覆盖或完全禁止robots,造成不必要的损失!那么网站Robots被误禁后该怎么办呢?一起来看看吧! [案例背景] 网站开发2.0版本,技术选择在线开发,为了避免搜索引擎抓取开发版本,要求技术人员设置Robots禁令处理。2.0版本开发周期为1个月。1个月后,网站版本迭代,直接覆盖1.0版本,包括Robots禁止文件。两天后,发现流量急剧下降。检查收录后,发现800万收录下降到0,大量关键词下降。 [处理方法] 1.将Robots封禁修改为允许,然后到百度站长后台检测并更新Robots。 2.在百度站长后台抓取检测,此时显示抓取失败,无所谓,多点击抓取几次,触发蜘蛛抓取站点。 3.在百度站长后台抓取频率,提高申请抓取频率。 4.百度反馈中心,反馈是由于误操作造成的。 5.百度站长后台链接提交处设置数据主动推送(实时)。 6.更新sitemap网站地图,重新提交百度,每天手工提交一次。 经过以上处理,下一步就是等待,幸运的是,两天的时间数据开始慢慢恢复,到第三天基本恢复正常状态! [案例总结] 这次事故绝对是运营生涯的失败。我希望你能避免类似的问题。 1.产品开发必须避免在线开发,不能为了省事而建立开发环境。 2.产品迭代要有流程记录,开发的时候要做那些设置处理,那些不需要释放,那些必须释放,要非常清楚。 3.经常关注百度站长的背景,关注相关数据的变化,及时发现数据变化中的问题 以上是网站Robots被误禁后的解决方案,希望对大家有所帮助!
以上就是关于分享网站Robots被误封禁后的解决方法的相关介绍,更多分享网站Robots被误封禁后的解决方法相关内容可以咨询我们或者浏览页面上的推荐内容。我们将让你对分享网站Robots被误封禁后的解决方法有更深的了解和认识。
推荐阅读
最新文章
猜你喜欢以下内容:
一 客户顾问-张三 一