当前位置:首页 > 新闻资讯 > 公司新闻
公司新闻
错误使用了robots.txt,如何挽回?

更新时间:2017-06-21    访客:1138

很多人在刚开始做SEO、做网站优化的时候,都会了解网站的一些特殊属性的使用,比如robots.txt、nofollow标签、h标签等等,这些都是需要在网站内部进行修改和使用的。
其中robots.txt文件是容易被很多人忽略的一个细节,这个细节如果处理不好,可能会对你以后的优化效果产生巨大的影响。
许多人并没有在意,造成对robots.txt的错误使用,这时候,我们是否有挽回的方法呢?新乡云度网络科技有限公司教您怎么做:
首先是要找到问题,之后就要针对问题进行处理:
修改robots封禁为允许,然后到百度站长后台检测并更新robots。
在百度站长后台抓取检测,触发蜘蛛抓取站点。
将百度站长后台的抓取频次申请上调。
更新sitemap网站地图,并手工提交到百度。
百度站长后台链接提交处设置数据主动推送。
通过以上的办法进行处理,剩下的就是更新内容与等待收录了。云度网络在这里提醒大家,robots一定要合理的使用,否则会对网站造成不必要的损失。
联系我们

新乡市云度网络科技有限公司
QQ:2992499633
售前热线:13243295553
售后热线:13243297773
公司地址:新乡市饮马口银马假日酒店12层

13243297773

QQ在线客服:2992499633

Copyright © 2017 新乡市云度网络科技有限公司 版权所有    备案号:豫ICP备17018305号