网站改版时怎么做可以降低产生降权的风险?
- 作者:玢锐云
- 发表时间:2019-10-22 14:43
网站改版相信很多优化师都有遇到过,在改版过程中稍不注意就有可能受到惩罚,网站出现降权问题。为了降低网站出现降权的风险下面一起来了解一下网站改版时怎么做可以降低产生降权的风险。
一、网站栏目名称我们不要做修改,尽量保持原站栏目名称,这样也可以降低网站被惩罚的风险。因为无故删除很多栏目会导致很多数据不存在,致使用户和搜索引擎蜘蛛访问异常。
二、保留原站数据,尤其是那些已经被搜索引擎收录的文章,无故删除搜索引擎会认为我们的网站内容无法打开,认为是网站不稳定,就会对网站进行降权惩罚。
三、设置404页面。设置了404页面搜索引擎蜘蛛即使抓取爬行到了打不开的页面也可以继续爬行抓取,因为有返回路径。要是没有设置404页面搜索引擎蜘蛛抓取爬行到打不开的页面就像是进行了死胡同一样,就不会继续抓取爬行了,这对于用户体验和搜索引擎抓取爬行是十分不利的。
四、通过robots.txt文件来屏蔽打不开的页面,这样搜索引擎蜘蛛就不会在去爬行抓取了,从而规避网站出现降权的风险。
五、通过站长平台主动提交死链,让搜索引擎知道这些是死链,这样搜索引擎就不会在去抓取爬行这些页面,从而达到降低网站受到惩罚的风险。
一、网站栏目名称我们不要做修改,尽量保持原站栏目名称,这样也可以降低网站被惩罚的风险。因为无故删除很多栏目会导致很多数据不存在,致使用户和搜索引擎蜘蛛访问异常。
二、保留原站数据,尤其是那些已经被搜索引擎收录的文章,无故删除搜索引擎会认为我们的网站内容无法打开,认为是网站不稳定,就会对网站进行降权惩罚。
三、设置404页面。设置了404页面搜索引擎蜘蛛即使抓取爬行到了打不开的页面也可以继续爬行抓取,因为有返回路径。要是没有设置404页面搜索引擎蜘蛛抓取爬行到打不开的页面就像是进行了死胡同一样,就不会继续抓取爬行了,这对于用户体验和搜索引擎抓取爬行是十分不利的。
四、通过robots.txt文件来屏蔽打不开的页面,这样搜索引擎蜘蛛就不会在去爬行抓取了,从而规避网站出现降权的风险。
五、通过站长平台主动提交死链,让搜索引擎知道这些是死链,这样搜索引擎就不会在去抓取爬行这些页面,从而达到降低网站受到惩罚的风险。