网站无效页面的负影响该如何规避
分类:网络营销 时间:2016-05-12 作者:
QQ空间
新浪微博
腾讯微博
更多
现在不管是网络营销还是微信营销,企业商家对于网站的优化度都是同样的重视,不过在做网站优化的时候,很多优化人员会碰到这样一个问题,就是随着网站运营时间的延长,网站上的无效页面数量会越来越多,无效页面和普通的死链接还有一定的区别,死链接是根本没有这个页面,而无效页面则是存在着对应的页面,那么如何才能够规避这样的问题呢?
第一,针对空白的网页内容需要及时的填充
我们在建设网站时,往往会将框架内容搭建好,可是在日常运营期间,这些已经搭建的框架内容因为疏忽会忘记增添内容,此时最好的方法就是通过工具搜索网站是否存在着空白内容的网页,然后再进行手工填充,当然填充的内容一定要具有一定的质量新,要知道百度蜘蛛在长期爬行到这样的网页上时没有看到内容,可是如果你填充的内容质量很差,那么百度蜘蛛重新抓取内容时,发现原来是垃圾内容时,这就很容易给你网站打上负面分,所以重新填充的内容一定要具有一定的高质量。
第二,如果是死链接这样的无效页面
这时处理的方法就会相对简单,只需要建设一个404页面,并且在该页面上提供一些内容,让用户觉得具有亲和性,同时也会让百度认为这个页面不是简单的一个404页面链接,同时也包括了一定的内容,所以网站也会给百度蜘蛛带来好印象。
第三,针对一些特殊无效页面的处理
在网站运营时,往往会存在着一些页面仅仅对用户存在着一定的用处,可是对百度蜘蛛却没有丝毫意义,比如一些注册页面,订单页面,博客留言以及商城的购物车等。这些页面的存在不会给网站排名带来多大利益,而且还会增加网站无效页面的占比,要知道无效页面占比越高,那么百度蜘蛛对于网站的认可度就会越低,最终的结果就会给网站带来极差的评价。所以对于这些用户有用,搜索引擎无用的页面,则可以通过nofollow属性设置,规避百度蜘蛛的抓取,这样就可以有效减低网站上的无效页面。
第四,对于一些广告页面,或者灌水页面
因为往往内容相对较多,可是对于用户和搜索引擎都具有一定的垃圾属性,此时完全可以使用Robots命令进行屏蔽,彻底取消百度等搜索引擎的抓取,这么做的好处就是一次处理的量相对较大,在处理效率上能够适当的高一点。而且毕竟在网站上势必会出现各种垃圾页面,我们不可能一一的进行处理,所以直接使用Robots将某个栏目进行屏蔽,处理的效果就会提升很多。
快商通认为随着网站运营时间的延长,网站上的无效页面数量会越来越多,所以针对这一现象,对于网站运营人员来说一定要采用合适的方式进行处理,希望以上的建议对你有所帮助。
相关新闻
快商(中世纪)国庆期间值班公告
邮寄发票业务暂停通知
快商(中世纪)国庆放假通知
中世纪网络的呼叫中入业务将正式转入快商集团旗下公司“快商”运营
快商“友谊杯”乒乓球比赛