作为一名专业的SEO人员,我们很多的时候都在研究站点中有多少页面可以作为搜索候选结果,也就是一个网站的索引量,所谓网站索引量,就是搜索引擎抓取你网站的数量,这能影响到网站收录率,是一个非常重要的SEO因素。
索引量是流量的基础,索引量数据的每一个变动都拨动着站长敏感的神经,站点内容页面需要经过搜索引擎的抓取和层层筛选后,方可在搜索结果中展现给用户,页面通过系统筛选,并被作为搜索候选结果的过程,即为建立索引,那么,导致百度索引量下降的原因有哪些呢?其解决的方法是什么呢?
一、百度官方的原因
对于导致百度索引量下降的原因,首先我们就要先检查一下是否是因为百度自身导致的结果,简单的来说,马海祥建议你可以从以下2个方面来入手。
1、配额再分配
原因:同类数据量接近索引分配总额,配额量再分配,有升的就会有降的。
解决方法:对于这种况,只能是想办法超过竞品,争取高额分配。
2、数据异常错误
A、错误惩罚
原因:应对某类作恶行为而新算法上线,但由于蝴蝶效应,导致部分站点被错误惩罚而清除大量索引。
解决方法:反馈百度方,请求解除惩罚。
B、地区***数据异常
原因:部分地区数据抓取或查询异常,导致误判站点况而清除相应索引数据或输出错误索引量,如百度dns系统升级事件。
解决方法:反馈百度官方,由百度检查各地蜘蛛执行况。
C、接口调用数据错误、数据丢失、数据备份衍生异常
解决方法:反馈百度官方,由百度检查相关数据况。
二、网站本身的原因
除了百度自身的原因会导致百度索引量下降,还有就是网站自身的原因了。
1、内容数据所在的网址url未规范统一
原因:自己站点url未规范统一,多域名都可以200状态正常访问网页内容;一域名下出现多种url形式可以访问相同内容,如大小写url、url规则变更等。
解决方法:选择主域名(或主url),其他域名下的所有url都301重定向到主域名(或主url),并站长工具提交域名改版(或目录url改版)
很多网站是动态静态路径相结合,首页的访问路径也不统一,通过域名能访问首页,域名+index.html也是首页,域名+index/index.html还是访问的首页,这就是问题了。
2、外部平台使用己站数据
原因:市场合作,站点数据调用到其他平台上;内容主动外发,推广人员完整转发自有内容到高质量平台——这两个原因都有可能导致搜索引擎收录了外部平台的内容而拒绝了原网站内容。
解决方法:使用站长平台链接提交工具的主动推送功能,及时提交网站新出现的链接,延迟将内容调用到其他平台的时间;
这个问题,简单的说就是seoer把自己的高质量原创内容当做外链发到了别的高权重网站,被先收录了,导致自己网站发布的却的不收录了。作者还常被人问到发外链发自己网站的内容好不好,是不是等到收录再发,发了会不会被认为自己的站是抄袭的。其实这个问题不必要纠结,就拿徐公平的博客来说吧。技术***的文章我肯定是先发布自己博客,等到收录以后才回去发布到其它平台,但是活动***的内容,那就不用考虑着是不是首发了,活动信息本来就是需要更多的人看见的,目的是广而告之而不是排名。
原因:网站被镜像,用户通过其他举办主体的域名或url直接可访问己方内容。
解决方法:关注域名解析安全和服务器安全;绑定唯一可解析的域名或唯一可访问的url;页面内容中链接使用绝对地址
3、站点受青睐度下降,这与网页内容相关
原因:内容质量度下降,就是说网站的内容太烂大街了。
解决方法:提高内容质量度,详见百度站长学院相关内容;杜绝简单拷贝,多做整合信息。
原因:更新量及频率下降,好久不更新了,索引下降。
解决:稳定的更新频率,视内容发展况,扩充编辑团队,生产更多新内容,让网站索引避免下降,持续增加。(当更新量及频率下降明显,那么配额就会下降,首先表现抓取频次下降,导致索引量下降)
原因:时效***信息消失。
解决方法:时效***的信息,大部分一般在数据库不会长期保留,所以需要持续挖掘新的时效信息点,整合相关内容。
这种况对于新闻源网站应该是比较常见的,不过也没什么,已经失去时效***的内容留着也没用。
原因:部分区域出现不良信息
解决方法:杜绝大量外链软文、恶劣弹窗广告、非法敏感类信息、专门针对搜索引擎作弊的内容等
4、触犯惩罚算法
解决方法:关注站长工具消息和百度网页搜索动态。按官方公告说明来整改站点,并进行反馈,然后等待算法更新。
5、特型url不被信任
解决方法:定制各类url的索引查询规则;定位索引量下降的特型url;排查该类url当***、前一***、本周、历史索引况;找出未被入库的数据可能存在的问题;处理完后,增强该类url与百度数据沟通(途径有sitemap、批量提交url、数据推送等)。
6、站点被搜索引擎信任度下降
原因:非法投票嫌疑(链接工厂等)
解决方法:珍惜自己页面的投票权,对于劣质网页坚决不投票,尽量减少站点的导出链接。
原因:主题变动(如从教育领域跨入医疗领域)
解决方法:将旧领域的网页进行死链处理后向百度进行提交,封禁相关旧url的被访问权,然后再上线新主题相关内容,加强对百度的数据提交。
原因:受牵连,相同ip下非法站点偏多,同一域名所有人举办的网站大都被惩罚且况恶劣等。
解决方法:离开恶邻,获取搜索引擎的各产品的相关反馈方式,请求给予解禁,等待恢复正常索引。
原因:政策***原因,如香港主机、国外主机站点由于各种你懂的原因,稳定***可能较差。
解决方法:国内主机**,合法符合政策经营
7、网页模板相关
原因:主体内容区域对蜘蛛的限制
解决方法:取消登陆查看信息等限制,让蜘蛛便捷畅快的“采集”到己站数据
原因:启用了对蜘蛛不友好的技术,比如全flash站点,过多使用js代码等
解决方法:对需要蜘蛛识别的内容,不要启用对蜘蛛不友好的技术来调用。
原因:响应式模板干扰蜘蛛识别页面类型(pc、移动)
解决方法:提交特定的url对应关系(尽量parrten级);meta标记移动版本url及适合浏览的设备;自主适配;增强pc、移动不同模板源码标签的区分度,帮助百度识别页面类型
8、源码相关
原因:源码错误较严重,如编码错误、标签使用错误等;源码改动严重,蜘蛛“采集”数据后重新观察分析;某类url下的TD(网页title、description)变化,如变化比例大、变化页面量大,页面进行更改后会重走建索引库流程,如果页面质量达不到建索引库标准会从线上消失
解决方法:校验源码,准确的源码是蜘蛛“采集”数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的况;逐步、分期更换TD(网页title、description),结合页面主题、用户实际需求来制定合理的TD,不欺骗不误导用户。
9、已入库的url对蜘蛛状态有变化
原因:robots声明,禁止蜘蛛抓取
解决方法:查看百度站长工具robots及抓取况。
原因:url规则变化,原有url无法访问。
解决方法:特别是linux和win服务器之间的数据迁移,可能会出现大小写url支持变化,确保各类url规则不变化。url必须重构的时候,做好旧新url301重定向,站长工具提交改版需求。
原因:提示错误页面
解决方法:由于误删,则可以数据恢复,并维持url对应网页内容的更新变化,提高抓取频次。如果确定要删除,那么提交死链,删除死链后,再robots禁止,这种况的索引下降无需担忧。
原因:被入侵
解决方法:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化,特别是一些违法乱纪的内容
10、DNS问题
原因:DNS问题,dns不稳定;dns不安全。
解决方法:选择可靠的dns服务;沟通强调对蜘蛛的稳定***;防止dns解析到非正常ip;防止解析的网站ip频繁变动。防止dns管理漏洞,导致被恶意解析;防止dns解析挂靠在小代理等技术能力、管理规范、道德法律约束都欠缺的平台上。
11、服务器问题
原因:可访问***差
解决方法:尽量让目标地区所有运营商来路的用户都能在3秒内打开网站,佳1秒内;监控网站运行状态,合理设置目标地区的所有运营商监控节点及监控项目、监控频率
原因:屏蔽百度ua或ip
解决方法:多利用百度站长工具,查看百度抓取网页的况,可见
原因:防刷压力值设定
解决方法:将蜘蛛解析到专用空间;如出现访问陡增的ip,查看是否为蜘蛛再确定是否禁止访问。