我的网站几个月了 百度一直没有收录 什么原因
发布网友
发布时间:2022-04-22 01:26
我来回答
共3个回答
热心网友
时间:2023-10-23 10:20
1、百度己经收录了但还示被放出来,百度对文章的收录也是需要审核时间的,蛛蛛抓成功的索引内容会录入到数据库,这也是需要经过二次的审查是否被判为SPAM然后才放出来并参于排名,具体放出的时间与网站的权重高低有着相对的直接关系,而百度周期更新时才放出收录较为常见的为新站。
解决对策:我们要做的就是:保证内容定期定量的更新,并进行对网站日志的观察及分析,只要蛛蛛正常爬行,那么您就可以静心的等待着,百度会给你一个惊喜。
2、robots设置问题也会导致网站内页不受到搜索引擎的索引
解决对策:检查是否语法错误屏蔽到了蛛蛛的爬行,其中有包括:meta robots与nofollow等标签的设置。
3、网站的内部链接存在问题,在网络营销时比如造成了大量的错误链接,不良链接,蛛蛛爬行的不通畅,或根本无法抓取,那么这些不良的网址也会导致您网站降权。
解决对策:百度针对网站的首页,频道等各个重要的页面进行做错误的链接检查,会检查到留言板,评论版块,等等网友能互动的功能之不良链接,尽量避免不良网站互链。
4、网站在推广的过程中使用了黑帽的手段,百度识别到欺骗手段就会对整站进行降权。
解决对策:不做关键词堆砌,不群发,不做黑链等黑帽行为,网站保持稳定,少动歪脑筋,如果一意孤行的做了,那百度一有动作,网站就很难再被挽回了。
5、与文章的原创度相关,头部标签的设置会导致页面类似的重复,或者是采集的页面太多时,百度数据库中己存有大量的相似信息而不收录你,如果是长期的这样操作会导致百度降权。
解决对策:多些保持文章的原创度(高度伪原创)质量比数量重要,最好是每天都能够定时定量的更新,这样百度对你的网站抓取也有了守时的好习惯。
6、服务器访问情况,如无法访问,速度缓慢,被挂马等情况。在百度蛛蛛来索引内容时,多次识别网站有着大量的错乱码或者是遇到了服务器无法访问,那么网站因由也会被列入观察名单。
解决对策:做好网站代码优化,提高页面的读取速度,选择好安全的空间服务商,成熟的网站程序编码,并定期的更新补丁,定期对修改文件痕迹做好跟踪。
总结:除了要踏踏实实的做好以上六条以外,还有几点是可以提出并值得去做的。如:
1、首页要做好全站的网站地图,站蛛蛛能够顺利的去爬行站内所有内链。
2、内页的相关链接调用一定要规则化,让每一个页面的主题都醒目的突出。
3、外部链接可以适当的做一些内页蛛蛛引导,并在每个细节上都能把握好,让自己放心。
种种都做好了,相信百度也不会远离对我们内页的收录了。
最后建议:为了保证网站的安全,我们可以对网站做一个定期的备份,防止出现问题能及时解决。
热心网友
时间:2023-10-23 10:20
网站一直没被收录的话你看看你的网站是不是中招了下面的这些原因:
1、网站上线后,内容不进行更新,或一天更新很多文章,但十天几也不更新一次,这样对收录很不友好,最好是每天进行更新,更新数量可以根据自己网站的类型进行调整;
2、网站结构问题图片过多、文字太少,而且图片还没有使用ALT标签,搜索引擎抓取页面非常困难;
3、提交太过频繁站长都懂得网站上线后向搜索引擎提交,盼望着自己网站早点被收录,但一些心急的站长一个月提交好几次,这样会让搜索引擎反感,认为提交同一个的网站垃圾网站;
4、文本颜色跟背景色彩一样搜索引擎认为网站在作弊,想要欺骗它获得很好的排名;
5、网站关键词密度太大关键词密度已经在最好在2-8个百分点之间最合适,过小会让搜索引擎觉得这个页面某个词重要性不大,过大又会让搜索引擎认为是过渡的优化;
6、免费的网站空间很多站长淘免费使用免费的空间制作网站,某些免费空间搜索引擎已经列入黑名单,这样不管你网站做得再好,让是不会被收录的;
7、网站空间稳定性搜索引擎蜘蛛来抓取网站的时间,如果网站打不开,本来是一个收录非常好的网站,也会在搜索引擎眼中大打折扣,让搜索引擎改变对一个网站的看法是需要一段时间,关于seo不懂得楼主可以在搜外问答上面提问题的。
热心网友
时间:2023-10-23 10:21
做一下百度推广就可以了,网站推广还是有必要的。另外和自己的代码也有一定的关系,收录有注意事项,网上搜一搜收录的方法。