如何找出网站不收录的罪魁祸首
发布网友
发布时间:2024-10-24 01:13
我来回答
共1个回答
热心网友
时间:2024-10-24 08:08
搜索引擎是否知道页面的存在
搜索引擎要收录该页面,必须知道有这个页面。如果蜘蛛都不知道页面,谈何收录?这里主要分为两点:搜索引擎找不到网页入口和不让搜索引擎抓取。1、搜索引擎找不到页面入口很多时候不是你更新了文章搜索引擎就要来抓取收录的,要怎么让蜘蛛知道你的更新呢?除了有规律的更新,可以向百度站长平台主动提交URL或者是提交站点地图,也可以让搜索引擎被动收集,这就是通过外链让蜘蛛知道你的网页,还有很多时候蜘蛛来到了你的网站,却找不到你更新的链接,因为网站的链接结构做得太复杂或是内链结构差,以致搜索引擎在抓取时间类不会爬到网站深处的页面,这也造成蜘蛛不知道该页面的存在。所以不管怎么样,第一步我们要保证页面能被蜘蛛看到,关于这一点可以通过查看网站日志来判断蜘蛛是否来访过。2.不让搜索引擎抓取很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
蜘蛛是否正常抓取1、网站正常访问都知道,蜘蛛抓取页面要从域名到DNS服务器再到网站空间,所以其中任何一个环节出现问题,蜘蛛都不能正常的抓取,首先域名需要备案,然后域名解析要正常,如果解析出现问题,域名是不能访问网站ip地址的,这个时候网站打不开,蜘蛛抓取不了页面。2、服务器稳定如果服务器比较卡或者不稳定,会直接影响蜘蛛抓取,蜘蛛不能很好的去抓取页面或由于加载慢只抓取到网页一半,这就很大程度上影响了网站的收录。
蜘蛛收录标准是否达到1、行业不同标准也不同这个是显而易见的,新闻类网站肯定比一般企业站容易收录,而对于医疗、博彩、成人用品等网站,标准肯定是更加严格,所以对于不同的行业,百度给予的收录标准也是不一样的。2、不同的网站标准不同百度有一个优先抓取的原则,对于绝大多数用户喜欢,权重高的网站收录得要快,就像新浪网、腾讯网收录得肯定要比一般网站要快,为什么?因为信任,这类网站本身就有其严格的过滤系统,在此类网站公布的内容百度基本是直接抓了就收,搜索引擎是互联网与用户的桥梁,它的目的就是给用户提供有价值的内容,你能为它提供良好的内容,它当然也会对你更好,这是互利的。所以搜索引擎不是做慈善,你的网站能给它什么?3、内容的质量度蜘蛛爬行频繁,就不收录,或者收录了隔几天查看又没收录。主要有两点:一是网站内容大量采集或者是提供无任何价值内容,二是网站还处于新站,百度对其有个考核期,收录较慢。
网站不收录解决方法
1,分析网站日志,看是否有被蜘蛛爬过1、如果页面未被蜘蛛爬行页面未被Baiduspider爬行,那么你可以适当的给该页面做一些外链来引导蜘蛛过来爬行,也可以给搜索引擎提交该页面。那么我们就可以进行以下操作:
2、页面爬行了未收录当页面长时间都不被百度收录的话,那么就要适当的给该页面增加一些附加价值或者对该页面进行重新的进行修改。你可以对文本新增一些图片,视频或者内容,也可以对标题进行再次编辑。总之,要让Baiduspider再次过来爬行的时候,返回的状态码不是一个无变化的状态吗,这样你的页面被收录的几率就大大的提升了。
希望我的回答能帮到你。龙术SEO