搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider),也叫机器人(bot)。蜘蛛其实就是搜索引擎的手下,搜索引擎命令它到互联网上浏览页,从而得到互联网的所有数据,然后把这些数据存到搜索引擎自己的数据库中。当然了,这个数据库是相当强大的。
蜘蛛是怎么爬行的?
搜索引擎把蜘蛛分为三种级别:1、初级蜘蛛;2、中级蜘蛛;3,高级蜘蛛。 这三种蜘蛛分别具有不同的权限,我们一一讲解。
①、高级蜘蛛。
高级蜘蛛负责去爬行权重比较高的网站,高级蜘蛛有专门的权限,就是秒收。这就是为什么你去权重比较高的论坛发帖,会被搜索引擎直接秒收了。高级蜘蛛爬行深度也是非常的高,他几乎能够爬行到你网站的所有链接页面,高级蜘蛛的来访频率也很高,几乎每天都会来访,这样就完全加快了百度快照的更新频率。这就是为什么这么多站长一直在不断努力的提高权重的原因。
②、中级蜘蛛。
中级蜘蛛通过爬行外链和反链(友情链接)来到你的网站,然后再从你的网站爬行,从而抓取你网站的内容,然后把抓取的到的内容,和搜索引擎数据库中原来的数据一一进行对比,看看是否是原创内容、伪原创内容、还是直接采集的内容,从而确定要不要放出来。所以说,我们在高权重的论坛发软文和有锚文本签名是可以很有效的引来蜘蛛的光顾。
③、初级蜘蛛。
初级蜘蛛就简单了,它一般情况只去爬行新站,爬行深度也很低,它抓取到网页的内容后,会一级一级的提交到搜索引擎数据库,然后先把数据存放起来,再过几天再来爬行,直到搜索引擎觉得爬行到的内容是有价值的才会被放出来。这就是为什么新站都有一个考核期,因为都是一些初级蜘蛛在光顾,所以特别的慢,一般情况爬行深度也很低,有时候只爬了一个首页就完事了。
搜索引擎蜘蛛对搜索引擎来说就是信息来源所在,对于网站站长,总是希望网站对搜索引擎蜘蛛友好,希望蜘蛛能在自己的网站多待会多抓取点网页。其实这些蜘蛛又何尝不想多抓取点页面,多更新点页面呢,只不过互联网信息过于巨大,有时候蜘蛛也是力不能及。这就引出了对搜索引擎蜘蛛的一个考核,蜘蛛每天也是在苦逼的干活的,也是需要考核评价的,其中有3个Z主要的考核标准:抓取网页覆盖率、抓取网页时效性及抓取网页的重要性。
抓取网页覆盖率
对于现在的搜索引擎来说,还没有哪个搜索引擎能抓取互联网上出现的所有网页,所有搜索引擎只能索引互联网的一部分而已,这里就有一个概念——“暗网”,暗网是指目前搜索引擎蜘蛛按照常规方式很难抓取到的互联网页面,蜘蛛是依赖页面中的链接发现新的页面,进而抓取索引,但是很多页面内容是以数据库方式存储的。这样蜘蛛很难或无法抓取这些信息,结果就是用户也无法在搜索引擎搜索得到这些信息。
抓取网页覆盖率指的是蜘蛛抓取的网页数量占互联网所有网页数量的比例,很明显,这个覆盖率越高,搜索引擎所能索引排名的数量级也就越大,能够参与比较展现的搜索结果也就越多,用户搜索体验也越好。所以为了让用户在搜索时可以得到更精准、更全面的结果,提供抓取网页覆盖率至关重要,而除了抓取方式的提高,对暗网数据的抓取已成为各大搜索引擎的重要研究方向。
由此可见,抓取网页覆盖率是考核搜索引擎蜘蛛的一个关键标准,这是一个很大的基数,关乎到后面的索引量、排序量和展现量等,对于用户搜索体验至关重要。
抓取网页时效性
说到用户的搜索体验,网页的时效性相对覆盖率句更加直观了,比如你在搜索结果搜索到了一个结果,当你点击后页面是不存在的,作何感想?搜索引擎是在努力避免这些的,所以蜘蛛抓取网页时效性同样是一个重要考核点。互联网信息比较多,蜘蛛抓取一轮需要较长的时间周期,这个时间内之前建立索引的很多网页可能已经发生变化或者被删除,这就导致搜索结果中有一部分是过期的数据。
用一句话就是蜘蛛不能在网页变化后第一时间将这些变化反映到网页库中,这样问题就来了,首先比如页面只是内容发生变化,搜索引擎不能及时的去重新比较这些变化,给予用户更合理的排名。其次,如果排在搜索结果前面的页面已经被删除了,由于没有及时抓取更新,还排在重要位置,那么无疑对用户是一种伤害。Z后,很多人会在页面收录后另外加一些不好的信息,这样用之前的排名展现现在的信息,下次蜘蛛更新才会处理。
所以对于搜索引擎而言,肯定是希望数据库内网页能及时更新的,网页库过期的数据越少,则网页的时效性越好,这对用户体验的作用不言而喻。SEO技术问题解答
抓取网页的重要性
蜘蛛抓取了很多内容,也及时更新了,但如果抓取的都是一些低质量内容,那肯定是不行的。尽管要多抓勤抓,但是每个网页重要性差异很大,这就是矛盾的地方,搜索引擎蜘蛛不仅要干得多、干得快、还要干得好。所以必然会优先照顾部分能经常提供高质量内容的网站,特别是定时定量更新的,这样才能Z大程度上保证优质内容不被漏掉,这也可以说是没办法的办法。如果搜索引擎蜘蛛抓回的网页大都是比较重要的网页,则可说其在抓取网页重要性方面做得很好。
总而言之,目前的搜索引擎蜘蛛由于种种原因限制,只能抓取互联网部分网页的,所以在努力抓取尽可能多页面的同时会尽可能选择比较重要的那部分页面来索引,而对于己经抓取到的网页,也会尽可能快地更新其内容。注意所有的这些都是尽可能而已,所以这是各大搜索引擎努力的方向。如果这3个方面都做得好,搜索引擎用户体验肯定会更好
不管是搜索引擎自动抓取规则是什么,总知,做站长的一定要勤快,坚持不懈。 钻空子,用机器刷文章,刷外链,这样故能让网站快速提升排名,但是加些时日的惩罚想来也足够让网站跌入深渊难再起了。 搜索引擎蜘蛛工作比较累,要干得多,还要干得快,更要干得好,一点都不容易。所以网站站长首先就应该让网站链接路径便于抓取,结构扁平,让蜘蛛在有限的时间能抓取更多的东西,让蜘蛛在你的网站能干得多而且干得快,同时有规律的更新高质量内容,让蜘蛛在你这能干得好,这样久而久之,蜘蛛在你的网站就会干得更多、干得更快、干得更好,因为它需要。