加入收藏 | 设为首页 | 会员中心 | 我要投稿 广西网 (https://www.guangxiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

SEO系统培训 搜索引擎如何对网站进行爬行和抓取

发布时间:2022-01-18 12:34:58 所属栏目:建站 来源:互联网
导读:笔者前面给大家介绍过搜索引擎工作原理,可能有些朋友并没有去看,或者是看了但是理解不多。鉴于有朋友问到关于搜索引擎如何对网站进行爬行和抓取的问题,这里笔者就再给大家简要的解释下。 首先要知道,搜索引擎是通过叫做蜘蛛的爬虫去爬行和抓取网页,并且
        笔者前面给大家介绍过搜索引擎工作原理,可能有些朋友并没有去看,或者是看了但是理解不多。鉴于有朋友问到关于搜索引擎如何对网站进行爬行和抓取的问题,这里笔者就再给大家简要的解释下。
 
首先要知道,搜索引擎是通过叫做蜘蛛的爬虫去爬行和抓取网页,并且将数据返回到数据库。
 
        在搜索引擎的数据库里面,有很多的种子URL,蜘蛛最开始会通过这些种子URL,展开蜘蛛网式的爬行。理论上说,只要网页存在着链接关系,蜘蛛是可以都爬行到的。
 
那么搜索引擎蜘蛛指怎么爬行和抓取我们的网站呢?我们网站又不是搜索引擎的种子URL。其实这个问题大家不用担心。目前搜索引擎已经有很多种方式去发现新的页面,比如可以通过其他的类似外链的形势发现,比如说我们主动提交,以及通过统计功能去发现等。
 
目前做网站优化的朋友,基本都是主动型的,大家都会去主动提交URL,也会适当的去做些外链。所以说,网站页面被蜘蛛发现是没有问题的,问题在于页面收录。
 
前面说到了蜘蛛发现页面链接,那接下来是怎么爬行和抓取呢?分为了以下几个步骤:
 
1、提取页面内容。这里包括提取页面里面的链接,并进行去重处理,然后把提取的链接返回到待抓取的链接库;另外就是提取页面的主体内容,这个搜索引擎会根据页面类型,有对应的提取策略。
 
2、分析页面内容。爬行和抓取后,蜘蛛会对页面主体内容进行初次审核,不符合收录要求的会被丢弃,符合收录的页面会放置到数据库,至于是否及时放出,跟网站权重的高低有关系,这也是搜索引擎的综合判断。
 
3、再次爬行。蜘蛛把提取的链接返回去之后,可能会继续爬行,也可能要隔断时间再爬行,这要取决于搜索引擎的爬行策略,不同的网站会得到不同的对待。
 
以上内容就是搜索引擎爬行和抓取页面的基本情况。总之来说,搜索引擎爬行和抓取页面是很简单的,但是网上的页面太多,因此搜索引擎不得不优化调整抓取策略。但不管策略如何变化,它的爬行和抓取流程基本是不变的。值得我们注意的是,网站权重的高低和网站更新的频率,会直接影响到搜索引擎对于网站的爬行和抓取!
 
 

(编辑:广西网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!