//www./
一、搜索引擎抓取原理
互联网是一个开放自由的平台,每天有无数用户在网页上发布无数的内容。搜索引擎需要做的第一步就是要顺着网页中的链接抓取有用、较新的信息。百度蜘蛛会通过深度抓取和广度抓取两种方式来抓去我们的网站。深度抓取就是蜘蛛跟随一个链接不断的向其下级链接抓取,直至无链接可循,广度抓取就是蜘蛛抓取的时候是在同一层级上将所有的链接抓取完成后才开始下一层级的链接抓取。百度蜘蛛目前对文字抓取的功能强大,对含有图片和JS效果的代码抓取不利,因此我们的网站上如有图片的地方应加上alt标签来迎合搜索引擎的抓取习惯。
二、搜索引擎过滤原理
每天搜索引擎都会抓取和爬行大量的页面,如果将爬行过的页面均存入数据库中势必会导致数据杂乱且无质量,因此在蜘蛛将爬行到的页面存入索引库前还需做一项过滤工作。蜘蛛会将内容质量低,用户体验不好的网页过滤掉,保留高质量的网页存入索引库中。那么如何才能降低被搜索引擎蜘蛛过滤掉的风险呢?较重要的就是网页内容符合用户的需求,是用户所喜欢和赞同的网页。说白了,其实搜索引擎蜘蛛对网站而言也只是一个普通的访问者而已,对用户友好既是对搜索引擎友好。
三、搜索引擎收录原理
搜索引擎在过滤工作完成后,会将剩下的网页按内容质量排序存入索引库中。高质量的页面放入重要的索引库中,会**被展示和推荐出来,相反,低质量的网页只能存放在普通库中,虽然被收录了,但展现在用户面前的几率是较低的。所以我们平时的关注点不应该是蜘蛛抓取了多少页面,而是有多少优质的收录量。
四、搜索引擎展示排序原理
搜索引擎的排序原理也是搜索引擎的最后一个步骤,就是将收录好的内容根据用户搜索关键词的匹配度与质量高低,将较为匹配的网页进行**的排序展现。
所以我们平时在做网页内容的时候一定要注重质量,网页能够解决用户的需求是其存在的意义和基础。