搜索引擎工作过程与seo

seo优化 2018-10-12 16:38www.168986.cn长沙seo优化
的工作的过程非常复杂,而简单的讲的工作过程大体可以分成三个阶段。
  爬行和抓取搜索引擎蜘蛛通过跟踪链接访问页面,获取页面HTML代码存入数据库。
  预处理搜索赢球对抓取来的页面数据文字进行文字提取、中文分词、索引等处理,以备程序调用。
  用户输入关键字后,排名调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。
  爬行和抓取
  爬行和抓取是搜索引擎工作的第一步,完成数据收集任务。
  蜘蛛
  搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider),也称为机器人(bot)。
  蜘蛛代理名称
  百度蜘蛛Baiduspider+(+http://.baidu./search/spider.htm) ·
  雅虎中国蜘蛛Mozilla/5.0 (patible; Yahoo! Slurp China; http://misc.yahoo../help.html) ·
  英文雅虎蜘蛛Mozilla/5.0 (patible; Yahoo! Slurp/3.0; http://help.yahoo./help/us/ysearch/slurp)
  Google 蜘蛛Mozilla/5.0 (patible; Googlebot/2.1; +http://.google./bot.html) ·
  微软 Bing 蜘蛛msnbot/1.1 (+http://search.msn./msnbot.htm)·
  搜狗蜘蛛 Sogou+web+robot+(+http://.sogou./docs/help/webmasters.htm#07) ·
  搜搜蜘蛛Sosospider+(+http://help.soso./webspider.htm) ·
  有道蜘蛛Mozilla/5.0 (patible; YodaoBot/1.0; http://.yodao./help/webmaster/spider/; )
  跟踪链接
  为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行那样,这也就是搜索引擎蜘蛛这个名称的由来。最简单的爬行遍历策略分为两种,一是深度优先,二是广度优先。
  深度优先搜索
  深度优先搜索就是在搜索树的每一层始终先只扩展一个子节点,不断地向纵深前进直到不能再前进(到达叶子节点或受到深度限制)时,才从当前节点返回到上一级节点,沿另一方向又继续前进。这种方法的搜索树是从树根开始一枝一枝逐渐形成的。
  深度优先搜索亦称为纵向搜索。由于一个有解的问题树可能含有无穷分枝,深度优先搜索如果误入无穷分枝(即深度无限),则不可能找到目标节点。所以,深度优先搜索策略是不完备的。,应用此策略得到的解不一定是最佳解(最短路径)。
  广度优先搜索
  在深度优先搜索算法中,是深度越大的结点越先得到扩展。如果在搜索中把算法改为按结点的层次进行搜索, 本层的结点没有搜索处理完时,不能对下层结点进行处理,即深度越小的结点越先得到扩展,也就是说先产生 的结点先得以扩展处理,这种搜索算法称为广度优先搜索法。
  在深度优先搜索算法中,是深度越大的结点越先得到扩展。如果在搜索中把算法改为按结点的层次进行搜索, 本层的结点没有搜索处理完时,不能对下层结点进行处理,即深度越小的结点越先得到扩展,也就是说先产生 的结点先得以扩展处理,这种搜索算法称为广度优先搜索法。
  吸引蜘蛛
  哪些页面被认为比较重要呢?有几方面影响因素
  · 网站和页面权重。质量高、资格老的网站被认为权重比较高,这种网站上的页面被爬行的深度也会比较高,所以会有更多内页被收录。
  · 页面更新度。蜘蛛每次爬行都会把页面数据存储起来。如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,也自然会被蜘蛛更快跟踪,抓取新页面。
  · 导入链接。无论是外部链接还是同一个网站的内部链接,要被蜘蛛抓取就必须有导入链接进入页面,否则蜘蛛根本没有机会知道页面的存在。高质量的导入链接也经常使页面上的导出链接被爬行深度增加。网站上权重最高的是首页,大部分外部链接是指向首页,蜘蛛访问最频繁的也是首页。离首页点击距离越近,页面权重越高,被蜘蛛爬行的机会也越大。
  地址库
  为了避免重复爬行和抓取网址,搜索引擎会建立一个地址库,记录已经被发现还没有抓取的页面,以及已经被抓取的页面。地址库中的uRL有几个来源
  (1)人工录入的种子网站。
  (2)蜘蛛抓取页面后,从HTML中解析出新的链接uRL,与地址库中的数据进行对比,如果是地址库中没有的网址,就存入待访问地址库。
  (3)站长通过搜索引擎提交表格提交进来的网址。
  蜘蛛按重要性从待访问地址库中提取uRL,访问并抓取页面,然后把这个uRL从待访问地址库中删除,放进已访问地址库中。
  大部分主流搜索引擎都提供一个表格,让站长提交网址。不过这些提交来的网址都只是存入地址库而已,是否收录还要看页面重要性如何。搜索引擎所收录的绝大部分页面是蜘蛛自己跟踪链接得到的。可以说提交页面基本t是毫无用处的,搜索引擎更喜欢自己沿着链接发现新页面。
  文件存储搜索引擎蜘蛛抓取的数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。每个uRI,都有一个独特的文件编号。
  爬行时的复制内容检测
  检测并删除复制内容通常是在狼蚁网站SEO优化介绍的预处理过程中进行的,但现在的蜘蛛在爬行和抓取文件时也会进行定程度的复制内容检测。遇到权重很低的网站上大量网络推广网站推广转载或抄袭内容时,很可能不再继续爬行。这也就是有的站长在日志文件中发现了蜘蛛,但页面从来没有被真正收录过的原因。
  预处理
  在一些材料中,“预处理”也被简称为“索引”,因为索引是预处理最主要的步骤。
  搜索引擎蜘蛛抓取的原始页面,并不能直接用于查询排名处理。搜索引擎数据库中的页面数都在数万亿级别以上,用户输入搜索词后,靠排名程序实时对这么多页面分析相关性,计算量太大,不可能在一两秒内返回排名结果。抓取来的页面必须经过预处理,为的查询排名做好准备。
  和爬行抓取一样,预处理也是在后台提前完成的,用户搜索时感觉不到这个过程。
  1.提取文字,推广,,长沙,
  现在的搜索引擎还是以文字内容为基础。蜘蛛抓取到的页面中的HTML代码,除了用户在浏览器上可以看到的可见文字外,还包含了大量的HTML格式标签、 JavaScript程序等无法用于排名的内容。搜索引擎预处理要做的就是从HTML文件中去除标签、程序,提取出可以用于排名处理的面文字内 容。
  今天愚人节哈
  除去HTML代码后,剩下的用于排名的文字只是这一行
  今天愚人节哈

Copyright © 2016-2025 www.168986.cn 狼蚁网络 版权所有 Power by