搜索引擎的工作原理-SEO优化论点-魏巍博客

搜索引擎的工作原理

魏巍 2014年07月05日 00:00 SEO优化论点 1040次阅读 查看评论

搜索引擎的工作原理!例如百多、360、谷歌搜索等等这些搜索引擎,用户在搜索框里输入的叫做“查询词”,经过分词切分出来的单词叫做“检索词”,进过搜索引擎的一系列的算法计算后得出搜索结构,如下图: u=2888612733,1637279324&fm=21&gp=0 那么,搜索引擎是如何来进行抓取索引的呢?怎么计算最后得出哪个页面作为搜索结果呢?   例如:一个没有收录的网站为什么没有快照?快照的时间是页面被索引(收录)的时间,没有收录就不会有快照。 像这些问题是搜索引擎的基本问题,认真看完本章,了解搜索引擎的工作原理,解决在SEO优化的时候“为什么要这么做”的问题是一个SEO应当有的潜意识反应。 这些并不能算SEO的优化技术,为了让大家在今后的优化操作中更得心应手,避免因为一些基础的问题闹笑话,先了解下搜索引擎的工作原理: 搜索引擎直至现在,都是在不断完善用户体验,争取在用户搜索查询时输出最匹配的结果,从而让用户依赖上搜索引擎,才能赚取更多的广告费用(例如百度推广)。 举个例子:CCTV频道的用户很多,但是从不跟看CCTV的用户收钱,但能赚到很多的广告费;在这里指的匹配不光是字符上的匹配,我们可以去百度搜索“PC”会看到“电脑”也是飘红的。 或者搜索某一明星,其搜索都会出现相关微博、百科、视频等等;这就说明了匹配不仅仅是指字符上的匹配,还匹配了用户的需求;对于想了解明星的,百度展示了百度百科,针对粉丝群体的,百度展示了百度贴吧、微博。能够更匹配用户的需求,这是搜索引擎长期的研究项目。 搜索引擎的工作原理其实很简单,首先搜索引擎大致分为4个部分,第一个部分就是蜘蛛爬虫,第二个部分就是数据分析系统,第三个部分是索引系统,第四个就是查询系统咯,当然这只是基本的4个部分!
从搜索框输入关键词,到百度给出搜索结果,每一个结果都对应一个页面,每一条搜索结果从产生到展现出来,都需要进过四个过程:抓取、过滤、建立索引、输出结果。
下边我们来讲搜索引擎的工作流程: 什么是搜索引擎蜘蛛,什么是爬虫程序? 搜索引擎蜘蛛程序,其实就是搜索引擎的一个自动应用程序,它的作用是什么呢?其实很简单,就是在互联网中浏览信息,然后把这些信息都抓取到搜索引擎的服务器上,然后建立索引库等等,我们可以把搜索引擎蜘蛛当做一个用户,然后这个用户来访问我们的网站,然后在把我们网站的内容保存到自己的电脑上!  
本故事完!如有感触,感谢点赞,转载、分享。
文章来源:魏巍博客,微信公众号(魏巍日记)

« 上一篇 下一篇 » 来源:魏巍博客 » 搜索引擎的工作原理 欢迎分享,转载请保留出处!
标签:

评论列表:

◎请在这里发表您的看法、交流您的观点。说两句吧:

必填

选填

选填

◎欢迎参与讨论,我的微信号/QQ:568588127

推荐关注
本月最热网赚项目文章
网赚平台最新发表文章
网赚博客标签列表
  • 自媒体 (21)
  • 营销思维 (53)
  • 营销知识 (7)
  • 网络推广 (90)
  • 软文写作技巧 (4)
  • 搜索引擎优化 (4)
  • 生活 (6)
  • 网赚 (11)
  • 引流 (4)
  • SEO (24)
  • 写作技巧 (11)
  • 自媒体运营 (8)
  • 微信公众号 (5)
  • 微信营销 (9)
  • 创业 (24)
  • 引流方法 (31)
  • 网赚项目 (95)
  • 网络赚钱 (5)
  • 网赚思维 (22)
  • 网络营销 (20)
  • 网络推广方法 (11)
  • 骗术揭秘 (4)
  • 赚钱方法 (82)
  • 创业项目 (82)
  • 网赚平台 (9)