码迷,mamicode.com
首页 > 其他好文 > 详细

SEO学习

时间:2017-07-13 21:44:42      阅读:241      评论:0      收藏:0      [点我收藏+]

标签:依次   避免   arch   百度权重   展现   调整   clu   存储   规范   

一、什么是SEO

      SEO是由英文Search Engine Optimization缩写而来, 中文意译为“搜索引擎优化”!SEO是指通过对网站进行站内优化(网站结构调整、网站内容建设、网站代码优化等)和站外优化,从而提高网站的网站关键词排名以及公司产品的曝光度

二、主流搜索引擎

技术分享

三、搜索引擎工作原理  

 技术分享

 

 

搜索引擎的工作过程大体上可以分成三个阶段:

  3.1  爬行和抓取 

       搜索引擎蜘蛛通过跟踪链接访问网页,获得页面 HTML 代码存入数据库。

  3.2  预处理 

       索引程序对抓取来的页面数据进行文字提取、中文分词、索引等处理,以备排名程序调用。

  3.3  排名 

       用户输入关键词后,排名程序调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。

 

四、为什么要SEO

  4.1  目标精准,转化率高

  4.2  降低网络推广成本

  4.3  可扩展性高

  4.4  长期有效

 

五、SEO常用术语

      百度权重

      百度权重是爱站、站长工具等网站推出的针对网站关键词排名预计给网站带来流量,划分等级0-10的第三方网站欢迎度评估数据,百度官方明确表示不承认百度权重。

      网络爬虫(Spider)

       网络爬虫(又被称为网页蜘蛛,网络机器人,搜索引擎蜘蛛,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本,另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。

  索引(indexing

  蜘蛛程序存储互联网上每个词以及对应网页位置的过程,搜索索引库是最主要的搜索引擎数据库,并且没有哪个搜索引擎不具备一个精心设计的索引库,有时也称为收录。

 索引库(index

     搜索引擎有的网站上所有词的列表,以及每个词在哪个页面上,当搜索者输入了一个搜索请求,搜索引擎在搜索索引库中寻找搜索请求,并定位含有这些次的网页,搜索索引库是搜索引擎的主要数据库,并且没有哪个搜索引擎不具备一个精心设计的索引库。

 robots协议

 Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。是搜索引擎的一部分来定位和索引互联网上的每个可能回答搜索请求的网页,通常只在讨论 robotsHTML标签或者robots.txt文件的时候使用。

 站点地图(site map

 一个对蜘蛛程序友好的网页,它提供了指向网站域里面其他网页的链接。对一个小型网站而言,站点地图提供直接链接到站点上所有网页的链接,中到大型站点使用站点地图链接到域里面主要的中心网页(这些网页会最终依次实现对站点上所有网页的访问,比如:http://www.mahaixiang.cn/sitemap.html

 关键字、关键词和关键短语(Keyword、keyterm和keyphrase)

 

  关键字、关键词和关键短语是Web站点在搜索引擎结果页面(也称为SERP)上排序所依据的词,根据站点受众的不同,您可以选择一个单词、多个单词的组合或整个短语。

    锚文本(Anchor Text)

    锚文本又称锚文本链接,是链接的一种形式,和超链接类似,超链接的代码是锚文本,把关键词做一个链接,指向别的网页,这种形式的链接就叫作锚文本。

    关键词密度(keyword density)

    关键词密度(Keyword Density)与关键词频率(Keyword Frequency)所阐述的实质上是同一个概念,用来量度关键词在网页上出现的总次数与其他文字的比例,一般用百分比表示,相对于页面总字数而言,关键词出现的频率越高,关键词密度也就越大。

   内部优化

    内部优化称为页面上的优化,指的是在网站页面上进行完全由站长自己所控制的SEO,如页面Meta标签的撰写和修改、网站结构和内部链接的优化等。

    竞价排名

    为每个搜索引擎引荐向搜索引擎支付发费用,用以保证在付费搜索结果的排名,其最简单的形式,付费搜索结果显示出价最高一方的网页链接在结果列表的顶端,并且竞标方每次在访客点击竞标方的链接时付钱给搜索引擎。

 

主流搜索引擎针对移动网页抓取细节

 

1、域名

 

  域名应尽量简短易懂,越短的域名记忆成本越低,越容易理解的域名能让用户更直观了解网站主旨。移动站域名建议多采用m.a.com/3g.a.com/wap.a.com,避免使用过于复杂或技术性的形式,例如adcbxxx.a.com/html5.a.com等。案例

2服务器

 选择正规空间服务商,避免与大量垃圾网站共用IP,保证网站访问速度和稳定性。

3、网站语言

  强烈建议使用html5作为移动站建站语言,并且根据不同终端机型进行自动适配。

  面向移动搜索引擎的网站建设,主要分为三个部分:如何更好的让百度移动搜索收录网站中的内容、如何在移动搜索中获得更好的排名、如何让用户从众多的搜索结果中快速地找到并点击你的网站。简单来说,就是收录、排序、展现。 

4、机器可读

 

   建议使用文本而不是flash、图片、Javascript等来显示重要的内容或链接,搜索引擎暂时无法识别Flash、图片、复杂Javascript中的内容;同时仅存在于flashJavascript中包含链接指向的网页,百度移动搜索同样可能无法收录。不要希望搜索引擎可读的地方使用Ajax技术,比如标题、导航、内容等等

5、结构扁平

 

      移动站点同样应该有清晰的结构以及更浅的链接深度,这能够使用户快速地获取有用信息,也能使搜索引擎快速理解网站中的每一个页面所处的结构层次。网站结构建议采用树型结构,树型结构通常分为以下三个层级:首页——频道——详情页。

6、简单易懂的URL

  具有良好描述性、规范、简单的URL,有利于用户更方便地记忆和直观判断网页内容,也有利于搜索引擎更有效地抓取和理解网页。网站设计之初,就应该有合理的URL规划。我们认为:

  • 对于移动站首页一般采用m.a.com/3g.a.com/wap.a.com

  • 频道页采用m.a.com/n1/m.a.com/n2/(其对应于PC站点的频道n2.a.com),当然,n1n2直接可读更佳;

 

  • 详情页的URL尽量短,减少无效参数,例如统计参数等,保证同一页面只有一套URL地址,不同形式的URL301跳转到正常URL上。

7、涵盖主旨的anchor

    anchor即锚文本,对一个链接的描述性文字,锚文本写得越简洁明确,用户越易明白该指向网页的主旨内容。

 

8、合理的返回码

  在进行抓取和处理时,是根据http 协议规范来设置相应逻辑的,常用的几个返回码如下:

 • 404,百度会认为网页已失效已删除,通常在索引中删除,短期内spider再次遇到也不会抓取。建议内容删除、网页失效等的情况下使用404返回码,告知百度spider该页面已失效。同时网站中尽量减少死链的累计。如果网站临时关闭或抓取压力过大,不要直接返回404,使用503

 • 301,永久性重定向,百度会认为当前URL永久跳转至新URL。网站改版、更换域名等情况建议使用301,同时配合使用站长平台的网站改版工具

 

  503,百度会认为临时不可访问,不会直接删除,短期内再来检查几次。如果网站临时性关闭建议使用503

 

 

 

 

 

 

 

  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 












索引(indexing)       蜘蛛程序存储互联网上每个词以及对应网页位置的过程,搜索索引库是最主要的搜索引擎数据库,并且没有哪个搜索引擎不具备一个精心设计的索引库,有时也称为收录。
      索引库(index)         搜索引擎有的网站上所有词的列表,以及每个词在哪个页面上,当搜索者输入了一个搜索请求,搜索引擎在搜索索引库中寻找搜索请求,并定位含有这些次的网页,搜索索引库是搜索引擎的主要数据库,并且没有哪个搜索引擎不具备一个精心设计的索引库。
       robots协议       Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。是搜索引擎的一部分来定位和索引互联网上的每个可能回答搜索请求的网页,通常只在讨论 robots的HTML标签或者robots.txt文件的时候使用。
      站点地图(site map)      一个对蜘蛛程序友好的网页,它提供了指向网站域里面其他网页的链接。对一个小型网站而言,站点地图提供直接链接到站点上所有网页的链接,中到大型站点使用站点地图链接到域里面主要的中心网页(这些网页会最终依次实现对站点上所有网页的访问,比如:http://www.mahaixiang.cn/sitemap.html)。
     关键字、关键词和关键短语(Keyword、keyterm和keyphrase)       关键字、关键词和关键短语是Web站点在搜索引擎结果页面(也称为SERP)上排序所依据的词,根据站点受众的不同,您可以选择一个单词、多个单词的组合或整个短语。
      锚文本(Anchor Text)        锚文本又称锚文本链接,是链接的一种形式,和超链接类似,超链接的代码是锚文本,把关键词做一个链接,指向别的网页,这种形式的链接就叫作锚文本。
      关键词密度(keyword density)        关键词密度(Keyword Density)与关键词频率(Keyword Frequency)所阐述的实质上是同一个概念,用来量度关键词在网页上出现的总次数与其他文字的比例,一般用百分比表示,相对于页面总字数而言,关键词出现的频率越高,关键词密度也就越大。
      内部优化      内部优化称为页面上的优化,指的是在网站页面上进行完全由站长自己所控制的SEO,如页面Meta标签的撰写和修改、网站结构和内部链接的优化等。
      竞价排名        为每个搜索引擎引荐向搜索引擎支付发费用,用以保证在付费搜索结果的排名,其最简单的形式,付费搜索结果显示出价最高一方的网页链接在结果列表的顶端,并且竞标方每次在访客点击竞标方的链接时付钱给搜索引擎。

 

SEO学习

标签:依次   避免   arch   百度权重   展现   调整   clu   存储   规范   

原文地址:http://www.cnblogs.com/chenyablog/p/7162647.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!