网站地图    收藏   

主页 > 前端 > 网站SEO >

致青春2:必须从搜索引擎原理开始学习SEO - 搜索

来源:自学PHP网    时间:2015-04-15 10:59 作者: 阅读:

[导读] 大家好,我是颜江峰,上一篇文章《致青春:写给新手SEO们的一些话》发表以来,近期陆陆续续有不少朋友加了我的QQ:793030022。写完这篇文章我发现内容太多了,时间限制也没能写更...

  大家好,我是颜江峰,上一篇文章《 致青春:写给新手SEO们的一些话 》发表以来,近期陆陆续续有不少朋友加了我的QQ:793030022。写完这篇文章我发现内容太多了,时间限制也没能写更加详细,写一篇文章有时候打字要打接近两个小时,还请大家体谅一下。

  最近时常接受到了一些朋友的咨询,尤其是打算接触这个行业的朋友。其中有一位山西的朋友,问我SEO有没有学历要求。我回答SEO对学历要求不高,只要你有一颗坚持和肯学习的心。对方又告诉我,他不懂编程,不会代码,会是障碍吗?这位朋友让我想起笔者初时对SEO的抗拒,就是认为自己对不懂,才不愿意接触SEO,认为自己对这方面没有优势。当初看到那本书第一页就告诉我:SEO不需要会编程,我眼睛瞬间明亮起来。顺便说一句,做SEO以及网络营销师,基本的html、div+CSS和JS要懂一些的。

  这篇文章,我想先简单的说一下搜索引擎的原理,其实作为一个SEO,就必须要熟悉搜索引擎的原理。只要你熟悉了原理,各种优化技巧你才能更好的明白和理解为什么要这么做。

  我们SEO里面说的蜘蛛,是搜索引擎的一种程序,用来爬行和访问页面,百度蜘蛛是:baiduspider,谷歌称为机器人:googlebot。

  蜘蛛会根据页面上的链接爬行,从一个页面爬行到另一个页面,就是通过这些链接。蜘蛛的爬行分为广度优先和深度优先。理论上说,每一种方法,都能够让蜘蛛爬行完所有的页面,可是我们实际情况中,时间不是无限的,不可能爬行完互联网上面所有的页面。

  作为一名SEO人员,如果希望自己的网站能更多的被蜘蛛收录,就必须想办法让蜘蛛能够来抓取你的页面。如果不能够抓取所有的页面,起码也要让蜘蛛抓取你的重要页面。那么,蜘蛛是怎么样去判断页面的重要性呢。大概有这几方面的因素:

  更新度:蜘蛛爬行一次网站之后,就会把这个页面的数据存储,当下一次爬行的时候,如果发现这个页面还是跟上次一样的。表明这个页面没有更新,蜘蛛就会认为没有必要经常抓取和爬行,反正这个页面每次来都是一样的内容。如果每次蜘蛛来都发现有更新,那么就会来得比较频繁。

  导入链接:一个页面,要被蜘蛛知道,还必须要有导入链接导入到这个页面。蜘蛛都是沿着链接爬行的,否则的话蜘蛛无法知道你的页面的存在,也就不用谈抓取和收录了。

  做SEO的都知道一个原则,就是每个页面与首页的点击距离最好是2-3次点击。一般网站权重最高的地方是首页,有一个原则是,一个页面离首页的距离越近,这个页面的权重就更高,被蜘蛛爬行的概率也更大。这里也提醒大家,不妨把某些重要页面的url,呈现在首页。

  蜘蛛抓取到的内容,会存储起来。过程中,会检测、删除复制内容。如果你的网站权重太低,被蜘蛛发现了大量的转载内容,蜘蛛可能都不会再爬行你的网站。因为搜索引擎很不喜欢重复内容,这样会造成它无效工作的增加。

  抓取到内容之后,搜索引擎会进行一系列的处理。我们查询内容的时候,搜索引擎已经进行了一系列的计算,然后根据这些计算排名。蜘蛛又会进行哪些处理呢?

  蜘蛛抓取到内容首先会进行一个过滤,选出能够参与排名的内容——也就是可见文字。除此之外,还会提取Meta、alt、锚文字等包含文字信息的一些有用代码。

  分词,这个主要是针对百度,一个句子中的字都是连一起的,搜索引擎必须想办法分别哪些是一个词组。比如:“小商品批发”,就有可能被分解为“小商品”和“批发”两个词。针对这种现象,我们能做的是给关键词加粗或者加上h标签,比如:小商品批发。所以加粗或者加上h标签,还有一个作用是帮助蜘蛛判断这是一个词组。

  去除的“的”、“地”、“得”等词,去除一些感叹词,去除一些副词或者介词等。

  消除噪声,版权信息、广告等等这些影响页面主题的内容。

  之前的两步稍微带过,这里要值得一提的是去重步骤。同样的一篇文章,可能会被发表在不同的地方不同的网址。搜索引擎并不喜欢这些重复的内容。很多时候搜索引擎希望只返回相同文章的一篇。蜘蛛会进行重复内容的识别。这个步骤就称之为“去重”。而且搜索引擎的“去重”水准已经达到了比较先进的地步,绝对不是我们某些人理所当然的那样。他会从页面内容中选取最有代表的关键词,进行各种计算和分析。所以一些网站所写的伪原创,只是改变一下段落顺序,稍微替换几个词,是无法避免蜘蛛的识别的。有的朋友很无辜的说,我天天都更新文章,为什么我的站还是没有收录。或者,为什么我天天更新文章,还是被降权了。

  索引之后,会计算链接关系,比如导入链接和锚文本等等。然后搜索引擎还会处理一些特殊的文件,比如:PDF、Word、PPT、TXT等。笔者记得以前有一位站长,就是用百度文库的锚文字,做起来的。现在百度文库好像权重有所降低,不过特殊文件处理,搜索引擎并不能识别视频和图片还有Flash,无法判断这些东西所表达的意思。这也就是为什么网站不要加太多Flash和视频,也是为什么要给图片加alt标签。因为蜘蛛是靠alt标签这个描述性标签,判断图片的内容。

  然后就是排名了,排名过程中,会进行中文分词。这里我打算举例一下title关键词的选择,我们选择关键词的时候,要考虑到把一个关键词分开还能够组合成新的关键词,这就是为了利用到百度的分词原理。

  搜索引擎会根据用户的搜索,匹配出最好的关键词。可是那么多文件,蜘蛛到底要把哪一个呈现给用户看呢。首先是相关性,大家可以理解为页面关键词密度。除了这个页面的相关性之外,这里就要考虑到页面的权重问题。匹配的数目过于庞大的时候,蜘蛛不可能也没必要对所有的页面进行全部计算,所以就会选择它认为最重要的页面(权重高的页面)进行相关性的计算。

  搜索引擎再经过一些调整,把结果呈现在大家面前。

  有一位朋友问我,我不是计算机专业毕业的,请问我也能从事这个行业么。呵呵,江峰念大学的时候,也不是计算机专业毕业的……

  值得一提的是还有一位笔者老家的宗亲联系到了我,还鼓励我写得不错,江峰惭愧,上一篇文章,只是一时感慨,并未分享任何干货。所以也在思索,这篇文章,能够给新手朋友们提供一些什么样真正有用的内容。

  其实我一直接触的都是国内的SEO,也就是百度的优化。前几天跟一位朋友的交流,让我意识到某些事情的重要性,于是又从网络上购得一本专业书籍,是国外几位大神编写的专门针对google的优化宝典。在撰写这篇文章的时候,想起有一本很棒的书在路上,江峰还是很开心的。

  朋友跟我说,这本书他下载电子书,不过看得眼睛疼。根据我的亲身经历,看技术类型的,还就必须买书看,pdf和txt根本不方便,电子书用来看看小说还差不多。相信来到红黑联盟的朋友,一部分是站长和一些SEOer之外,还有那么一部分人是新手,渴望在这里学习到知识。可是我还是建议大家去买本这方面的书看,你花的这几十元钱,绝对会物超所值。我亲身感觉,网络上看那些零碎的教程,真没看书有效果,看书比较系统。别人写的帖子,每个人风格和领悟都不一样。看了很乱。

  文章来源:http://www.now199.com,转载请注明出处,写帖子很不容易。

自学PHP网专注网站建设学习,PHP程序学习,平面设计学习,以及操作系统学习

京ICP备14009008号-1@版权所有www.zixuephp.com

网站声明:本站所有视频,教程都由网友上传,站长收集和分享给大家学习使用,如由牵扯版权问题请联系站长邮箱904561283@qq.com

添加评论