什么是SEO?
SEO 是(Search engine optimization,搜索引擎优化)是提高来自搜索引擎的网站或网页流量质量和数量的过程。SEO 针对的是免费自然流量,而不是直接流量或付费流量。免费流量可能来自不同类型的搜索,包括图像搜索、视频搜索、学术搜索、新闻搜索和行业特定的垂直搜索引擎。
作为一种互联网营销策略,SEO 考虑了搜索引擎的工作方式、决定搜索引擎行为的计算机编程算法、人们搜索的内容、在搜索引擎中输入的实际搜索词或关键词以及目标受众喜欢哪些搜索引擎。之所以进行 SEO,是因为当网站在搜索引擎结果页面(SERP) 上排名较高时,它会从搜索引擎获得更多访问者。然后这些访问者可能会转化为客户。
SEO的历史
20 世纪 90 年代中期,当第一批搜索引擎开始对早期网络进行编目时,网站管理员和内容提供商开始为搜索引擎优化网站。最初,所有网站管理员只需向各个引擎提交页面地址或URL ,引擎就会派出网络爬虫来抓取该页面,从中提取指向其他页面的链接,并返回有关要编入索引的页面的信息。该过程涉及搜索引擎蜘蛛下载页面并将其存储在搜索引擎自己的服务器上。第二个程序(称为索引器)会提取有关页面的信息,例如页面中包含的单词、这些单词的位置、特定单词的权重,以及页面包含的所有链接。然后,所有这些信息都被放入调度程序中,以便日后抓取。
网站所有者认识到搜索引擎结果中高排名和可见性的价值,这为白帽和黑帽SEO 从业者创造了机会。据行业分析师丹尼·沙利文 (Danny Sullivan)称,“搜索引擎优化”一词可能在 1997 年开始使用。沙利文认为布鲁斯·克莱 (Bruce Clay) 是最早推广该术语的人之一。
早期版本的搜索算法依赖于网站管理员提供的信息,比如关键字元标记或ALIWEB等引擎中的索引文件。元标记提供了每个网页内容的指南。但是,使用元数据来索引网页被发现不太可靠,因为网站管理员在元标记中选择的关键字可能无法准确地代表网站的实际内容。元标记中的有缺陷的数据(比如不准确或不完整的数据)可能会导致网页在不相关的搜索中被错误描述。网络内容提供商还会操纵网页HTML源代码中的一些属性,试图在搜索引擎中获得良好的排名。
到 1997 年,搜索引擎设计者意识到网站管理员正在努力让他们的网页在搜索引擎中获得良好排名,一些网站管理员甚至通过在网页中塞入过多或不相关的关键字来操纵其在搜索结果中的排名。早期的搜索引擎,如Altavista和Infoseek,会调整自己的算法,以防止网站管理员操纵排名。
由于过度依赖关键词密度等因素(这些因素完全在网站站长的控制范围内),早期的搜索引擎遭受了滥用和排名操纵的困扰。 为了给用户提供更好的结果,搜索引擎必须做出调整,确保其结果页面显示最相关的搜索结果,而不是无良网站站长塞入大量关键词的不相关页面。 这意味着要摆脱对词密度的过度依赖,转而采取更全面的语义信号评分流程。由于搜索引擎的成功和受欢迎程度取决于它是否能为任何给定的搜索提供最相关的结果,因此质量差或不相关的搜索结果可能会导致用户寻找其他搜索源。 搜索引擎的应对措施是开发更复杂的排名算法,将网站站长更难操纵的其他因素考虑在内。
采用过于激进技术的公司可能会让其客户网站被禁止出现在搜索结果中。2005 年,华尔街日报 报道了Traffic Power公司,据称该公司使用了高风险技术,但未向其客户披露这些风险。连线杂志报道称,该公司起诉了博主兼 SEO Aaron Wall,因为他撰写了有关禁令的文章。谷歌的Matt Cutts后来证实,谷歌确实禁止了 Traffic Power 及其部分客户。
一些搜索引擎也开始与 SEO 行业接触,并经常赞助和出席 SEO 会议、网络聊天和研讨会。主要搜索引擎提供信息和指南来帮助网站优化。Google 有一个Sitemaps程序,可帮助网站管理员了解 Google 在索引其网站时是否遇到任何问题,并提供有关 Google 访问网站流量的数据。Bing 网站管理员工具为网站管理员提供了一种提交站点地图和网络供稿的方式,允许用户确定“抓取率”,并跟踪网页索引状态。
2015 年,有报道称谷歌正在开发和推广移动搜索,将其作为未来产品的一项关键功能。为此,许多品牌开始采取不同的互联网营销策略。
SEO与Google的关系
1998 年,斯坦福大学的两名研究生拉里·佩奇和谢尔盖·布林开发了“Backrub”,这是一个依靠数学算法来评估网页重要性的搜索引擎。该算法计算出的数字PageRank是入站链接数量和强度的函数。PageRank 估计了随机浏览网页并跟随链接从一个页面转到另一个页面的网络用户到达特定页面的可能性。实际上,这意味着某些链接比其他链接更强,因为 PageRank 值较高的页面更有可能被随机网络浏览者访问。
佩奇和布林于 1998 年创立了谷歌。谷歌在越来越多的互联网用户中吸引了一批忠实的追随者,他们喜欢它的简洁设计。除了考虑页内因素(如关键词频率、元标签、标题、链接和网站结构)之外,谷歌还考虑了页外因素(如 PageRank 和超链接分析),从而使谷歌能够避免在只考虑页内因素进行排名的搜索引擎中常见的那种操纵。尽管 PageRank 更难操纵,但网站管理员已经开发出链接建设工具和方案来影响Inktomi搜索引擎,这些方法同样适用于操纵 PageRank。许多网站专注于交换、购买和出售链接,而且规模往往非常庞大。其中一些方案或链接农场涉及创建数千个网站,而其唯一目的就是发送链接垃圾邮件。
到 2004 年,搜索引擎已在其排名算法中纳入了各种未公开的因素,以减少链接操纵的影响。领先的搜索引擎谷歌、必应和雅虎均未披露他们用于对网页进行排名的算法。一些 SEO 从业者研究了不同的搜索引擎优化方法,并分享了他们的个人观点。与搜索引擎相关的专利可以提供信息,以便更好地了解搜索引擎。
2005 年,谷歌开始为每个用户提供个性化搜索结果。根据用户之前的搜索历史记录,谷歌为已登录用户制作搜索结果。
2007 年,Google 宣布了一项反对转移 PageRank 的付费链接的活动。
2009 年 6 月 15 日,Google 披露他们已采取措施通过在链接上使用nofollow属性来减轻 PageRank 塑造的影响。Google 知名软件工程师Matt Cutts宣布,Google Bot 将不再以同样的方式处理任何 no follow 链接,以防止 SEO 服务提供商使用 nofollow 进行 PageRank 塑造。这一变化的结果是,使用 nofollow 导致 PageRank 蒸发。为了避免上述情况,SEO 工程师开发了替代技术,用模糊的JavaScript替换 nofollow 标签,从而允许 PageRank 塑造。此外,已经提出了几种解决方案,包括使用iframe、Flash和 JavaScript。
2009 年 12 月,谷歌宣布将利用所有用户的网络搜索历史来填充搜索结果。
2010 年 6 月 8 日,谷歌宣布推出一种名为Google Caffeine的新网络索引系统。Google Caffeine 旨在让用户比以前更快地找到发布后的新闻结果、论坛帖子和其他内容,它改变了谷歌更新索引的方式,使内容比以前更快地显示在谷歌上。据宣布谷歌 Caffeine 的软件工程师 Carrie Grimes 称,“Caffeine 提供的网络搜索结果比我们上一个索引多 50%……”
Google Instant(实时搜索)于 2010 年底推出,旨在使搜索结果更及时、更相关。
从历史上看,网站管理员需要花费数月甚至数年的时间优化网站以提高搜索排名。随着社交媒体网站和博客的普及,领先的搜索引擎对其算法进行了更改,以使新鲜内容能够快速在搜索结果中排名。
2011 年 2 月,谷歌宣布推出熊猫更新,对包含从其他网站和来源复制内容的网站进行惩罚。 从历史上看,网站都会互相复制内容,并通过这种做法提高搜索引擎排名。 然而,谷歌实施了一套新系统,对内容不够独特的网站进行惩罚。
2012 年的谷歌企鹅算法试图惩罚那些使用操纵技术提高搜索引擎排名的网站。尽管谷歌企鹅算法被描述为一种旨在打击网络垃圾的算法,但它真正的重点是垃圾链接,通过衡量链接来源网站的质量。
2013 年的谷歌蜂鸟更新采用了一种算法更改,旨在提高谷歌的自然语言处理和网页语义理解。 Hummingbird 的语言处理系统属于新近认可的“对话式搜索”范畴,该系统更加关注查询中的每个单词,以便更好地将页面与查询的含义相匹配,而不是只关注几个单词。关于搜索引擎优化的改变,对于内容发布者和作者来说,Hummingbird 旨在通过摆脱不相关的内容和垃圾邮件来解决问题,从而使 Google 能够制作高质量的内容并依靠他们成为“值得信赖的”作者。
2019 年 10 月,谷歌宣布将开始在美国应用BERT模型来处理英语搜索查询。BERT 是谷歌改进自然语言处理的另一次尝试,但这一次是为了更好地理解用户的搜索查询。在搜索引擎优化方面,BERT 旨在让用户更轻松地连接到相关内容,并提高搜索引擎结果页面中排名网站的流量质量。
SEO方法
获得索引
领先的搜索引擎,例如 Google、Bing 和 Yahoo!,都使用爬虫来查找页面作为其算法搜索结果。从其他搜索引擎索引页面链接的页面无需提交,因为系统会自动找到它们。Yahoo! 目录和DMOZ是两个主要目录,分别于 2014 年和 2017 年关闭,都需要手动提交和人工编辑审核。除了 URL 提交控制台外,Google 还提供Google 搜索控制台,可以免费创建和提交 XML站点地图提要,以确保找到所有页面,尤其是无法通过自动跟踪链接发现的页面 。Yahoo! 以前运营过一项付费提交服务,保证按每次点击费用进行抓取;但这种做法已于 2009 年停止。
搜索引擎爬虫在抓取网站时可能会考虑许多不同的因素。并非每个页面都会被搜索引擎编入索引。页面与网站根目录的距离也可能是决定页面是否被抓取的一个因素。
大多数 Google 搜索都是通过移动设备进行的
2016 年 11 月,Google 宣布对其网站抓取方式进行重大更改,并开始将其索引设为移动优先,这意味着给定网站的移动版本将成为 Google 将其内容纳入索引的起点。
2019 年 5 月,Google 将其爬虫的渲染引擎更新为最新版本的 Chromium(宣布时为 74)。Google 表示他们会定期将Chromium渲染引擎更新到最新版本。
2019 年 12 月,Google 开始更新其爬虫的 User-Agent 字符串,以反映其渲染服务使用的最新 Chrome 版本。延迟是为了让网站管理员有时间更新响应特定机器人 User-Agent 字符串的代码。Google 进行了评估,并相信影响会很小。
防止抓取
为了避免搜索索引中出现不良内容,网站管理员可以通过域根目录中的标准robots.txt文件指示蜘蛛不要抓取某些文件或目录。此外,可以使用特定于 robots 的元标记(通常为 <meta name="robots" content="noindex"> )明确将页面排除在搜索引擎的数据库之外。当搜索引擎访问网站时,位于根目录中的 robots.txt是第一个被抓取的文件。然后,robots.txt 文件将被解析并指示机器人不要抓取哪些页面。由于搜索引擎抓取程序可能会保留此文件的缓存副本,因此它有时可能会抓取网站管理员不想抓取的页面。通常阻止抓取的页面包括特定于登录的页面(例如购物车)和特定于用户的内容(例如内部搜索的搜索结果)。
2007 年 3 月,Google 警告网站管理员,他们应阻止索引内部搜索结果,因为这些页面被视为搜索垃圾。2020 年,谷歌废除了该标准(并开放了其代码),现在将其视为一种提示而不是指令。为了充分确保页面不被索引,应包含页面级机器人的元标记。
日益突出
有多种方法可以提高网页在搜索结果中的突出程度。在同一网站的页面之间进行交叉链接以提供更多重要页面的链接可能会提高其可见性。页面设计使用户信任网站并在找到后想留下来。当人们离开网站时,这对网站不利并影响其可信度。编写包含经常搜索的关键词短语的内容以与各种搜索查询相关往往会增加流量。更新内容以使搜索引擎经常抓取回来可以增加网站的权重。将相关关键词添加到网页的元数据(包括标题标签和元描述)往往会提高网站搜索列表的相关性,从而增加流量。使用规范链接元素或通过301重定向对可通过多个URL访问的网页进行URL规范化可以帮助确保指向不同版本的URL的链接都会计入页面的链接流行度得分。这些被称为入站链接,它们指向 URL,可以计入页面链接的流行度得分,影响网站的可信度。
SEO白帽技术与黑帽技术
SEO 技术可以分为两大类:搜索引擎公司推荐的、作为良好设计一部分的技术(“白帽”),以及搜索引擎不认可的技术(“黑帽”)。搜索引擎试图将后者的影响降到最低,其中包括垃圾索引。行业评论员将这些方法和使用这些方法的从业者归类为白帽SEO 或黑帽SEO。白帽 SEO 往往会产生持续很长时间的效果,而黑帽 SEO 则预计,一旦搜索引擎发现他们的所作所为,他们的网站最终可能会被暂时或永久禁止。
如果 SEO 技术符合搜索引擎的指导方针且不涉及欺骗,则被视为白帽。由于搜索引擎指导方针并非以一系列规则或戒律的形式写成,因此这是一个需要注意的重要区别。白帽 SEO 不仅仅是遵循指导方针,还要确保搜索引擎索引和随后排名的内容与用户将看到的内容相同。白帽建议通常总结为为用户而不是搜索引擎创建内容,然后使在线“蜘蛛”算法可以轻松访问该内容,而不是试图欺骗算法以使其偏离预期目的。白帽 SEO 在很多方面类似于促进可访问性的网络开发,尽管两者并不相同。
黑帽 SEO试图以搜索引擎不赞成或涉及欺骗的方式提高排名。一种黑帽技术是使用隐藏文本,要么是与背景颜色相似的文本,要么是放在不可见的div中,要么是放置在屏幕外。另一种方法会根据页面是人类访问者还是搜索引擎请求来显示不同的页面,这种技术称为cloaking。有时还会使用另一种类型,即灰帽 SEO。这种方法介于黑帽和白帽方法之间,所采用的方法可以避免网站受到惩罚,但不会为用户提供最佳内容。灰帽 SEO 完全专注于提高搜索引擎排名。
搜索引擎可能会对使用黑帽或灰帽方法的网站进行惩罚,要么降低其排名,要么将其列表从数据库中完全删除。此类惩罚可以由搜索引擎的算法自动应用,也可以通过手动网站审核应用。一个例子是 2006 年 2 月,谷歌因使用欺骗性做法而删除了宝马德国和理光德国的网站。不过,这两家公司都很快道歉,修复了违规页面,并恢复了谷歌的搜索引擎结果页面。
SEO白帽方法
搜索引擎优化的白帽法包括遵循搜索引擎哪些可接受哪些不能接受的指导方针。他们的建议一般是为用户创造内容,而非搜索引擎、是让这些内容易于被蜘蛛机器人索引、并且不尝试对搜索引擎系统耍花招。网站员经常于设计或构建他们的网站时,犯下致命错误、疏忽“毒害”该站以致排名不会很好。白帽法优化员企图发现并纠正错误,譬如机器无法读取的菜单、无效链接、临时改变导向、或粗劣的导引结构。
因为搜索引擎是以文本为中心,许多有助于网页亲和力的同样手段同样便利于搜索引擎优化。这些方法包括优化图形内容、包括ALT 属性、和增加文本说明。甚至Flash动画可于设计该页时包括替代性内容──这本来用来给访客无法阅读Flash的环境用的──来帮助优化。
白帽是正确的优化方式,是根据搜索引擎所提出的优化方针规范而执行的优化方法。采用白帽可以避免掉任何被搜索引擎惩罚的风险,从网站框架、关键字、网站内容、外连等各方面使用合乎搜索引擎规律的手段,做到合理优化网站,提高用户体验,合理与其他网站互联。同时对网站内容持续不断地更新。同时白帽所投入的时间较长,必须按部就班一步一步实现的。但其所投入的时间并不会白白浪费,反而会在日后反馈更多效益。
这里是一些搜索引擎认为适当的方法:
- 在每页使用一个短、独特和相关的标题。
- 编辑网页,用与该页的主题。有关的具体术语替换隐晦的字眼。这有助于该站诉求的观众群,在搜索引擎上搜索而被正确导引至该站。
- 在该站点增加相当数量的原创内容。
- 使用合理大小、准确描述的汇标,而不过度使用关键字、惊叹号、或不相关标题术语。
- 注意网址字眼,有助于搜索引擎优化。
- 确认所有页可透过正常的链接来访问,而非只能透过Java、JavaScript或Adobe Flash应用程序访问。这可透过使用一个专属列出该站所有内容的网页达成(网站地图)
- 透过自然方式开发链接:Google不花功夫在这有点混淆不清的指南上。写封电子邮件给网站员,告诉他:您刚刚贴了一篇挺好的文章,并且请求链接,这种做法很可能为搜索引擎所认可。
- 参与其他网站的网络集团(译按:web ring指的是有相同主题的结盟站群)──只要其它网站是独立的、分享同样题目和可比较的质量。
On-Page 页面优化
On-Page SEO指的是站内优化或称页面优化,On-Page SEO 能够让你自由的控制所有SEO的因素,透过SEO观念与技巧,使得页面能够有更佳的用户体验与更高的排名。 On-Page SEO就是结合了白帽SEO观念与撰写技巧而成的,透过提高网站内文质量来获取更好的排名就是On-Page SEO的目标,想要做好 On-Page SEO主要有三个因素:
- 高质量内容
- 网站架构
- 外观设计与用户体验
黑帽方法
垃圾索引(Spamdexing)
意指透过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为着眼的网页。许多搜索引擎管理员认为任何搜索引擎优化的形式,其目的用来改进网站的页排名者,都是垃圾索引。然而,随时间流逝,业界内公众舆论发展出哪些是哪些不是可接受的、促进某站的搜索引擎排名与流量结果的手段。
因为搜索引擎以高度自动化的方式运作,网站员通常可以利用某些未被搜索引擎认可的手段、方法来促进排名。这些方法经常未被注意,除非搜索引擎雇员亲临该站点并注意到不寻常活动、或在排名算法上的某个小变化导致站点丢失以过去方式获取的高排名。有时某些公司雇用优化顾问评估竞争者的站点、和"不道德的" 优化方法向搜索引擎报告。
当这些垃圾索引被发现时,搜索引擎可能会对那些被发现使用不道德的优化手段者采取行动。2006年2月,Google拿掉了BMW德国站和Ricoh德国站,因为他们用了这些方法。
斗蓬法(cloaking)
通常指的是网站站长用了两版不同的网页来达到优化的效果。一个版本只供给搜索引擎,另一个版本供给普通用户。搜索引擎认为此种做法是正规,如发现,该网站会永远从搜索引擎名单中被剔除。但是对于如AJAX所撰写的动态网页,Google也有提出名为HTML Snapshot的作法,以方便搜索引擎进行收录
关键字隐密字(hidden text with keyword stuffing)
这是另外一欺骗搜索引擎的做法。通常是指设置关键字的颜色和网页背景颜色一样,或透过 css hidden attribute (隐密特性) 来达到优化效果。这种做法一旦被Google发现,遭遇也会是该网站从Google的数据库中除名。
桥页(doorway pages)
也叫门页,是通常是用软件自动生成大量包含关键词的网页,然后从这些网页做自动转向到主页。目的是希望这些以不同关键词为目标的桥页在搜索引擎中得到好的排名。当用户点击搜索结果的时候,会自动转到主页。有的时候是在桥页上放上一个通往主页的链接,而不自动转向主页。
付费链接(paid link)
是利用支付费用方式要求其他网站提供链接至自身网站,借此伪装高信任网站来欺骗搜索引擎,付费链接类型多为锚点文字(Anchor Text)类型,Google的质量方针也明确指出以金钱交换的链接将可能对网站造成负面影响。
链接农场(link farm)
是故意在一些低质量,内容跟自己内容无关的网站上获取大量链接,藉以提高排名。
SEO作为营销策略
SEO 并不适用于每个网站,其他互联网营销策略可能更有效,比如通过按点击付费(PPC)活动投放付费广告,具体取决于网站运营商的目标。搜索引擎营销 (SEM)是设计、运行和优化搜索引擎广告活动的做法。它与 SEO 的区别最简单地描述为搜索结果中付费和免费优先级排名之间的区别。SEM 更注重突出性而不是相关性;网站开发人员应将 SEM 视为最重要的事情,并考虑可见性,因为大多数人会导航到搜索的主要列表。成功的互联网营销活动可能还取决于构建高质量的网页以吸引和说服互联网用户,设置分析程序以使网站所有者能够衡量结果,以及提高网站的转化率。
2015 年 11 月,谷歌向公众发布了长达 160 页的完整版搜索质量评级指南,这表明谷歌的重点已转向“实用性”和移动本地搜索。
近年来,移动市场呈爆炸式增长,超过了台式机的使用,StatCounter在 2016 年 10 月的数据显示,他们分析了 250 万个网站,发现 51.3% 的页面是通过移动设备加载的。谷歌是利用移动设备普及度的公司之一,它鼓励网站使用他们的谷歌搜索控制台,即移动设备友好度测试,它允许公司根据搜索引擎结果衡量他们的网站并确定他们的网站的用户友好度。关键词越接近,他们的排名就会根据关键词提高。
SEO 可能会产生足够的投资回报。但是,搜索引擎不会因自然搜索流量而获得报酬,其算法会发生变化,而且无法保证持续的推荐。由于缺乏保证和不确定性,如果搜索引擎停止引荐访问者,严重依赖搜索引擎流量的企业可能会遭受重大损失。搜索引擎可以改变其算法,影响网站的搜索引擎排名,可能会导致严重的流量损失。
据谷歌首席执行官埃里克·施密特 (Eric Schmidt)称,2010 年,谷歌进行了 500 多次算法更改 — — 几乎每天 1.5 次。网站运营商摆脱对搜索引擎流量的依赖被认为是一种明智的商业做法。除了网络爬虫的可访问性(如上所述)之外,用户网络可访问性对 SEO 也变得越来越重要。
SEO国际市场
优化技术与目标市场中占主导地位的搜索引擎高度协调。搜索引擎的市场份额因市场而异,竞争也不同。
2003 年,丹尼·沙利文 (Danny Sullivan)表示,谷歌占据了所有搜索的 75% 左右。在美国以外的市场,谷歌的份额往往更大,截至 2007 年,谷歌仍然是全球占主导地位的搜索引擎。截至 2006 年,谷歌在德国的市场份额为 85-90%。当时美国有数百家 SEO 公司,而德国只有 5 家左右。根据Hitwise 的数据,截至 2008 年 6 月,谷歌在英国的市场份额接近 90%。在许多国家都实现了这一市场份额。可以进一步了解截止2024年8月的全球搜索引擎份额的数据。
截至 2009 年,只有少数大型市场中 Google 不是领先的搜索引擎。在大多数情况下,当 Google 在特定市场中不处于领先地位时,它落后于本地参与者。最显著的例子市场是中国、日本、韩国、俄罗斯和捷克共和国,其中百度、雅虎日本、Naver、Yandex和Seznam分别是市场领导者。
成功实现国际市场搜索优化可能需要对网页进行专业翻译、在目标市场注册顶级域名以及提供本地IP 地址的网站托管。除此之外,无论使用哪种语言,搜索优化的基本要素基本相同。
SEO法律先例
2002 年 10 月 17 日,SearchKing 向美国俄克拉荷马州西区地方法院起诉搜索引擎 Google。SearchKing 声称 Google 防止垃圾索引的策略构成了对合同关系的侵权干涉。2003 年 5 月 27 日,法院批准了 Google 的动议,驳回了起诉,因为 SearchKing“未能陈述可获得救济的索赔”。
2006 年 3 月,KinderStart 就搜索引擎排名问题起诉谷歌。在诉讼前,KinderStart 的网站就被从谷歌索引中删除,网站流量下降了 70%。2007 年 3 月 16 日,美国加州北区联邦地区法院(圣何塞分院)驳回了 KinderStart 的诉状,不允许其修改,并部分批准了谷歌对 KinderStart 律师的第 11 条制裁动议,要求其支付谷歌部分法律费用。