搜索引擎优化指南2017( Google和其它查寻引擎的搜寻引擎应运而生(1)_国内_光明网)

优采云 发布时间: 2022-03-20 10:08

  搜索引擎优化指南2017(

Google和其它查寻引擎的搜寻引擎应运而生(1)_国内_光明网)

  

  由于这些还在网站人员的眼皮底下翻滚,搜索引擎不断遇到滥用、操纵排名等诸多问题。为了给用户提供更好的结果,必须对搜索引擎进行适配,使其搜索结果显示最合适的结果,而不是一些无良网友塞满关键词的无用网页。因此,出现了新型搜索引擎。 [编辑] 现代搜索引擎 Google 是由两名斯坦福博士生拉里佩奇和谢尔盖布林创立的。他们为网页的评价带来了一个新的概念,称为“PageRank”,这是谷歌搜索引擎算法的重要开端[2]。网页级别在很大程度上依赖于传入的链接,并使用每个指向网页的链接都相当于对该网页的价值进行投票的理论来构建一个逻辑系统。更多的传入链接意味着该页面的更多“价值”。每个传入链接本身的价值直接基于链接来自的页面级别,反之亦然页面的传出链接。借助页面级别的帮助,Google 已被证明在与服务相关的结果方面表现出色。谷歌成为最普遍和最成功的搜索引擎。由于非现场因素是在页面级别衡量的,谷歌认为它比页面因素更难做到。然而,网站人们已经为 Inktomi 搜索引擎开发了链接操作工具和程序。

  事实证明,这些方法与 Google 的算法同样适用。许多网站专注于交换、购买和销售大量链接。由于网站人们寻求获取链接只是为了影响谷歌向网站发送更多流量,无论它对网站访问者是否有用,这种行为增加,页面级对原创算法的信任逐渐破坏。在这一点上,谷歌和其他搜索引擎是时候仔细检查各种场*敏*感*词*传出链接,导入的反向链接。

  例如,如果链接被“赞助商链接”包围,则该链接可能会被忽略。使用“rel=nofollow”建议搜索引擎忽略站点文件结构深度中的链接从其他来源采集的网格表,例如监控用户在搜索结果将他们引导到页面时按浏览器返回的频率按钮删除来自以下来源的传入链接: 由 Google AdWords/AdSense、Google 工具栏等程序采集的网格表 从第三方数据共享协议(例如监控网站流量的统计程序提供商)采集的网格数据 域、子网上使用的关键字, 内容质量等, 以及这些活动的负分以及在主文件语义方面添加或更改链接文件的速率 该 IP 下的托管服务提供商 IP 和其他站点的数量/质量其他链接场/链接从属关系链接的站点(他们共享 IP 吗?在“联系我们”页面上有一个共同的邮政地址?)技术细节,如使用 301 重播定位已删除的页面,显示 404 服务器标头而不是 20 0 不存在页面的服务器标头,正确利用 ?robots.txt 托管服务提供商的正常运行时间 站点是否为不同类别的用户显示不同的内容(称为“伪装”)未更正,无效导出链接,不安全或非法内容 HTML 代码质量,和搜索引擎从搜索结果中观察到的错误数量 最常见的实际点击率评级 获取搜索结果的人的手动评级[编辑] 搜索引擎分类 搜索引擎可以根据其工作分为三个主要类别方法:全文搜索引擎、垂直搜索引擎、元搜索引擎(Meta Search Engine)。

  全文搜索引擎。全文搜索引擎是名副其实的搜索引擎。国外的代表有Google、Fast/AllTheWeb、AltaVista、Inktomi、Teoma、WiseNut等,国内比较有名的是百度(Baidu)。它们都是通过从互联网上提取每个网站(主要是网页文本)的信息,检索出符合用户查询条件的相关记录,然后按照一定的顺序将结果返回给用户而建立的数据库。用户,所以他们是真正的搜索引擎。垂直搜索引擎。垂直搜索引擎是针对某个行业的专业搜索引擎。它是搜索引擎的细分和扩展。它在网页库中集成了某种类型的专业信息,并通过定向子字段提取所需的数据。处理后,以某种形式返回给用户。垂直搜索是通用搜索引擎提出的一种新的搜索引擎服务模式,信息量大、查询不准确、深度不够。信息和相关服务。例如,著名的百度图片搜索、互联网统计网[4]等都是针对某个领域的垂直搜索引擎。元搜索引擎。当元搜索引擎接受用户的查询请求时,它会同时在多个其他引擎上进行搜索,并将结果返回给用户。著名的元搜索引擎有InfoSpace、Dogpile、Vivisimo等(元搜索引擎列表),其中具有代表性的中文元搜索引擎是搜星搜索引擎。

  在排列搜索结果方面,有些搜索结果是由源引擎直接排列的,如Dogpile,而另一些则根据自定义规则重新排列组合,如Vivisimo。 [编辑] 搜索引擎和搜索引擎优化者(SEOers)的关系 当搜索引擎第一次问市场时,有一群人对如何操作搜索引擎上的排名感兴趣。如果想在早期的搜索引擎上获得第一名,只需要简单整理网页代码,发送URL索引即可获得第一名。就是这么简单!随着搜索行为的使用越来越多,它的价值也被提供,因此搜索引擎和搜索引擎优化者(SEOers)之间一直存在对立关系。搜索引擎尽量不人为地影响他们的排名,而 SEOers 试图影响它。最近在 2005 年举行的 AirWeb 年会讨论了如何减少这种对抗性关系以及如何将一些过于激进的优化行为的破坏性影响降至最低。一些搜索引擎优化器 (SEOer) 有更激进的方法,通常会生成自动化网站,或使用某些最终导致 网站 降级的行为技术。这种方式通常被称为黑帽搜索引擎优化(BlackHatSEO),目前市场上大多数优化公司都销售长期、低风险的优化策略服务,也被称为白帽搜索引擎优化(WhiteHatSEO)。而大多数使用高风险策略(黑帽SEO)的优化公司,他们使用的网站大多是“纯内容网站、业务线索网站、普通会员网站”,而不是让他们的客户网站个人面临风险。

  以下是一家优化公司的示例,该公司使用激进的优化技术(黑帽 SEO)来禁止其客户。 《*敏*感*词*日报》描述了一家使用高风险技术但未能告知客户这些风险的公司 [5]。被起诉的*敏*感*词*。一些特殊的搜索引擎会为特定的赞助商或 VIP 提供帮助或优先权,称为付费目录。所有主要的搜索引擎都提供信息/指南来协助网站优化:Google[6]?Yahoo?[7]MSN[8]。谷歌提供站点地图程序[9]?帮助 网站人们了解如果 Google 在检索他们的 网站 时遇到任何问题该怎么办,并提供 Google 流量对于您的 网站 丰富的关系信息非常宝贵。雅虎的 SiteExplorer[10]?旨在提供一种免费的方式来提交您的 URL,它允许您决定您希望雅虎索引多少页和多深。雅虎大使计划[11]?和谷歌的广告专业人士[12]?提供专家级认证。 [编辑] 搜索引擎启动新网站不需要向搜索引擎“提交”以注册列表。来自已建立的其他站点的简单链接将导致搜索引擎访问新站点并开始“爬行”该站点的内容。从这样一个已建立的网站获取链接并让所有主要搜索引擎开始访问并为新网站编制索引可能需要几天甚至几周的时间。

  一旦搜索引擎发现一个新站点,它通常会访问并开始索引该站点,直到所有标准超链接都被链接页面索引。蜘蛛可能无法找到只能通过 Flash 或 JavaScript 访问的链接。当一个搜索引擎的蜘蛛机器人抓取一个站点时,它取决于许多不同的因素,并且该站点的许多页面可能不会被索引,除非它们的页面级别、链接或流量增加到一定程度。从站点根目录到页面的距离以及其他权重考虑因素也可能会影响页面是否被爬取。乔等人。 (Cho et al. 1998)?[13]? 描述了确定哪些页面将被访问以及哪些页面将被搜索引擎索引的标准。根目录中的标准 robots.txt 文件指示蜘蛛不要索引某些文件或目录。标准实现要求是搜索引擎在访问此域时引用此文件,尽管搜索引擎蜘蛛会保留此文件的缓存副本,并且更新速度不如 网站developers.网站开发者可能会使用此功能来防止某些页面,例如购物车或其他动态的、用户特定的内容出现在搜索引擎结果中,并防止机器人进入无限循环和其他机器人陷阱。对于一些付费提交的搜索引擎(如雅虎),支付象征性的提交费用可能会节省一些时间,尽管雅虎的付费提交计划不保证提交的人员/公司会收录在他们的搜索结果中。

  中国搜狐和新浪问需要支付一定的费用,但可以免费提供非商业的网站。当然,搜索引擎端并不能保证一定的收录对应网站。 [编辑] 白帽方法 搜索引擎优化的白帽方法涉及以下关于搜索引擎可接受和不可接受的准则。他们的建议通常是为用户而不是搜索引擎创建内容,让蜘蛛容易索引该内容,而不是试图在搜索引擎系统上玩花样。 网站成员在设计或构建他们的网站 时经常犯致命的错误,无意中“毒化”了网站,使其排名不佳。白帽优化器尝试查找和纠正错误,例如不可读的菜单、断开的链接、临时重定向更改或糟糕的导航结构。由于搜索引擎是以文本为中心的,许多有助于网页亲和力的相同工具也有助于 SEO。这些方法包括优化图形内容(包括 ALT 属性)和添加文本描述。甚至 Flash *敏*感*词*也可以收录在具有替代内容的页面设计中——这适用于访问者无法阅读 Flash 的环境——以帮助优化。以下是搜索引擎认为合适的一些方法: 在每个页面上使用简短、独特且相关的标题。编辑页面以用与页面主题相关的特定术语替换模糊的单词。这有助于通过在搜索引擎上进行搜索,将网站所吸引的受众正确地引导到网站。向此站点添加大量 原创 内容。使用大小合理、描述准确的联合组织,不要过度使用关键字、感叹号或不相关的标题字词。

  确保所有页面都可以通过正常链接访问,而不仅仅是通过 Java™、JavaScript 或 Macromedia Flash 应用程序。这可以通过使用以自然方式开发链接的专用页面(网站map)列出网站上的所有内容来实现:Google 不会为这个有点混乱的指南而烦恼。给 网站 人写一封电子邮件,告诉他你刚刚发布了一个很好的 文章,并请求一个链接,这可能会被搜索引擎接受。参加其他网站 网络群——只要其他网站 是独立的,共享相同的主题,并且可以比较质量。 [编辑] 黑帽方法 主要文章:垃圾邮件索引和隐藏方法 Spamdexing 是指通过欺骗性技术和滥用搜索算法来推广不相关的主要商业网页。许多搜索引擎管理员认为旨在提高 网站 的页面排名的任何形式的 SEO 都是索引垃圾邮件。然而,随着时间的推移,行业内的舆论已经形成了提高网站搜索引擎排名和流量结果的可接受和不可接受的方法。由于搜索引擎以高度自动化的方式运行,网站会员经常可以使用搜索引擎不认可的方法和方法来提升排名。除非搜索引擎员工亲自访问该网站并注意到异常活动,或者排名算法的一些小变化导致该网站失去过去获得的高排名,否则这些方法通常会被忽视。

  有时,某些公司会聘请优化顾问来评估竞争对手的网站,并向搜索引擎报告“*敏*感*词*”的优化方法。当发现这些不良垃圾邮件索引时,搜索引擎可能会对那些被发现使用*敏*感*词*优化技术的人采取行动。 2006 年 2 月,谷歌删除了德国宝马和德国理光,因为他们使用了这些方法 [14]。伪装法(cloaking)简单来说就是网站站长使用两个不同版本的网页来达到最佳效果。一种是供搜索引擎看的,一种是供人看的。搜索引擎称这种做法是不正常的,如果发现,网站 将从搜索引擎列表中永久删除[15]。带有关键字填充的隐藏文本是另一种欺骗搜索引擎的方法。通常是指将关键字的颜色设置为与网页背景颜色相同,或者通过css隐藏属性(隐藏特征)来达到优化效果。一旦谷歌发现了这种做法,该遭遇也将从谷歌的数据库中网站删除[16]。 [编辑] SEO 与营销当这种 文章 趋势建立在 SEO 大师所戴颜色帽子之间的差异之上时,这些行业肖像实际上对于促成一些行业最有影响力成就的一些事情很重要不要得到太多墨水。有不少优化从业者只是将搜索引擎视为网站的另一个访问者,并试图让网站像真正的访问者访问这些页面一样友好。

  他们的工作重点不是针对许多术语对顶级搜索引擎进行排名,而是帮助网站所有者实现网站的业务目标。这可以通过引导基本搜索结果的形式来实现,甚至可以利用搜索引擎上的付费广告到某些页面。至于其他页面,创建高质量的页面以吸引参与和说服,澄清技术问题,将允许搜索引擎继续抓取和抓取这些网站。此*敏*感*词*扩大到包括 RSS 提要、视频搜索、本地结果、地图以及他们必须提供的更多内容。

  [edit]法律*敏*感*词* 2002 年,搜索引擎运营商 SearchKing 在俄克拉荷马州*敏*感*词*对搜索引擎 Google 提起诉讼。 SearchKing 声称谷歌防止索引垃圾邮件的努力构成了不公平的商业行为。这可以想象为垃圾邮件营销者起诉反垃圾邮件,就像许多反对地图和其他 DNS 黑洞列表 (DNSBL) 的情况一样。 2003年1月,*敏*感*词*发布了有利于谷歌的判决摘要[17]。 [编辑] 高质量的 网站 通常排名很好 对于许多有兴趣最大化 网站 附加值的 网站 员工,可以阅读搜索引擎和 W3C 发布的编码指南。如果遵循这些指南,网站会经常更新,提供有用的 原创 内容和一些有用的、有意义的传入链接,获得相当数量的基本搜索流量应该不会太难。当一个站点有有用的内容时,其他站点成员自然会链接到该站点,从而增加其页面级别和访问量。当访问者发现有用的 网站 时,他们倾向于使用电子邮件或即时消息链接将其介绍给其他访问者。总之,提高 网站 质量的 SEO 实施可能比直接寻找操纵搜索排名的方法的短期实施更长寿。顶级 SEO 正在寻找搜索引擎正在寻找蓬勃发展的相同事物。它们是: 对用户有用的相关内容。 [编辑] 另请参阅 Google Bomb Spamdexing? (Spamdexing) 谷歌顾问 SEO 竞赛 搜索引擎营销 雅虎搜索营销

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线