小站的站名“CSS魔法”在搜索引擎里的表现
优采云 发布时间: 2021-07-12 23:14小站的站名“CSS魔法”在搜索引擎里的表现
自从网站开通以来,我一直在关注网站名称“CSS Magic”在搜索引擎中的表现。肖战在这个关键词排名中迅速领先——当然这是意料之中的。但是后来发现肖战在其他关键词上的表现也很突出,比如“CSS习题”、“CSS习题”、“Web标准面试题”等等,其实都很高。在发布了某篇CSS教程后,“二次导航制作”、“折叠二次导航”等关键词也给肖战带来了不小的流量。这些情况让我有点意外,毕竟网站没有刻意推广或SEO。
如果要找原因,我觉得应该归功于良好的HTML结构和语义标签的使用。在博客建立之前,小站的页面都是手写的,力求语义标签的合理使用;同时,
标题
和
元
信息也进行了合理的安排。主要内容是:
就像每个文章都有标题一样,每个页面都必须有标题
h1
元素,其内容应为页面内容的标题。并且通常是页面
标题
此信息也应包括在内。这样,
h1
元素和页面
标题
自然收录了网站或页面的核心关键词,没有必要刻意进行所谓的“优化”。
适当使用
h2
,
h3
和其他标题元素。对于内容页,自然是文章的不同层次的标题;对于首页或者功能页面,我一般都用它们作为功能块的标志元素。
页面描述
元
信息的重要性不容忽视。它应该包括或总结页面的核心内容。 (但由于精力有限,本站前几页的描述信息采用了公共模板。)
Web 标准的优越性已经深入人心,结构与性能的分离至关重要。制作页面时尽量保证页面代码纯净无杂质,避免表格和
的嵌套
字体
,
中心
和其他纯粹表达性的标签。这样整个页面的体积就很轻,很容易被搜索引擎抓取。
也可以在页面中使用
强
,
他们
,
dfn
进一步强化关键词等元素。看来这一步远不如前面重要,适量使用就好了。
这样做之后,搜索引擎自然会对页面的质量和价值产生积极的判断。我什至想知道像谷歌这样的智能搜索引擎会不会对用丰富语义标签编写的页面产生更有利的印象,从而增加其权重?
PS 之后愣了一会,我很快冷静下来。小站关键词的优势还是比较冷门的。如果有一天能像“CSS”一样在关键词排名中名列前茅,那就叫牛×!
旧想法
在我现有的概念中,搜索引擎网络爬虫/蜘蛛/机器人(Crawler/Spider/Robot)只抓取页面的HTML代码,而忽略内部或外部的JS和CSS代码。所以我们常说Ajax不利于搜索引擎抓取,不利于SEO。
因为在我们看来,搜索引擎爬虫毕竟不是强大的浏览器。它们不能运行 JS,也不能渲染 CSS。那些色彩斑斓的页面,在爬虫眼中,不过是纯粹的文字流(或收录结构化标记的文字信息流)。
然而,最近关于谷歌的两条新闻彻底颠覆了我对搜索引擎爬虫的认识。
新闻一
来自 Google 高级工程师 Matt Cutts 的一段视频让我震惊。马特警告我们,不仅文字和背景颜色,字体大小设置为0、用CSS隐藏文本等等。这些技巧已经是小儿科了,但谷歌现在可以识别通过JS隐藏文本的作弊方法。
在视频中,一段晦涩的 JS 代码将元素的 .style.display 属性设置为“none”,试图隐藏仅适用于搜索引擎而不向用户显示的文本。马特说,这种作弊行为再也瞒不过谷歌了。
新闻 2
新闻 2 更可怕。据说Google可以抓取Ajax内容!文章称,在 URL 的哈希部分添加特定标识符(即 /#abc 更改为 /#!abc)将使 Googlebot 意识到该 URL 是一个 Ajax 页面(而不是页面中的锚点),并进行爬网。
你可能对谷歌的这项技术改进没有太大兴趣,但你一定已经注意到问题的本质:Googlebot 可以抓取 Ajax 内容,也就是说 Googlebot 完全有能力运行页面中的 JS,而且功能很完善!
爬虫和浏览器
如果这两条消息属实,那么从某种意义上来说,爬虫的行为和能力已经越来越接近浏览器了。这也意味着搜索引擎爬虫会抓取更多的内容(包括JS和CSS文件),网站的流量负载会增加。
另一方面,爬虫在抓取页面的过程中也会消耗更多的资源——仅处理文本信息的资源成本远低于完全渲染页面并运行客户端程序的资源成本。
因此,我对这两条消息仍然持怀疑态度。这是谷歌发布的*敏*感*词*吗?还是好人编造的假新闻?如果Googlebot真的有能力跑JS或者渲染CSS,那么为了将资源开销控制在一个合理的范围内,或许Google会在内部开启黑/白名单机制?
网站管理员
如果担心爬虫对主机流量的侵蚀,可以考虑禁止爬虫抓取robots.txt文件中的*.js和*.css文件。但是,我不确定这是否有任何不良副作用。
有些人可能还会担心,正常的页面布局有时需要使用一些隐藏文本的手段,比如【CSS图片生成文本】、【隐藏模块的hx标识信息】等。这会被谷歌判定为作弊吗?
我相信对于谷歌这样“智能”的搜索引擎,它有能力让爬虫跑JS和CSS,但也必须能够判断什么是作弊,什么是正常布局。所以我认为网站管理员不需要恐慌。他们做他们通常做的事情。他们不怕影子。规则总是用来约束那些“不法之徒”。
所以,对于一些 SEOer 来说,这似乎是个坏消息。如果他们还在考虑是否有新的作弊方案,那我觉得意义不大。显然,SEO作弊手段的生存空间会越来越小。同时网站自身内容的价值才是SEO真正的基础。
一、网站被k之服务器章节
服务器运行稳定吗?搜索引擎抓取时,服务器运行正常吗?日志是否返回 200 状态代码?如果是200状态码,那只是暂时的现象。请静下心来等待大更新期间发布的搜索引擎。
二、网站被k之robots.txt文章
目前,大多数搜索引擎都遵守机器人协议。如果robots设置不当,会直接影响搜索引擎爬取收录的工作。检查robots.txt文件是否设置正确。
三、网站被k的SEO文章
网站是否使用了关键词推广的作弊方式,如关键词修改、标题修改、关键词密度、元属性修改、网站内容结构、内容作弊等,如果网站内容优化不当会造成严重后果。
四、网站被k之安全篇
网站是否被黑客攻击、打不开、木马、病毒等,一般搜索引擎不会处理这种现象,但会影响用户体验。如果你被搜索引擎用户投诉,你就会受到搜索引擎的影响。手动网站调整。
五、网站被k 轮到文章了
是网站内容修改,404页面重定向,还是JavaScript重定向或服务器301重定向到302重定向等,可能会影响网站trust并受到处罚。
k27@网站被k之友情链接@篇
网站交换合作链接,如果一些网站被搜索引擎认为作弊被处罚,而你的网站恰好与之交换,有时也会受到牵连。 网站友情链接太多太复杂,同样被搜索引擎K掉线的风险增加。
七、网站被k之网站复制章节
如果网站抄袭过多,不仅会降低网站的信任度,有时搜索引擎还会误认你的网站source和copy或者采集等,网站面临抄袭,如果网站权重也高,影响网站的信任,面临被k的危险。
八、网站被k 的搜索引擎文章
如果你的网站曾经是搜索引擎竞价广告,当竞价广告被移除时,你有时会面临被搜索引擎处理的危险,从排名下降到网站被k不等因此,竞价广告不利于网站的长远发展。当你有钱的时候,你就是这么做的。当你没有钱时,你只需覆盖它。最好自然排名。
九、网站被k的信息群发文章
如果你的网站是朝着群发的方向推广,这有时会导致相反的现象。 网站乱发信息会被搜索引擎判定为作弊。搜索引擎注重合作运营和推广。如果大量使用 有时网站会因人工、群发软件发送信息不当等原因掉线。
十、网站被k的IP地址文章
有时候你换了服务器,现在网站ip也会被改变。如果你IP地址上的服务器碰巧被很多搜索引擎网站作弊,该IP地址被搜索引擎屏蔽了,那么,你的@如果k14@也放在上面,也会受到牵连和影响被搜索引擎判定为作弊网站。
十一、网站被k的域名篇
1、如果你的网站域名是早注册的,而早期的网站域名作弊被搜索引擎屏蔽了,那你以后再用它的域名,也会有危险被手动通过一些搜索引擎。加入搜索引擎黑名单,对网站的域名内容进行爬取,只有更换新域名才能摆脱处理。
2、网站绑定域名太多,域名不同,内容相同。有时会被搜索引擎判断为作弊,被k处理。
十二、网站被k之法篇
如果您的网站内容不符合国家法律信息,且存在勾引、*敏*感*词*、反应等违法信息,网站将被处理,因为国家法律法规不允许传播此类信息,搜索引擎也遵守它。遵纪守法,不向搜索引擎用户提供非法信息。