搜索引擎优化seo每天一贴(关于GooglePanda算法更新的一些零零碎碎的零零碎碎情况很少。)
优采云 发布时间: 2022-02-21 17:16搜索引擎优化seo每天一贴(关于GooglePanda算法更新的一些零零碎碎的零零碎碎情况很少。)
关于 Google Panda 算法更新的一些点点滴滴。到目前为止,受影响的网站中很少有人完全康复。
子域单独处理。据报道,一个网站将优质内容移至子域以恢复排名。
Panda 的目标是内容农场 网站,但有很多误杀。
它主要与内容质量和用户体验有关。例如,广告与页面的比例可能是指标之一。
Panda 的更新算法是指人工质量检查和用户浏览数据,通过机器学习形成模式。
84% 与阻止 网站数据相互验证指令的 Chrome 用户重叠。
不是连续调整,而是像以前的 Google Dance 那样批量(甚至可能是手动)开始计算。
熊猫惩罚是在页面和列上实施的,而不是整个域。同一域中的某些页面/部分可能会受到处罚。
栏目中的劣质内容增多,栏目下的整个页面都会受到影响。
没有轻罚和重罚之分。要么惩罚,要么不惩罚。
低质量的单个页面不太可能受到惩罚。累积多个低质量页面会导致所有相似页面都受到惩罚。
列被认为是低质量的,列中的各个高质量页面也会受到影响。
具有高质量外部链接的域名将受到熊猫的惩罚,门槛更高,被惩罚的机会更低。
无论 关键词 是什么,Panda 惩罚都是针对页面的。所有 关键词 排名下降。
发表在谷歌排名技术研究 | 72 条评论 >一般来说,试图让搜索引擎抓取和索引尽可能多的内容是 SEO 经常头痛的问题。没有收录,索引就不可能谈排名。尤其是对于一定规模的网站,让网站足够收录是一个比较累人的SEO技巧。无论架构如何设计和优化,100%收录是不可能的,只能尽可能提高收录的率。但有时如何阻止搜索引擎 收录 也可能是一个问题,最近越来越多。需要屏蔽的情况,如机密信息、复制内容、广告链接等。过去常用的屏蔽收录的方法有密码保护、将内容放在表格后面,使用JS/Ajax,使用Flash等。今天在谷歌站长博客上看到一篇文章文章,这些方法都不安全。使用 Flash Google 几年前就开始尝试抓取 Flash 内容,简单的文本内容已经可以抓取。Flash 中的链接也可以被跟踪。
床单
谷歌蜘蛛还可以填写表格和抓取 POST 请求页面。这已经可以从日志中看出。
JS/Ajax 使用 JS 链接一直被认为是对搜索引擎不友好的方法,所以可以防止蜘蛛爬取,但是两三年前我看到 JS 链接不能防止谷歌蜘蛛爬取,不仅网址出现在JS会被阻塞爬取,也可以执行简单的JS来查找更多的URL。前几天有人发现网站使用的Facebook评论插件中很多评论被爬取和收录,而插件本身就是一个AJAX。这是个好消息。我的一个实验性电子商务 网站 产品评论功能因此花了很多心思。使用 Facebook 评论插件的好处是巨大的。后面会讲具体的好处。唯一的问题是评论是由 AJAX 实现的,不能被 Crawling 使用,而产品评论是 < @收录 是目的之一(产生 原创 内容)。想了半天也没找到解决办法,就傻傻的把脸书评论插件和评论功能都放在了购物车上。好了,既然Facebook评论中的评论可以是收录,那么就不需要两套评论功能了。
机器人文件 确保当前内容不是 收录 的唯一方法是被机器人文件禁止。但也有一个缺点。它会减肥。虽然内容不能是收录,但是页面已经变成了一个只接受链接权重不流出权重的无底洞。NofollowNofollow 不保证不会成为 收录。即使你网站给页面的所有链接都加了NF,你也不能保证其他人网站不加这个页面的链接,搜索引擎还是能找到这个页面的。
Meta Noindex + 关注
(11月3日新增)读者no1se提醒,为了防止收录传递权重,可以在页面上使用meta noindex和metafollow,这样页面就不会收录,而是可以流出重量。确实,这是一个更好的方法。还有一个问题,还是会浪费蜘蛛爬行的时间。哪位读者有方法可以防止收录,不减肥,不浪费爬爬时间,请留言,对SEO界大有裨益。
如何防止页面被收录是一个值得思考的问题。没意识到严重性的孩子可以想一想有多少抄袭的内容,低质量的内容,各种没有搜索价值的(但用户我觉得方便好用,所以我不能带走)来分类和过滤网址。
发表在 SEO 技术 | 70 条评论 > 昨天,我妻子告诉我,当我醒来时,乔布斯已经去世了。我赶紧上网看新闻和微博。真是羡慕人才。同时我发现很多网页没有显示PR值,我用Chrome添加了一个插件。当时没太在意,就发了一条微博,去做别的事了。微博的内容是:是不是为了纪念乔布斯,谷歌公关不显示?
一半史蒂夫乔布斯,一半开玩笑。我写的是PR是不显示的,把网上上传的PR归零或者清除不是一个概念。我的浏览器显示一个问号,而不是零。
晚上看微博,发现很多人都说谷歌PR被取消了,搜索后还有很多这样的说法:
有的帖子说自己有鼻子有眼睛,标题写着“10月6日PR正式取消”,还有人想多了,说是GFW的原因。不知道我的微博有没有火上浇油,如果有,真的很抱歉……
我在 Google+ 上看到了 John Mueller(Google 员工)的确认和澄清,于是赶紧发了一条微博:
这条微博只是半开玩笑,可能会引起一些人的误解,甚至有人认为谷歌取消了PR。澄清一下,只是第三方工具没有显示PR(因为查询地址或指令变了),谷歌工具栏依然正常显示,并没有取消显示,更没有取消PR . 谷歌取消PR也不是一两次,不知道为什么这么多人这么感兴趣。谷歌计算排名的真实公关与取消无关,这是他们算法的一部分,不可能取消。能取消只是PR值的外在展示,但我从来没有听说过Google打算取消,虽然他们一直在呼吁SEO不要关注PR值。它'
张贴在谷歌新闻 | 198条评论 >昨天乔布斯逝世的消息铺天盖地,纪念活动我就不多说了,只说2点:
1)乔布斯是一个真正改变世界、改变我们生活的人,是世界上少有的真正一起哀悼的人。
2)虽然他是百万富翁,但很少有人谈论乔布斯的财富,也没有人讨厌他的财富。用自己的头脑和双手赚钱,让每个人都信服。
职业病的起因,还是从乔布斯去世时想到的SEO。这种突如其来的事件一定导致相关关键词搜索量暴增,不用抬头就知道“乔布斯死了”、“乔布斯死了”、“乔布斯死了”之类的词一定已爬到搜索列表的顶部。这通常成为 SEOers 捕获流量的机会。最重要的是,此类事件和 关键词 可以被预期、计划或至少迅速采取行动。
虽然迈克尔杰克逊的去世比较突然,但病了好几年的乔布斯*病了好几年,最近几个月病情迅速恶化。有兴趣的可以提前做个页面,建立一些链接。如果域名有一定的权限,可以提高排名。事发前,内容上可以放一些预测、谣言等(前几天有传闻称体重减轻,黑帮老大乔死了)。新闻等)。
当这种大事件发生时,出现在搜索前面的话题往往是一个很大的网站话题。如果肖战提前准备的话,会有机会的,因为一旦事件发生,马上就会有人搜索,肖战提前准备好的页面马上就可以使用。人们发现,如果页面的内容做得好,就会有很多人连接到这个页面,而且链接越多,排名就越好,更多的人会发现、链接、转发等,进入一个正循环。类似情况请参考这篇一天扫30万流量的文章。我估计,如果像乔布斯这样的新闻能排在前几名,带来几十万的流量是没有问题的,有可能达到几百万。去年,当谷歌退出中国时,我做了一个类似的实验。得知消息后,我立马发帖。那篇帖子在谷歌搜索“谷歌退出中国”排名第5,当天和次日IP数上万。与乔布斯之死相比,谷歌退出中国是一件相对较小的事情,其影响力是无法比拟的。此外,如果能在百度排名前三,流量将是惊人的。还有一些想法:
1)域名需要有一定的权重。毕竟是和大新闻门户竞争,所以一个新注册的域名恐怕是行不通的。
2)大型免费博客平台可能是一个不错的选择。因此,它可以承受突然的流量。上面提到的谷歌退出中国的例子,我的10000IP的服务器基本处理不了,页面也几乎打不开,所以实际访问量可能比较多,但是打不开。其次,可以继承一点博客平台的重量。
3)乔布斯去世的影响可能还是太大了,竞争也太激烈了。考虑下一级的角色...
发表在 SEO 主题 | 76条评论 > 下周去台湾参加10月15日的日月光华影时代电商大会,下午主持两岸三地SEO对话。看了演讲者名单,很多老朋友又可以见面了。作为一个生活在国外和互联网上的人,只要有机会和时间,我都喜欢参加这样的行业会议。我可以遇到真实的人,聊天,喝酒喝酒,否则我将与真实的社会脱节。在台湾或去台湾的朋友可以联系我,届时见面聊天。此外,Win Times正在举办第二届虎谷穿越大赛。喜欢CPS的人,个人选手第一名将获得30万奖金,这已经足够激励了,所以如果你有兴趣,赶快。不知道有多少人还记得穿越虎谷的记忆?现在SEO竞赛无处不在,翻虎谷是一项创举。最近,很多人提醒我,SEO 帖子正在迅速成为月度帖子。今天看,不只是一个月,上一个是两个多月前的事了。惭愧,惭愧,东西太多,更新薄弱,尽量鄙视我……以后再写一篇吧。
发表在 个人随笔 | 48条评论 >6月27日,谷歌工具栏PR更新了一次,随后很多人注意到推特首页PR降为零。(谷歌的主页也降到了9,但这不是重点。)7月19日,谷歌实际上再次更新了工具栏PR。谷歌更新工具栏的PR值从一个月一次变成了三个月一次,甚至六个月一次,所以这次不到一个月再更新一次就有点奇怪了。从目前披露的信息来看,这次PR的更新似乎主要是为了纠正Twitter PR值的问题。今天在SEL上看到VanessaFox的一篇文章文章,解释了为什么Twitter的一些技术失误导致了谷歌抓取、URL规范化、PR计算等一系列问题。值得一读,所以我粗略翻译一下,供读者参考。为什么不是谷歌的错,而是谷歌如此关注并更新了PR?猜测的原因有两个。一是无论如何,Twitter 主页 PR 为零。大家一定要说是谷歌有问题,不是推特,虽然其实是推特本身造成的。其次,在Google+上线的同时,谷歌与推特的合作合同已经到期,无法直接通过API获取数据。这时候,推特公关掉到了零,想必大家心里都会嘀咕,谷歌真的要过河拆桥了。,谷歌不想承担责任。但谷歌如此关注并更新了PR?猜测的原因有两个。一是无论如何,Twitter 主页 PR 为零。大家一定要说是谷歌有问题,不是推特,虽然其实是推特本身造成的。其次,在Google+上线的同时,谷歌与推特的合作合同已经到期,无法直接通过API获取数据。这时候,推特公关掉到了零,想必大家心里都会嘀咕,谷歌真的要过河拆桥了。,谷歌不想承担责任。但谷歌如此关注并更新了PR?猜测的原因有两个。一是无论如何,Twitter 主页 PR 为零。大家一定要说是谷歌有问题,不是推特,虽然其实是推特本身造成的。其次,在Google+上线的同时,谷歌与推特的合作合同已经到期,无法直接通过API获取数据。这时候,推特公关掉到了零,想必大家心里都会嘀咕,谷歌真的要过河拆桥了。,谷歌不想承担责任。虽然实际上是推特本身造成的。其次,在Google+上线的同时,谷歌与推特的合作合同已经到期,无法直接通过API获取数据。这时候,推特公关掉到了零,想必大家心里都会嘀咕,谷歌真的要过河拆桥了。,谷歌不想承担责任。虽然实际上是推特本身造成的。其次,在Google+上线的同时,谷歌与推特的合作合同已经到期,无法直接通过API获取数据。这时候,推特公关掉到了零,想必大家心里都会嘀咕,谷歌真的要过河拆桥了。,谷歌不想承担责任。
离家近一点。
谷歌发言人在回应 SEL 的 Twitter PR 时说:
最近 Twitter 一直在修改他们的 robots.txt 文件和 HTTP 标头,这在 Google 的算法处理 Twitter 时暂时导致 URL 规范化问题。归一化问题现在几乎解决了,所以我们更新了工具栏 PR 以反映最新数据。Twitter 在 Google 索引库中的 PR 一直很高,没有任何惩罚。
因此,VanessaFox 研究了 Twitter 存在哪些类型的机器人文件、服务器标头和 URL 规范化问题。在你看到它们之前,你永远不会知道事物的全部范围。顺便说一句,VanessaFox 是负责网站管理员工具的前 Google 员工。
我有预感这篇文章会很长,刚开始就这么长……
Vanessa Fox 搜索了她的名字“Vanessa Fox”,结果如下:
有一个URL,但是没有标题,没有描述,也就是实际上并没有被爬取,只是被部分索引了。
直接搜索 Vanessa Fox 自己的 Twitter 页面的 URL 得到:
为什么会出现大写字母?URL 末尾的点 (.) 是什么?实际发生了什么?
我们先来看看 Twitter 的 robots.txt 文件
和 robots.txt 文件其实不一样。/robots.txt 看起来像这样:
#Google 搜索引擎机器人
用户代理:Googlebot
# Crawl-delay: 10 - Googlebot 忽略 crawl-delay ftl
允许:with_friends
#雅虎!搜索引擎机器人
用户代理:Slurp
爬行延迟:1
禁止:with_friends
#Microsoft 搜索引擎机器人
用户代理:msnbot
禁止:with_friends
# 每个可能读取并尊重此文件的机器人。
用户代理: *
禁止:with_friends
禁止:/oauth
禁止:/1/oauth
是这样的:
用户代理: *
不允许: /
换句话说:在某些情况下,带www和不带www的两个版本的内容可能会有所不同。
Twitter似乎为了规范和URL而禁止搜索引擎抓取www版本。
所以虽然有www的版本做了301转向没有www的版本,但是Twitter禁止搜索引擎爬取www的版本,所以搜索引擎蜘蛛是看不到那个301的。
Twitter的一些链接链接到www版本,有些是没有www的版本。由于www版本禁止爬取,看不到301,所以无法传递链接权重,很浪费。
所以在第一个屏幕截图中,我看到返回了带有 www 的版本。可能的原因是这个版本的外链比较多,但是推特禁止爬取,所以只收录了部分索引(也就是只有来自链接的部分数据,没有页面本身的内容)。
再来看看302重定向查看/vanessafox的URL头信息,实际返回一个302重定向到/#!/vanessafox。为什么说“实际上”?请参考301转向和302转向的区别。由于使用了 302,因此权重没有转到 /#!/vanessafox,而是 301 转到 /vanessafox。当然,因为www版本被屏蔽了,所以链接权重无法传递。为什么不直接 301 到 /#!/vanessafox (这是 Twitter 想要的标准化版本)?就算要转两圈也得用301,而且不能屏蔽www版。
再看 AJAX 抓取 Twitter 意图
Twitter 想要的规范 URL 是 /#!/vanessafox,其中 # 表示 Twitter 希望搜索引擎抓取页面的 AJAX 内容。(这里的技术问题比较复杂,就不解释了。即将出的《SEO艺术》有关于AJAX内容和#符号的使用的解释。打个广告吧,呵呵)。
但是,由于一系列复杂的重定向,这可能会导致问题:Google 会抓取不带 www 且带有 #! 的 URL。(/#!/vanessafox),然后重定向到 /_escaped_fragment_/vanessafox
然后 Google 被 301 重定向到带有 www 没有 #! 的版本!
并且当用户访问时,JS 将用户重定向回带有 #! 的版本。
我在读这篇文章时脑子里有点乱,无论如何,Twitter 做了一堆重定向以使 /vanessafox 的干净版本出现在搜索结果中,但用户点击并重定向到 /#!/凡妮莎福克斯。你为什么把事情搞得这么复杂?越复杂,越容易出错。
什么是限速?
Twitter页面标题中有一个速率限制部分: