网站优化程序生成很多的静态内容链接自己,算不算作弊?

优采云 发布时间: 2021-08-23 03:38

  网站优化程序生成很多的静态内容链接自己,算不算作弊?

  1、网站优化程序生成大量静态内容链接自己,是作弊吗?

  一个行为是否被认为是作弊主要是一个程度的问题。大量垃圾静态内容(来自采集,随机生成),只要达到一定数量,一般会被判定为重复内容或作弊,可能会被减权或索引删除。其实我们知道现在很多网站自己的内容很丰富。如果你把你的内容展示得好,它会带来很多好处。没必要惹采集。

  2、flash 对搜索引擎优化的影响网站收录

  Flash 本身没有任何不良影响。常见的错误行为是滥用闪光灯。

  比如百度优化整个网站使用flash。设计师或只使用界面的人可能会这样做。事实上,这并不好。一是速度往往很慢,有等待时间长的可能;二是干扰用户习惯。许多人以改善用户体验的名义滥用闪存。表示赞赏或只是尝试通常是好的。长期用户往往受不了;三是搜索引擎收录无法搜索到整个网站的所有内容。

  一个很常见的弊端是seo优化的内容页面非常丰富,但是首页只有一个flash,没有任何文字链接帮助用户进入下一级页面。此类问题经常出现在一些大公司的网站中。虽然真的很美,但是问题也不少。首先是速度。多数网友不耐烦,看到长长的加载条会迅速离开。其次,如果用户不安装flash插件,将无法看到首页,从而无法进入不需要flash的内容页面;第三,搜索引擎无法通过主页访问后页。所以我们会发现很多公司的网站pagerank很高,但是内容页根本没有pagerank。因此,在搜索引擎中搜索产品名称时,第三方网站往往排在第一位。对于这种网站,最好在底部放一个二级栏目导航栏,至少放一个“点此跳过flash直接进入内容”的链接。

  3、no 脚本有用吗?

  当然有效。现在很多网站喜欢用Javascript特效或者Ajax,这本身不是问题。但是如果用Javascript来显示网站的导航,有两个问题。第一,对于没有开启Javascript的用户,不能输入网站;其次,搜索引擎经常无法显示收录Javascript 链接。没有脚本可以解决这个问题。 noscript标签中收录的代码会显示在没有打开Javascript的用户的浏览器上,搜索引擎也可以从中获取导航信息。

  但是,导航本身最好使用标准的HTML代码,使用css和Javascript来实现特殊的导航效果。以后我们会有专门的文章​​@讲解Ajax网站是如何做搜索引擎优化的。

  4、更新频率应该多高?

  理论上更新频率当然是越快越好,但不建议无内容随意更新。现在google优化网站的大部分内容都很丰富,更新频率也够了。

  5、js 生成的更新可以是收录吗?

  Javascript 相关问题的答案实际上是相同的。大多数搜索引擎爬虫不会爬取Javascript生成的链接,所以自然不会是收录。

  6、不愿意与外部网站交换链接会有什么影响?

  不愿意交换链接自然会对Pagerank产生不良影响。但是如果你的内容真的很好,自然会有用户主动链接到你的页面,你的PageRank自然会得到提升。

  7、Grab 站外新闻对SEO有用吗?

  这不是很有用。从外部网站抓取新闻获得的内容实际上是所谓的重复内容,价值不高。

  8、与外部网站交换链接,最重要的地方在哪里?

  当然重要的是,Pagerank 越高,页面越好,位置越高越好。

  9、大网站会链接到其他网站吗?多少钱?

  交换链接一般是双赢的,所以只要你的网站质量达到一定水平,交换链接并不难。一般来说,你不需要钱。要钱的人要保持警惕。这是搜索引擎禁止的行为。

  10、网站中,同级别页面PageRank越高,抓取频率越高?

  是的,Pagerank、全站信用等级和页面更新频率都会影响抓取频率,因此Pagerank越高,抓取频率越高。

  11、Robot.txt 如何影响 SEO?

  Robot.txt 很有价值,但普遍被站长低估和误解。很多人认为它只有在阻止搜索引擎技术爬行时才有用。但实际上,正确使用Robot.txt对SEO是非常有好处的。例如,经常需要以不同的形式表达重复的内容,这种情况很容易被搜索引擎判断为重复的内容堆叠。正确使用Robot可以引导搜索引擎只关注收录首选内容,不存在作弊嫌疑。 (请参阅:google网站Admin 博客中的文章@“巧妙处理内容重复”)

  除了处理重复之外,Yahoo 还允许您使用 Crawl-delay: 参数来设置 Robot.txt 文件中的抓取频率(请参阅:如何控制 Yahoo! Slurp 蜘蛛的抓取频率)。 Sitemap 协议允许您在 Robot.txt 文件中填写 Sitemap 参数(请参阅:在 robots.txt 文件中指定 Sitemap 位置)。

  12、二级域名有什么好处?

  好处不是很大,如果用户喜欢就用它。

  13、用户页面的url,用文字好还是用数字好?

  如果用户名不允许中文,那么文字更好。虽然 URL 中也可以使用中文字符,但某些浏览器总是不能很好地支持。如果用户名允许中文,请使用数字。基本上,这不是一个很重要的选择,尽管搜索引擎技术也会将 URL 中的文本视为可以查询的内容。

  14、flash 元数据,对SEO有什么影响?

  未来可能很重要,但支持这项技术的搜索引擎应该不会太多。

  15、crawler 有没有Ajax爬取的计划?

  Googlebot,也称为 Google 的标准蜘蛛,不支持 Javascript。但 Mediapartners-Google 是 Google Adsense 的爬虫,它实际上支持 Javascript。这意味着对 Javascript 的技术支持不成问题。不过出于效率和任务优先级的考虑,Google 暂时没有让标准蜘蛛 Googlebot 支持 Javascript 的计划。

  百度的爬虫支持部分Javascript,但由于技术和效率限制,我认为百度无法100%抓取Javascript内容。

  16、js 代码里放url有用吗?

  答案显而易见,但毫无用处。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线