搜索指定网站内容(没有网站首页被K怎么办?查看问题出在哪里)

优采云 发布时间: 2022-01-28 10:00

  搜索指定网站内容(没有网站首页被K怎么办?查看问题出在哪里)

  在搜索引擎中输入搜索命令:site: 搜索结果显示:对不起,没有找到与“site:”相关的网页;或者使用站长工具查询,收录栏显示“0”,如果是的话,如果曾经是收录的网站曾经有过这种情况,我们称之为网站为K。如果只有主页消失,则称为网站主页为K。

  <IMG border=0 src="/web/UploadFiles_1049/201808/2018082313310334.bmp" width=450 height=330>

  对于网站被阻塞的问题,目前还没有万能的解决方案。所以我们使用排除法来处理这个问题。看看问题出在哪里,制定相应的对策解决,让搜索引擎重新认识和重新收录。

  一、近期网站修改历史

  每个重要的SEO计划的在线迭代时间点都需要记录下来,作为后续问题排查和线索发现的依据,同时建立计划与效果的量化关系,有几个常见的问题与K站:

  1),导致错误链接的修改

  2),影响车站结构的调整

  3),过度优化的内部链接调整

  4),TDK经常调整

  5)、JS等代码实现的桥接页面。

  6),低质量内容的大量镜像,采集和复制

  二、网站日志分析

  从日志中可以发现很多问题,如下:

  1),大量5xx错误,尤其是500错误,说明是服务器问题,导致无法提供稳定的抓取响应,需要运维干预;

  2),大量的4xx错误,尤其是404错误最为常见,需要去除站点页面中的死链接,并阻断SE爬虫的入口寻找404页面;

  3),大量的301循环跳转会导致SE爬虫陷入无限爬行循环;

  4),爬取频率和爬取量减少,需要关注服务器响应时间和响应速度是否有减少作为入口点;

  5),爬取停留时间减少,特别是相对历史水平大于30%,同时爬取页面收录波动,页面质量有待提高。

  三、robots.txt的写法正确吗?

  robots.txt 文件用于防止搜索引擎蜘蛛爬取某些目录或某些文件。虽然这个功能很有用,但是很容易出错。如果您的 robots.txt 文件设置不正确,搜索引擎蜘蛛将无法抓取您的 网站。正常设置与错误设置的差异可能很小,应多检查几次以确保正确。

  四、关键词大栈

  不懂SEO的人经常会写很长的网站标题。在title标签、keywords标签、description标签中,往往有很多关键词。还有一些人似乎对SEO优化有所了解,喜欢在网页上(通常是页脚)无缘无故地放很多关键词。这是 网站 被禁止的常见因素。

  五、群发和群建外链

  我们知道,海量外链发现的依据是,同时网站突然添加了大量外链,而这些外链所在的网页内容基本一致,包括锚文本链接和 文章 内容。群发,除了和群发的判断尺度一样,还有一点就是很多时候IP段是一样的。如果博文过多,可能会被视为群发。因为它具有与群发相似的特征,所以可以在它发生之前加以预防。一旦是K,就没有解。

  六、外部因素

  还有一些容易被忽视的外部因素,例如:

  1),某类关键词流量刷量巨大,有违禁词,动态页面等,同时有外链,平时是禁止爬取的这样的页面。

  2),被外链攻击,通常新站点都会遇到,尤其是有动态页面的时候;

  3),中小站点镜像;

  4),被挂马、注入*敏*感*词*、*敏*感*词*、非法等页面信息,应定期检查网站的安全性;

  网站被降级是每个站长都不想看到的。只要你在做网站,你肯定会遇到降级。不管网站是干什么的,流量都是需要靠百度的。总结一下我以前做站的方式,和大部分同龄人交流的方式,让我的SEO方法可以改进。别天天花很多时间研究这个垃圾站采集,他怎么天天都在前面,为什么我的站不在前面?我也应该开始一个垃圾箱吗?相信您的客户是销售您产品的人,而不是搜索引擎。研究如何取悦 网站 您的访问者比研究垃圾箱排名如何更可靠。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线