seo网站日志分析工具(网站优化来说,搜索引擎日志分析是必不可少的一块,无论)
优采云 发布时间: 2021-10-01 15:24seo网站日志分析工具(网站优化来说,搜索引擎日志分析是必不可少的一块,无论)
对于网站优化来说,搜索引擎日志分析是必不可少的一块,无论你是收录数百小网站还是收录百万大中网站 ,要想做好SEO,必须进行科学的日志分析。日志是对网站服务器上发生的所有事件的记录,包括用户访问记录、搜索引擎爬取记录,对于一些大型的网站,每天的日志有几GB。我们可以使用 linux 命令将它们分开。在大型网站 日志文件中往往是机密文件,大多数人不会,因为我们可以从日志中分析访问者趋势、区域趋势等,我们不需要那么多数据来做SEO。我们只需要分析搜索引擎的爬取记录即可。所以无论数据量有多大,如果经过处理,不会特别大,而且现在硬盘这么便宜,存储日志文件还是可以考虑的。那么我们主要分析日志有哪些数据呢?
一个合格的站长或seoer必须能够理解网站的服务器日志文件。该日志记录了网站被搜索引擎抓取的痕迹,为站长提供了蜘蛛是否访问的有力证据,站长朋友可以通过网站日志分析搜索引擎蜘蛛的爬行情况,分析网站中是否存在收录异常问题。
1、 各个搜索引擎的整体抓取量(和趋势)
在日志文件中,清楚地记录了各个搜索引擎的抓取量。比如百度、谷歌、搜狗等搜索引擎的爬取记录,我们可以记录下来,可以使用DOS命令或者Linux命令来实现。一个搜索引擎的收录是由爬取的数量和文章的质量决定的。在文章的质量保持不变的情况下,蜘蛛爬行的量越大,那么收录我们在分析日志的时候,一定要清楚的知道蜘蛛每天的爬行量是多少,并且一定要记录下来每天。也许绝对值不能解释什么。我们可以看看它的趋势。,当爬取量的趋势有一天呈下降趋势时,我们必须找到原因。
2、 记录搜索引擎蜘蛛的独特爬行
上一步我们分析了蜘蛛的爬取量数据,然后我们需要去重,这是搜索引擎唯一不重复的爬取量。其实对于收录来说,很多页面只需要爬一次就可以了,但是在实际操作中,很多页面都是重复爬取的。谷歌的技术更先进,重复抓取率可能会低一些,但百度等搜索引擎的重复抓取率非常高。高,可以通过日志分析看到。如果你一天爬几百万次,你可能会爬上几万次主页。因此,您必须分析大量数据。就会知道问题的严重性。
3、各个目录和各个搜索引擎的抓取量
上面两步我们记录了总爬取量和非重复爬取量,接下来就要分析各个搜索引擎是如何爬取各个目录的,有利于区块优化,比如当你网站当流量增加时,可以知道哪个目录的流量增加了,然后往下推看看哪个目录的爬取量增加了,哪个目录的爬取量下降了,下降的原因。两者都可以分析,然后可以在网站中进行适当的链接结构调整,例如使用nofollow标签。
4、搜索引擎抓取的状态码统计
当搜索引擎抓取您的页面时,它不仅会抓取您的内容,还会抓取返回码。我们需要记录这些返回码,尤其是类似于301、404、500等状态码的返回码。从这些状态码中,我们发现了网站的一些潜在问题,比如为什么会有这么多404页面,是程序的原因,还是搜索引擎在抓取外部链接时提取错误,其实,我们可以在谷歌管理员工具中看到数据,它还会提示你404错误页面出现在哪里。我们还应该注意一些 301 状态码。看看这些301。这不是我们想要跳跃的方式。在 网站 中,您应该使用尽可能少的跳转。当页面跳转时,往往会延长页面的加载时间。最常见的301可能是没有收录网页的URL。"/" 跳转到带有 "/" 的情况。在网站中,我们应该尽量避免这种情况。
5、统计搜索引擎蜘蛛来的次数和时间
我们可以用一些日志分析工具来定一个标准,比如光年日志分析工具,可以统计每个搜索引擎蜘蛛每天来的次数,在网站里呆了多久一天,有没有IP蜘蛛我们网站一天24小时不停地爬。这样的蜘蛛越多越好。往往是你的网站增重的表现。这样的数据可以每天记录。在一定时间段内进行对比分析,看停留时间是否增加,访问量是否增加,从而可以判断网站的权重在增加。还在跌。
如果想知道日志文件收录什么内容,首先要知道各个搜索引擎的蜘蛛名。比如百度的蜘蛛程序名是baiduspider,谷歌的机器人程序名是Google-Googlebot等,我们在日志中搜索上面的内容中的蜘蛛名就知道是哪个搜索引擎爬取了网站,这里有他们的线索。此外,您必须能够理解常见的 http 状态代码。最常见的 HTTP 状态码有 200(页面获取成功)、304(上次获取的和本次获取的相同)、404(页面未找到)、错误链接)500(服务器没有响应,一般维护和失败由服务器,在网站打不开时出现),这些状态码我们站长朋友一定要懂,服务器状态码的值是我们与蜘蛛通信的信号。知道了这些基本信息后,我们就可以根据网站的日志进行分析了。一般来说,我们只看百度和谷歌蜘蛛的爬行和爬行。当然,如果我们有特殊需要,我们也可以检查其他蜘蛛。分析爬行情况。网站 日志中有大量的谷歌蜘蛛和百度蜘蛛,这意味着搜索引擎蜘蛛经常来你的网站。
说到分析日志文件,就不得不谈分析日志文件的时机。什么情况下应该分析日志文件?首先,新的网站刚成立的时候,这次也是站长的朋友。在我们最着急的时候,一般都是焦急的等待搜索引擎收录网站的内容。我们经常做的就是去百度或者谷歌,使用命令site:在网站域名下看看是不是收录,这个时候其实不需要经常去检查网站是否为收录,我们想知道搜索引擎是否关心我们的网站。我们可以使用网站日志文件来查看,我们怎么看?看看网站的日志有没有搜索引擎蜘蛛到网站去抓取,并查看返回的状态代码是 200 还是其他。如果返回200,则表示获取成功。如果返回404,则表示页面错误或页面不存在。您需要进行 301 永久重定向或 302 临时重定向。一般搜索引擎爬取成功后会在稍后发布。通常,Google bot 发布速度更快,并且可以以最快的速度杀死。不过百度的反应比较慢,最快也要一周左右,不过百度的算法是在11月份调整的。发布之后,发布的速度还是很快的。其次,当网站收录异常时,需要对比分析正常的收录日志和异常日志,找出问题所在,解决网站< @收录 该问题对完成优化也大有裨益。第三,在网站被搜索引擎K删除后,我们必须观察网站日志文件来解决这个问题。在这种情况下,日志文件中只有少数蜘蛛抓取主页和机器人。,我们需要找出被K的原因并改正,然后提交给搜索引擎,然后我们可以观察日志,看看蜘蛛是否正常来了,慢了一段时间后,如果数量蜘蛛增加或频繁出现并回到200状态,那么恭喜你,你的网站又活了。如果半年没有反应,那么建议放弃域名重试。在这种情况下,日志文件中只有少数蜘蛛抓取主页和机器人。,我们需要找出被K的原因并改正,然后提交给搜索引擎,然后我们可以观察日志,看看蜘蛛是否正常来了,慢了一段时间后,如果数量蜘蛛增加或频繁出现并回到200状态,那么恭喜你,你的网站又活了。如果半年没有反应,那么建议放弃域名重试。在这种情况下,日志文件中只有少数蜘蛛抓取主页和机器人。,我们需要找出被K的原因并改正,然后提交给搜索引擎,然后我们可以观察日志,看看蜘蛛是否正常来了,慢了一段时间后,如果数量蜘蛛增加或频繁出现并回到200状态,那么恭喜你,你的网站又活了。如果半年没有反应,那么建议放弃域名重试。如果蜘蛛数量增加或频繁出现并回到200状态,那么恭喜你,你的网站又活了。如果半年没有反应,那么建议放弃域名重试。如果蜘蛛数量增加或频繁出现并回到200状态,那么恭喜你,你的网站又活了。如果半年没有反应,那么建议放弃域名重试。
很多站长朋友不知道如何使用网站日志文件。当遇到网站收录问题时,他们会问别人而不是自我检查。这是作为网站管理员或搜索者的悲哀。而且网上很多软文都提到需要分析日志文件,但那只是软文,可能写文章的作者没有看日志文件。毕竟还是希望站长朋友不要忽视网站日志文件,善用网站日志文件是站长或者seoer的必备技能。而且,理解网站日志文件不需要你有太多高级的编码知识,其实只要理解html代码和一些返回的状态码就足够了。你不能偷懒或侥幸。善待你的网站心态,这种心态会让你输的很惨。如果你是一个小站长,或者你是一个seoer,如果你之前没有意识到网站日志文件的重要性,那么看到我写的这篇文章你应该善待你网站 退出。