大分享的是如何进行网站日志分析,如何做SEO
优采云 发布时间: 2021-07-24 20:51大分享的是如何进行网站日志分析,如何做SEO
今天和DaDa分享的是如何进行网站日志分析。如何进行网站日志分析,是每个SEO站长都需要掌握的基本功之一。来解释下网站日志分析怎么做。
[1]。分析网站日志的目的是什么?相信很多做SEO的朋友都没有关注。少数seo朋友发现网站有问题,然后分析网站日志。我个人认为网站日志是每个SEO日常工作的一部分。只有我们经常分析这个网站,才能找到规律,找到问题,最终解决问题。这是我们分析网站的目的之一。
[2].网站日志的基本尺寸是多少?总访问次数、总停留时间、搜索引擎抓取总次数等
[3]。如何用软件分析日志文件,将这些杂乱的数据量化成报告。这就是我们需要用软件来查找网站问题。
一.什么是网站日志:网站日志(准确的说是服务器日志)可以记录各大搜索引擎蜘蛛机器人爬取网站的详细信息,比如:百度蜘蛛机器人在哪个IP你在哪一天访问了网站多少次,访问了哪些页面,访问过程中返回的HTTP状态码日志文件是如何生成的?用户从不同的终端浏览服务器上的任何页面。服务器在维护客户端显示页面的同时,也在日志文件中留下日志。下面我用一张图来简单分析一下网站日志生成的过程。这张图清楚地说明了网站日志生成的过程。我们可以看到左侧有两个大脑,代表我们的一个用户。当用户访问一个网站时,实际上是在访问这个网站的某个页面。例如,当name为page1时,访问行业会在我们的网站服务器page1上请求这个文件,然后将该文件下载到我们的浏览器,由于请求和下载行为,会导致服务器响应,所以我们的服务器有必要记录这些行为。
1.网站日志内容:
a.. 从用户的角度来看:用户 IP。时间段。浏览环境。访问页面。是成功还是不显示在用户面前
B.从搜索引擎的角度:活跃度、亲和力、抓取深度、抓取时间、总访问次数等
2.为什么要分析网站日志
a.网站更新了很多文章,为什么搜索引擎的数量是收录而不是几个文章
b.网站Optimization 不错,为什么流量波动大?我们没有做任何更改。
c.有时候我们想得到重要类别的排名,但是为什么页面不能收录并及时更新
d。我们与竞争对手目前的生产差距在哪里?我们的网站结构设置有问题吗?有什么变化吗?
进入空间,我们都可以通过网站日志分析得到答案:其实我们的网站日志分析是用来做SEO用数据说话的,拒绝猜测。
3.如果我们要分析,我们需要知道网站日志文件存放在哪里? , 一般我们可以通过FTP软件看到这些文件,如图: logfiles 这个是用来存放我们的日志的,它会以特定的格式记录每天访问服务器的行为。
4.顺便问一下,增加的空间里这些文件有什么用?
一个。这个文件是大家最熟悉的;万维网。存放对外发布的网站内容,即输入域名访问的文件就是这个文件夹下的文件
b.log 文件。文件夹存储日志文件。通过日志文件可以找到网站的一些访问记录。
c.databases 可以上传一些您不希望其他人访问的文件。例如,您可以将access数据库存放在databases文件夹中,这样可以最大限度地提高您数据库的安全性。
d.others 自定义 IIS 错误文件。 IIS默认错误提示,如404错误、403错误、500错误等
5.我们如何解释网站原创日志文件?我拿了一个文件并解析了它。打开后看到这些密密麻麻的代码,我们分析起来也不容易。
6.这是标准的服务器日志,看的时候很容易理解
二.网站日志的基本尺寸是多少?日志分析需要注意哪些维度?
1.Total Visits:总访问次数与这些因素有关。这里有几个简单的列表
a.网站重重,这个好理解。 网站的权重越高,搜索引擎在这个网站上花费的时间就越长,访问量就会越多
B.服务器性能:服务器性能越稳定,承载搜索引擎访问量的带宽就越宽。
c.外链建设:建设的外链越多,入口越广,搜索引擎进入我们网站的概率就越大
d.网站tier 结构:网站tier 结构 如果我们是网站尊咨询树结构,搜索引擎可以很容易地从每个分支的顶部爬到最后,基本上可以再次抓取网站 .
e.入口页面:为了增加网站的总访问量,我们经常将重要信息放在入口页面。
2.总停留时间:a.网站结构。湾服务器响应时间。 c.网站 代码简洁。 d.网站内容更新机制。
3.total exchange amountTotal exchange amount a.网站结构。 b.网站内容质量。 C。服务器cookie设置搜索引擎爬取量与网站的收录直接相关,爬取量越大网站收录可能越多。
4.Crawl per visit:Crawl per visit =总访问次数/总爬取次数,越多越好,内容质量越高,网站结构有利于爬取
5.单页抓取停留时间:单次访问抓取量=总停留时间/总抓取量,越短越好,页面加载速度,内容信息量,代码简洁性
6.目录爬取:搜索引擎爬取的主目录要与网站a的key列保持一致。 SEO策略需要从外链和内链的角度进行调整。湾对于不需要收录或者搜索引擎爬取的栏目,需要使用robots禁止搜索引擎爬取。
7.页面抓取 a.建立重要页面的入口。湾降低页面的重复抓取率。 C。将搜索引擎引入更多不同的页面。
8.Status 代码,看返回码是否正常,每个页面都会有一个返回码作为重要指标。
三.我通过日志分析发现问题
1.总访问量低,最重要的原因是网站权重低。提高权重是首要任务,外链要多下功夫
2.单页时间内爬取的页面数太少,网站的结构不合理,导致搜索引擎爬取不成功或一直爬到重复页面。检查点的结构是关键
3.搜索引擎总是抓取不重要的类别和文件,您可以调整不重要页面的入口链接。增加重要页面的站内或站外入口,合理屏蔽ROBOTS中的JS和CSS文件夹。
4.出现大量非200状态码,及时检查纠正。
标签:
尝试使用“←”或“→”箭头键快速翻页(^o^)/