核心方法:外贸网站优化策略三:7款强大的SEO工具
优采云 发布时间: 2022-10-12 05:11核心方法:外贸网站优化策略三:7款强大的SEO工具
在《外贸网站优化策略II:网站关键词优化》一文中,我们重点介绍了如何优化外贸网站关键词,以及几种常用的关键词工具。今天,我想与大家分享7个免费,但非常实用的外贸网站SEO工具。作为2019年搜索引擎海外推广的基于数据的工具,对外贸网站搜索引擎排名将大有裨益。
#1、回答公众(wxxojlccr=j-?uxw?o/egznqnhic)
作为世界领先的主题挖掘工具之一,Answer The Public可以帮助您准确地探索论坛,博客和社交媒体上的相关主题,长尾关键词。在“外贸网站优化策略II:网站关键词优化”中,我们介绍了这个SEO工具在关键词挖掘中的作用。事实上,我们经常使用答案公共来挖掘写作和场外推广的主题。
(1)通过相关问题的展示,为运营商提供软文创作的热点话题,保证文章的SEO效果和谷歌的高排名。
(2)Answertheplic的长尾关键词数据,以增加商品详情页面和博客页面的关键词密度和丰富性。
(3)挖掘出的相关问题可以作为Quora问题的根源,为Quora的多账户运营奠定基础。
#2、Woorank(wxxojlcc---q-hhur=.qnhic)
绝大多数SEO优化软件只能监控和显示网站相关问题,而不能监控和显示解决方案。但是,除了提供网站问题的可视化列表外,Woorank还可以网站技术优化解决方案。Woorank指导您如何提高网站以匹配SEO的指标。
3、CanIRank(wxxojlcc---qnr=zur=.qnhic)
CanIRank是一个超级详细的关键字难度分析,网站优化工具。除了展示关键词的竞争力外,还为关键词排名提供了有利依据。
#4、SEMRush(wxxojlcc---qj?iu/jwqnhic)
SEMRush在反向链接数据挖掘、关键词竞争对手优化排名等领域发挥着关键作用。通过SEMRush SEO搜索引擎工具的关键词,反向链接数据和参考域数据,我们能够网站优化我们的关键词并促进更有针对性的反向链接。
此外,SEMRush外贸网站SEO优化软件,还可以有效识别外部链权重转移(傻瓜/不跟随)。
#5、关键词
关键字每个地方都是搜索引擎中使用的关键词研究插件。当我们在Google中使用目标关键词进行自然搜索时,这个外贸网站关键词工具可以随时随地显示目标关键词及其长尾词搜索量,竞争和CPC付费点击。
#6、KWfinder(wxxojlccrooq.-mz=a?uqnhic)
KWfinder的强大之处在于,准确预测关键词趋势,准确把握关键词难度,可以帮助我们进行关键词筛查。
#7、Siteliner(wxxolcc---qjzx?gz=?uqnhic)
对于网站页面和内容SEO,我们强烈推荐站点liner。它受到网站SEO内容的全面监控,并可以提供免费的完整SEO报告。
站点线突出显示功能是将您的网站与站点liner数据库中的其他站点进行比较。为我们的网站SEO优化提供合理的量化指导。
#更多最新的外贸网站推广、谷歌SEO排名、Instagram社交媒体营销、YouTube视频营销的实用策略,请您搜索微信并关注公众号“外贸网站SEO推广策略”。
通用解决方案:性能优越的轻量级日志收集工具,微软、亚马逊都在用!
ELK日志采集系统大家都知道,但是还有一个日志采集系统EFK,想必很多朋友都不知道!这里的F指的是Fluentd,它有类似Logstash的日志采集功能,但是内存占用不到Logstash的十分之一,而且性能优越,非常轻量级。本文将详细介绍Fluentd的使用,主要用于采集SpringBoot应用程序的日志。希望对大家有帮助!
Fluentd 简介
Fluentd 是一个开源的日志采集功能,致力于为用户构建统一的日志采集层,可以与 Elasticsearch 和 Kibana 一起构建 EFK 日志采集系统。什么是统一日志采集层?看看下面的图片就可以看得一清二楚了!
从 Fluentd 官网安装
ELK日志采集系统的搭建在中已经介绍过了,这里不再介绍Elasticsearch和Kibana的安装,而是Docker环境下Fluentd的安装。
docker pull fluent/fluentd:v1.10<br />
<br /> @type forward<br /> @id input1<br /> @label @mainstream<br /> port 24224<br /><br /><br /><br /> @type stdout<br /><br /><br /><br /> <br /> @type file<br /> @id output_docker1<br /> path /fluentd/log/docker.*.log<br /> symlink_path /fluentd/log/docker.log<br /> append true<br /> time_slice_format %Y%m%d<br /> time_slice_wait 1m<br /> time_format %Y%m%dT%H%M%S%z<br /> <br /> <br /> @type file<br /> @id output1<br /> path /fluentd/log/data.*.log<br /> symlink_path /fluentd/log/data.log<br /> append true<br /> time_slice_format %Y%m%d<br /> time_slice_wait 10m<br /> time_format %Y%m%dT%H%M%S%z<br /> <br /><br />
docker run -p 24221:24221 -p 24222:24222 -p 24223:24223 -p 24224:24224 --name efk-fluentd \<br />-v /mydata/fluentd/log:/fluentd/log \<br />-v /mydata/fluentd/fluent.conf:/fluentd/etc/fluent.conf \<br />-d fluent/fluentd:v1.10<br />
chmod 777 /mydata/fluentd/log/<br />
docker exec -it --user root efk-fluentd /bin/sh<br />
fluent-gem install fluent-plugin-elasticsearch<br />
version: '3'<br />services:<br /> elasticsearch:<br /> image: elasticsearch:6.4.0<br /> container_name: efk-elasticsearch<br /> user: root<br /> environment:<br /> - "cluster.name=elasticsearch" #设置集群名称为elasticsearch<br /> - "discovery.type=single-node" #以单一节点模式启动<br /> - "ES_JAVA_OPTS=-Xms512m -Xmx512m" #设置使用jvm内存大小<br /> - TZ=Asia/Shanghai<br /> volumes:<br /> - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins #插件文件挂载<br /> - /mydata/elasticsearch/data:/usr/share/elasticsearch/data #数据文件挂载<br /> ports:<br /> - 9200:9200<br /> - 9300:9300<br /> kibana:<br /> image: kibana:6.4.0<br /> container_name: efk-kibana<br /> links:<br /> - elasticsearch:es #可以用es这个域名访问elasticsearch服务<br /> depends_on:<br /> - elasticsearch #kibana在elasticsearch启动之后再启动<br /> environment:<br /> - "elasticsearch.hosts=http://es:9200" #设置访问elasticsearch的地址<br /> - TZ=Asia/Shanghai<br /> ports:<br /> - 5601:5601<br /> fluentd:<br /> image: fluent/fluentd:v1.10<br /> container_name: efk-fluentd<br /> user: root<br /> environment:<br /> - TZ=Asia/Shanghai<br /> volumes:<br /> - /mydata/fluentd/log:/fluentd/log<br /> - /mydata/fluentd/fluent.conf:/fluentd/etc/fluent.conf<br /> depends_on:<br /> - elasticsearch #kibana在elasticsearch启动之后再启动<br /> links:<br /> - elasticsearch:es #可以用es这个域名访问elasticsearch服务<br /> ports:<br /> - 24221:24221<br /> - 24222:24222<br /> - 24223:24223<br /> - 24224:24224<br />
Fluentd 配置细节
接下来介绍一下如何配置Fluentd的配置文件,先发布完整的配置,然后再详细讲解一些配置点。
完全配置
<br /> @type tcp<br /> @id debug-input<br /> port 24221<br /> tag debug<br /> <br /> @type json<br /> <br /><br /><br /><br /> @type tcp<br /> @id error-input<br /> port 24222<br /> tag error<br /> <br /> @type json<br /> <br /><br /><br /><br /> @type tcp<br /> @id business-input<br /> port 24223<br /> tag business<br /> <br /> @type json<br /> <br /><br /><br /><br /> @type tcp<br /> @id record-input<br /> port 24224<br /> tag record<br /> <br /> @type json<br /> <br /><br /><br /><br /> @type parser<br /> key_name message<br /> reserve_data true<br /> remove_key_name_field true<br /> <br /> @type json<br /> <br /><br /><br /><br /> @type stdout<br /> output_type json<br /><br /><br /><br /> @type elasticsearch<br /> host 192.168.3.101<br /> port 9200<br /> type_name docker<br /> logstash_format true<br /> logstash_prefix docker-${tag}-logs<br /> logstash_dateformat %Y-%m-%d<br /> flush_interval 5s<br /> include_tag_key true<br /><br />
配置点分析
定义日志采集的来源,可以是tcp、udp、tail(文件)、forward(tcp+udp)、http等。
这里我们从tcp请求中采集日志,端口为24221,标签设置为debug。
<br /> @type tcp<br /> @id debug-input<br /> port 24221<br /> tag debug<br /> <br /> @type json<br /> <br /><br />
定义如何解析原创数据并将日志转换为 JSON。
例如,我们可以将调试日志转换为 JSON 并进行如下配置。
<br /> @type tcp<br /> @id debug-input<br /> port 24221<br /> tag debug<br /> <br /> @type json<br /> <br /><br />
可以对采集到的日志进行一系列处理,例如将日志打印到控制台或解析日志。
将所有日志打印到控制台的配置:
<br /> @type stdout<br /><br />
对于tag为记录源的日志,我们将message属性转换为JSON格式。如果未转换,则消息属性将是一个字符串。
<br /> @type parser<br /> key_name message<br /> reserve_data true<br /> remove_key_name_field true<br /> <br /> @type json<br /> <br /><br />
定义采集到的日志最终输出到哪里,可以输出到stdout(console)、file、elasticsearch、mongo等。
这里我们使用elasticsearch来存储日志信息。logstash_format、logstash_prefix、logstash_dateformat主要用于控制日志索引名的生成。目前配置的生成调试日志的索引格式是docker-debug-logs-2020-06-03,flush_interval用来控制日志输出到elasticsearch的时间间隔。
<br /> @type elasticsearch<br /> host 192.168.3.101<br /> port 9200<br /> type_name docker<br /> logstash_format true<br /> logstash_prefix docker-${tag}-logs<br /> logstash_dateformat %Y-%m-%d<br /> flush_interval 5s<br /> include_tag_key true<br /><br />
替换配置文件
替换原来的/mydata/fluentd/fluent.conf配置文件,然后重启服务,我们的Fluentd服务就可以开始采集日志了。
docekr restart efk-fluentd<br />
与 SpringBoot 一起使用
其实Fluentd的日志采集原理和Logstash是一样的。它通过tcp端口采集日志,所以我们只需要将logback配置文件中原来的Logstash日志采集地址端口改为Fluentd的。
<br /><br /> ${LOG_STASH_HOST}:24221<br /><br /><br /><br /><br /> ${LOG_STASH_HOST}:24222<br /><br /><br /><br /><br /> ${LOG_STASH_HOST}:24223<br /><br /><br /><br /><br /> ${LOG_STASH_HOST}:24224<br /><br />
logstash:<br /> host: localhost<br />
在 Kibana 中查看日志
至此,我们的EFK日志采集系统就完成了,只需要在Kibana中使用即可。
Logstash 与 Fluentd
接下来,我们来比较一下这两种日志采集工具的各个方面。
LogstashFluentd 的比较
内存使用情况
开始1G左右
开始约60M
CPU使用率
更高
降低
插件支持
富有的
富有的
一般日志解析
支持grok(基于正则表达式)解析
支持正则表达式解析
特定的日志类型
支持JSON等主流格式
支持JSON等主流格式
数据过滤
支持
支持
数据缓冲区发送
插件支持
插件支持
操作环境
JRuby实现,依赖JVM环境
CRuby,C实现,依赖Ruby环境
线程支持
支持多线程
多线程受 GIL 限制
参考
官方文档:
项目源码地址