解决方案:中小型企业网站的SEO优化方案
优采云 发布时间: 2022-11-27 20:24解决方案:中小型企业网站的SEO优化方案
现在越来越多的中小企业开始建设自己的企业网站,但是网站上线后,长期没有排名。这主要是网站优化工作没有做好,那么如何提高网站排名呢?今天鱼笑网小编就和大家聊一聊中小企业网站的SEO优化方案吧!
1、现场优化
1、删除网站上多余的目录和文件,及时更新网站补丁,对易受攻击的文件设置权限,比如织梦的数据库连接文件。
2、网站的每一栏都要加防转码,防止网站被搜索引擎转码。
3、如果是自适应网站,需要添加告诉搜索引擎该网站适合移动端和PC端浏览;如果是PC站和移动站共享数据库,需要做移动适配。
4.在文章页面添加搜索引擎自动推送代码,每发布一篇文章,都会自动推送到搜索引擎。
5、删除网站部分冗余代码,完善图片调用的alt标签,合理使用h1、h2等标签。
6、建议使用百度官方统计代码,及时追踪来源关键词和PV、UV等数据,最好做好数据报表。
7、网站首页、栏目页、文章页的标题按照主推关键词布局,每页标题不宜过长。
8、网站的关键词不要堆太多。建议只保留 3-4 个核心 关键词。
9、合理使用rel="nofollow",比如咨询链接加上这个标签,避免导出权重。
" />
10、前端页面生成静态或设置伪静态,提高搜索引擎友好度。
11、服务器已设置默认主页。如果是静态页面,把index.html放在最前面。
12、天天更新的本站文章必须具有一定的原创性,不得简单复制粘贴或采集
。
13、站内每篇文章不一定要加内链,但3篇文章可以加1个内链。
14、每更新一篇文章,需要打开文章让搜索引擎自动推送代码生效,将文章推送到搜索引擎。
15、可以在后台新建站点地图栏目,每天更新文章,生成,自动生成XML格式的站点地图。
16、网站首页主推关键词的密度要控制好,避免过度优化。
2.站外优化
1、合理使用百度站长工具,如抓取诊断、站点地图、移动适配、抓取频率等,将网站的XML文件提交给百度。百度后台最好每天更新一次。当网站有logo权限时,提交网站logo,然后在站长论坛花金币申请logo快速审核。
2.逐步交换友情链接
一个。可以使用爱链接、改链接神器等工具。如果前期网站少,可以换一些采集
也少的行业网站。
b. 多加个友链交流群,主动找人交流友链。交流多了,总会有成功的。
" />
C。前期也可以和朋友或者自己手里的其他网站交换一些友情链接。
d. 网站被收录并增加权重后,要不断检查友链,删除收录太少、权重低的友链,逐步增加优质友链,最好是同行业的。
e. 加好友链的速度不能太快,一天最好不要超过2条。
3、适当发一些外链
一个。目前免费的外链平台很少。可以购买一些优质的新闻平台(有链接)。发文章时,直接收录
关键词+ URL,最好收录
锚文本。
b. 不建议在免费平台(如论坛)发外链。偶尔发几个蜘蛛也无妨。
C。使用自己或朋友手中的其他网站,发文章时带上外部链接。
三、小编建议
1、优化不能操之过急。每天定时维护网站是很有必要的,尽量不要中断。
2、整理一批主推关键词,每天查看排行榜,根据排行榜关键词的变化调整文章标题、外链、内链、友链。
3、每天关注统计中的出处关键词,在搜索引擎平台上搜索关键词,不断丰富自己的词库(也可以使用一些挖词工具)。
解决方案:一种为使用Log4j的分布式应用提供云端日志服务的方法
一种使用Log4_j为分布式应用提供云日志服务的方法
技术领域
[0001] 本发明涉及计算机技术领域,具体地说是一种实用性强,为使用Log4j的分布式应用提供云日志服务的方法。
背景技术
[0002] 随着业务的扩大,单台服务器难以承载不断增长的用户群,通过细分业务、集群化逐渐解决了这个问题。集群中细分服务部署应用后,如果出现应用错误,定位问题会增加:开发和运维人员需要频繁切换集群中的服务器,查看各个应用的日志,定位问题原因. Web应用经常使用Log4j作为日志采集
工具,Log4j将日志记录到本地文件系统中。
基于此,现提供一种使用Log4j提供云日志服务的分布式应用的方法,该方法用于解决以下问题: 1) 在分布式部署架构或集群部署架构中,开发运维人员无法确切知道日志发生在集群中的哪台服务器上很麻烦。
2)在分布式部署架构或集群部署架构中,同一个应用的日志分散在不同的服务器上,导致同一个应用的日志不连续,定位问题困难。
3) 方便地查看和检索日志。
4) 快速开发部署。
发明内容
本发明的技术任务是针对以上不足之处提供一种实用性强,为使用Log4j的分布式应用提供云日志服务的方法。
一种使用Log4j的分布式应用提供云日志服务的方法,其具体实现过程是:建立基于Log4j日志的日志服务管理模型,该日志服务管理模型为每个项目创建独立的日志库,隔离日志不同项目的数据;为项目下的每条应用日志定义唯一的日志分类,方便查看和检索同一应用下的同一类别的日志;创建产生日志的应用所属的项目和日志库,并将相应的信息发送给日志采集
*敏*感*词*器;日志采集
*敏*感*词*器将信息转发给日志服务器;日志服务器提供索引服务,用户可以通过日志服务器查看索引日志。
所述步骤2的详细过程为:日志服务管理模型采集日志时间、产生日志的机器、日志级别、日志内容,同时配置应用所属项目和日志库、日志分类信息,并将这些信息发送出去记录采集
听众。
所述日志索引服务的提供过程为:日志采集*敏*感*词*端再将这些信息发送给日志服务器,利用日志索引技术进行分词、索引处理,提供按日志分类、日志时间、日志进行level, keyword 检索接口模型,方便用户查看和检索日志。
上述日志采集、日志索引采用的是Apache开源的日志采集、日志索引技术。
所述的日志服务管理模型建立过程为: 创建项目:项目用于资源隔离和控制,按项目管理本项目下的所有日志库,同时该项目名称唯一;创建日志库:根据项目,根据每个应用的特点创建日志库,日志库用于资源隔离和控制;同一个项目下可以创建多个日志库,不同日志库中的日志不能交叉访问;指定日志采集系统的*敏*感*词*端口,指定日志索引服务主机和端口;日志服务管理模型生成相应步骤的包,并提供下载功能供用户获取,这些包分别为:
所述采集Log4j日志的日志采集包的内容包括: 用于配置应用所属项目和日志库,以及该应用的日志将写入的日志采集系统的监控端口的配置文件之一;配置为Log4j日志采集包中的appender,由应用名和包组成的日志分类配置文件--〇
采集
Log4j日志的日志采集
包的日志采集
过程为:应用程序每打印一条Log4j日志,配置文件二*敏*感*词*Log4j日志事件,从日志事件中获取信息,根据日志采集
模型组装;并将组装好的日志信息写入配置文件1中配置的日志采集系统的*敏*感*词*端口的主机名和端口。
[0015] 日志采集服务的下载包中收录
*敏*感*词*端口的安装包,安装包中收录
配置文件三,配置文件三,配置日志采集服务的*敏*感*词*端口。
日志索引服务的下载包包括用户创建的日志库的安装包,该日志库收录
内容:项目名称和日志库名称:构成唯一的索引库,项目名称和日志库名称是用户在日志服务管理模型中创建的项目和日志库;第四个配置文件收录
了采集Log4j日志的日志采集包所依赖的日志采集模型中各项的索引配置,即日志分类、日志时间、日志源机器ip、日志级别、日志时的类日志发生。
所述的日志索引服务是通过查看检索界面完成的,在该检索查看界面输入检索指令后,根据日志类型、日志时间、产生日志的机器、日志级别、日志内容检索日志,并根据同类别的日志。日志时间排序并显示在搜索界面上。
本发明的一种使用Log4j的分布式应用提供云日志服务的方法具有以下优点。本发明的一种使用Log4j的分布式应用提供云日志服务的方法,是从开发、运维人员的角度,提供了日志采集、模型组装、日志索引、日志索引全流程的解决方案。日志显示。通过统一的日志服务管理模型和Log4j日志的日志采集模型,利用开源的Apache flume日志采集技术和Apache solr日志索引技术开发云日志服务。整个过程易于开发和实施。本发明能够解决分布式部署架构或集群部署架构下开发运维人员频繁切换应用服务器查找日志的困境。由于采集
了产生日志的机器,也方便开发和运维人员定位到具体的应用服务器进行查看,解决问题。实用性强,适用范围广,易于推广。
图纸说明
" />
附图1是本发明的逻辑部署*敏*感*词*。
附图2是本发明的技术*敏*感*词*。
附图3是本发明中原木采集袋的技术*敏*感*词*。
详细方法
[0013] 下面结合附图和具体实施例,对本发明作进一步说明。
[0023] 本发明提供了一种使用Log4j为分布式应用提供云日志服务的方法,提供了一种日志服务管理模型,包括两大块:1)创建项目和日志库;2) 查看和检索日志。提供基于Log4j日志的日志采集模型,采集日志时间、生成日志的机器、日志级别、日志内容,并配置应用项目和日志库、日志分类信息,并将这些信息发送给日志采集技术*敏*感*词*器,日志采集
技术再将这些信息发送到日志服务器,利用日志索引技术进行分词和索引,并提供接口模型,可以按日志分类、日志时间、日志级别、关键字进行搜索,方便用户查看并检索日志。
基于该设计思路,如附图1、图2、图3所示,该方法的实现过程为:通过统一的日志服务管理模型,为每个项目建立独立的日志库,隔离不同项目的Log数据; 为项目下的每一个应用日志定义一个唯一的日志类别,方便查看和检索同一应用下的同一类别的日志。日志采集模型利用Apache开源的日志采集技术和日志索引技术,采集产生日志的应用的项目和日志库、日志类别、日志时间、产生日志的机器、日志级别、日志内容,通过日志采集模型将处理后的日志数据发送到对应Apache开源日志采集技术的*敏*感*词*端。日志采集技术通过通道将信息发送到日志服务器,利用Apache开源日志索引技术进行分词和索引处理。同时提供了日志分类、查看和检索日志时间、产生日志的机器、日志级别、日志内容的接口模型。
其具体实现过程为:创建日志服务管理模型。
1)创建项目:项目主要用于资源隔离和控制。通过项目管理项目下的所有日志库。项目名称是全球唯一的。
2)创建日志库:可以根据项目下各个应用的特点创建日志库,日志库主要用于资源隔离和控制。同一个项目下可以创建多个日志库,不同日志库的日志不能交叉访问。
3)指定Apacheflume日志采集
系统的*敏*感*词*端口,指定Apache solr日志索引服务的主机和端口。如果前期不想设置,可以跳过这一步,在后面的实现过程中配置相关信息即可。
[0029] Apacheflume是一个分布式的、可靠的、高可用的海量日志采集
、聚合和传输系统。
Apache Solr是一个基于Lucene的开源全文搜索服务器,主要特点包括:高效灵活的缓存功能、垂直搜索功能、搜索结果高亮显示、通过索引复制提高易用性。
根据上述1)、2)、3)步骤定义的信息,生成相应的包,并提供下载功能,方便用户获取。这些包包括:基于日志采集模型采集Log4j日志的日志采集包:sls-client_log4jAppender.zip;Apache flume日志采集服务下载包;Apache solr日志索引服务下载包。
针对上述三种包,现做如下详细说明: 一、采集
Log4j日志的日志采集
包: 采集
Log4j日志的日志采集
包sls-client-log4jAppender.zip,包括内容: a) sis.properties配置文件:主要用于配置应用所属的项目和日志库,以及应用的日志将写入的Apache flume日志采集
服务的*敏*感*词*端口。
配置示例:Mpache flume日志采集服务主机名:hostname=127.0 0 1〇
Mpache flume日志采集服务*敏*感*词*端口:port=4141〇
#项目名(在日志服务中创建的项目名):sis-project=myproject〇
#log库名(在日志服务中创建的日志库名):sis-block=myblock〇
b)log4j.properties配置文件:主要配置appender和slsTopic,其中,appender配置为Log4j日志采集包中的appender:org.apache,flume,clients.log4j.SlsLog4jAppender。
slsTopic是日志分类,由应用标题和包组成,配置示例:bpm_trace,其中bpm是应用标题,trace是A1包的逻辑标题。
" />
配置示例:log4j.category,com.inspur=DEBUG,Al;log4j.additivity, com.inspur=false; #configuration appender是日志采集
包中采集
Log4j日志的appender;log4j.appender.Al=org .apache, flume, clients.log4j.SlsLog4jAppender; #配置日志分类的slsTopic,例如:bpm_trace,其中bpm是应用名,trace是Al包的逻辑名;log4j.appender.AL slsTopic=bpm_trace;log4j.appender .AL layout=org.apache.log4j.PatternLayout; log4j.appender.AL layout.ConversionPattern=[%d{IS08601}] %-5p %-x %X{user} %n %m°/〇n 〇
工作原理解释:应用程序每次打印一条Log4j日志,org.apache、flume、clients.log4j.SlsLog4jAppender*敏*感*词*Log4j日志事件,从日志事件中获取信息,按照日志采集
模型组装。并将组装好的日志信息写入配置文件sis.properties中配置的Apache flume日志采集
服务的hostname和port端口。
日志事件与本专利的日志采集模型的对应关系如下:
2、Apache flume日志采集服务:Apache flume日志采集服务下载包中收录
Apache flume安装包,其中收录
配置文件flume-conf-sls-avro.properties,配置了日志采集服务的*敏*感*词*端口。内容如下:agent_slsavro.sources=si; agent_slsavro.channels=cl; agent_slsavro.sinks=kl〇
agent_slsavro.sources, si.type=avro; agent_slsavro.sources, si.bind=0.0.0.0; #Apache flume日志采集
服务的*敏*感*词*端口;agent_slsavro.sources, si.port=4141; agent_slsavro.sources, si.channels = cl〇
agent_slsavro.sinks, kl.type=org.apache, flume, sink.solr.SlsSolrSink; Mpache solr日志索引服务的url;agent_slsavro.sinks, kl.solrUrl=:port/solr; agent_slsavro.sinks, kl. 通道=cl;agent_slsavro.sinks, kl.batchSize = 100〇
agent_slsavro.channels,cl.type=文件;agent-slsavro.channels.cl checkpointDir=/agent-slsavro/检查点;agent-slsavro.channels.cL dataDirs=/agent-slsavro/data; , cl.transactionCapacity = 10000; agent_slsavro.channels, cl.capacity = 1000000〇
上述配置文件中的port=4141是指Apacheflume日志采集服务的*敏*感*词*端口,默认为4141,如果该端口被占用,则修改为其他端口。采集Log4j日志的日志采集包sis.properties配置文件中配置项port的值必须与端口保持一致。
: port/solr 指的是Apachesolr日志索引服务的Ur10
org.apache、flume、sink.solr.SlsSolrSink的实现原理说明: 首先,构建Apache solr日志索引服务地址:根据配置文件flume-conf-sls-avro中的项solrUrl和日志采集模型。构建日志索引服务地址中的properties项sls_project和sls_block:solrUrl值+'/'+sls_project值++sls_block值。
二、构建Apache solr日志索引库中的各个数据项:在日志索引库的各个数据项中添加日志采集
模型中的item。
3、根据flume-conf-sls-avro.properties中batchSize项的值,批量更新Apache solr日志索引库abatchSize的默认值为100。
三、Apache solr日志索引服务 Apache solr日志索引服务下载包中收录
了Apache solr的安装包,在安装包中收录
了用户创建的日志库,该库部署在solr安装目录/server/solr目录下。
[0051] 日志库包括:项目名称-日志库名称:soli*独有的索引库,项目名称和日志库名称为用户在日志服务管理模型中创建的项目和日志库。
配置文件core、properties、配置项名称的取值必须与本配置文件中的1)保持一致。core.properties的内容:name=项目名_log库名;配置=solrconfig.xml;架构=架构.xml;dataDir=数据〇
配置文件conf/schema.xml,该配置收录
了采集Log4j日志的日志采集包所依赖的日志采集模型中各项的索引配置,配置项的类型、索引说明如下:
日志服务的查看和检索界面模型:日志服务的查看和检索界面根据日志类别、日志时间、日志级别、关键字等检索日志,并将同一类别的日志按照默认情况下的日志时间 slsjimestamp。
[0054] 本发明使开发人员和运维人员能够方便地使用日志服务,解决分布式部署架构或集群部署架构下日志分散、不连续的问题,实现快速开发部署,方便开发人员和运维人员维护人员查看、检索分布式应用的日志,降低开发运维成本。
上述具体实施例仅为本发明的具体案例,本发明专利保护的范围包括但不限于上述具体实施例,任何一种符合本发明的提供云日志的方法服务于使用Log4j的分布式应用程序的权利要求书以及任何本领域技术人员所作的适当修改或替换,均应落入本发明的专利保护范围内。