专业知识:常用的cms内容管理系统有哪些

优采云 发布时间: 2022-10-04 02:08

  专业知识:常用的cms内容管理系统有哪些

  在网站建设过程中,可以使用内容管理系统来帮助网站建设。通过内容管理系统,可以使网站的内容更有条理,增加网站的容量,但是网上有很多内容管理系统。如果你想找到一个适合你的内容管理系统,有点难。无论是国内的内容管理系统还是国外的内容管理系统,都必须能够满足你的实际需求。以下是一些常见的 cms 系统。

  1. 织梦cms

  该内容管理系统是目前国内使用最广泛的系统。本系统操作方法比较简单,支持开源,功能比较灵活。这个管理系统比较适合一些个人网站和中小网站。操作方法极其简单,10分钟就可以搭建一个完整的网站,基本囊括了普通网站所需的所有功能。另外,该系统是在中国开发的,所以它有完整的中文操作指南,可以自由学习和使用。

  

  2. 帝国cms

  与织梦的内容管理系统相比,这个内容管理系统也更好。这种内容管理系统可以提供更强的稳定性和安全性。用户可以直接使用系统实现后台扩展。而且,使用该系统还可以进行多重过滤,防止重复采集信息,使采集区域更加准确,提高采集分组效率。系统的二次开发难度较大,但可以满足各种大大小小的网站的需求,可以为站长提供一个全新的优秀全面的网站解决方案。

  3. phpcms

  这是一个应用非常广泛的内容管理系统,框架设计新颖,整体结构更加清晰。可以直接使用模块化开发,也可以对网站内容进行各种分类。使用本内容管理系统可以实现网站更加个性化的设计,并进行网站后期的开发和维护。此外,还可以进行密码卡安全维护,可以为用户带来更好的体验,为用户提供更合理的管理制度。该系统有多种颜色可供选择,不仅增强了用户的使用感,还保护了视力。

  

  除了上面介绍的几款内容管理系统外,国内还有很多内容管理系统。建议您使用国内的内容管理系统更适合中国市场环境和网站建设。如果建立的网站是国际化的网站,也可以尝试一些国外的内容管理系统,但是国外的内容管理系统一般都比较难操作,而且说明也不符合中文。习惯,总而言之,对于站长来说,一个内容管理系统是非常有必要的。

  FunShare——互联CRM赋能企业数字化未来 FunShare——为5000+大中型企业提供专业的互联CRM解决方案,助力企业销售增长。

  核心方法:学会链接分析,快速定位网站SEO问题

  知识|产品|信息|工作场所|资源五段

  中国最专业的SEM学习交流社区

  【本文主要内容】

  (1)找出是否有黑链——从日志分析,网站的哪些意外页面被百度蜘蛛爬取过,是否有黑链。(这个可能要先卖掉,因为这又是一个大项目,这个题目会提一些)

  (2)百度站长工具外链分析——查看是否有垃圾外链、黑链接等,以及链接指向的站点在哪里,如何处理。(也包括在这个问题中)

  (3)百度站长工具链接分析——三个死链接(内链死链接、外链死链接、死链接内链接)、批量下载数据、合并数据、excel操作、逻辑分类、定位问题、处理问题。(定位加工,材料不够,因为很多都加工过了,没有材料==|||||)

  (4)通过这些数据分析得到的其他与SEO效果相关的信息(垃圾搜索引擎和垃圾外链带来的无用爬取、资源配额浪费、如何拒绝。)

  (5)如何自动使用shell脚本定位百度蜘蛛抓取到的死链接,进行审核,然后自动提交判断为死链接的URL。(本期话题太多,留作下期)

  (6)分析工具介绍(firefox设置、插件、excel、windows命令提示符批处理)

  【你可以学习的新姿势】

  (1)批量下载百度站长工具中的表格数据(学习并使用下载其他网站的东西,只要你喜欢。比如5118什么的。5118的站长会打我吗?)

  (2) 合并一些常用文档,如txt、csv等文本,方便数据分析处理。

  (3)一个分析死链接数据和定位问题的基本思路

  【本文主要使用的工具】

  (只是示例的组合,如果有其他类似功能的工具,请根据自己的习惯使用)

  [浏览器] 火狐(Firefox)浏览器,版本无所谓

  [插件]:启动剪贴板

  功能:一键打开剪贴板中已有的URL。(注意URL中只能有英文数字的标点符号,如果有中文可能无法识别)。快捷键:alt + shift + K(先复制单个或多个网址)

  设置:打开选项设置,选择下载文件自动保存的位置(我这里选择的是桌面,你也可以单独创建一个文件夹对批量下载的文件进行分类)

  【表单处理】:Microsoft Office 2013 Excel

  【文字处理】:记事本++

  【批处理】:Windows自带命令提示符

  【开始解释】

  来百度站长工具链接分析。我们看到有两个主要部分,死链分析和外链分析。

  首先,我们可以先看一下外链分析。

  分析外链数据的主要目的是找出垃圾外链,主动阻断垃圾外链可能对网站造成的不良影响。最终目的: 1、找到垃圾外链的域名,并进行防盗链处理(对于垃圾域名的来源,直接返回404状态码);2.处理站内可能有问题的页面。

  在这里,我将重点介绍第一点;第二点比较简单,我会比较粗略的解释一下。

  1. 定位垃圾邮件域名。

  图注:可以看到这是一个明显异常的趋势图

  我们可以下载外链数据进行初步分析。

  图例:下载的表格文件(csv逗号分隔符)

  然而,这样的原创数据很难分析。因此,我们需要按照一定的逻辑对其进行分析——即按照【链接的网页url】进行分类。

  首先,我们可以快速浏览一下,做出直观的判断。这些页面最多的是哪些页面?

  对于我们的网站情况,外链数据分为两类,正常外链和垃圾外链。

  垃圾外链分为两种:内部搜索结果页面(垃圾搜索词)和黑客植入的黑链接(已作为死链接处理)。

  我们的数据处理有两个目的:识别哪些是正常的外链,哪些是垃圾外链,并根据垃圾外链的相关数据进行一些处理,以保护网站;链接指向的页面不会被搜索引擎爬取(浪费爬取资源配额)并被收录/索引(保证网站的词库不被污染,不带图片到网站 和 关键词 副作用)。

  第一步,过滤掉网站的搜索结果页面

  图例:过滤数据,复制到新工作表,删除原工作表中过滤后的数据,对数据进行分类

  还有几类搜索链接格式,都以相同的方式处理。

  然后对原创工作表(空白行)中剩余的数据进行去重,得到剩余的链接信息。

  图例:对剩余数据执行简单的重复数据删除。

  

  然后,我们需要筛选黑链。黑链的数据一般需要从网站的日志中分析(这个是最全面的,为了保证效率,需要使用shell脚本自动运行,但也涉及篇幅很大,我将在以后讨论的主题中解释)。

  当然,你也可以将表格中的【链接网页url】列按顺序排列,并排分析(自己打开,黑客会用一些特殊的手段来阻止我们识别出真实的被搜索引擎识别,垃圾邮件最常见的情况就是使用js跳转,这样当我们通过浏览器访问时,会看到完全不同的内容,而当搜索引擎爬取时,我们会下载垃圾邮件。 )

  这时候我们就需要使用一个firefox插件【No Script】,目的是屏蔽网站上的js,看到类似搜索引擎的内容。

  图例:在浏览器中阻止 javascript 的插件

  此外,还有一种选择方法不是很可靠。在搜索引擎中搜索:关键词如【网站:域名*敏*感*词*】,取不符合网站预期的关键词。去搜索,你可以得到很多链接。(这里需要用到一些方法来批量导出所有的链接,以后的话题我会继续讲解)

  我只能省略筛选过程,您可以结合视频观看。

  图注:选中的网站黑链

  之所以要这么辛苦的找垃圾链接,就是为了记录这些垃圾链接的域名,防止这些垃圾域名被黑客再利用来制作新的垃圾链接,从而第一时间拒绝。尽可能。这些垃圾外链使得百度蜘蛛在从垃圾外链访问我们网站上的内容时(即返回404状态码并被识别为死链接)无法获取任何信息,久而久之,这些垃圾域名的权重会越来越低(因为导出了死链接,影响了搜索引擎的正常爬取工作),这样我们既保护自己,又惩罚敌人。

  具体方法是找出垃圾页面——从搜索结果页面和黑链的两张表中,将外部链接页面整合在一起。如表 3 所示。

  图例:合并垃圾外链页面

  接下来的处理将使用一个小工具来快速获取这些链接的主域名。

  图注:将链接复制到左侧红框,点击Local Extraction,会出现在右侧红框中

  这样,我们就得到了这些垃圾外链页面的主域名。我们只需要在我们的服务器上配置防盗链链接,禁止refer(source)访问这些域名(返回404http状态码)。

  2、处理来自站点的搜索结果页面(黑链处理留给下一个话题,因为需要结合很多linux shell脚本):

  对于权重比较高的网站的站内搜索,一定要注意反垃圾邮件(anti-spam)。如果不防备,一旦被黑客利用,就有可能导致大量搜索页面被百度爬取。但这对我们来说是一场噩梦网站。如果不处理,可能会导致以下问题:大量蜘蛛爬取配额被浪费在爬取垃圾页面上;垃圾页面被搜索引擎收录污染,网站词库被黑客污染,使得网站的行业词和品牌词排名不理想;会损坏网站...等的形象。

  在实施此类反垃圾邮件策略时,我们需要注意四个方面:网站用户可以正常使用;不允许搜索引擎抓取此类页面;拒绝访问垃圾邮件外部链接;垃圾邮件不应出现在 关键词 页面上。

  既然有了明确的目标,那么相应的应对方案就会出来,那就是:

  A 限制来源并拒绝来自非网站来源的所有搜索

  B页上的TKD等关键位置不调用搜索词

  C 指定敏感词库的过滤规则,将所有敏感词替换为星号*(有一定的技术开发要求)

  robots.txt 中的 D 声明不允许抓取

  E 在页面源码的head部分添加meta robots信息,声明页面不允许被索引(noindex)

  以上处理可以解决站点中大部分搜索页面(不限于此类页面,甚至其他页面只要不希望搜索引擎爬取构建一个指数)。

  其次,我们来看看死链分析。

  死链接在站长工具的死链接提交工具的帮助文档中有详细的解释,我只需要做一些补充。

  死链接一般有以下几种:内部死链接和外部死链接。

  内部死链接是出现在我们的 网站 上的死链接。由于种种原因,百度蜘蛛在抓取链接时,无法获取内容,被识别为死链接。大多数情况下,对于我们来说,这条死链是可以通过某种方式避免的,所以是可控的。同时,由于链接到死链接的页面都是我们网站上的页面,而链接到死链接的页面对搜索引擎非常不友好,如果不及时处理,那就是很可能搜索引擎会无法成功爬取网站上有价值的页面,从而间接导致“本地降级”(爬取部分页面的周期越来越长、快照更新慢、排名上不去等) ) .

  内部死链接的问题比较严重,所以首先要处理内部死链接。

  而我们可以在百度站长工具中放慢速度获取死链接数据,按照一定的逻辑方法进行组织划分,定位问题所在。接下来,我将解释死链接数据的分析。

  通过预览页面上的死链接信息,任何人都可以,我不需要过多解释。至于死链接问题,不需要每天下载表格分析,只需要每天粗略查看一下数据,看看是否有突然死链接,找到原因并处理(一般情况下发生规模大,比较容易检测。也有必要第二,我们需要定期对死链数据进行更彻底的分析,看看有没有我们平时做的死链问题不注意(一般发生范围小,不易察觉,但长期任其发展,可能会出大问题)。

  图注:一般突然出现的大量死链接很容易被发现,最好确定原因

  图注:这是一个很早就发现的问题。虽然提交了一个解决方案,但被程序员忽略了,然后最近突然爆发了。因此,即使是很小的问题也应该引起足够的重视(由于发生后及时处理,没有出现。过于严重的问题)

  接下来简单说一下在百度站长工具中批量下载死链接数据,合并数据统一处理。

  入站死链接(子域 A 指向子域 A)和出站死链接(子域 A 指向子域 BCD...)通常更容易分析。让我们关注入站死链接(子域BCD...指向子域A)来做一些批量处理。

  图注:数据可以以csv(逗号分隔)的格式下载,可以很方便的用excel处理;并且下面有官方帮助文档。

  此时,您可以尝试点击【下载数据】,这样 Firefox 会自动将文件下载到您设置的位置。

  这里有个小技巧,可以点击下载列表中的对应文件,复制下载链接,然后粘贴。

  :///&download=1&type=3&day=2016-02-30&f=dead_link&key=

  相信帅哥们都看过了,site=是指定你的网站域名,day=2016-02-30是指定你需要的日期。type=3 是指定要下载的数据[链接到死链接],而 type=2 是链接出死链接,type=1 是内部链接死链接。而其他参数不需要做太多了解。

  脑洞大的朋友肯定会想,如果我处理日期参数,可以直接批量下载这些文件吗?是的你可以。这里需要用到excel的强大功能。

  先手动制作两行网址,然后选中,从右下角按住左键,往下拉,你会发现excel已经自动为你完成了网址。很方便。

  

  松开左键以获得想要的结果

  然后,你可以复制这些网址,然后进入火狐浏览器,使用我们之前安装的Launch Clipboard插件,使用它的快捷键alt+shift+K批量打开上图中的链接,然后我们的火狐浏览器就会自动下载这些文件并将其存储到我们指定的位置。

  来,我们来看看收获的结果:

  好像没事吧?但是我必须要一张一张打开这么多表格吗?

  当然不是。让我们来看看表单是什么样子的。看见?这里有时间记录。

  也就是说,如果我们能想出一种方法来组合这些文件,就有一种方法可以区分日期。

  好吧,就去做吧。

  (1) 打开你的命令提示符:Windows + R,输入cmd,回车

  (2)在命令提示符下输入cd然后输入一个空格,然后到保存csv文件的位置,将整个文件夹拖放到命令提示符中即可自动补全路径。

  如果不进入cd空间,会报错,如下图。(cd表示跳转到指定目录)

  成功后,您可以合并 csv 文件并输入命令:

  复制 *.csv..\ok.csv

  也就是说,把所有后缀为csv的文件都复制下来,输出到上级目录下的ok.csv文件中。

  这样就完成了合并。

  我们打开 ok.csv 看看?接下来,可以进行简单的去重处理。

  图注:经过简单的去重,我们还是可以大致了解一下。

  我们发现在死链接的前端链接中有很多来自不同域名的相似目录的页面。我们不妨将这些页面分开。

  图注:过滤掉所有子域下收录xiaoqu目录的页面

  然后我们发现还有一些页面收录/。这些页面一般都是通过推送数据来爬取的,所以暂时归类到一边。

  图注:百度的爬取数据

  在剩余的数据中,仍然存在外部死链接,并且外部死链接也收录一些垃圾链接。我们需要找到这些垃圾链接。

  图例:按死链接排序

  垃圾死链接也被单独分类,剩下的都是真正的死链接。

  注意:是时候测试结果了。

  我们将数据按照一定的逻辑关系分为四类,即【外部死链接】【垃圾链接】【百度】【子域(也属于内部死链接)】

  我们需要关注的是【子域】的死链接。因为子域也是我们网站的一部分,所以这些页面上出现死链接,势必对这些页面的SEO效果不利,需要尽快弄清楚原因。

  与技术部沟通后确认,出现此类问题的原因主要是我们的网站服务器之间的数据同步不成功,或者服务器之间的连接不慎断开。这种问题暂时是无法避免的,所以技术人员只能将因为这种情况而出现的404(永久不可访问)状态码改为返回503(暂时不可访问)状态码。

  【百度】死链接的原因同上。只不过蜘蛛的爬取通道来自于主动推送方式。返回 503 状态码后情况有所改善。

  【垃圾链接】,我在外链分析中已经做了一定的说明,大家可以参考。

  【外部死链接】这个不用太在意。受死链接影响的不是我们网站,而是导出死链接的网站。但有时在分析的时候,总能发现一些有趣的现象。

  比如我现在看到的数据的共性就是死链接不完整,要么是省略了中间有一个点,要么是尾部被强行截断。我们打开死链接,发现死链接在页面上显示为明链接(没有锚文本)。大多数带有死链接的页面类似于搜索引擎结果页面,这些结果页面上的锚链接由nofollow控制。

  图注:这些都是垃圾邮件搜索引擎,目的是爬取其他网站信息自用,制造垃圾邮件站群

  可以看出,大部分的【垃圾链接】和【死链接】还是出于恶意目的。这个时候我们可能需要考虑使用反爬取策略来禁止一些垃圾搜索引擎任意爬取我们网站。(关于反爬虫策略的话题,我打算以后试试)

  好了,这个问题就说到这里了,让我们总结一下。

  (1)分析链接数据的目的:保证网站被搜索引擎正常抓取和索引;防止损失被恶意人员利用。

  (2)关联数据分析手段:一些工具,加上简单的逻辑。

  (3)养成良好的工作习惯和意识:大致每天关注数据,定期仔细分析数据,有控制地操作这些环节。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线