
无规则采集器列表算法
解决方案:一种物联网数据采集器动态分发方法及系统与流程
采集交流 • 优采云 发表了文章 • 0 个评论 • 103 次浏览 • 2022-11-09 07:26
1、本发明涉及数据采集技术领域,具体涉及一种物联网数据采集器动态分发方法及系统。
背景技术:
2、随着物联网技术的发展,数据采集终端的种类和规模不断增加,对数据采集系统的部署和采集效率提出了更高的要求. 对于大型采集系统,负载均衡和动态部署是保证采集终端数据高效的基础。
3、传统的data采集部署方式,通常以中间件的形式实现。比如data采集模块用于完成业务调度和执行,从上层调用data采集逻辑。控制数据采集终端实现数据采集。当这种方法配置为最小粒度(指标)时,每个指标被视为一个采集任务,每个采集任务需要单独配置,采集的效率为低的。而data采集器负载均衡依赖中间件,运维难度大,没有动态部署机制。当系统需要增加对其他数据源的支持时,需要扩展新的data采集协议,需要重新部署,维护工作量大,可扩展性差。对于大规模数据采集 任务,它有明显的局限性。
技术实施要素:
4、为了克服现有技术的不足,本发明提供了一种物联网数据动态分发采集器的方法和系统,首先将需要采集的终端指标重组为采集按照一定的规则。>任务列表发送到对应的物联网网关,然后初始化采集执行器的执行环境,最后根据采集任务实例化采集执行器完成数据采集 工作。本发明不仅可以降低数据采集系统的部署和维护难度,而且在系统增加新的数据源时不需要重新部署,保证了系统的稳定性和可靠性。系统数据采集和改进<
5、一种物联网数据动态分布采集器的方法,主要包括:
6.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
7.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关采集需要执行的任务列表,并将任务发送给对应的网关;
8.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果没有,转步骤s4,如果有,转步骤s7;
9.s4:查找是否有本地缓存的采集执行器文件,如果没有,转步骤s5,如果有,转步骤s6;
10.s5:平台向物联网平台请求采集执行器文件后,将文件发送给物联网网关,网关接收到文件后,执行步骤s6;
11.s6:加载并初始化采集执行器的执行环境,然后进行步骤s7;
12.s7:根据采集任务实例化采集器并启动,执行数据采集,通过
网关上传到物联网平台。
13、进一步,在步骤s1中,终端指标为数据采集的最小单位,如压力、流量、温度、湿度等。
14、进一步地,在步骤s1中,查找所有终端指示灯的查询条件为:终端状态开启,终端指示灯状态开启,采集状态为等待。终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,以及采集 状态包括:停止、等待、采集和错误。
15、进一步地,当终端的数据和终端索引中与数据采集相关的信息发生变化时,启动终端索引采集的配置重组,则步骤s1为触发。
16、进一步地,在步骤s2中,采集任务列表收录数据源信息和采集指标组列表。
17、进一步的,一个数据源通过其编号与多个网关的网关编号相关联,在数据源指标组中查找与该数据源关联的网关的规则为:网关可以正常运行采集> 数据源。任务; 寻找:与此数据源相关联,状态为启用,运行状态为备用或采集;运行状态包括:standby、采集、stopped。
18、进一步地,在步骤s2中,分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。对于环境相对固定的场景,使用轮询、加权四舍五入。查询和总分配算法,对于环境变化频繁的场景,使用资源负载和动态负载算法。
19、进一步,在步骤s3中,当采集任务在当前网关中出现数据采集通道故障时,将重新分配当前采集任务,并将对应的数据源当前网关将被标记为发生故障,在故障修复后状态重置为备用之前,它不会参与后续分配中的分配。
20、进一步地,步骤s4中,采集执行器文件包括:采集执行器相关代码和类库。
21.一种物联网数据采集器动态分发系统,用于上述数据采集器动态分发方法,包括:
22、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
23、采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
24、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
25、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
26、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送到物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
27、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
28、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并转换成统一结构上传它通过网关连接到物联网平台。
29、本发明提供的技术方案带来的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关即可。 ,而当系统需要添加对其他数据源的支持时,不需要重新部署,只需要实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式,
目前的负载均衡和动态部署降低了data采集系统的整体部署和维护难度,提高了系统的可扩展性,保证了系统data采集的稳定性和可靠性,完善了系统表现。采集故障转移的效率。
图纸说明
30、下面结合附图和实施例对本发明作进一步说明,其中:
31. 图。图1为本发明实施例的物联网数据采集器动态分发方法流程图。
32. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
详细方法
33、为了更清楚地理解本发明的技术特征、目的和效果,现结合附图对本发明的具体实施方式进行详细说明。
34、本发明实施例提供了一种物联网数据采集器的动态分发方法和系统。
35. 请参考图。请参阅图1,为本发明实施例的物联网数据采集器动态分发方法的流程图,具体包括:
36.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表。
37、终端指标是数据采集的最小单位,如压力、流量、温度、湿度等。
38、查找终端指示灯的查询条件为:所属终端状态为:启用,终端指示灯状态为:启用,采集状态为:等待。
39、终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,采集状态包括:停止、等待、采集和错误。
40、当终端数据和终端索引中的数据采集相关信息发生变化时,将发起终端索引采集的配置重新合并,执行步骤1被触发。
41.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组。根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关要执行的采集任务列表,并将任务下发给对应的物联网网关网关。
42. 采集 任务收录数据源信息和采集 指标组列表。
43、一个数据源可以通过数据源编号关联多个网关的网关编号。在数据源指标组中查找与数据源关联的网关的规则是:网关可以正常运行数据源的采集任务;查找:与此数据源关联,状态已启用,运行状态为备用或采集。
44. 运行状态包括:待机、采集 和已停止。
45. 分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。各个算法的具体定义如下:
46、轮询算法是指将指标组平均分配到各个网关的算法;
47、加权轮询算法是指根据每个网关的权重分配指标组的算法;
48、总分配算法是指分配每个网关当前任务数的算法,使网关上的任务总数相近;
49、资源负载算法是指分配各个网关当前的硬件负载(cpu、内存、网络)的算法,使网关的负载相对均衡;
50、动态负载算法是指第一次使用资源分配策略进行分配,然后结合资源负载变化动态调整的算法。
51.对于采集环境比较固定的场景,可以使用round-robin、weighted round-robin、total allocation算法。对于环境变化频繁的采集场景,使用资源加载和动态加载算法。
52、当数据源或其绑定网关的数据中与数据采集相关的信息发生变化时,将重新分配指标组触发步骤2。
53.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果有,转步骤s7,否则转步骤s4。采集executor 是运行 采集 任务的相关代码。
54、当采集任务在当前网关出现数据采集通道故障时,将重新分配当前采集任务,并将当前网关对应的数据源标记为失败,将执行后续分配。中间不参与分配,直到故障修复后状态重置为待机。
55.s4:根据采集执行器的id查找本地是否有缓存的采集执行器文件,如果有,转步骤s6,否则转步骤s5。采集executor文件收录:采集executor相关的代码和类库。
56.s5:向物联网平台请求采集执行器文件,平台将文件发送给物联网网关,网关收到文件后执行步骤s6。
57.s6:加载并初始化采集执行器的执行环境,加载后执行第7步。
58.s7:根据采集任务实例化并启动采集执行器,对数据采集进行处理,转换成统一的结构,通过网关上传到物联网平台. 一种实现上述数据采集器动态分发方法的物联网数据采集器动态分发系统,具体包括:
59、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
60.采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
61、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
62、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
63、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送至物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
64、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
65、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并将其转换成统一结构并上传它通过网关连接到物联网平台。
66. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
67. 具体实施方式:
68、如图2所示,添加终端指标后,分发服务在平台监测到新终端指标后,触发与指标关联的数据源重新分发采集任务。任务重新分配后,发送到网关服务,网关服务将任务发送到物联网网关,网关实例化任务,为data采集工作创建采集器连接数据源,采集器采集>接收到的数据通过物联网网关上传到网关服务。
69、当有新的物联网网关连接时,状态服务会通知分发服务
与网关关联的数据源重新分配采集的任务,重新分配后将任务发送给网关服务。网关服务向物联网网关发送任务,网关实例化任务并创建一个采集器连接数据源为data采集工作,采集器接收的数据采集会通过物联网网关上传到网关服务。
70、本发明的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关,系统需要新增数据到其他数据源支持的情况下,无需重新部署,只需实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式来实现负载均衡和动态部署,降低了数据的整体部署和维护难度采集> 系统和改进它提高了系统的可扩展性,
71、以上所述仅为本发明的较佳实施例而已,并不用于限制本发明。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应收录在本发明之内。保护范围内。
免费的:SEO自动推广工具,免费SEO有用吗?
当你运行一个SEO项目时,你经常会想,如果你能自动优化SEO,那该有多好,如果你能免费做,那就完美了。因此,大量的SEO在
进入行业时,往往习惯走捷径,愿意寻找那些SEO自动推广工具,创造方便的优化条件。
所以,搜索引擎优化
自动推广工具,免费SEO有用吗?
根据之前对SEO工具的研究,冠联认为这个问题应该分为两个来看待,比如:
1. 提交 PBN
所谓PBN反向链接是进口产品,近两年国内外贸SEO朋友经常讨论这个问题,这和国内博客反向链接类似,主要是指自建网站采集。
但唯一不同的是,它强调所有PBN网站的独立操作,国外一些SEO自动推广工具收录了一键提交到这些PBN网站的功能。
有时,您无法合理评估这种免费的SEO贡献行为是否无效。
2. 自动插件
如果您使用的是像WordPress这样的博客系统,您会发现那里有大量相关的插件,并且许多免费插件提供SEO自动使用功能,例如
:
(1) 根据实际字数设置自动提取网页描述标签。
(2) 生成页面时自动添加锚文本网站。
(3) 更新网站时,自动生成网站地图。
事实上,这些免费的SEO功能有一定的积极作用。
3. 分组发送外部链接
在众多的SEO推广中
软件中,最流行的SEO自动推广工具之一是群组反向链接,通常主要分为以下内容:
(1)超级反向链接
所谓超级反向链接,主要是在短时间内,在相应网站中做出具有一定权重的相关搜索查询,从而瞬间产生大量的外部查询链接。
(2) 站群分组发送
对于站群组反向链接,通常是
价格低,只需要花一小笔费用,就可以在网站发布上千个反向链接,通常这类网站,基本上不会被百度收录,同时,网站运营的时间段也比较短。
链接到这两个使用免费SEO的策略显然对SEO没有用,偶尔会适得其反。
4. 快速排名
搜索引擎优化
Quick Ranking,相关软件,是常见的SEO自动推广工具,但它并不是完全免费的SEO,而是需要你充值一定量来模拟真实用户行为刷点击。
显然,这不是真正的用户搜索点击,理论上短期内可能对SEO有用,但从长远来看,它不会有任何用处。
总结:免费SEO的相关自动推广工具对SEO结果是否有用,有时候需要具体问题,具体分析,以上内容仅供参考! 查看全部
解决方案:一种物联网数据采集器动态分发方法及系统与流程
1、本发明涉及数据采集技术领域,具体涉及一种物联网数据采集器动态分发方法及系统。
背景技术:
2、随着物联网技术的发展,数据采集终端的种类和规模不断增加,对数据采集系统的部署和采集效率提出了更高的要求. 对于大型采集系统,负载均衡和动态部署是保证采集终端数据高效的基础。
3、传统的data采集部署方式,通常以中间件的形式实现。比如data采集模块用于完成业务调度和执行,从上层调用data采集逻辑。控制数据采集终端实现数据采集。当这种方法配置为最小粒度(指标)时,每个指标被视为一个采集任务,每个采集任务需要单独配置,采集的效率为低的。而data采集器负载均衡依赖中间件,运维难度大,没有动态部署机制。当系统需要增加对其他数据源的支持时,需要扩展新的data采集协议,需要重新部署,维护工作量大,可扩展性差。对于大规模数据采集 任务,它有明显的局限性。
技术实施要素:
4、为了克服现有技术的不足,本发明提供了一种物联网数据动态分发采集器的方法和系统,首先将需要采集的终端指标重组为采集按照一定的规则。>任务列表发送到对应的物联网网关,然后初始化采集执行器的执行环境,最后根据采集任务实例化采集执行器完成数据采集 工作。本发明不仅可以降低数据采集系统的部署和维护难度,而且在系统增加新的数据源时不需要重新部署,保证了系统的稳定性和可靠性。系统数据采集和改进<
5、一种物联网数据动态分布采集器的方法,主要包括:
6.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
7.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关采集需要执行的任务列表,并将任务发送给对应的网关;
8.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果没有,转步骤s4,如果有,转步骤s7;
9.s4:查找是否有本地缓存的采集执行器文件,如果没有,转步骤s5,如果有,转步骤s6;
10.s5:平台向物联网平台请求采集执行器文件后,将文件发送给物联网网关,网关接收到文件后,执行步骤s6;
11.s6:加载并初始化采集执行器的执行环境,然后进行步骤s7;
12.s7:根据采集任务实例化采集器并启动,执行数据采集,通过
网关上传到物联网平台。
13、进一步,在步骤s1中,终端指标为数据采集的最小单位,如压力、流量、温度、湿度等。
14、进一步地,在步骤s1中,查找所有终端指示灯的查询条件为:终端状态开启,终端指示灯状态开启,采集状态为等待。终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,以及采集 状态包括:停止、等待、采集和错误。
15、进一步地,当终端的数据和终端索引中与数据采集相关的信息发生变化时,启动终端索引采集的配置重组,则步骤s1为触发。
16、进一步地,在步骤s2中,采集任务列表收录数据源信息和采集指标组列表。
17、进一步的,一个数据源通过其编号与多个网关的网关编号相关联,在数据源指标组中查找与该数据源关联的网关的规则为:网关可以正常运行采集> 数据源。任务; 寻找:与此数据源相关联,状态为启用,运行状态为备用或采集;运行状态包括:standby、采集、stopped。
18、进一步地,在步骤s2中,分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。对于环境相对固定的场景,使用轮询、加权四舍五入。查询和总分配算法,对于环境变化频繁的场景,使用资源负载和动态负载算法。
19、进一步,在步骤s3中,当采集任务在当前网关中出现数据采集通道故障时,将重新分配当前采集任务,并将对应的数据源当前网关将被标记为发生故障,在故障修复后状态重置为备用之前,它不会参与后续分配中的分配。
20、进一步地,步骤s4中,采集执行器文件包括:采集执行器相关代码和类库。
21.一种物联网数据采集器动态分发系统,用于上述数据采集器动态分发方法,包括:
22、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;

23、采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
24、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
25、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
26、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送到物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
27、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
28、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并转换成统一结构上传它通过网关连接到物联网平台。
29、本发明提供的技术方案带来的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关即可。 ,而当系统需要添加对其他数据源的支持时,不需要重新部署,只需要实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式,
目前的负载均衡和动态部署降低了data采集系统的整体部署和维护难度,提高了系统的可扩展性,保证了系统data采集的稳定性和可靠性,完善了系统表现。采集故障转移的效率。
图纸说明
30、下面结合附图和实施例对本发明作进一步说明,其中:
31. 图。图1为本发明实施例的物联网数据采集器动态分发方法流程图。
32. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
详细方法
33、为了更清楚地理解本发明的技术特征、目的和效果,现结合附图对本发明的具体实施方式进行详细说明。
34、本发明实施例提供了一种物联网数据采集器的动态分发方法和系统。
35. 请参考图。请参阅图1,为本发明实施例的物联网数据采集器动态分发方法的流程图,具体包括:
36.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表。
37、终端指标是数据采集的最小单位,如压力、流量、温度、湿度等。
38、查找终端指示灯的查询条件为:所属终端状态为:启用,终端指示灯状态为:启用,采集状态为:等待。
39、终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,采集状态包括:停止、等待、采集和错误。
40、当终端数据和终端索引中的数据采集相关信息发生变化时,将发起终端索引采集的配置重新合并,执行步骤1被触发。
41.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组。根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关要执行的采集任务列表,并将任务下发给对应的物联网网关网关。
42. 采集 任务收录数据源信息和采集 指标组列表。
43、一个数据源可以通过数据源编号关联多个网关的网关编号。在数据源指标组中查找与数据源关联的网关的规则是:网关可以正常运行数据源的采集任务;查找:与此数据源关联,状态已启用,运行状态为备用或采集。
44. 运行状态包括:待机、采集 和已停止。
45. 分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。各个算法的具体定义如下:
46、轮询算法是指将指标组平均分配到各个网关的算法;

47、加权轮询算法是指根据每个网关的权重分配指标组的算法;
48、总分配算法是指分配每个网关当前任务数的算法,使网关上的任务总数相近;
49、资源负载算法是指分配各个网关当前的硬件负载(cpu、内存、网络)的算法,使网关的负载相对均衡;
50、动态负载算法是指第一次使用资源分配策略进行分配,然后结合资源负载变化动态调整的算法。
51.对于采集环境比较固定的场景,可以使用round-robin、weighted round-robin、total allocation算法。对于环境变化频繁的采集场景,使用资源加载和动态加载算法。
52、当数据源或其绑定网关的数据中与数据采集相关的信息发生变化时,将重新分配指标组触发步骤2。
53.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果有,转步骤s7,否则转步骤s4。采集executor 是运行 采集 任务的相关代码。
54、当采集任务在当前网关出现数据采集通道故障时,将重新分配当前采集任务,并将当前网关对应的数据源标记为失败,将执行后续分配。中间不参与分配,直到故障修复后状态重置为待机。
55.s4:根据采集执行器的id查找本地是否有缓存的采集执行器文件,如果有,转步骤s6,否则转步骤s5。采集executor文件收录:采集executor相关的代码和类库。
56.s5:向物联网平台请求采集执行器文件,平台将文件发送给物联网网关,网关收到文件后执行步骤s6。
57.s6:加载并初始化采集执行器的执行环境,加载后执行第7步。
58.s7:根据采集任务实例化并启动采集执行器,对数据采集进行处理,转换成统一的结构,通过网关上传到物联网平台. 一种实现上述数据采集器动态分发方法的物联网数据采集器动态分发系统,具体包括:
59、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
60.采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
61、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
62、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
63、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送至物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
64、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
65、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并将其转换成统一结构并上传它通过网关连接到物联网平台。
66. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
67. 具体实施方式:
68、如图2所示,添加终端指标后,分发服务在平台监测到新终端指标后,触发与指标关联的数据源重新分发采集任务。任务重新分配后,发送到网关服务,网关服务将任务发送到物联网网关,网关实例化任务,为data采集工作创建采集器连接数据源,采集器采集>接收到的数据通过物联网网关上传到网关服务。
69、当有新的物联网网关连接时,状态服务会通知分发服务
与网关关联的数据源重新分配采集的任务,重新分配后将任务发送给网关服务。网关服务向物联网网关发送任务,网关实例化任务并创建一个采集器连接数据源为data采集工作,采集器接收的数据采集会通过物联网网关上传到网关服务。
70、本发明的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关,系统需要新增数据到其他数据源支持的情况下,无需重新部署,只需实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式来实现负载均衡和动态部署,降低了数据的整体部署和维护难度采集> 系统和改进它提高了系统的可扩展性,
71、以上所述仅为本发明的较佳实施例而已,并不用于限制本发明。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应收录在本发明之内。保护范围内。
免费的:SEO自动推广工具,免费SEO有用吗?
当你运行一个SEO项目时,你经常会想,如果你能自动优化SEO,那该有多好,如果你能免费做,那就完美了。因此,大量的SEO在
进入行业时,往往习惯走捷径,愿意寻找那些SEO自动推广工具,创造方便的优化条件。
所以,搜索引擎优化
自动推广工具,免费SEO有用吗?
根据之前对SEO工具的研究,冠联认为这个问题应该分为两个来看待,比如:
1. 提交 PBN
所谓PBN反向链接是进口产品,近两年国内外贸SEO朋友经常讨论这个问题,这和国内博客反向链接类似,主要是指自建网站采集。
但唯一不同的是,它强调所有PBN网站的独立操作,国外一些SEO自动推广工具收录了一键提交到这些PBN网站的功能。
有时,您无法合理评估这种免费的SEO贡献行为是否无效。

2. 自动插件
如果您使用的是像WordPress这样的博客系统,您会发现那里有大量相关的插件,并且许多免费插件提供SEO自动使用功能,例如
:
(1) 根据实际字数设置自动提取网页描述标签。
(2) 生成页面时自动添加锚文本网站。
(3) 更新网站时,自动生成网站地图。
事实上,这些免费的SEO功能有一定的积极作用。
3. 分组发送外部链接
在众多的SEO推广中
软件中,最流行的SEO自动推广工具之一是群组反向链接,通常主要分为以下内容:
(1)超级反向链接

所谓超级反向链接,主要是在短时间内,在相应网站中做出具有一定权重的相关搜索查询,从而瞬间产生大量的外部查询链接。
(2) 站群分组发送
对于站群组反向链接,通常是
价格低,只需要花一小笔费用,就可以在网站发布上千个反向链接,通常这类网站,基本上不会被百度收录,同时,网站运营的时间段也比较短。
链接到这两个使用免费SEO的策略显然对SEO没有用,偶尔会适得其反。
4. 快速排名
搜索引擎优化
Quick Ranking,相关软件,是常见的SEO自动推广工具,但它并不是完全免费的SEO,而是需要你充值一定量来模拟真实用户行为刷点击。
显然,这不是真正的用户搜索点击,理论上短期内可能对SEO有用,但从长远来看,它不会有任何用处。
总结:免费SEO的相关自动推广工具对SEO结果是否有用,有时候需要具体问题,具体分析,以上内容仅供参考!
解决方案:神经网络爬虫框架人脸与行人检测+卡通表情采集器
采集交流 • 优采云 发表了文章 • 0 个评论 • 89 次浏览 • 2022-11-08 07:13
无规则采集器列表算法有误
2017.2.6特别修改。数据来源:开源深度学习神经网络爬虫框架人脸与行人检测+卡通表情采集器及report,目前开源3个,欢迎大家使用。-_-原回答:好几年前了,有这种神器。
现在找到的可用爬虫网站很多了。先列出来我常用的几个。0.综合性的:识图,百度识图,谷歌识图,搜狗识图,必应识图,(题主只说图片,将百度识图和谷歌识图未计),搜狗识图,必应识图,会有一些区别,比如必应识图应该是图片和文字一起;谷歌识图应该是单图/单文字0.非综合性的:豆瓣图书,知乎电影0.3d地图:不知道,知乎有一个地图还不错0.考虑到重复性:淘宝,京东0.文字的:灵魂画手:在线灵魂画手-速写:速写地图链接在此:,将熟悉个把速写精灵还有这些网站:-of-intelligence-inspired-in-python-2015/#topic-of-intelligence-inspired-in-python-2015-2015-is-your-end-to-extension-version-2015.htmlheadergo&blogginggo–automaticartificialintelligenceservicesblogginggo,archiveimagesearch&reportswithautomaticartificialintelligencearchiveimagesearch&reportswithautomaticartificialintelligence-visualizing-places-for-artificial-intelligence/pages/37476.htmlartificialintelligence_where_web_drives-artificial-intelligence/#effective_artificial-intelligence/html'''-artificial-intelligence/hugo-artificial-intelligence.htmldevsecops.htmldevsecops.html-the-intelligence-for-methods-in-everyday-on-a-local-browser-qh9m-on-everyday-on-a-local-browser-qh9m.htmldockingoshe-iot-security/。 查看全部
解决方案:神经网络爬虫框架人脸与行人检测+卡通表情采集器

无规则采集器列表算法有误

2017.2.6特别修改。数据来源:开源深度学习神经网络爬虫框架人脸与行人检测+卡通表情采集器及report,目前开源3个,欢迎大家使用。-_-原回答:好几年前了,有这种神器。
现在找到的可用爬虫网站很多了。先列出来我常用的几个。0.综合性的:识图,百度识图,谷歌识图,搜狗识图,必应识图,(题主只说图片,将百度识图和谷歌识图未计),搜狗识图,必应识图,会有一些区别,比如必应识图应该是图片和文字一起;谷歌识图应该是单图/单文字0.非综合性的:豆瓣图书,知乎电影0.3d地图:不知道,知乎有一个地图还不错0.考虑到重复性:淘宝,京东0.文字的:灵魂画手:在线灵魂画手-速写:速写地图链接在此:,将熟悉个把速写精灵还有这些网站:-of-intelligence-inspired-in-python-2015/#topic-of-intelligence-inspired-in-python-2015-2015-is-your-end-to-extension-version-2015.htmlheadergo&blogginggo–automaticartificialintelligenceservicesblogginggo,archiveimagesearch&reportswithautomaticartificialintelligencearchiveimagesearch&reportswithautomaticartificialintelligence-visualizing-places-for-artificial-intelligence/pages/37476.htmlartificialintelligence_where_web_drives-artificial-intelligence/#effective_artificial-intelligence/html'''-artificial-intelligence/hugo-artificial-intelligence.htmldevsecops.htmldevsecops.html-the-intelligence-for-methods-in-everyday-on-a-local-browser-qh9m-on-everyday-on-a-local-browser-qh9m.htmldockingoshe-iot-security/。
工作经验:hm博学谷-JavaEE在线就业班2022年+中级进修课+精英进阶
采集交流 • 优采云 发表了文章 • 0 个评论 • 48 次浏览 • 2022-11-07 05:25
hm博学谷-JavaEE在线就业班2022+中级进阶课程+精英进阶课程介绍:
课程内容收录大量技术难点,如Dubbo+Zookeeper企业服务架构、SpringBoot+SpringCloud微服务架构、MQ消息队列、Elasticsearch全文搜索、OAuth协议第三方认证、JWT令牌验证用户权限、SpringDataMongoDB框架、Docker等。课程收录多个行业项目,均定位于真正的企业级,让学员快速掌握核心技术,并在工作中有效运用。
章节目录:
2022 年职业课程:
中级培训:
课程目录:
博学谷- 2022年JavaEE在线就业班2.0
├──01、阶段一 Java基础
| ├──01、第一章 Java基础导学
| | └──1-1 导学
| ├──02、第二章 Java基础语法
| | ├──2-1 环境搭建+入门
| | ├──2-10 二维数组
| | ├──2-2 数据类型及转换
| | ├──2-3 运算符
| | ├──2-4 条件控制语句
| | ├──2-5 循环
| | ├──2-6 随机数+开发工具
| | ├──2-7 数组
| | ├──2-8 方法与debug
| | └──2-9 进制
| ├──03、第三章 面向对象基础
| | ├──3-1 面向对象基础-上
| | └──3-2 面向对象基础-下
| ├──04、第四章 API基础
| | ├──4-1 String类
| | └──4-2 StringBuilder
| ├──05、第五章 集合基础
| | ├──5-1 集合-ArrayList
| | └──5-2 学生管理系统
| ├──06、第六章 Git
| | ├──6-1 Git的安装
| | ├──6-2 Git的基本操作
| | └──6-3 IDEA集成Git
| ├──07、第七章 面向对象进阶
| | ├──7-1 分类和static
| | ├──7-2 老师管理系统
| | ├──7-3 继承-上
| | ├──7-4 继承-下
| | ├──7-5 接口
| | ├──7-6 多态与内部类
| | └──7-7 Lambda表达式
| ├──08、第八章 常用API&异常
| | ├──8-1 API的基本使用与Object类
| | ├──8-2 BigDecimal类与Integer类
| | ├──8-3 数组的高级操作与递归
| | ├──8-4 时间日期类
| | └──8-5 异常
| ├──09、第九章 集合
| | ├──9-1 Collection
| | ├──9-2 List与LinkedList
| | ├──9-3 泛型
| | ├──9-4 数据结构&平衡二叉树
| | ├──9-5 红黑树&HashSet
| | ├──9-6 HashMap&TreeMap
| | └──9-7 Stream流
| ├──10、第十章 IO流
| | ├──10-1 File
| | ├──10-2 字节流
| | ├──10-3 缓冲流
| | ├──10-4 字符流&字符缓冲流
| | └──10-5 转换流&对象操作流&Properties
| ├──11、第十一章 多线程
| | ├──11-1 多线程
| | ├──11-2 线程安全问题
| | ├──11-3 生产者和消费者
| | ├──11-4 线程池&volatile
| | └──11-5 原子性&并发工具类
| ├──12、第十二章 网络编程
| | ├──12-1 网络编程&UDP
| | └──12-2 TCP通讯程序
| └──13、第十三章 基础加强
| | ├──13-1 类加载器&反射
| | ├──13-2 xml
| | ├──13-3 DTD&schema
| | ├──13-4 枚举
| | └──13-5 单元测试&日志技术
├──02、阶段二 JavaWeb
| ├──01、第一章 MySQL基础操作
| | ├──1-1 MySql简介
| | ├──1-2 DDL&DML
| | └──1-3 DQL操作MySql
| ├──02、第二章 MySQL数据库设计和多表操作
| | ├──2-1 数据库设计
| | └──2-2 多表查询&事务
| ├──03、第三章 JDBC
| | ├──3-1 JDBC-快速入门
| | ├──3-2 JDBC-API详解
| | └──3-3 JDBC练习
| ├──04、第四章 Maven基础
| | ├──01-Maven概述.mp4 36.93M
| | ├──02-Maven简介.mp4 42.48M
| | ├──03-Maven安装和配置.mp4 27.02M
| | ├──04-Maven基本使用.mp4 68.82M
| | ├──05-IDEA 创建Maven项目.mp4 24.10M
| | ├──06- IDEA导入Maven项目.mp4 18.92M
| | ├──07-依赖管理.mp4 41.57M
| | └──08-依赖范围.mp4 35.83M
| ├──05、第五章 MyBatis
| | ├──5-1 MyBatis快速入门
| | ├──5-2 MyBatis查询
| | └──5-3 MyBatis添加&修改&删除
| ├──06、第六章 HTML & CSS
| | ├──6-1 HTML快速入门
| | ├──6-2 HTML常用标签
| | └──6-3 css快速入门
| ├──07、第七章 JavaScript
| | ├──7-1 JavaScript快速入门
| | ├──7-2 JavaScript常用对象
| | └──7-3 JavaScript事件
| ├──08、第八章 HTTP & Tomcat & Servlet
| | ├──8-1 HTTP协议
| | ├──8-2 Tomcat
| | └──8-3 Servlet快速入门
| ├──09、第九章 请求和响应
| | ├──9-1 Request
| | ├──9-2 Response
| | └──9-3 综合案例
| ├──10、第十章 JSP & 会话技术
| | ├──10-1 JSP快速入门
| | ├──10-2 三层架构
| | ├──10-3 Cookie&Session
| | └──10-4 登陆案例
| ├──11、第十一章 过滤器 & 监听器 & AJAX
| | ├──11-1 Filter&Listener
| | └──11-2 AJAX
| └──12、第十二章 Vue & ElementUI
| | ├──12-1 Vue-快速入门
| | ├──12-2 Element-快速入门
| | ├──12-3 环境搭建
| | └──12-4 综合案例
├──03、阶段三 热门框架
| ├──01、第一章 spring框架
| | ├──1-1 初识Spring
| | ├──1-2 bean实例化
| | ├──1-3 注入
| | ├──1-4 注解开发&整合Mybatis
| | ├──1-5 Spring整合Junit&AOP入门
| | ├──1-6 AOP切入点表达式&通知类型
| | └──1-7 Spring事务
| ├──02、第二章 SpringMVC
| | ├──2-1 SpringMVC&postman工具
| | ├──2-2 请求方式&参数传递
| | ├──2-3 RESTful
| | ├──2-4 表现层与前端数据传输
| | ├──2-5 异常处理&前后台协议联调
| | └──2-6 拦截器
| ├──03、第三章 springboot
| | ├──3-1 SpringBoot工程
| | ├──3-2 配置文件&多环境开发
| | └──3-3 springboot整合
| ├──04、第四章 Maven高级
| | ├──4-1 分模块开发与设计
| | └──4-2 多环境开发&私服
| └──05、第五章 MyBatis-Plus
| | ├──5-1 Mybatis入门&条件查询
| | └──5-2 多数据操作&代码生成器
├──04、阶段四 项目实战-瑞吉外卖
| ├──01、第一章 瑞吉外卖项目
| | ├──1-1 项目介绍&环境搭建
| | ├──1-10 分页查询&修改菜品
| | ├──1-11 新增套餐功能
| | ├──1-12 分页查询&删除套餐
| | ├──1-13 短信&验证码
| | ├──1-14 导入地址簿&菜品展示
| | ├──1-15 购物车
| | ├──1-16 用户下单
| | ├──1-2 后台功能
| | ├──1-3 完善登录&新增员工
| | ├──1-4 分页查询
| | ├──1-5 启用&禁用账号&编辑员工信息
| | ├──1-6 自动填充
| | ├──1-7 新增&删除&修改分类
| | ├──1-8 上传&下载
| | └──1-9 新增菜品
| ├──02、第二章 Git
| | ├──2-1 Git
| | └──2-2 IDEA中使用Git
| ├──03、第三章 Linux
| | ├──01-Linux课程介绍.mp4 13.22M
| | ├──02-Linux简介_不同应用领域的主流操作系统.mp4 8.99M
| | ├──03-Linux简介_Linux历史.mp4 4.36M
| | ├──04-Linux简介_Linux系统版本(内核版、发行版).mp4 6.65M
| | ├──05-Linux安装_本章内容介绍.mp4 1.18M
| | ├──06-Linux安装_Linux系统的安装方式.mp4 5.80M
| | ├──07-Linux安装_通过虚拟机软件安装Linux系统.mp4 25.80M
| | ├──08-Linux安装_网卡设置.mp4 13.58M
| | ├──09-Linux安装_使用FinalShell连接到Linux服务器.mp4 15.62M
| | ├──10-Linux安装_Linux系统目录结构.mp4 19.70M
| | ├──11-Linux常用命令_本章内容介绍.mp4 3.34M
| | ├──12-Linux常用命令_Linux命令初体验-几个常用命令.mp4 27.87M
| | ├──13-Linux常用命令_Linux命令初体验-Linux命令使用技巧.mp4 23.27M
| | ├──14-Linux常用命令_Linux命令初体验-Linux命令格式.mp4 26.85M
| | ├──15-Linux常用命令_文件目录操作命令-ls命令.mp4 22.72M
| | ├──16-Linux常用命令_文件目录操作命令-cd命令.mp4 10.66M
| | ├──17-Linux常用命令_文件目录操作命令-cat命令.mp4 13.91M
| | ├──18-Linux常用命令_文件目录操作命令-more命令.mp4 16.79M
| | ├──19-Linux常用命令_文件目录操作命令-tail命令.mp4 24.48M
| | ├──20-Linux常用命令_文件目录操作命令-mkdir命令.mp4 8.61M
| | ├──21-Linux常用命令_文件目录操作命令-rmdir命令.mp4 14.48M
| | ├──22-Linux常用命令_文件目录操作命令-rm命令.mp4 19.02M
| | ├──23-Linux常用命令_拷贝移动命令-cp命令.mp4 30.32M
| | ├──24-Linux常用命令_拷贝移动命令-mv命令.mp4 39.32M
| | ├──25-Linux常用命令_打包压缩命令-tar命令.mp4 60.33M
| | ├──26-Linux常用命令_文本编辑命令-vim命令安装.mp4 14.18M
| | ├──27-Linux常用命令_文本编辑命令-vim命令.mp4 32.12M
| | ├──28-Linux常用命令_查找命令-find命令.mp4 10.83M
| | ├──29-Linux常用命令_查找命令-grep命令.mp4 19.34M
| | ├──30-软件安装_本章内容介绍.mp4 2.58M
| | ├──31-软件安装_Linux中软件安装方式介绍.mp4 6.36M
| | ├──32-软件安装_安装jdk.mp4 25.51M
| | ├──33-软件安装_安装Tomcat.mp4 15.24M
| | ├──34-软件安装_安装Tomcat-确认服务启动是否成功.mp4 43.41M
| | ├──35-软件安装_安装Tomcat-防火墙操作.mp4 52.16M
| | ├──36-软件安装_安装Tomcat-停止Tomcat服务.mp4 20.47M
| | ├──37-软件安装_安装MySQL.mp4 98.94M
| | ├──38-软件安装_安装MySQL-启动服务、连接MySQL.mp4 54.23M
| | ├──39-软件安装_安装lrzsz.mp4 19.34M
| | ├──40-项目部署_本章内容介绍.mp4 4.44M
| | ├──41-项目部署_手工部署项目_操作过程.mp4 33.29M
| | ├──42-项目部署_手工部署项目_后台运行程序.mp4 32.49M
| | ├──43-项目部署_通过Shell脚本自动部署项目_操作步骤说明.mp4 10.76M
| | ├──44-项目部署_通过Shell脚本自动部署项目_在Linux中安装git、maven.mp4 39.24M
| | ├──45-项目部署_通过Shell脚本自动部署项目_Shell脚本说明.mp4 27.04M
| | ├──46-项目部署_通过Shell脚本自动部署项目_Linux中权限说明.mp4 16.62M
| | ├──47-项目部署_通过Shell脚本自动部署项目_授权并执行脚本.mp4 41.16M
| | └──48-项目部署_通过Shell脚本自动部署项目_设置静态ip.mp4 35.58M
| ├──04、第四章 Redis
| | ├──4-1 Redis
| | └──4-2 Jedis
| └──05、第五章 瑞吉外卖-项目优化
| | ├──5-1 缓存短信验证码
| | ├──5-2 Spring Cache
| | ├──5-3 缓存套餐数据
| | ├──5-4 Mysql主从复制
| | ├──5-5 Mysql读写分离
| | ├──5-6 Nginx命令
| | ├──5-7 Nginx具体应用
| | ├──5-8 前后端分离开发
| | └──5-9 项目部署
├──05、阶段五 服务端框架基础+探花交友项目
| ├──01、第一章 SpringCloud
| | ├──1-1 微服务&服务拆分
| | ├──1-2 Eureka&Ribbon
| | ├──1-3 Nacos
| | ├──1-4 Nacos配置
| | ├──1-5 Feign
| | └──1-6 网关&路由
| ├──02、第二章 Docker
| | ├──2-1 初识Docker&镜像命令
| | ├──2-2 容器命令&数据卷命令
| | └──2-3 Docker
| ├──03、第三章 MQ
| | ├──3-1 初识MQ&RabbitMQ
| | └──3-2 SpringAMQP
| └──04、第四章 探花交友项目
| | ├──4-1 Dubbo入门
| | ├──4-10 好友推荐&MongoDB集群
| | ├──4-11 圈子动态&个人动态
| | ├──4-12 查询动态
| | ├──4-13 圈子互动&发布评论
| | ├──4-14 点赞&取消点赞
| | ├──4-15 即时通信&用户体系
| | ├──4-16 联系人管理&好友申请
| | ├──4-17 左滑右划功能
| | ├──4-18 地理位置&搜附近
| | ├──4-19 访客&FastDFS
| | ├──4-2 Dubbo高级特性&整合SpringCloud
| | ├──4-20 发布视频&查询视频列表
| | ├──4-21 SpringCache
| | ├──4-22 后台管理
| | ├──4-23 管理员登录&用户管理
| | ├──4-24 用户冻结&日志数据采集
| | ├──4-25 定时任务&动态审核
| | ├──4-26 理论&用户推荐&动态推荐&视频推荐
| | ├──4-3 模块介绍&阿里云
| | ├──4-4 封装组件&登录验证&JWT
| | ├──4-5 用户登录
| | ├──4-6 阿里云oss&人脸识别&保存用户信息
| | ├──4-7 上传头像&资料管理&代码优化
| | ├──4-8 通用设置&陌生人问题&黑名单
| | └──4-9 MongoDB&SpringData-Mongo&今日佳人
├──06、阶段六 服务端框架高级+黑马头条项目
| ├──01、第一章 Sentinel
| | ├──1-1 Sentinel&限流规则
| | └──1-2 隔离和降级&授权规则&规则持久化
| ├──02、第二章 分布式事务
| | ├──2-1 理论基础&初识Seata
| | ├──2-2 XA模式&AT模式
| | ├──2-3 TCC模式&SAGA模式
| | └──2-4 高可用&ES集群
| ├──03、第三章 分布式缓存Redis
| | ├──3-1 Redis持久化&Redis主从
| | └──3-2 Redis哨兵&分片集群
| ├──04、第四章 Redis多级缓存案例
| | ├──4-1 JVM进程缓存
| | ├──4-2 Lua&OpenResty
| | ├──4-3 多级缓存
| | └──4-4 缓存同步
| ├──05、第五章 RabbitMQ高级
| | ├──5-1 消息可靠性
| | ├──5-2 死信交换机&消息堆积
| | └──5-3 MQ集群
| ├──06、第六章 ElasticSearch
| | ├──6-1 初识ES
| | ├──6-10 es集群
| | ├──6-2 操作索引库
| | ├──6-3 RestClient
| | ├──6-4 DSL查询语法
| | ├──6-5 结果处理&查询
| | ├──6-6 黑马旅游案例
| | ├──6-7 数据聚合
| | ├──6-8 自动补全
| | └──6-9 数据同步
| └──07、第七章 黑马头条项目
| | ├──7-1 初始工程
| | ├──7-10 文章审核
| | ├──7-11 敏感词&图片文字识别
| | ├──7-12 概述&添加任务
| | ├──7-13 取消&拉取任务&定时刷新
| | ├──7-14 kafka
| | ├──7-15 springboot集成kafka
| | ├──7-16 文章搜索
| | ├──7-17 历史记录
| | ├──7-18 平台管理
| | ├──7-19 用户行为
| | ├──7-2 APP登录
| | ├──7-20 xxl-job
| | ├──7-21 定时计算
| | ├──7-22 kafkaStream
| | ├──7-23 实时计算
| | ├──7-24 jenkins概述&集成Dockerfile
| | ├──7-25 jenkins构建微服务
| | ├──7-3 接口测试&网关
| | ├──7-4 APP端文章
| | ├──7-5 freemarker
| | ├──7-6 MinIO
| | ├──7-7 素材管理
| | ├──7-8 文章管理&发布
| | └──7-9 阿里云接口&雪花算法&文章保存
├──07、阶段七 面试专题
| ├──01、第一章 基础篇
| | ├──1-1 二分查找&冒泡排序
| | ├──1-2 排序
| | ├──1-3 快速排序
| | ├──1-4 ArrayList&Iterator&LinkedList
| | ├──1-5 HashMap
| | └──1-6 单例设计模式
| ├──02、第二章 并发篇
| | ├──2-1 线程状态&线程池
| | ├──2-2 wait&lock
| | ├──2-3 volatile
| | ├──2-4 引用&悲观锁&HashTable
| | └──2-5 ConcurrentHashMap&ThreadLocal
| ├──03、第三章 虚拟机篇
| | ├──3-1 jvm内存结构&垃圾回收
| | ├──3-2 内存溢出&类加载
| | ├──3-3 引用&悲观锁&HashTable
| | └──3-4 引用&finalize
| ├──04、第四章 框架篇
| | ├──4-1 spring_refresh
| | ├──4-2 spring_bean
| | ├──4-3 spring_tx_事务&spring_webmvc
| | ├──4-4 spring_annotation
| | └──4-5 自动配置&spring_pattern
| ├──05、第五章 数据库篇
| | ├──5-1 隔离级别
| | ├──5-2 隔离级别&存储引擎&B树
| | ├──5-3 索引生效失效
| | └──5-4 全局锁&表级锁&行锁
| ├──06、第六章 缓存篇
| | ├──6-1 redis数据类型
| | ├──6-2 redis持久化&缓存
| | └──6-3 redis事务&lru
| └──07、第七章 分布式篇
| | ├──7-1 cap&paxos
| | ├──7-2 raft算法&gossip协议
| | └──7-3 通用设计
├──08、阶段八 就业指导课+拓展学习
| ├──01、第一章 工作篇
| | └──工作篇.mp4 120.12M
| ├──02、第二章 Java市场篇
| | └──Java市场篇.mp4 298.38M
| ├──03、第三章 求职篇
| | ├──求职篇1简历制作.mp4 86.54M
| | └──求职篇2简历投递技巧.mp4 49.88M
| ├──04、第四章 面试篇
| | ├──面试篇1.mp4 53.61M
| | └──面试篇2.mp4 156.72M
| └──05、第五章 试用期篇
| | ├──试用期篇1.mp4 45.16M
| | └──试用期篇2.mp4 54.51M
精英进阶【包含六大进阶项目】/
├──01、阶段一 中台战略与组件化开发专题课程
| ├──第二章 文件服务
| | ├──01-文件服务课程-文件服务课程介绍.mp4 4.18M
| | ├──02-文件服务课程-文件服务(需求背景).mp4 17.84M
| | ├──03-文件服务课程-文件服务(核心功能).mp4 7.12M
| | ├──04-文件服务课程-文件服务(存储策略).mp4 10.23M
| | ├──05-文件服务课程-文件服务(技术设计).mp4 15.40M
| | ├──06-文件服务课程-文件服务开发(环境搭建_数据.mp4 28.03M
| | ├──07-文件服务课程-文件服务开发(环境搭建_Naco.mp4 22.75M
| | ├──08-文件服务课程-文件服务开发(环境搭建_Ngin.mp4 8.85M
| | ├──09-文件服务课程-文件服务开发(环境搭建_mav.mp4 15.52M
| | ├──10-文件服务课程-文件服务开发(环境搭建_mave.mp4 44.47M
| | ├──11-文件服务课程-文件服务开发(环境搭建_mav.mp4 56.69M
| | ├──12-文件服务课程-文件服务开发(环境搭建_mave.mp4 55.12M
| | ├──13-文件服务课程-文件服务开发(环境搭建_mave.mp4 30.76M
| | ├──14-文件服务课程-文件服务开发(文件处理策略_F.mp4 19.35M
| | ├──15-文件服务课程-文件服务开发(文件处理策略_.mp4 43.58M
| | ├──16-文件服务课程-文件服务开发(文件处理策略_.mp4 45.03M
| | ├──17-文件服务课程-文件服务开发(文件处理策略_.mp4 14.74M
| | ├──18-文件服务课程-文件服务开发(文件处理策略_.mp4 20.80M
| | ├──19-文件服务课程-文件服务开发(文件处理策略_L.mp4 24.58M
| | ├──20-文件服务课程-文件服务开发(文件处理策略_.mp4 57.59M
| | ├──21-文件服务课程-文件服务开发(文件处理策略_.mp4 30.71M
| | ├──22-文件服务课程-文件服务开发(文件处理策略.mp4 25.38M
| | ├──23-文件服务课程-文件服务开发(文件处理策略.mp4 22.99M
| | ├──24-文件服务课程-文件服务开发(文件处理策略_F.mp4 20.39M
| | ├──25-文件服务课程-文件服务开发(文件处理策略_F.mp4 35.33M
| | ├──26-文件服务课程-文件服务开发(文件处理策略_.mp4 8.99M
| | ├──27-文件服务课程-文件服务开发(文件处理策略_.mp4 13.66M
| | ├──28-文件服务课程-文件服务开发(文件处理策略_.mp4 52.91M
| | ├──29-文件服务课程-文件服务开发(文件处理策略_.mp4 18.61M
| | ├──30-文件服务课程-文件服务开发(接口开发_上传.mp4 14.33M
| | ├──31-文件服务课程-文件服务开发(接口开发_上.mp4 37.11M
| | ├──32-文件服务课程-文件服务开发(接口开发_上传.mp4 26.69M
| | ├──33-文件服务课程-文件服务开发(接口开发_上传.mp4 77.24M
| | ├──34-文件服务课程-文件服务开发(接口开发_上传.mp4 17.84M
| | ├──35-文件服务课程-文件服务开发(接口开发_上传.mp4 19.97M
| | ├──36-文件服务课程-文件服务开发(接口开发_上传.mp4 19.47M
| | ├──38-文件服务课程-文件服务开发(接口开发_上传.mp4 20.18M
| | ├──39-文件服务课程-文件服务开发(接口开发_根据i.mp4 4.41M
| | ├──40-文件服务课程-文件服务开发(接口开发_根据.mp4 21.59M
| | ├──41-文件服务课程-文件服务开发(接口开发_根据i.mp4 36.76M
| | ├──42-文件服务课程-文件服务开发(接口开发_根据i.mp4 8.35M
| | ├──43-文件服务课程-文件服务开发(接口开发_根据i.mp4 25.15M
| | ├──44-文件服务课程-文件服务开发(接口开发_根据.mp4 3.27M
| | ├──45-文件服务课程-文件服务开发(接口开发_根据.mp4 16.86M
| | ├──46-文件服务课程-文件服务开发(接口开发_根据.mp4 12.85M
| | ├──47-文件服务课程-文件服务开发(接口开发_根据.mp4 3.63M
| | ├──48-文件服务课程-文件服务开发(接口开发_根据.mp4 18.81M
| | ├──49-文件服务课程-文件服务开发(接口开发_根据.mp4 42.48M
| | ├──50-文件服务课程-文件服务开发(接口开发_根据.mp4 42.51M
| | ├──51-文件服务课程-文件服务开发(接口开发_根据.mp4 71.43M
| | ├──52-文件服务课程-文件服务开发(接口开发_根据.mp4 29.70M
| | ├──53-文件服务课程-文件服务开发(接口开发_根据.mp4 13.38M
| | ├──54-文件服务课程-文件服务开发(接口开发_根据.mp4 9.67M
| | ├──55-文件服务课程-文件服务开发(接口开发_根据.mp4 5.04M
| | ├──56-文件服务课程-文件服务开发(接口开发_根据.mp4 30.35M
| | ├──57-文件服务课程-文件服务开发(接口开发_根据.mp4 11.18M
| | ├──58-文件服务课程-文件服务开发(接口导入_分页.mp4 27.57M
| | ├──59-文件服务课程-文件服务开发(接口导入_根据.mp4 14.59M
| | ├──60-文件服务课程-文件服务开发(接口导入_导入.mp4 53.27M
| | ├──61-文件服务课程-文件服务开发(接口导入_导入.mp4 16.21M
| | ├──62-文件服务课程-文件服务开发(接口开发_分片.mp4 5.36M
| | ├──63-文件服务课程-文件服务开发(接口开发_分片.mp4 31.25M
| | ├──64-文件服务课程-文件服务开发(接口开发_分片.mp4 9.81M
| | ├──65-文件服务课程-文件服务开发(接口开发_分.mp4 25.04M
| | ├──66-文件服务课程-文件服务开发(接口开发_分.mp4 16.92M
| | ├──67-文件服务课程-文件服务开发(接口开发_分片.mp4 30.16M
| | ├──68-文件服务课程-文件服务开发(接口开发_分片.mp4 7.12M
| | ├──69-文件服务课程-文件服务开发(接口开发_分片.mp4 68.90M
| | ├──70-文件服务课程-文件服务开发(接口开发_分片.mp4 55.73M
| | ├──71-文件服务课程-文件服务开发(接口开发_分片.mp4 10.66M
| | ├──72-文件服务课程-文件服务开发(接口开发_分片.mp4 7.22M
| | ├──73-文件服务课程-文件服务开发(接口开发_分片.mp4 12.10M
| | ├──74-文件服务课程-文件服务开发(接口开发_分片.mp4 18.18M
| | ├──75-文件服务课程-文件服务开发(接口开发_分片.mp4 42.62M
| | ├──76-文件服务课程-文件服务开发(接口开发_分片.mp4 42.69M
| | ├──77-文件服务课程-文件服务开发(接口开发_分片.mp4 12.46M
| | ├──78-文件服务课程-文件服务开发(接口开发_分片.mp4 50.26M
| | ├──79-文件服务课程-文件服务开发(接口开发_分片.mp4 23.91M
| | ├──80-文件服务课程-文件服务开发(接口开发_分片.mp4 40.38M
| | ├──81-文件服务课程-文件服务开发(接口开发_分片.mp4 33.67M
| | ├──82-文件服务课程-文件服务开发(接口开发_分片.mp4 15.60M
| | ├──83-文件服务课程-文件服务开发(接口开发_分片.mp4 9.75M
| | ├──84-文件服务课程-文件服务开发(接口开发_分片.mp4 47.77M
| | ├──85-文件服务课程-文件服务开发(接口开发_分片.mp4 6.47M
| | ├──86-文件服务课程-文件服务开发(接口开发_分片.mp4 40.94M
| | ├──87-文件服务课程-文件服务开发(接口开发_分片.mp4 60.98M
| | └──88-文件服务课程-文件服务开发(接口开发_分片.mp4 23.23M
| ├──第三章 规则引擎Drools
| | ├──01-规则引擎Drools-课程介绍.mp4 6.48M
| | ├──02-规则引擎Drools-规则引擎问题引出(业务规.mp4 25.87M
| | ├──03-规则引擎Drools-规则引擎问题引出(传统实.mp4 42.75M
| | ├──04-规则引擎Drools-规则引擎概述(什么是规则.mp4 29.46M
| | ├──05-规则引擎Drools-规则引擎概述(使用规则引.mp4 10.56M
| | ├──06-规则引擎Drools-规则引擎概述(规则引擎应.mp4 7.31M
| | ├──07-规则引擎Drools-规则引擎概述(Drools介.mp4 14.21M
| | ├──08-规则引擎Drools-Drools入门案例(业务场景.mp4 3.47M
| | ├──09-规则引擎Drools-Drools入门案例(开发实现.mp4 32.58M
| | ├──10-规则引擎Drools-Drools入门案例(开发实现_.mp4 35.01M
| | ├──11-规则引擎Drools-Drools入门案例(开发实现_.mp4 42.07M
| | ├──12-规则引擎Drools-Drools入门案例(开发实现_.mp4 16.77M
| | ├──13-规则引擎Drools-Drools入门案例(小结_规则.mp4 18.80M
| | ├──14-规则引擎Drools-Drools入门案例(小结_相关.mp4 9.65M
| | ├──15-规则引擎Drools-Drools入门案例(小结_规则.mp4 2.81M
| | ├──16-规则引擎Drools-Drools入门案例(小结_KIE.mp4 8.92M
| | ├──17-规则引擎Drools-Drools基础语法(规则文件.mp4 9.64M
| | ├──18-规则引擎Drools-Drools基础语法(规则体语.mp4 9.24M
| | ├──19-规则引擎Drools-Drools基础语法(注释).mp4 3.23M
| | ├──20-规则引擎Drools-Drools基础语法(模式匹.mp4 19.62M
| | ├──21-规则引擎Drools-Drools基础语法(比较操作.mp4 17.20M
| | ├──22-规则引擎Drools-Drools基础语法(比较操作.mp4 47.54M
| | ├──23-规则引擎Drools-Drools基础语法(比较操作.mp4 16.84M
| | ├──24-规则引擎Drools-Drools基础语法(比较操作.mp4 11.10M
| | ├──25-规则引擎Drools-Drools基础语法(执行指定.mp4 26.55M
| | ├──26-规则引擎Drools-Drools基础语法(关键字).mp4 14.43M
| | ├──27-规则引擎Drools-Drools基础语法(内置方法_.mp4 10.05M
| | ├──28-规则引擎Drools-Drools基础语法(内置方.mp4 31.54M
| | ├──29-规则引擎Drools-Drools基础语法(内置方法_i.mp4 16.39M
| | ├──30-规则引擎Drools-Drools基础语法(内置方法.mp4 17.72M
| | ├──31-规则引擎Drools-规则属性(介绍).mp4 15.38M
| | ├──32-规则引擎Drools-规则属性(enabled属性).mp4 10.43M
| | ├──33-规则引擎Drools-规则属性(dialect属性).mp4 4.97M
| | ├──34-规则引擎Drools-规则属性(salience属性).mp4 20.24M
| | ├──35-规则引擎Drools-规则属性(no-loop属性.mp4 19.00M
| | ├──36-规则引擎Drools-规则属性(activation-gro.mp4 19.24M
| | ├──37-规则引擎Drools-规则属性(agenda-grou.mp4 33.70M
| | ├──38-规则引擎Drools-规则属性(auto-focus属.mp4 14.07M
| | ├──39-规则引擎Drools-规则属性(timer属性_第一.mp4 30.04M
| | ├──40-规则引擎Drools-规则属性(timer属性_第二.mp4 16.83M
| | ├──41-规则引擎Drools-规则属性(date-effective.mp4 23.18M
| | ├──42-规则引擎Drools-规则属性(date-expires属.mp4 10.03M
| | ├──43-规则引擎Drools-Drools高级语法(global全.mp4 43.77M
| | ├──44-规则引擎Drools-Drools高级语法(global全.mp4 25.50M
| | ├──45-规则引擎Drools-Drools高级语法(global全.mp4 20.30M
| | ├──46-规则引擎Drools-Drools高级语法(Query查.mp4 50.05M
| | ├──47-规则引擎Drools-Drools高级语法(Query查.mp4 22.70M
| | ├──48-规则引擎Drools-Drools高级语法(function.mp4 24.03M
| | ├──49-规则引擎Drools-Drools高级语法(LHS加强_i.mp4 22.80M
| | ├──50-规则引擎Drools-Drools高级语法(LHS加强_.mp4 7.50M
| | ├──51-规则引擎Drools-Drools高级语法(LHS加强_.mp4 10.77M
| | ├──52-规则引擎Drools-Drools高级语法(LHS加强_.mp4 16.52M
| | ├──53-规则引擎Drools-Drools高级语法(LHS加强_.mp4 14.03M
| | ├──54-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.73M
| | ├──55-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.43M
| | ├──56-规则引擎Drools-Drools高级语法(RHS加强_.mp4 13.29M
| | ├──57-规则引擎Drools-Drools高级语法(RHS加强.mp4 5.93M
| | ├──58-规则引擎Drools-Spring整合Drools(简单整.mp4 50.56M
| | ├──59-规则引擎Drools-Spring整合Drools(Spring.mp4 42.83M
| | ├──60-规则引擎Drools-Spring整合Drools(Spring.mp4 9.61M
| | ├──61-规则引擎Drools-Spring整合Drools(Spring.mp4 58.44M
| | ├──62-规则引擎Drools-Spring整合Drools(Spring.mp4 4.84M
| | ├──63-规则引擎Drools-WorkBench(简介).mp4 8.40M
| | ├──64-规则引擎Drools-WorkBench(安装方式).mp4 31.59M
| | ├──65-规则引擎Drools-WorkBench(使用方式_创.mp4 11.24M
| | ├──66-规则引擎Drools-WorkBench(使用方式_创.mp4 12.10M
| | ├──67-规则引擎Drools-WorkBench(使用方式_创.mp4 11.42M
| | ├──68-规则引擎Drools-WorkBench(使用方式_创.mp4 21.15M
| | ├──69-规则引擎Drools-WorkBench(使用方式_设.mp4 12.09M
| | ├──70-规则引擎Drools-WorkBench(使用方式_编.mp4 7.27M
| | ├──71-规则引擎Drools-WorkBench(使用方式_在.mp4 75.43M
| | ├──72-规则引擎Drools-Drools实战(个人所得税计.mp4 10.56M
| | ├──73-规则引擎Drools-Drools实战(个人所得税计.mp4 19.81M
| | ├──74-规则引擎Drools-Drools实战(个人所得税计.mp4 26.74M
| | ├──75-规则引擎Drools-Drools实战(个人所得税计.mp4 73.21M
| | ├──76-规则引擎Drools-Drools实战(个人所得税计.mp4 21.24M
| | ├──77-规则引擎Drools-Drools实战(个人所得税计.mp4 12.80M
| | ├──78-规则引擎Drools-Drools实战(信用卡申请_规.mp4 13.93M
| | ├──79-规则引擎Drools-Drools实战(信用卡申请_.mp4 26.97M
| | ├──80-规则引擎Drools-Drools实战(信用卡申请_.mp4 38.46M
| | ├──81-规则引擎Drools-Drools实战(信用卡申请_.mp4 36.45M
| | ├──82-规则引擎Drools-Drools实战(信用卡申请_实.mp4 30.79M
| | ├──83-规则引擎Drools-Drools实战(保险产品准入.mp4 34.13M
| | ├──84-规则引擎Drools-Drools实战(保险产品准入.mp4 40.77M
| | ├──85-规则引擎Drools-Drools实战(保险产品准入.mp4 60.56M
| | ├──86-规则引擎Drools-Drools实战(保险产品准入.mp4 7.20M
| | ├──87-规则引擎Drools-Drools实战(保险产品准入.mp4 18.71M
| | ├──88-规则引擎Drools-Drools实战(保险产品准入.mp4 32.22M
| | ├──89-规则引擎Drools-Drools实战(保险产品准入.mp4 36.95M
| | └──90-规则引擎Drools-Drools实战(保险产品准入.mp4 13.75M
| ├──第四章 常见组件与中台化
| | ├──01-常见组件与中台化-本章课程内容介绍.mp4 5.98M
| | ├──02-常见组件与中台化-中台概述(中台概念).mp4 31.12M
| | ├──03-常见组件与中台化-中台概述(中台背景).mp4 35.35M
| | ├──04-常见组件与中台化-中台概述(中台分类).mp4 35.58M
| | ├──05-常见组件与中台化-常用组件服务介绍(通用权.mp4 43.49M
| | ├──06-常见组件与中台化-常用组件服务介绍(通用权.mp4 8.42M
| | ├──07-常见组件与中台化-常用组件服务介绍(通用权.mp4 10.63M
| | ├──08-常见组件与中台化-常用组件服务介绍(通用权.mp4 42.09M
| | ├──09-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.02M
| | ├──10-常见组件与中台化-常用组件服务介绍(通用权.mp4 56.06M
| | ├──11-常见组件与中台化-常用组件服务介绍(通用.mp4 23.63M
| | ├──12-常见组件与中台化-常用组件服务介绍(通用权.mp4 38.96M
| | ├──13-常见组件与中台化-常用组件服务介绍(通用权.mp4 64.49M
| | ├──14-常见组件与中台化-常用组件服务介绍(通用权.mp4 7.24M
| | ├──15-常见组件与中台化-常用组件服务介绍(通用权.mp4 4.11M
| | ├──16-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.67M
| | ├──17-常见组件与中台化-常用组件服务介绍(通用权.mp4 23.71M
| | ├──18-常见组件与中台化-常用组件服务介绍(通用权.mp4 3.69M
| | ├──19-常见组件与中台化-常用组件服务介绍(通用权.mp4 40.60M
| | ├──20-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.43M
| | ├──21-常见组件与中台化-常用组件服务介绍(注册登.mp4 10.85M
| | ├──22-常见组件与中台化-常用组件服务介绍(注册登.mp4 19.98M
| | ├──23-常见组件与中台化-常用组件服务介绍(注册登.mp4 28.09M
| | ├──24-常见组件与中台化-常用组件服务介绍(注册登.mp4 12.15M
| | ├──25-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.82M
| | ├──26-常见组件与中台化-常用组件服务介绍(注册登.mp4 16.28M
| | ├──27-常见组件与中台化-常用组件服务介绍(注册登.mp4 30.75M
| | ├──28-常见组件与中台化-常用组件服务介绍(分布式.mp4 16.97M
| | ├──29-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.02M
| | ├──30-常见组件与中台化-常用组件服务介绍(分布式.mp4 22.30M
| | ├──31-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.74M
| | └──32-常见组件与中台化-常用组件服务介绍(分布.mp4 16.67M
| └──第一章 软件架构与需求分析方法
| | ├──01-软件架构与需求分析方法-课程内容介绍.mp4 11.40M
| | ├──02-软件架构与需求分析方法-软件架构体系(系.mp4 36.91M
| | ├──03-软件架构与需求分析方法-软件架构体系(模.mp4 21.78M
| | ├──04-软件架构与需求分析方法-软件架构体系(服.mp4 11.14M
| | ├──05-软件架构与需求分析方法-软件架构体系(层.mp4 9.52M
| | ├──06-软件架构与需求分析方法-架构原则(解耦).mp4 15.35M
| | ├──07-软件架构与需求分析方法-架构原则(分层).mp4 15.14M
| | ├──08-软件架构与需求分析方法-架构原则(封装).mp4 8.90M
| | ├──09-软件架构与需求分析方法-架构的方法(业务.mp4 16.57M
| | ├──10-软件架构与需求分析方法-架构的方法(功能.mp4 7.64M
| | ├──11-软件架构与需求分析方法-架构的方法(系统.mp4 6.36M
| | ├──12-软件架构与需求分析方法-架构的方法(技术.mp4 16.24M
| | ├──13-软件架构与需求分析方法-架构的方法(数据.mp4 11.69M
| | ├──14-软件架构与需求分析方法-架构的方法(部署.mp4 21.76M
| | ├──15-软件架构与需求分析方法-架构演进之路(单.mp4 26.17M
| | ├──16-软件架构与需求分析方法-架构演进之路(分.mp4 16.09M
| | ├──17-软件架构与需求分析方法-架构演进之路(分.mp4 10.52M
| | ├──18-软件架构与需求分析方法-架构演进之路(分.mp4 17.95M
| | ├──19-软件架构与需求分析方法-架构演进之路(分.mp4 27.39M
| | ├──20-软件架构与需求分析方法-架构演进之路(分.mp4 12.09M
| | ├──21-软件架构与需求分析方法-架构演进之路(分.mp4 7.94M
| | ├──22-软件架构与需求分析方法-架构演进之路(微.mp4 24.48M
| | ├──23-软件架构与需求分析方法-服务化(为什么需.mp4 25.35M
| | ├──24-软件架构与需求分析方法-服务化(服务化的.mp4 6.80M
| | ├──25-软件架构与需求分析方法-服务化(服务化的.mp4 6.65M
| | ├──26-软件架构与需求分析方法-常见的需求问题.mp4 10.95M
| | ├──27-软件架构与需求分析方法-常见的需求问题.mp4 14.77M
| | ├──28-软件架构与需求分析方法-常见的需求问题.mp4 7.26M
| | ├──29-软件架构与需求分析方法-需求获取(需求来.mp4 7.52M
| | ├──30-软件架构与需求分析方法-需求获取(需求分.mp4 43.97M
| | ├──31-软件架构与需求分析方法-需求获取(获取步.mp4 12.14M
| | ├──32-软件架构与需求分析方法-需求要素(角色、.mp4 21.20M
| | ├──33-软件架构与需求分析方法-需求要素(业务流.mp4 32.96M
| | ├──34-软件架构与需求分析方法-需求要素(数据实.mp4 11.02M
| | ├──35-软件架构与需求分析方法-需求要素(功能性.mp4 8.85M
| | ├──36-软件架构与需求分析方法-需求要素(非功能.mp4 8.07M
| | ├──37-软件架构与需求分析方法-案例电商订单系统.mp4 13.32M
| | ├──38-软件架构与需求分析方法-案例电商订单系统.mp4 11.06M
| | ├──39-软件架构与需求分析方法-案例电商订单系统.mp4 7.75M
| | ├──40-软件架构与需求分析方法-案例电商订单系统.mp4 17.27M
| | ├──41-软件架构与需求分析方法-案例电商订单系统.mp4 6.70M
| | └──42-软件架构与需求分析方法-案例电商订单系统.mp4 16.15M
├──02、阶段二 【物流行业】品达物流TMS
| ├──第八章 智能调度服务
| | ├──01-本章内容介绍.mp4 8.94M
| | ├──02-定时任务组件Quartz(Quartz介绍).mp4 5.45M
| | ├──03-定时任务组件Quartz(Quartz核心API介绍).mp4 22.17M
| | ├──04-定时任务组件Quartz(Quartz入门案例_代码.mp4 41.11M
| | ├──05-定时任务组件Quartz(Quartz入门案例_测.mp4 7.13M
| | ├──06-定时任务组件Quartz(Quartz入门案例_问题.mp4 10.73M
| | ├──07-定时任务组件Quartz(Quartz入门案例_问题.mp4 23.71M
| | ├──08-定时任务组件Quartz(Quartz入门案例_问题.mp4 17.65M
| | ├──09-Quartz动态定时任务(数据模型).mp4 30.15M
| | ├──10-Quartz动态定时任务(环境搭建).mp4 82.18M
| | ├──11-Quartz动态定时任务(添加定时任务_代码实.mp4 34.92M
| | ├──12-Quartz动态定时任务(添加定时任务_测试).mp4 38.80M
| | ├──13-Quartz动态定时任务(暂停定时任务).mp4 28.97M
| | ├──14-Quartz动态定时任务(恢复定时任务).mp4 12.09M
| | ├──15-Quartz动态定时任务(删除定时任务).mp4 9.87M
| | ├──16-Quartz动态定时任务(立即执行定时任务).mp4 10.87M
| | ├──17-Quartz动态定时任务(更新定时任务_代码实.mp4 37.76M
| | ├──18-Quartz动态定时任务(更新定时任务_测试).mp4 9.94M
| | ├──19-智能调度服务(业务说明).mp4 46.94M
| | ├──20-智能调度服务(数据模型_1).mp4 51.88M
| | ├──21-智能调度服务(数据模型_2).mp4 38.20M
<p>
| | ├──22-智能调度服务(数据模型_3).mp4 27.61M
| | ├──23-智能调度服务(实现过程_环境搭建).mp4 41.58M
| | ├──24-智能调度服务(实现过程_编写定时任务).mp4 25.66M
| | ├──25-智能调度服务(实现过程_初始化定时任务_.mp4 82.61M
| | ├──26-智能调度服务(实现过程_初始化定时任务_.mp4 45.00M
| | ├──27-智能调度服务(实现过程_初始化定时任务_.mp4 33.85M
| | ├──28-智能调度服务(实现过程_完善定时任务_1).mp4 80.26M
| | ├──29-智能调度服务(实现过程_完善定时任务_2).mp4 36.90M
| | ├──30-智能调度服务(实现过程_编写智能调度组件.mp4 16.29M
| | ├──31-智能调度服务(实现过程_编写智能调度组件_.mp4 33.96M
| | ├──32-智能调度服务(实现过程_订单分类_1).mp4 48.66M
| | ├──33-智能调度服务(实现过程_订单分类_2).mp4 17.09M
| | ├──34-智能调度服务(实现过程_订单分类_3).mp4 71.72M
| | ├──35-智能调度服务(实现过程_订单分类_4).mp4 19.65M
| | ├──36-智能调度服务(实现过程_订单分类_5).mp4 60.78M
| | ├──37-智能调度服务(实现过程_订单分类_6).mp4 29.75M
| | ├──38-智能调度服务(实现过程_订单分类_7).mp4 49.79M
| | ├──39-智能调度服务(实现过程_订单分类_8).mp4 39.90M
| | ├──40-智能调度服务(实现过程_订单分类_9).mp4 32.31M
| | ├──41-智能调度服务(实现过程_订单分类_10).mp4 35.85M
| | ├──42-智能调度服务(实现过程_订单分类_11).mp4 45.82M
| | ├──43-智能调度服务(实现过程_订单分类_12).mp4 23.97M
| | ├──44-智能调度服务(实现过程_订单分类_13).mp4 71.14M
| | ├──45-智能调度服务(实现过程_订单分类_14).mp4 27.79M
| | ├──46-智能调度服务(实现过程_订单分类_15).mp4 20.78M
| | ├──47-智能调度服务(实现过程_订单分类_16).mp4 27.83M
| | ├──48-智能调度服务(实现过程_订单分类_17).mp4 9.02M
| | ├──49-智能调度服务(实现过程_订单分类_18).mp4 49.14M
| | ├──50-智能调度服务(实现过程_订单分类_19).mp4 58.63M
| | ├──51-智能调度服务(实现过程_订单分类_20).mp4 64.96M
| | ├──52-智能调度服务(实现过程_订单分类优化_1).mp4 22.22M
| | ├──53-智能调度服务(实现过程_订单分类优化_2).mp4 22.68M
| | ├──54-智能调度服务(实现过程_订单分类优化_3).mp4 35.73M
| | └──55-智能调度服务(实现过程_导入其他功能代.mp4 31.70M
| ├──第二章 基础数据服务
| | ├──01-第2章内容介绍.mp4 13.90M
| | ├──02-基础数据服务数据模型_1.mp4 39.71M
| | ├──03-基础数据服务数据模型_2.mp4 27.53M
| | ├──04-基础数据微服务开发准备(SpringBoot配置.mp4 36.02M
| | ├──05-基础数据微服务开发准备(启动类、配置类).mp4 35.78M
| | ├──06-基础数据微服务开发准备(Id生成器).mp4 18.79M
| | ├──07-货物类型管理(业务需求和产品原型、数据模.mp4 10.57M
| | ├──08-货物类型管理(实体类).mp4 25.78M
| | ├──09-货物类型管理(服务接口开发_新增货物类型_.mp4 40.36M
| | ├──10-货物类型管理(服务接口开发_新增货物类型_.mp4 74.08M
| | ├──11-货物类型管理(服务接口开发_新增货物类型_.mp4 60.97M
| | ├──12-货物类型管理(服务接口开发_新增货物类型.mp4 34.94M
| | ├──13-货物类型管理(服务接口开发_根据id查询货.mp4 55.60M
| | ├──14-货物类型管理(服务接口开发_根据id查询货.mp4 21.11M
| | ├──15-货物类型管理(服务接口开发_根据id查询货.mp4 8.31M
| | ├──16-货物类型管理(服务接口开发_查询所有货物.mp4 36.27M
| | ├──17-货物类型管理(服务接口开发_查询所有货物.mp4 4.51M
| | ├──18-货物类型管理(服务接口开发_分页查询货物.mp4 82.83M
| | ├──19-货物类型管理(服务接口开发_分页查询货物.mp4 41.95M
| | ├──20-货物类型管理(服务接口开发_分页查询货物.mp4 11.62M
| | ├──21-货物类型管理(服务接口开发_查询货物类型.mp4 36.49M
| | ├──22-货物类型管理(服务接口开发_查询货物类型.mp4 10.19M
| | ├──23-货物类型管理(服务接口开发_查询货物类型.mp4 5.08M
| | ├──24-货物类型管理(服务接口开发_更新货物类.mp4 55.68M
| | ├──25-货物类型管理(服务接口开发_更新货物类型.mp4 17.58M
| | ├──26-货物类型管理(服务接口开发_更新货物类型_.mp4 24.45M
| | ├──27-货物类型管理(服务接口开发_删除货物类.mp4 12.85M
| | ├──28-数据校验(hibernate-validator介绍).mp4 26.72M
| | ├──29-数据校验(hibernate-validator常用注解).mp4 14.93M
| | ├──30-数据校验(使用hibernate-validator进行校.mp4 25.96M
| | ├──31-数据校验(使用hibernate-validator进行校验.mp4 17.76M
| | └──32-导入基础数据服务其他功能代码.mp4 12.36M
| ├──第九章 TMS后台管理端
| | ├──01-本章内容介绍.mp4 5.87M
| | ├──02-分布式锁(什么是分布式锁_1).mp4 20.74M
| | ├──03-分布式锁(什么是分布式锁_2).mp4 38.30M
| | ├──04-分布式锁(为什么要使用分布式锁_1).mp4 36.11M
| | ├──05-分布式锁(为什么要使用分布式锁_2).mp4 21.73M
| | ├──06-分布式锁(为什么要使用分布式锁_3).mp4 18.54M
| | ├──07-分布式锁(为什么要使用分布式锁_4).mp4 24.55M
| | ├──08-分布式锁(分布式锁应具有的特性).mp4 19.25M
| | ├──09-分布式锁实现方案(数据库方式实现分布式.mp4 17.64M
| | ├──10-分布式锁实现方案(数据库方式实现分布式.mp4 72.90M
| | ├──11-分布式锁实现方案(数据库方式实现分布式.mp4 31.88M
| | ├──12-分布式锁实现方案(数据库方式实现分布式.mp4 31.53M
| | ├──13-分布式锁实现方案(Zookeeper方式实现.mp4 14.52M
| | ├──14-分布式锁实现方案(Zookeeper方式实现.mp4 44.72M
| | ├──15-分布式锁实现方案(Zookeeper方式实现.mp4 16.94M
| | ├──16-分布式锁实现方案(Zookeeper方式实现.mp4 16.91M
| | ├──17-分布式锁实现方案(Redis方式实现分布式.mp4 14.16M
| | ├──18-分布式锁实现方案(Redis方式实现分布式.mp4 36.75M
| | ├──19-分布式锁实现方案(Redis方式实现分布式.mp4 16.28M
| | ├──20-分布式锁实现方案(Redis方式实现分布式.mp4 12.11M
| | ├──21-Redisson(Redisson介绍).mp4 21.03M
| | ├──22-Redisson(Redisson实现分布式锁_1).mp4 33.62M
| | ├──23-Redisson(Redisson实现分布式锁_2).mp4 21.77M
| | ├──24-Redisson(Redisson实现分布式锁_3).mp4 18.33M
| | ├──25-Redisson(Lua脚本_使用Lua脚本的好处).mp4 13.96M
| | ├──26-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 35.49M
| | ├──27-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 13.25M
| | └──28-导入功能代码.mp4 28.97M
| ├──第六章 数据聚合服务
| | ├──01-本章内容介绍.mp4 13.66M
| | ├──02-canal概述(背景).mp4 10.35M
| | ├──03-canal概述(工作原理).mp4 23.33M
| | ├──04-canal概述(架构).mp4 10.33M
| | ├──05-canal概述(HA机制).mp4 12.61M
| | ├──06-canal安装(安装配置MySQL).mp4 61.09M
| | ├──07-canal安装(安装配置canal-server).mp4 29.83M
| | ├──08-canal简单使用(编写Java程序).mp4 44.70M
| | ├──09-canal简单使用(测试).mp4 30.10M
| | ├──09-Otter概述(Otter介绍).mp4 17.60M
| | ├──10-Otter概述(Otter架构).mp4 32.71M
| | ├──11-Otter安装配置(依赖环境安装).mp4 8.86M
| | ├──12-Otter安装配置(MySQL安装_创建源数据.mp4 23.55M
| | ├──13-Otter安装配置(MySQL安装_创建目标数据.mp4 12.93M
| | ├──14-Otter安装配置(MySQL安装_创建Otter配置.mp4 40.40M
| | ├──15-Otter安装配置(zookeeper、aria2安装).mp4 15.91M
| | ├──16-Otter安装配置(Ottermanager安装).mp4 36.63M
| | ├──17-Otter安装配置(Ottermanager配置_配置Z.mp4 14.10M
| | ├──18-Otter安装配置(Ottermanager配置_配置n.mp4 10.53M
| | ├──19-Otter安装配置(Ottermanager配置_管理.mp4 6.25M
| | ├──20-Otter安装配置(Otternode安装).mp4 24.87M
| | ├──21-Otter安装配置(设置同步任务_准备工作).mp4 13.10M
| | ├──22-Otter安装配置(设置同步任务_数据源配.mp4 9.19M
| | ├──23-Otter安装配置(设置同步任务_数据表配.mp4 4.88M
| | ├──24-Otter安装配置(设置同步任务_canal配置).mp4 6.77M
| | ├──25-Otter安装配置(设置同步任务_添加chann.mp4 2.19M
| | ├──26-Otter安装配置(设置同步任务_添加pipelin.mp4 13.85M
| | ├──27-Otter安装配置(设置同步任务_添加映射关.mp4 4.83M
| | ├──28-Otter安装配置(设置同步任务_测试).mp4 9.26M
| | └──29-数据聚合服务介绍.mp4 6.79M
| ├──第七章 车辆轨迹服务
| | ├──01-本章内容介绍.mp4 5.30M
| | ├──02-ApacheDruid概述(Druid介绍).mp4 17.61M
| | ├──03-ApacheDruid概述(Druid应用场景).mp4 18.07M
| | ├──04-ApacheDruid概述(Druid特点).mp4 34.80M
| | ├──05-ApacheDruid概述(Druid进程和服务).mp4 33.47M
| | ├──06-ApacheDruid概述(Druid数据结构).mp4 25.30M
| | ├──07-ApacheDruid概述(Druid在本项目的应.mp4 8.93M
| | ├──08-ApacheDruid安装(依赖环境安装_jdk、Z.mp4 9.22M
| | ├──09-ApacheDruid安装(依赖环境安装_kafka).mp4 32.83M
| | ├──10-ApacheDruid安装(依赖环境安装_kafka验.mp4 39.50M
| | ├──11-ApacheDruid安装(Druid安装和配置文件.mp4 65.69M
| | ├──12-ApacheDruid安装(Druid启动).mp4 16.93M
| | ├──13-ApacheDruid摄取数据(从本地文件摄取数.mp4 93.78M
| | ├──14-ApacheDruid摄取数据(从本地文件摄取数.mp4 61.29M
| | ├──15-ApacheDruid摄取数据(从本地文件摄取数.mp4 50.34M
| | ├──16-ApacheDruid摄取数据(从本地文件摄取数.mp4 41.92M
| | ├──17-ApacheDruid摄取数据(从kafka摄取数据.mp4 14.98M
| | ├──18-ApacheDruid摄取数据(从kafka摄取数.mp4 35.33M
| | ├──19-Java客户端操作Druid.mp4 47.79M
| | ├──20-车辆轨迹服务(说明).mp4 5.51M
| | ├──21-车辆轨迹服务(pd-netty开发_HTTP接口方.mp4 43.88M
| | ├──22-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 27.64M
| | ├──23-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 23.25M
| | ├──24-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 21.39M
| | ├──25-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 43.77M
| | ├──26-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 36.30M
| | ├──27-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 34.80M
| | └──28-车辆轨迹服务(pd-druid开发).mp4 15.61M
| ├──第三章 用户服务
| | ├──01-第3章内容介绍.mp4 2.91M
| | ├──02-j2cache多级缓存(j2cache介绍).mp4 28.10M
| | ├──03-j2cache多级缓存(入门案例_1).mp4 41.74M
| | ├──04-j2cache多级缓存(入门案例_2).mp4 42.91M
| | ├──05-j2cache多级缓存(入门案例_3).mp4 36.93M
| | ├──06-j2cache多级缓存(入门案例_4).mp4 11.83M
| | ├──07-j2cache多级缓存(入门案例_5).mp4 20.56M
| | ├──08-j2cache多级缓存(入门案例_6).mp4 30.76M
| | ├──09-用户服务数据模型.mp4 28.20M
| | ├──10-用户服务开发准备(配置文件).mp4 31.22M
| | ├──11-用户服务开发准备(服务启动类、配置类).mp4 15.94M
| | ├──12-地址簿管理(业务需求和产品原型).mp4 8.04M
| | ├──13-地址簿管理(导入实体类).mp4 10.04M
| | ├──14-地址簿管理(服务接口开发_新增地址簿_1).mp4 35.68M
| | ├──15-地址簿管理(服务接口开发_新增地址簿_2).mp4 28.09M
| | ├──16-地址簿管理(服务接口开发_导入其他接口).mp4 22.60M
| | ├──17-地址簿管理(服务接口开发_接口测试).mp4 30.94M
| | ├──18-用户信息管理(业务需求和产品原型、数据模.mp4 19.19M
| | ├──19-用户信息管理(导入功能代码).mp4 25.94M
| | ├──20-用户信息管理(接口测试).mp4 18.38M
| | ├──21-声明式缓存(原生j2cache问题分析_问题分析.mp4 42.25M
| | ├──22-声明式缓存(原生j2cache问题分析_实现思.mp4 35.77M
| | ├──23-声明式缓存(声明式缓存代码实现_编写缓存.mp4 35.81M
| | ├──24-声明式缓存(声明式缓存代码实现_应用缓存.mp4 28.44M
| | ├──25-声明式缓存(声明式缓存代码实现_编写mod.mp4 24.99M
| | ├──26-声明式缓存(声明式缓存代码实现_导入工具.mp4 15.63M
| | ├──27-声明式缓存(声明式缓存代码实现_编写拦截.mp4 71.71M
| | ├──28-声明式缓存(声明式缓存代码实现_编写拦.mp4 35.45M
| | ├──29-声明式缓存(声明式缓存代码实现_编写拦截.mp4 62.52M
| | ├──30-声明式缓存(声明式缓存代码实现_编写拦截.mp4 42.76M
| | ├──31-声明式缓存(声明式缓存代码实现_编写抽象.mp4 46.13M
| | ├──32-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.62M
| | ├──33-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.57M
| | ├──34-声明式缓存(声明式缓存代码实现_编写抽象.mp4 13.32M
| | ├──35-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.17M
| | ├──36-声明式缓存(声明式缓存代码实现_编写缓存.mp4 37.60M
| | ├──37-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.18M
| | ├──38-声明式缓存(声明式缓存代码实现_编写缓存.mp4 45.01M
| | ├──39-声明式缓存(声明式缓存代码实现_编写清理.mp4 20.23M
| | ├──40-声明式缓存(声明式缓存代码实现_编写清理.mp4 15.82M
| | ├──41-声明式缓存(声明式缓存代码实现_编写清理.mp4 33.82M
| | ├──42-声明式缓存(项目改造).mp4 16.60M
| | └──43-声明式缓存(项目改造_测试).mp4 24.24M
| ├──第十二章 总结
| | ├──12-1 微服务架构
| | ├──12-2 软件架构体系
| | ├──12-3 系统架构
| | ├──12-4 技术架构
| | ├──12-5 业务流程
| | ├──12-6 数据库设计
| | └──12-7 服务列表
| ├──第十一章 TMS司机端、快递员端
| | ├──11-1 导入功能代码
| | ├──11-2 分布式事务概述
| | └──11-3 分布式事务解决方案Seata
| ├──第十章 TMS客户端
| | ├──01-本章内容介绍.mp4 6.25M
| | ├──02-导入功能代码.mp4 37.22M
| | ├──03-RabbitMQ(介绍).mp4 11.42M
| | ├──04-RabbitMQ(工作原理).mp4 14.60M
| | ├──05-RabbitMQ(安装和启动).mp4 38.34M
| | ├──06-RabbitMQ(入门案例_生产者开发_1).mp4 63.07M
| | ├──07-RabbitMQ(入门案例_生产者开发_2).mp4 8.50M
| | ├──08-RabbitMQ(入门案例_消费者开发).mp4 24.47M
| | ├──09-RabbitMQ(工作模式_1).mp4 21.26M
| | ├──10-RabbitMQ(工作模式_2).mp4 20.52M
| | ├──11-RabbitMQ(工作模式_3).mp4 11.10M
| | ├──12-分布式链路追踪(介绍).mp4 17.86M
| | ├──13-分布式链路追踪(SpringCloudSleuth介.mp4 24.16M
| | ├──14-分布式链路追踪(入门案例_启动zipkin).mp4 9.42M
| | ├──15-分布式链路追踪(入门案例_导入maven工.mp4 24.57M
| | ├──16-分布式链路追踪(入门案例_操作过程).mp4 25.03M
| | ├──17-分布式链路追踪(入门案例_概念说明).mp4 29.98M
| | ├──18-分布式链路追踪(使用MySql存储链路追踪数.mp4 38.45M
| | └──19-分布式链路追踪(通过RabbitMQ发送数据).mp4 38.43M
| ├──第四章 订单服务
| | ├──01-第4章内容介绍.mp4 11.11M
| | ├──02-订单中心服务数据模型.mp4 26.54M
| | ├──03-订单中心服务业务需求和产品原型.mp4 11.92M
| | ├──04-订单中心服务代码.mp4 13.60M
| | ├──05-百度地图开放平台(介绍).mp4 20.62M
| | ├──06-百度地图开放平台(注册账号、申请AK).mp4 13.51M
| | ├──07-百度地图开放平台(入门案例_案例一).mp4 61.66M
| | ├──08-百度地图开放平台(入门案例_案例二).mp4 36.30M
| | ├──09-百度地图开放平台(入门案例_案例三).mp4 21.26M
| | ├──10-百度地图开放平台(入门案例_案例四).mp4 26.27M
| | ├──11-百度地图开放平台(入门案例_案例五).mp4 56.94M
| | ├──12-百度地图开放平台(入门案例_案例六_1).mp4 28.34M
| | ├──13-百度地图开放平台(入门案例_案例六_2).mp4 44.09M
| | ├──14-百度地图开放平台(入门案例_案例六_3).mp4 49.63M
| | ├──15-百度地图开放平台(入门案例_案例七_1).mp4 98.16M
| | ├──16-百度地图开放平台(入门案例_案例七_2).mp4 24.45M
| | ├──17-基于百度地图计算订单距离(实现思路).mp4 14.98M
| | ├──18-基于百度地图计算订单距离(封装工具类_1).mp4 37.71M
| | ├──19-基于百度地图计算订单距离(封装工具类_2).mp4 50.09M
| | ├──20-基于百度地图计算订单距离(封装工具类_3).mp4 21.56M
| | ├──21-规则引擎内容介绍.mp4 15.87M
| | ├──22-规则引擎问题引出(业务规则说明).mp4 27.42M
| | ├──23-规则引擎问题引出(传统实现方式).mp4 277.26M
| | ├──24-规则引擎概述(什么是规则引擎).mp4 131.81M
| | ├──25-规则引擎概述(使用规则引擎的优势).mp4 28.70M
| | ├──26-规则引擎概述(规则引擎应用场景).mp4 18.11M
| | ├──27-规则引擎概述(drools介绍).mp4 48.59M
| | ├──28-drools入门案例(业务场景说明).mp4 8.86M
| | ├──29-drools入门案例(开发实现_1).mp4 143.05M
| | ├──30-drools入门案例(开发实现_2).mp4 130.64M
| | ├──31-drools入门案例(开发实现_3).mp4 176.05M
| | ├──32-drools入门案例(开发实现_4).mp4 61.67M
| | ├──33-drools入门案例(小结_规则引擎构成).mp4 66.91M
| | ├──34-drools入门案例(小结_相关概念说明).mp4 26.62M
| | ├──35-drools入门案例(小结_规则引擎执行过程).mp4 6.50M
| | ├──36-drools入门案例(小结_kie介绍).mp4 27.17M
| | ├──37-drools基础语法(规则文件构成).mp4 35.36M
| | ├──38-drools基础语法(规则体语法结构).mp4 34.87M
| | ├──39-drools基础语法(注释).mp4 12.89M
| | ├──40-drools基础语法(模式匹配).mp4 66.73M
| | ├──41-drools基础语法(比较操作符_语法).mp4 63.49M
| | ├──42-drools基础语法(比较操作符_contains和no.mp4 193.12M
| | ├──43-drools基础语法(比较操作符_memberof和.mp4 65.08M
| | ├──44-drools基础语法(比较操作符_matches和no.mp4 42.40M
| | ├──45-drools基础语法(执行指定规则).mp4 109.84M
| | ├──46-drools基础语法(关键字).mp4 48.06M
| | ├──47-drools基础语法(内置方法_介绍).mp4 37.53M
| | ├──48-drools基础语法(内置方法_update方法).mp4 116.61M
| | ├──49-drools基础语法(内置方法_insert方法).mp4 72.85M
| | ├──50-drools基础语法(内置方法_retract方法).mp4 71.50M
| | ├──51-Drools规则属性.mp4 37.35M
| | ├──52-SpringBoot整合Drools_1.mp4 40.16M
| | ├──53-SpringBoot整合Drools_2.mp4 6.12M
| | ├──54-根据规则计算订单价格(规则).mp4 16.07M
| | ├──55-根据规则计算订单价格(实现步骤_1).mp4 34.93M
| | ├──56-根据规则计算订单价格(实现步骤_2).mp4 45.12M
| | ├──57-根据规则计算订单价格(实现步骤_3).mp4 70.10M
| | ├──58-根据规则计算订单价格(实现步骤_4).mp4 23.95M
| | ├──59-根据规则计算订单价格(实现步骤_5).mp4 25.00M
| | ├──60-根据规则计算订单价格(实现步骤_6).mp4 30.98M
| | ├──61-根据规则计算订单价格(实现步骤_7).mp4 64.83M
| | ├──62-根据规则计算订单价格(实现步骤_8).mp4 18.60M
| | ├──63-根据规则计算订单价格(实现步骤_9).mp4 29.28M
| | ├──64-实现动态规则(实现思路).mp4 9.62M
| | ├──65-实现动态规则(实现步骤_1).mp4 22.92M
| | ├──66-实现动态规则(实现步骤_2).mp4 43.83M
| | ├──67-实现动态规则(实现步骤_3).mp4 21.27M
| | ├──68-实现动态规则(实现步骤_4).mp4 28.52M
| | └──69-实现动态规则(实现步骤_5).mp4 27.52M
| ├──第五章 作业中心服务
| | ├──01-作业中心服务业务梳理.mp4 23.31M
| | ├──02-作业中心服务数据模型(快递员取件、派件任.mp4 9.52M
| | ├──03-作业中心服务数据模型(运单表).mp4 7.09M
| | ├──04-作业中心服务数据模型(运输任务表).mp4 26.95M
| | ├──05-作业中心服务数据模型(运单与运输任务关联.mp4 4.86M
| | └──06-作业中心服务数据模型(司机作业单表).mp4 16.95M
| └──第一章 项目概述和环境搭建
| | ├──01-第1章内容介绍.mp4 5.16M
| | ├──02-项目概述(项目介绍).mp4 31.39M
| | ├──03-项目概述(物流行业介绍).mp4 13.50M
| | ├──04-项目概述(系统架构).mp4 20.92M
| | ├──05-项目概述(技术架构).mp4 7.05M
| | ├──06-业务需求说明(产品需求和原型设计_1).mp4 63.80M
| | ├──07-业务需求说明(产品需求和原型设计_2).mp4 59.17M
| | ├──08-业务需求说明(整体业务流程).mp4 18.05M
| | ├──09-开发方式介绍(软件架构介绍).mp4 14.11M
| | ├──10-开发方式介绍(各个服务介绍).mp4 30.77M
| | ├──11-基础数据配置(配置组织基础数据).mp4 25.26M
| | ├──12-基础数据配置(配置菜单、权限基础数据).mp4 27.13M
| | ├──13-基础数据配置(配置岗位基础数据).mp4 11.45M
| | ├──14-基础数据配置(配置角色基础数据).mp4 21.16M
| | ├──15-基础数据配置(配置用户基础数据).mp4 27.77M
| | ├──16-搭建TMS项目开发环境(数据库环境搭建).mp4 64.06M
| | ├──17-搭建TMS项目开发环境(配置中心Nacos).mp4 15.41M
| | ├──18-搭建TMS项目开发环境(导入maven初始工.mp4 38.74M
| | ├──19-搭建TMS项目开发环境(修改Nacos命名空间.mp4 27.90M
| | ├──20-搭建TMS项目开发环境(配置maven配置文.mp4 38.51M
| | └──21-测试初始工程.mp4 64.12M
├──03、阶段三 智牛股
| ├──1 第一章 智牛股-1.项目概述
| | ├──02-项目介绍-目标与学习路径.mp4 4.14M
| | ├──03-项目介绍-整体简要介绍.mp4 16.53M
| | ├──04-项目介绍-操作演示.mp4 14.13M
| | ├──05-项目介绍-股票与K线.mp4 9.42M
| | ├──06-项目介绍-基本交易规则.mp4 10.42M
| | ├──07-项目介绍-如何交易.mp4 15.75M
| | ├──08-项目介绍-需求介绍.mp4 13.45M
| | ├──09-项目介绍-架构设计.mp4 12.33M
| | ├──10-项目介绍-功能设计.mp4 17.64M
| | ├──11-项目介绍-技术架构.mp4 14.78M
| | ├──12-项目介绍-架构设计说明.mp4 24.14M
| | ├──13-项目介绍-整体技术说明.mp4 33.32M
| | ├──14-项目介绍-项目技术特色.mp4 14.61M
| | ├──15-项目介绍-技术解决方案.mp4 8.92M
| | ├──16-项目介绍-如何技术选型.mp4 28.43M
| | ├──17-项目介绍-技术选型案例RocketMQ.mp4 28.16M
| | ├──18-项目介绍-技术选型案例Sentinel.mp4 7.47M
| | ├──19-项目介绍-回顾与小结.mp4 19.98M
| | ├──20-环境搭建-目标与学习步骤.mp4 2.66M
| | ├──21-环境搭建-工程结构规范.mp4 37.95M
| | ├──22-环境搭建-准备.mp4 12.08M
| | ├──23-环境搭建-Nacos配置与启动.mp4 13.68M
| | ├──24-环境搭建-父级工程创建与POM配置.mp4 18.57M
| | ├──25-环境搭建-网关服务搭建配置.mp4 18.68M
| | ├──26-环境搭建-用户服务搭建配置.mp4 21.70M
| | ├──27-环境搭建-网关路由配置与测试.mp4 13.48M
| | └──28-环境搭建-小结.mp4 12.72M
| ├──10 查看全部
工作经验:hm博学谷-JavaEE在线就业班2022年+中级进修课+精英进阶
hm博学谷-JavaEE在线就业班2022+中级进阶课程+精英进阶课程介绍:
课程内容收录大量技术难点,如Dubbo+Zookeeper企业服务架构、SpringBoot+SpringCloud微服务架构、MQ消息队列、Elasticsearch全文搜索、OAuth协议第三方认证、JWT令牌验证用户权限、SpringDataMongoDB框架、Docker等。课程收录多个行业项目,均定位于真正的企业级,让学员快速掌握核心技术,并在工作中有效运用。
章节目录:
2022 年职业课程:
中级培训:
课程目录:
博学谷- 2022年JavaEE在线就业班2.0
├──01、阶段一 Java基础
| ├──01、第一章 Java基础导学
| | └──1-1 导学
| ├──02、第二章 Java基础语法
| | ├──2-1 环境搭建+入门
| | ├──2-10 二维数组
| | ├──2-2 数据类型及转换
| | ├──2-3 运算符
| | ├──2-4 条件控制语句
| | ├──2-5 循环
| | ├──2-6 随机数+开发工具
| | ├──2-7 数组
| | ├──2-8 方法与debug
| | └──2-9 进制
| ├──03、第三章 面向对象基础
| | ├──3-1 面向对象基础-上
| | └──3-2 面向对象基础-下
| ├──04、第四章 API基础
| | ├──4-1 String类
| | └──4-2 StringBuilder
| ├──05、第五章 集合基础
| | ├──5-1 集合-ArrayList
| | └──5-2 学生管理系统
| ├──06、第六章 Git
| | ├──6-1 Git的安装
| | ├──6-2 Git的基本操作
| | └──6-3 IDEA集成Git
| ├──07、第七章 面向对象进阶
| | ├──7-1 分类和static
| | ├──7-2 老师管理系统
| | ├──7-3 继承-上
| | ├──7-4 继承-下
| | ├──7-5 接口
| | ├──7-6 多态与内部类
| | └──7-7 Lambda表达式
| ├──08、第八章 常用API&异常
| | ├──8-1 API的基本使用与Object类
| | ├──8-2 BigDecimal类与Integer类
| | ├──8-3 数组的高级操作与递归
| | ├──8-4 时间日期类
| | └──8-5 异常
| ├──09、第九章 集合
| | ├──9-1 Collection
| | ├──9-2 List与LinkedList
| | ├──9-3 泛型
| | ├──9-4 数据结构&平衡二叉树
| | ├──9-5 红黑树&HashSet
| | ├──9-6 HashMap&TreeMap
| | └──9-7 Stream流
| ├──10、第十章 IO流
| | ├──10-1 File
| | ├──10-2 字节流
| | ├──10-3 缓冲流
| | ├──10-4 字符流&字符缓冲流
| | └──10-5 转换流&对象操作流&Properties
| ├──11、第十一章 多线程
| | ├──11-1 多线程
| | ├──11-2 线程安全问题
| | ├──11-3 生产者和消费者
| | ├──11-4 线程池&volatile
| | └──11-5 原子性&并发工具类
| ├──12、第十二章 网络编程
| | ├──12-1 网络编程&UDP
| | └──12-2 TCP通讯程序
| └──13、第十三章 基础加强
| | ├──13-1 类加载器&反射
| | ├──13-2 xml
| | ├──13-3 DTD&schema
| | ├──13-4 枚举
| | └──13-5 单元测试&日志技术
├──02、阶段二 JavaWeb
| ├──01、第一章 MySQL基础操作
| | ├──1-1 MySql简介
| | ├──1-2 DDL&DML
| | └──1-3 DQL操作MySql
| ├──02、第二章 MySQL数据库设计和多表操作
| | ├──2-1 数据库设计
| | └──2-2 多表查询&事务
| ├──03、第三章 JDBC
| | ├──3-1 JDBC-快速入门
| | ├──3-2 JDBC-API详解
| | └──3-3 JDBC练习
| ├──04、第四章 Maven基础
| | ├──01-Maven概述.mp4 36.93M
| | ├──02-Maven简介.mp4 42.48M
| | ├──03-Maven安装和配置.mp4 27.02M
| | ├──04-Maven基本使用.mp4 68.82M
| | ├──05-IDEA 创建Maven项目.mp4 24.10M
| | ├──06- IDEA导入Maven项目.mp4 18.92M
| | ├──07-依赖管理.mp4 41.57M
| | └──08-依赖范围.mp4 35.83M
| ├──05、第五章 MyBatis
| | ├──5-1 MyBatis快速入门
| | ├──5-2 MyBatis查询
| | └──5-3 MyBatis添加&修改&删除
| ├──06、第六章 HTML & CSS
| | ├──6-1 HTML快速入门
| | ├──6-2 HTML常用标签
| | └──6-3 css快速入门
| ├──07、第七章 JavaScript
| | ├──7-1 JavaScript快速入门
| | ├──7-2 JavaScript常用对象
| | └──7-3 JavaScript事件
| ├──08、第八章 HTTP & Tomcat & Servlet
| | ├──8-1 HTTP协议
| | ├──8-2 Tomcat
| | └──8-3 Servlet快速入门
| ├──09、第九章 请求和响应
| | ├──9-1 Request
| | ├──9-2 Response
| | └──9-3 综合案例
| ├──10、第十章 JSP & 会话技术
| | ├──10-1 JSP快速入门
| | ├──10-2 三层架构
| | ├──10-3 Cookie&Session
| | └──10-4 登陆案例
| ├──11、第十一章 过滤器 & 监听器 & AJAX
| | ├──11-1 Filter&Listener
| | └──11-2 AJAX
| └──12、第十二章 Vue & ElementUI
| | ├──12-1 Vue-快速入门
| | ├──12-2 Element-快速入门
| | ├──12-3 环境搭建
| | └──12-4 综合案例
├──03、阶段三 热门框架
| ├──01、第一章 spring框架
| | ├──1-1 初识Spring
| | ├──1-2 bean实例化
| | ├──1-3 注入
| | ├──1-4 注解开发&整合Mybatis
| | ├──1-5 Spring整合Junit&AOP入门
| | ├──1-6 AOP切入点表达式&通知类型
| | └──1-7 Spring事务
| ├──02、第二章 SpringMVC
| | ├──2-1 SpringMVC&postman工具
| | ├──2-2 请求方式&参数传递
| | ├──2-3 RESTful
| | ├──2-4 表现层与前端数据传输
| | ├──2-5 异常处理&前后台协议联调
| | └──2-6 拦截器
| ├──03、第三章 springboot
| | ├──3-1 SpringBoot工程
| | ├──3-2 配置文件&多环境开发
| | └──3-3 springboot整合
| ├──04、第四章 Maven高级
| | ├──4-1 分模块开发与设计
| | └──4-2 多环境开发&私服
| └──05、第五章 MyBatis-Plus
| | ├──5-1 Mybatis入门&条件查询
| | └──5-2 多数据操作&代码生成器
├──04、阶段四 项目实战-瑞吉外卖
| ├──01、第一章 瑞吉外卖项目
| | ├──1-1 项目介绍&环境搭建
| | ├──1-10 分页查询&修改菜品
| | ├──1-11 新增套餐功能
| | ├──1-12 分页查询&删除套餐
| | ├──1-13 短信&验证码
| | ├──1-14 导入地址簿&菜品展示
| | ├──1-15 购物车
| | ├──1-16 用户下单
| | ├──1-2 后台功能
| | ├──1-3 完善登录&新增员工
| | ├──1-4 分页查询
| | ├──1-5 启用&禁用账号&编辑员工信息
| | ├──1-6 自动填充
| | ├──1-7 新增&删除&修改分类
| | ├──1-8 上传&下载
| | └──1-9 新增菜品
| ├──02、第二章 Git
| | ├──2-1 Git
| | └──2-2 IDEA中使用Git
| ├──03、第三章 Linux
| | ├──01-Linux课程介绍.mp4 13.22M
| | ├──02-Linux简介_不同应用领域的主流操作系统.mp4 8.99M
| | ├──03-Linux简介_Linux历史.mp4 4.36M
| | ├──04-Linux简介_Linux系统版本(内核版、发行版).mp4 6.65M
| | ├──05-Linux安装_本章内容介绍.mp4 1.18M
| | ├──06-Linux安装_Linux系统的安装方式.mp4 5.80M
| | ├──07-Linux安装_通过虚拟机软件安装Linux系统.mp4 25.80M
| | ├──08-Linux安装_网卡设置.mp4 13.58M
| | ├──09-Linux安装_使用FinalShell连接到Linux服务器.mp4 15.62M
| | ├──10-Linux安装_Linux系统目录结构.mp4 19.70M
| | ├──11-Linux常用命令_本章内容介绍.mp4 3.34M
| | ├──12-Linux常用命令_Linux命令初体验-几个常用命令.mp4 27.87M
| | ├──13-Linux常用命令_Linux命令初体验-Linux命令使用技巧.mp4 23.27M
| | ├──14-Linux常用命令_Linux命令初体验-Linux命令格式.mp4 26.85M
| | ├──15-Linux常用命令_文件目录操作命令-ls命令.mp4 22.72M
| | ├──16-Linux常用命令_文件目录操作命令-cd命令.mp4 10.66M
| | ├──17-Linux常用命令_文件目录操作命令-cat命令.mp4 13.91M
| | ├──18-Linux常用命令_文件目录操作命令-more命令.mp4 16.79M
| | ├──19-Linux常用命令_文件目录操作命令-tail命令.mp4 24.48M
| | ├──20-Linux常用命令_文件目录操作命令-mkdir命令.mp4 8.61M
| | ├──21-Linux常用命令_文件目录操作命令-rmdir命令.mp4 14.48M
| | ├──22-Linux常用命令_文件目录操作命令-rm命令.mp4 19.02M
| | ├──23-Linux常用命令_拷贝移动命令-cp命令.mp4 30.32M
| | ├──24-Linux常用命令_拷贝移动命令-mv命令.mp4 39.32M
| | ├──25-Linux常用命令_打包压缩命令-tar命令.mp4 60.33M
| | ├──26-Linux常用命令_文本编辑命令-vim命令安装.mp4 14.18M
| | ├──27-Linux常用命令_文本编辑命令-vim命令.mp4 32.12M
| | ├──28-Linux常用命令_查找命令-find命令.mp4 10.83M
| | ├──29-Linux常用命令_查找命令-grep命令.mp4 19.34M
| | ├──30-软件安装_本章内容介绍.mp4 2.58M
| | ├──31-软件安装_Linux中软件安装方式介绍.mp4 6.36M
| | ├──32-软件安装_安装jdk.mp4 25.51M
| | ├──33-软件安装_安装Tomcat.mp4 15.24M
| | ├──34-软件安装_安装Tomcat-确认服务启动是否成功.mp4 43.41M
| | ├──35-软件安装_安装Tomcat-防火墙操作.mp4 52.16M
| | ├──36-软件安装_安装Tomcat-停止Tomcat服务.mp4 20.47M
| | ├──37-软件安装_安装MySQL.mp4 98.94M
| | ├──38-软件安装_安装MySQL-启动服务、连接MySQL.mp4 54.23M
| | ├──39-软件安装_安装lrzsz.mp4 19.34M
| | ├──40-项目部署_本章内容介绍.mp4 4.44M
| | ├──41-项目部署_手工部署项目_操作过程.mp4 33.29M
| | ├──42-项目部署_手工部署项目_后台运行程序.mp4 32.49M
| | ├──43-项目部署_通过Shell脚本自动部署项目_操作步骤说明.mp4 10.76M
| | ├──44-项目部署_通过Shell脚本自动部署项目_在Linux中安装git、maven.mp4 39.24M
| | ├──45-项目部署_通过Shell脚本自动部署项目_Shell脚本说明.mp4 27.04M
| | ├──46-项目部署_通过Shell脚本自动部署项目_Linux中权限说明.mp4 16.62M
| | ├──47-项目部署_通过Shell脚本自动部署项目_授权并执行脚本.mp4 41.16M
| | └──48-项目部署_通过Shell脚本自动部署项目_设置静态ip.mp4 35.58M
| ├──04、第四章 Redis
| | ├──4-1 Redis
| | └──4-2 Jedis
| └──05、第五章 瑞吉外卖-项目优化
| | ├──5-1 缓存短信验证码
| | ├──5-2 Spring Cache
| | ├──5-3 缓存套餐数据
| | ├──5-4 Mysql主从复制
| | ├──5-5 Mysql读写分离
| | ├──5-6 Nginx命令
| | ├──5-7 Nginx具体应用
| | ├──5-8 前后端分离开发
| | └──5-9 项目部署
├──05、阶段五 服务端框架基础+探花交友项目
| ├──01、第一章 SpringCloud
| | ├──1-1 微服务&服务拆分
| | ├──1-2 Eureka&Ribbon
| | ├──1-3 Nacos
| | ├──1-4 Nacos配置
| | ├──1-5 Feign
| | └──1-6 网关&路由
| ├──02、第二章 Docker
| | ├──2-1 初识Docker&镜像命令
| | ├──2-2 容器命令&数据卷命令
| | └──2-3 Docker
| ├──03、第三章 MQ
| | ├──3-1 初识MQ&RabbitMQ
| | └──3-2 SpringAMQP
| └──04、第四章 探花交友项目
| | ├──4-1 Dubbo入门
| | ├──4-10 好友推荐&MongoDB集群
| | ├──4-11 圈子动态&个人动态
| | ├──4-12 查询动态
| | ├──4-13 圈子互动&发布评论
| | ├──4-14 点赞&取消点赞
| | ├──4-15 即时通信&用户体系
| | ├──4-16 联系人管理&好友申请
| | ├──4-17 左滑右划功能
| | ├──4-18 地理位置&搜附近
| | ├──4-19 访客&FastDFS
| | ├──4-2 Dubbo高级特性&整合SpringCloud
| | ├──4-20 发布视频&查询视频列表
| | ├──4-21 SpringCache
| | ├──4-22 后台管理
| | ├──4-23 管理员登录&用户管理
| | ├──4-24 用户冻结&日志数据采集
| | ├──4-25 定时任务&动态审核
| | ├──4-26 理论&用户推荐&动态推荐&视频推荐
| | ├──4-3 模块介绍&阿里云
| | ├──4-4 封装组件&登录验证&JWT
| | ├──4-5 用户登录
| | ├──4-6 阿里云oss&人脸识别&保存用户信息
| | ├──4-7 上传头像&资料管理&代码优化
| | ├──4-8 通用设置&陌生人问题&黑名单
| | └──4-9 MongoDB&SpringData-Mongo&今日佳人
├──06、阶段六 服务端框架高级+黑马头条项目
| ├──01、第一章 Sentinel
| | ├──1-1 Sentinel&限流规则
| | └──1-2 隔离和降级&授权规则&规则持久化
| ├──02、第二章 分布式事务
| | ├──2-1 理论基础&初识Seata
| | ├──2-2 XA模式&AT模式
| | ├──2-3 TCC模式&SAGA模式
| | └──2-4 高可用&ES集群
| ├──03、第三章 分布式缓存Redis
| | ├──3-1 Redis持久化&Redis主从
| | └──3-2 Redis哨兵&分片集群
| ├──04、第四章 Redis多级缓存案例
| | ├──4-1 JVM进程缓存
| | ├──4-2 Lua&OpenResty
| | ├──4-3 多级缓存
| | └──4-4 缓存同步
| ├──05、第五章 RabbitMQ高级
| | ├──5-1 消息可靠性
| | ├──5-2 死信交换机&消息堆积
| | └──5-3 MQ集群
| ├──06、第六章 ElasticSearch
| | ├──6-1 初识ES
| | ├──6-10 es集群
| | ├──6-2 操作索引库
| | ├──6-3 RestClient
| | ├──6-4 DSL查询语法
| | ├──6-5 结果处理&查询
| | ├──6-6 黑马旅游案例
| | ├──6-7 数据聚合
| | ├──6-8 自动补全
| | └──6-9 数据同步
| └──07、第七章 黑马头条项目
| | ├──7-1 初始工程
| | ├──7-10 文章审核
| | ├──7-11 敏感词&图片文字识别
| | ├──7-12 概述&添加任务
| | ├──7-13 取消&拉取任务&定时刷新
| | ├──7-14 kafka
| | ├──7-15 springboot集成kafka
| | ├──7-16 文章搜索
| | ├──7-17 历史记录
| | ├──7-18 平台管理
| | ├──7-19 用户行为
| | ├──7-2 APP登录
| | ├──7-20 xxl-job
| | ├──7-21 定时计算
| | ├──7-22 kafkaStream
| | ├──7-23 实时计算
| | ├──7-24 jenkins概述&集成Dockerfile
| | ├──7-25 jenkins构建微服务
| | ├──7-3 接口测试&网关
| | ├──7-4 APP端文章
| | ├──7-5 freemarker
| | ├──7-6 MinIO
| | ├──7-7 素材管理
| | ├──7-8 文章管理&发布
| | └──7-9 阿里云接口&雪花算法&文章保存
├──07、阶段七 面试专题
| ├──01、第一章 基础篇
| | ├──1-1 二分查找&冒泡排序
| | ├──1-2 排序
| | ├──1-3 快速排序
| | ├──1-4 ArrayList&Iterator&LinkedList
| | ├──1-5 HashMap
| | └──1-6 单例设计模式
| ├──02、第二章 并发篇
| | ├──2-1 线程状态&线程池
| | ├──2-2 wait&lock
| | ├──2-3 volatile
| | ├──2-4 引用&悲观锁&HashTable
| | └──2-5 ConcurrentHashMap&ThreadLocal
| ├──03、第三章 虚拟机篇
| | ├──3-1 jvm内存结构&垃圾回收
| | ├──3-2 内存溢出&类加载
| | ├──3-3 引用&悲观锁&HashTable
| | └──3-4 引用&finalize
| ├──04、第四章 框架篇
| | ├──4-1 spring_refresh
| | ├──4-2 spring_bean
| | ├──4-3 spring_tx_事务&spring_webmvc
| | ├──4-4 spring_annotation
| | └──4-5 自动配置&spring_pattern
| ├──05、第五章 数据库篇
| | ├──5-1 隔离级别
| | ├──5-2 隔离级别&存储引擎&B树
| | ├──5-3 索引生效失效
| | └──5-4 全局锁&表级锁&行锁
| ├──06、第六章 缓存篇
| | ├──6-1 redis数据类型
| | ├──6-2 redis持久化&缓存
| | └──6-3 redis事务&lru
| └──07、第七章 分布式篇
| | ├──7-1 cap&paxos
| | ├──7-2 raft算法&gossip协议
| | └──7-3 通用设计
├──08、阶段八 就业指导课+拓展学习
| ├──01、第一章 工作篇
| | └──工作篇.mp4 120.12M
| ├──02、第二章 Java市场篇
| | └──Java市场篇.mp4 298.38M
| ├──03、第三章 求职篇
| | ├──求职篇1简历制作.mp4 86.54M
| | └──求职篇2简历投递技巧.mp4 49.88M
| ├──04、第四章 面试篇
| | ├──面试篇1.mp4 53.61M
| | └──面试篇2.mp4 156.72M
| └──05、第五章 试用期篇
| | ├──试用期篇1.mp4 45.16M
| | └──试用期篇2.mp4 54.51M
精英进阶【包含六大进阶项目】/
├──01、阶段一 中台战略与组件化开发专题课程
| ├──第二章 文件服务
| | ├──01-文件服务课程-文件服务课程介绍.mp4 4.18M
| | ├──02-文件服务课程-文件服务(需求背景).mp4 17.84M
| | ├──03-文件服务课程-文件服务(核心功能).mp4 7.12M
| | ├──04-文件服务课程-文件服务(存储策略).mp4 10.23M
| | ├──05-文件服务课程-文件服务(技术设计).mp4 15.40M
| | ├──06-文件服务课程-文件服务开发(环境搭建_数据.mp4 28.03M
| | ├──07-文件服务课程-文件服务开发(环境搭建_Naco.mp4 22.75M
| | ├──08-文件服务课程-文件服务开发(环境搭建_Ngin.mp4 8.85M
| | ├──09-文件服务课程-文件服务开发(环境搭建_mav.mp4 15.52M
| | ├──10-文件服务课程-文件服务开发(环境搭建_mave.mp4 44.47M
| | ├──11-文件服务课程-文件服务开发(环境搭建_mav.mp4 56.69M
| | ├──12-文件服务课程-文件服务开发(环境搭建_mave.mp4 55.12M
| | ├──13-文件服务课程-文件服务开发(环境搭建_mave.mp4 30.76M
| | ├──14-文件服务课程-文件服务开发(文件处理策略_F.mp4 19.35M
| | ├──15-文件服务课程-文件服务开发(文件处理策略_.mp4 43.58M
| | ├──16-文件服务课程-文件服务开发(文件处理策略_.mp4 45.03M
| | ├──17-文件服务课程-文件服务开发(文件处理策略_.mp4 14.74M
| | ├──18-文件服务课程-文件服务开发(文件处理策略_.mp4 20.80M
| | ├──19-文件服务课程-文件服务开发(文件处理策略_L.mp4 24.58M
| | ├──20-文件服务课程-文件服务开发(文件处理策略_.mp4 57.59M
| | ├──21-文件服务课程-文件服务开发(文件处理策略_.mp4 30.71M
| | ├──22-文件服务课程-文件服务开发(文件处理策略.mp4 25.38M
| | ├──23-文件服务课程-文件服务开发(文件处理策略.mp4 22.99M
| | ├──24-文件服务课程-文件服务开发(文件处理策略_F.mp4 20.39M
| | ├──25-文件服务课程-文件服务开发(文件处理策略_F.mp4 35.33M
| | ├──26-文件服务课程-文件服务开发(文件处理策略_.mp4 8.99M
| | ├──27-文件服务课程-文件服务开发(文件处理策略_.mp4 13.66M
| | ├──28-文件服务课程-文件服务开发(文件处理策略_.mp4 52.91M
| | ├──29-文件服务课程-文件服务开发(文件处理策略_.mp4 18.61M
| | ├──30-文件服务课程-文件服务开发(接口开发_上传.mp4 14.33M
| | ├──31-文件服务课程-文件服务开发(接口开发_上.mp4 37.11M
| | ├──32-文件服务课程-文件服务开发(接口开发_上传.mp4 26.69M
| | ├──33-文件服务课程-文件服务开发(接口开发_上传.mp4 77.24M
| | ├──34-文件服务课程-文件服务开发(接口开发_上传.mp4 17.84M
| | ├──35-文件服务课程-文件服务开发(接口开发_上传.mp4 19.97M
| | ├──36-文件服务课程-文件服务开发(接口开发_上传.mp4 19.47M
| | ├──38-文件服务课程-文件服务开发(接口开发_上传.mp4 20.18M
| | ├──39-文件服务课程-文件服务开发(接口开发_根据i.mp4 4.41M
| | ├──40-文件服务课程-文件服务开发(接口开发_根据.mp4 21.59M
| | ├──41-文件服务课程-文件服务开发(接口开发_根据i.mp4 36.76M
| | ├──42-文件服务课程-文件服务开发(接口开发_根据i.mp4 8.35M
| | ├──43-文件服务课程-文件服务开发(接口开发_根据i.mp4 25.15M
| | ├──44-文件服务课程-文件服务开发(接口开发_根据.mp4 3.27M
| | ├──45-文件服务课程-文件服务开发(接口开发_根据.mp4 16.86M
| | ├──46-文件服务课程-文件服务开发(接口开发_根据.mp4 12.85M
| | ├──47-文件服务课程-文件服务开发(接口开发_根据.mp4 3.63M
| | ├──48-文件服务课程-文件服务开发(接口开发_根据.mp4 18.81M
| | ├──49-文件服务课程-文件服务开发(接口开发_根据.mp4 42.48M
| | ├──50-文件服务课程-文件服务开发(接口开发_根据.mp4 42.51M
| | ├──51-文件服务课程-文件服务开发(接口开发_根据.mp4 71.43M
| | ├──52-文件服务课程-文件服务开发(接口开发_根据.mp4 29.70M
| | ├──53-文件服务课程-文件服务开发(接口开发_根据.mp4 13.38M
| | ├──54-文件服务课程-文件服务开发(接口开发_根据.mp4 9.67M
| | ├──55-文件服务课程-文件服务开发(接口开发_根据.mp4 5.04M
| | ├──56-文件服务课程-文件服务开发(接口开发_根据.mp4 30.35M
| | ├──57-文件服务课程-文件服务开发(接口开发_根据.mp4 11.18M
| | ├──58-文件服务课程-文件服务开发(接口导入_分页.mp4 27.57M
| | ├──59-文件服务课程-文件服务开发(接口导入_根据.mp4 14.59M
| | ├──60-文件服务课程-文件服务开发(接口导入_导入.mp4 53.27M
| | ├──61-文件服务课程-文件服务开发(接口导入_导入.mp4 16.21M
| | ├──62-文件服务课程-文件服务开发(接口开发_分片.mp4 5.36M
| | ├──63-文件服务课程-文件服务开发(接口开发_分片.mp4 31.25M
| | ├──64-文件服务课程-文件服务开发(接口开发_分片.mp4 9.81M
| | ├──65-文件服务课程-文件服务开发(接口开发_分.mp4 25.04M
| | ├──66-文件服务课程-文件服务开发(接口开发_分.mp4 16.92M
| | ├──67-文件服务课程-文件服务开发(接口开发_分片.mp4 30.16M
| | ├──68-文件服务课程-文件服务开发(接口开发_分片.mp4 7.12M
| | ├──69-文件服务课程-文件服务开发(接口开发_分片.mp4 68.90M
| | ├──70-文件服务课程-文件服务开发(接口开发_分片.mp4 55.73M
| | ├──71-文件服务课程-文件服务开发(接口开发_分片.mp4 10.66M
| | ├──72-文件服务课程-文件服务开发(接口开发_分片.mp4 7.22M
| | ├──73-文件服务课程-文件服务开发(接口开发_分片.mp4 12.10M
| | ├──74-文件服务课程-文件服务开发(接口开发_分片.mp4 18.18M
| | ├──75-文件服务课程-文件服务开发(接口开发_分片.mp4 42.62M
| | ├──76-文件服务课程-文件服务开发(接口开发_分片.mp4 42.69M
| | ├──77-文件服务课程-文件服务开发(接口开发_分片.mp4 12.46M
| | ├──78-文件服务课程-文件服务开发(接口开发_分片.mp4 50.26M
| | ├──79-文件服务课程-文件服务开发(接口开发_分片.mp4 23.91M
| | ├──80-文件服务课程-文件服务开发(接口开发_分片.mp4 40.38M
| | ├──81-文件服务课程-文件服务开发(接口开发_分片.mp4 33.67M
| | ├──82-文件服务课程-文件服务开发(接口开发_分片.mp4 15.60M
| | ├──83-文件服务课程-文件服务开发(接口开发_分片.mp4 9.75M
| | ├──84-文件服务课程-文件服务开发(接口开发_分片.mp4 47.77M
| | ├──85-文件服务课程-文件服务开发(接口开发_分片.mp4 6.47M
| | ├──86-文件服务课程-文件服务开发(接口开发_分片.mp4 40.94M
| | ├──87-文件服务课程-文件服务开发(接口开发_分片.mp4 60.98M
| | └──88-文件服务课程-文件服务开发(接口开发_分片.mp4 23.23M
| ├──第三章 规则引擎Drools
| | ├──01-规则引擎Drools-课程介绍.mp4 6.48M
| | ├──02-规则引擎Drools-规则引擎问题引出(业务规.mp4 25.87M
| | ├──03-规则引擎Drools-规则引擎问题引出(传统实.mp4 42.75M
| | ├──04-规则引擎Drools-规则引擎概述(什么是规则.mp4 29.46M
| | ├──05-规则引擎Drools-规则引擎概述(使用规则引.mp4 10.56M
| | ├──06-规则引擎Drools-规则引擎概述(规则引擎应.mp4 7.31M
| | ├──07-规则引擎Drools-规则引擎概述(Drools介.mp4 14.21M
| | ├──08-规则引擎Drools-Drools入门案例(业务场景.mp4 3.47M
| | ├──09-规则引擎Drools-Drools入门案例(开发实现.mp4 32.58M
| | ├──10-规则引擎Drools-Drools入门案例(开发实现_.mp4 35.01M
| | ├──11-规则引擎Drools-Drools入门案例(开发实现_.mp4 42.07M
| | ├──12-规则引擎Drools-Drools入门案例(开发实现_.mp4 16.77M
| | ├──13-规则引擎Drools-Drools入门案例(小结_规则.mp4 18.80M
| | ├──14-规则引擎Drools-Drools入门案例(小结_相关.mp4 9.65M
| | ├──15-规则引擎Drools-Drools入门案例(小结_规则.mp4 2.81M
| | ├──16-规则引擎Drools-Drools入门案例(小结_KIE.mp4 8.92M
| | ├──17-规则引擎Drools-Drools基础语法(规则文件.mp4 9.64M
| | ├──18-规则引擎Drools-Drools基础语法(规则体语.mp4 9.24M
| | ├──19-规则引擎Drools-Drools基础语法(注释).mp4 3.23M
| | ├──20-规则引擎Drools-Drools基础语法(模式匹.mp4 19.62M
| | ├──21-规则引擎Drools-Drools基础语法(比较操作.mp4 17.20M
| | ├──22-规则引擎Drools-Drools基础语法(比较操作.mp4 47.54M
| | ├──23-规则引擎Drools-Drools基础语法(比较操作.mp4 16.84M
| | ├──24-规则引擎Drools-Drools基础语法(比较操作.mp4 11.10M
| | ├──25-规则引擎Drools-Drools基础语法(执行指定.mp4 26.55M
| | ├──26-规则引擎Drools-Drools基础语法(关键字).mp4 14.43M
| | ├──27-规则引擎Drools-Drools基础语法(内置方法_.mp4 10.05M
| | ├──28-规则引擎Drools-Drools基础语法(内置方.mp4 31.54M
| | ├──29-规则引擎Drools-Drools基础语法(内置方法_i.mp4 16.39M
| | ├──30-规则引擎Drools-Drools基础语法(内置方法.mp4 17.72M
| | ├──31-规则引擎Drools-规则属性(介绍).mp4 15.38M
| | ├──32-规则引擎Drools-规则属性(enabled属性).mp4 10.43M
| | ├──33-规则引擎Drools-规则属性(dialect属性).mp4 4.97M
| | ├──34-规则引擎Drools-规则属性(salience属性).mp4 20.24M
| | ├──35-规则引擎Drools-规则属性(no-loop属性.mp4 19.00M
| | ├──36-规则引擎Drools-规则属性(activation-gro.mp4 19.24M
| | ├──37-规则引擎Drools-规则属性(agenda-grou.mp4 33.70M
| | ├──38-规则引擎Drools-规则属性(auto-focus属.mp4 14.07M
| | ├──39-规则引擎Drools-规则属性(timer属性_第一.mp4 30.04M
| | ├──40-规则引擎Drools-规则属性(timer属性_第二.mp4 16.83M
| | ├──41-规则引擎Drools-规则属性(date-effective.mp4 23.18M
| | ├──42-规则引擎Drools-规则属性(date-expires属.mp4 10.03M
| | ├──43-规则引擎Drools-Drools高级语法(global全.mp4 43.77M
| | ├──44-规则引擎Drools-Drools高级语法(global全.mp4 25.50M
| | ├──45-规则引擎Drools-Drools高级语法(global全.mp4 20.30M
| | ├──46-规则引擎Drools-Drools高级语法(Query查.mp4 50.05M
| | ├──47-规则引擎Drools-Drools高级语法(Query查.mp4 22.70M
| | ├──48-规则引擎Drools-Drools高级语法(function.mp4 24.03M
| | ├──49-规则引擎Drools-Drools高级语法(LHS加强_i.mp4 22.80M
| | ├──50-规则引擎Drools-Drools高级语法(LHS加强_.mp4 7.50M
| | ├──51-规则引擎Drools-Drools高级语法(LHS加强_.mp4 10.77M
| | ├──52-规则引擎Drools-Drools高级语法(LHS加强_.mp4 16.52M
| | ├──53-规则引擎Drools-Drools高级语法(LHS加强_.mp4 14.03M
| | ├──54-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.73M
| | ├──55-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.43M
| | ├──56-规则引擎Drools-Drools高级语法(RHS加强_.mp4 13.29M
| | ├──57-规则引擎Drools-Drools高级语法(RHS加强.mp4 5.93M
| | ├──58-规则引擎Drools-Spring整合Drools(简单整.mp4 50.56M
| | ├──59-规则引擎Drools-Spring整合Drools(Spring.mp4 42.83M
| | ├──60-规则引擎Drools-Spring整合Drools(Spring.mp4 9.61M
| | ├──61-规则引擎Drools-Spring整合Drools(Spring.mp4 58.44M
| | ├──62-规则引擎Drools-Spring整合Drools(Spring.mp4 4.84M
| | ├──63-规则引擎Drools-WorkBench(简介).mp4 8.40M
| | ├──64-规则引擎Drools-WorkBench(安装方式).mp4 31.59M
| | ├──65-规则引擎Drools-WorkBench(使用方式_创.mp4 11.24M
| | ├──66-规则引擎Drools-WorkBench(使用方式_创.mp4 12.10M
| | ├──67-规则引擎Drools-WorkBench(使用方式_创.mp4 11.42M
| | ├──68-规则引擎Drools-WorkBench(使用方式_创.mp4 21.15M
| | ├──69-规则引擎Drools-WorkBench(使用方式_设.mp4 12.09M
| | ├──70-规则引擎Drools-WorkBench(使用方式_编.mp4 7.27M
| | ├──71-规则引擎Drools-WorkBench(使用方式_在.mp4 75.43M
| | ├──72-规则引擎Drools-Drools实战(个人所得税计.mp4 10.56M
| | ├──73-规则引擎Drools-Drools实战(个人所得税计.mp4 19.81M
| | ├──74-规则引擎Drools-Drools实战(个人所得税计.mp4 26.74M
| | ├──75-规则引擎Drools-Drools实战(个人所得税计.mp4 73.21M
| | ├──76-规则引擎Drools-Drools实战(个人所得税计.mp4 21.24M
| | ├──77-规则引擎Drools-Drools实战(个人所得税计.mp4 12.80M
| | ├──78-规则引擎Drools-Drools实战(信用卡申请_规.mp4 13.93M
| | ├──79-规则引擎Drools-Drools实战(信用卡申请_.mp4 26.97M
| | ├──80-规则引擎Drools-Drools实战(信用卡申请_.mp4 38.46M
| | ├──81-规则引擎Drools-Drools实战(信用卡申请_.mp4 36.45M
| | ├──82-规则引擎Drools-Drools实战(信用卡申请_实.mp4 30.79M
| | ├──83-规则引擎Drools-Drools实战(保险产品准入.mp4 34.13M
| | ├──84-规则引擎Drools-Drools实战(保险产品准入.mp4 40.77M
| | ├──85-规则引擎Drools-Drools实战(保险产品准入.mp4 60.56M
| | ├──86-规则引擎Drools-Drools实战(保险产品准入.mp4 7.20M
| | ├──87-规则引擎Drools-Drools实战(保险产品准入.mp4 18.71M
| | ├──88-规则引擎Drools-Drools实战(保险产品准入.mp4 32.22M
| | ├──89-规则引擎Drools-Drools实战(保险产品准入.mp4 36.95M
| | └──90-规则引擎Drools-Drools实战(保险产品准入.mp4 13.75M
| ├──第四章 常见组件与中台化
| | ├──01-常见组件与中台化-本章课程内容介绍.mp4 5.98M
| | ├──02-常见组件与中台化-中台概述(中台概念).mp4 31.12M
| | ├──03-常见组件与中台化-中台概述(中台背景).mp4 35.35M
| | ├──04-常见组件与中台化-中台概述(中台分类).mp4 35.58M
| | ├──05-常见组件与中台化-常用组件服务介绍(通用权.mp4 43.49M
| | ├──06-常见组件与中台化-常用组件服务介绍(通用权.mp4 8.42M
| | ├──07-常见组件与中台化-常用组件服务介绍(通用权.mp4 10.63M
| | ├──08-常见组件与中台化-常用组件服务介绍(通用权.mp4 42.09M
| | ├──09-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.02M
| | ├──10-常见组件与中台化-常用组件服务介绍(通用权.mp4 56.06M
| | ├──11-常见组件与中台化-常用组件服务介绍(通用.mp4 23.63M
| | ├──12-常见组件与中台化-常用组件服务介绍(通用权.mp4 38.96M
| | ├──13-常见组件与中台化-常用组件服务介绍(通用权.mp4 64.49M
| | ├──14-常见组件与中台化-常用组件服务介绍(通用权.mp4 7.24M
| | ├──15-常见组件与中台化-常用组件服务介绍(通用权.mp4 4.11M
| | ├──16-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.67M
| | ├──17-常见组件与中台化-常用组件服务介绍(通用权.mp4 23.71M
| | ├──18-常见组件与中台化-常用组件服务介绍(通用权.mp4 3.69M
| | ├──19-常见组件与中台化-常用组件服务介绍(通用权.mp4 40.60M
| | ├──20-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.43M
| | ├──21-常见组件与中台化-常用组件服务介绍(注册登.mp4 10.85M
| | ├──22-常见组件与中台化-常用组件服务介绍(注册登.mp4 19.98M
| | ├──23-常见组件与中台化-常用组件服务介绍(注册登.mp4 28.09M
| | ├──24-常见组件与中台化-常用组件服务介绍(注册登.mp4 12.15M
| | ├──25-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.82M
| | ├──26-常见组件与中台化-常用组件服务介绍(注册登.mp4 16.28M
| | ├──27-常见组件与中台化-常用组件服务介绍(注册登.mp4 30.75M
| | ├──28-常见组件与中台化-常用组件服务介绍(分布式.mp4 16.97M
| | ├──29-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.02M
| | ├──30-常见组件与中台化-常用组件服务介绍(分布式.mp4 22.30M
| | ├──31-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.74M
| | └──32-常见组件与中台化-常用组件服务介绍(分布.mp4 16.67M
| └──第一章 软件架构与需求分析方法
| | ├──01-软件架构与需求分析方法-课程内容介绍.mp4 11.40M
| | ├──02-软件架构与需求分析方法-软件架构体系(系.mp4 36.91M
| | ├──03-软件架构与需求分析方法-软件架构体系(模.mp4 21.78M
| | ├──04-软件架构与需求分析方法-软件架构体系(服.mp4 11.14M
| | ├──05-软件架构与需求分析方法-软件架构体系(层.mp4 9.52M
| | ├──06-软件架构与需求分析方法-架构原则(解耦).mp4 15.35M
| | ├──07-软件架构与需求分析方法-架构原则(分层).mp4 15.14M
| | ├──08-软件架构与需求分析方法-架构原则(封装).mp4 8.90M
| | ├──09-软件架构与需求分析方法-架构的方法(业务.mp4 16.57M
| | ├──10-软件架构与需求分析方法-架构的方法(功能.mp4 7.64M
| | ├──11-软件架构与需求分析方法-架构的方法(系统.mp4 6.36M
| | ├──12-软件架构与需求分析方法-架构的方法(技术.mp4 16.24M
| | ├──13-软件架构与需求分析方法-架构的方法(数据.mp4 11.69M
| | ├──14-软件架构与需求分析方法-架构的方法(部署.mp4 21.76M
| | ├──15-软件架构与需求分析方法-架构演进之路(单.mp4 26.17M
| | ├──16-软件架构与需求分析方法-架构演进之路(分.mp4 16.09M
| | ├──17-软件架构与需求分析方法-架构演进之路(分.mp4 10.52M
| | ├──18-软件架构与需求分析方法-架构演进之路(分.mp4 17.95M
| | ├──19-软件架构与需求分析方法-架构演进之路(分.mp4 27.39M
| | ├──20-软件架构与需求分析方法-架构演进之路(分.mp4 12.09M
| | ├──21-软件架构与需求分析方法-架构演进之路(分.mp4 7.94M
| | ├──22-软件架构与需求分析方法-架构演进之路(微.mp4 24.48M
| | ├──23-软件架构与需求分析方法-服务化(为什么需.mp4 25.35M
| | ├──24-软件架构与需求分析方法-服务化(服务化的.mp4 6.80M
| | ├──25-软件架构与需求分析方法-服务化(服务化的.mp4 6.65M
| | ├──26-软件架构与需求分析方法-常见的需求问题.mp4 10.95M
| | ├──27-软件架构与需求分析方法-常见的需求问题.mp4 14.77M
| | ├──28-软件架构与需求分析方法-常见的需求问题.mp4 7.26M
| | ├──29-软件架构与需求分析方法-需求获取(需求来.mp4 7.52M
| | ├──30-软件架构与需求分析方法-需求获取(需求分.mp4 43.97M
| | ├──31-软件架构与需求分析方法-需求获取(获取步.mp4 12.14M
| | ├──32-软件架构与需求分析方法-需求要素(角色、.mp4 21.20M
| | ├──33-软件架构与需求分析方法-需求要素(业务流.mp4 32.96M
| | ├──34-软件架构与需求分析方法-需求要素(数据实.mp4 11.02M
| | ├──35-软件架构与需求分析方法-需求要素(功能性.mp4 8.85M
| | ├──36-软件架构与需求分析方法-需求要素(非功能.mp4 8.07M
| | ├──37-软件架构与需求分析方法-案例电商订单系统.mp4 13.32M
| | ├──38-软件架构与需求分析方法-案例电商订单系统.mp4 11.06M
| | ├──39-软件架构与需求分析方法-案例电商订单系统.mp4 7.75M
| | ├──40-软件架构与需求分析方法-案例电商订单系统.mp4 17.27M
| | ├──41-软件架构与需求分析方法-案例电商订单系统.mp4 6.70M
| | └──42-软件架构与需求分析方法-案例电商订单系统.mp4 16.15M
├──02、阶段二 【物流行业】品达物流TMS
| ├──第八章 智能调度服务
| | ├──01-本章内容介绍.mp4 8.94M
| | ├──02-定时任务组件Quartz(Quartz介绍).mp4 5.45M
| | ├──03-定时任务组件Quartz(Quartz核心API介绍).mp4 22.17M
| | ├──04-定时任务组件Quartz(Quartz入门案例_代码.mp4 41.11M
| | ├──05-定时任务组件Quartz(Quartz入门案例_测.mp4 7.13M
| | ├──06-定时任务组件Quartz(Quartz入门案例_问题.mp4 10.73M
| | ├──07-定时任务组件Quartz(Quartz入门案例_问题.mp4 23.71M
| | ├──08-定时任务组件Quartz(Quartz入门案例_问题.mp4 17.65M
| | ├──09-Quartz动态定时任务(数据模型).mp4 30.15M
| | ├──10-Quartz动态定时任务(环境搭建).mp4 82.18M
| | ├──11-Quartz动态定时任务(添加定时任务_代码实.mp4 34.92M
| | ├──12-Quartz动态定时任务(添加定时任务_测试).mp4 38.80M
| | ├──13-Quartz动态定时任务(暂停定时任务).mp4 28.97M
| | ├──14-Quartz动态定时任务(恢复定时任务).mp4 12.09M
| | ├──15-Quartz动态定时任务(删除定时任务).mp4 9.87M
| | ├──16-Quartz动态定时任务(立即执行定时任务).mp4 10.87M
| | ├──17-Quartz动态定时任务(更新定时任务_代码实.mp4 37.76M
| | ├──18-Quartz动态定时任务(更新定时任务_测试).mp4 9.94M
| | ├──19-智能调度服务(业务说明).mp4 46.94M
| | ├──20-智能调度服务(数据模型_1).mp4 51.88M
| | ├──21-智能调度服务(数据模型_2).mp4 38.20M
<p>

| | ├──22-智能调度服务(数据模型_3).mp4 27.61M
| | ├──23-智能调度服务(实现过程_环境搭建).mp4 41.58M
| | ├──24-智能调度服务(实现过程_编写定时任务).mp4 25.66M
| | ├──25-智能调度服务(实现过程_初始化定时任务_.mp4 82.61M
| | ├──26-智能调度服务(实现过程_初始化定时任务_.mp4 45.00M
| | ├──27-智能调度服务(实现过程_初始化定时任务_.mp4 33.85M
| | ├──28-智能调度服务(实现过程_完善定时任务_1).mp4 80.26M
| | ├──29-智能调度服务(实现过程_完善定时任务_2).mp4 36.90M
| | ├──30-智能调度服务(实现过程_编写智能调度组件.mp4 16.29M
| | ├──31-智能调度服务(实现过程_编写智能调度组件_.mp4 33.96M
| | ├──32-智能调度服务(实现过程_订单分类_1).mp4 48.66M
| | ├──33-智能调度服务(实现过程_订单分类_2).mp4 17.09M
| | ├──34-智能调度服务(实现过程_订单分类_3).mp4 71.72M
| | ├──35-智能调度服务(实现过程_订单分类_4).mp4 19.65M
| | ├──36-智能调度服务(实现过程_订单分类_5).mp4 60.78M
| | ├──37-智能调度服务(实现过程_订单分类_6).mp4 29.75M
| | ├──38-智能调度服务(实现过程_订单分类_7).mp4 49.79M
| | ├──39-智能调度服务(实现过程_订单分类_8).mp4 39.90M
| | ├──40-智能调度服务(实现过程_订单分类_9).mp4 32.31M
| | ├──41-智能调度服务(实现过程_订单分类_10).mp4 35.85M
| | ├──42-智能调度服务(实现过程_订单分类_11).mp4 45.82M
| | ├──43-智能调度服务(实现过程_订单分类_12).mp4 23.97M
| | ├──44-智能调度服务(实现过程_订单分类_13).mp4 71.14M
| | ├──45-智能调度服务(实现过程_订单分类_14).mp4 27.79M
| | ├──46-智能调度服务(实现过程_订单分类_15).mp4 20.78M
| | ├──47-智能调度服务(实现过程_订单分类_16).mp4 27.83M
| | ├──48-智能调度服务(实现过程_订单分类_17).mp4 9.02M
| | ├──49-智能调度服务(实现过程_订单分类_18).mp4 49.14M
| | ├──50-智能调度服务(实现过程_订单分类_19).mp4 58.63M
| | ├──51-智能调度服务(实现过程_订单分类_20).mp4 64.96M
| | ├──52-智能调度服务(实现过程_订单分类优化_1).mp4 22.22M
| | ├──53-智能调度服务(实现过程_订单分类优化_2).mp4 22.68M
| | ├──54-智能调度服务(实现过程_订单分类优化_3).mp4 35.73M
| | └──55-智能调度服务(实现过程_导入其他功能代.mp4 31.70M
| ├──第二章 基础数据服务
| | ├──01-第2章内容介绍.mp4 13.90M
| | ├──02-基础数据服务数据模型_1.mp4 39.71M
| | ├──03-基础数据服务数据模型_2.mp4 27.53M
| | ├──04-基础数据微服务开发准备(SpringBoot配置.mp4 36.02M
| | ├──05-基础数据微服务开发准备(启动类、配置类).mp4 35.78M
| | ├──06-基础数据微服务开发准备(Id生成器).mp4 18.79M
| | ├──07-货物类型管理(业务需求和产品原型、数据模.mp4 10.57M
| | ├──08-货物类型管理(实体类).mp4 25.78M
| | ├──09-货物类型管理(服务接口开发_新增货物类型_.mp4 40.36M
| | ├──10-货物类型管理(服务接口开发_新增货物类型_.mp4 74.08M
| | ├──11-货物类型管理(服务接口开发_新增货物类型_.mp4 60.97M
| | ├──12-货物类型管理(服务接口开发_新增货物类型.mp4 34.94M
| | ├──13-货物类型管理(服务接口开发_根据id查询货.mp4 55.60M
| | ├──14-货物类型管理(服务接口开发_根据id查询货.mp4 21.11M
| | ├──15-货物类型管理(服务接口开发_根据id查询货.mp4 8.31M
| | ├──16-货物类型管理(服务接口开发_查询所有货物.mp4 36.27M
| | ├──17-货物类型管理(服务接口开发_查询所有货物.mp4 4.51M
| | ├──18-货物类型管理(服务接口开发_分页查询货物.mp4 82.83M
| | ├──19-货物类型管理(服务接口开发_分页查询货物.mp4 41.95M
| | ├──20-货物类型管理(服务接口开发_分页查询货物.mp4 11.62M
| | ├──21-货物类型管理(服务接口开发_查询货物类型.mp4 36.49M
| | ├──22-货物类型管理(服务接口开发_查询货物类型.mp4 10.19M
| | ├──23-货物类型管理(服务接口开发_查询货物类型.mp4 5.08M
| | ├──24-货物类型管理(服务接口开发_更新货物类.mp4 55.68M
| | ├──25-货物类型管理(服务接口开发_更新货物类型.mp4 17.58M
| | ├──26-货物类型管理(服务接口开发_更新货物类型_.mp4 24.45M
| | ├──27-货物类型管理(服务接口开发_删除货物类.mp4 12.85M
| | ├──28-数据校验(hibernate-validator介绍).mp4 26.72M
| | ├──29-数据校验(hibernate-validator常用注解).mp4 14.93M
| | ├──30-数据校验(使用hibernate-validator进行校.mp4 25.96M
| | ├──31-数据校验(使用hibernate-validator进行校验.mp4 17.76M
| | └──32-导入基础数据服务其他功能代码.mp4 12.36M
| ├──第九章 TMS后台管理端
| | ├──01-本章内容介绍.mp4 5.87M
| | ├──02-分布式锁(什么是分布式锁_1).mp4 20.74M
| | ├──03-分布式锁(什么是分布式锁_2).mp4 38.30M
| | ├──04-分布式锁(为什么要使用分布式锁_1).mp4 36.11M
| | ├──05-分布式锁(为什么要使用分布式锁_2).mp4 21.73M
| | ├──06-分布式锁(为什么要使用分布式锁_3).mp4 18.54M
| | ├──07-分布式锁(为什么要使用分布式锁_4).mp4 24.55M
| | ├──08-分布式锁(分布式锁应具有的特性).mp4 19.25M
| | ├──09-分布式锁实现方案(数据库方式实现分布式.mp4 17.64M
| | ├──10-分布式锁实现方案(数据库方式实现分布式.mp4 72.90M
| | ├──11-分布式锁实现方案(数据库方式实现分布式.mp4 31.88M
| | ├──12-分布式锁实现方案(数据库方式实现分布式.mp4 31.53M
| | ├──13-分布式锁实现方案(Zookeeper方式实现.mp4 14.52M
| | ├──14-分布式锁实现方案(Zookeeper方式实现.mp4 44.72M
| | ├──15-分布式锁实现方案(Zookeeper方式实现.mp4 16.94M
| | ├──16-分布式锁实现方案(Zookeeper方式实现.mp4 16.91M
| | ├──17-分布式锁实现方案(Redis方式实现分布式.mp4 14.16M
| | ├──18-分布式锁实现方案(Redis方式实现分布式.mp4 36.75M
| | ├──19-分布式锁实现方案(Redis方式实现分布式.mp4 16.28M
| | ├──20-分布式锁实现方案(Redis方式实现分布式.mp4 12.11M
| | ├──21-Redisson(Redisson介绍).mp4 21.03M
| | ├──22-Redisson(Redisson实现分布式锁_1).mp4 33.62M
| | ├──23-Redisson(Redisson实现分布式锁_2).mp4 21.77M
| | ├──24-Redisson(Redisson实现分布式锁_3).mp4 18.33M
| | ├──25-Redisson(Lua脚本_使用Lua脚本的好处).mp4 13.96M
| | ├──26-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 35.49M
| | ├──27-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 13.25M
| | └──28-导入功能代码.mp4 28.97M
| ├──第六章 数据聚合服务
| | ├──01-本章内容介绍.mp4 13.66M
| | ├──02-canal概述(背景).mp4 10.35M
| | ├──03-canal概述(工作原理).mp4 23.33M
| | ├──04-canal概述(架构).mp4 10.33M
| | ├──05-canal概述(HA机制).mp4 12.61M
| | ├──06-canal安装(安装配置MySQL).mp4 61.09M
| | ├──07-canal安装(安装配置canal-server).mp4 29.83M
| | ├──08-canal简单使用(编写Java程序).mp4 44.70M
| | ├──09-canal简单使用(测试).mp4 30.10M
| | ├──09-Otter概述(Otter介绍).mp4 17.60M
| | ├──10-Otter概述(Otter架构).mp4 32.71M
| | ├──11-Otter安装配置(依赖环境安装).mp4 8.86M
| | ├──12-Otter安装配置(MySQL安装_创建源数据.mp4 23.55M
| | ├──13-Otter安装配置(MySQL安装_创建目标数据.mp4 12.93M
| | ├──14-Otter安装配置(MySQL安装_创建Otter配置.mp4 40.40M
| | ├──15-Otter安装配置(zookeeper、aria2安装).mp4 15.91M
| | ├──16-Otter安装配置(Ottermanager安装).mp4 36.63M
| | ├──17-Otter安装配置(Ottermanager配置_配置Z.mp4 14.10M
| | ├──18-Otter安装配置(Ottermanager配置_配置n.mp4 10.53M
| | ├──19-Otter安装配置(Ottermanager配置_管理.mp4 6.25M
| | ├──20-Otter安装配置(Otternode安装).mp4 24.87M
| | ├──21-Otter安装配置(设置同步任务_准备工作).mp4 13.10M
| | ├──22-Otter安装配置(设置同步任务_数据源配.mp4 9.19M
| | ├──23-Otter安装配置(设置同步任务_数据表配.mp4 4.88M
| | ├──24-Otter安装配置(设置同步任务_canal配置).mp4 6.77M
| | ├──25-Otter安装配置(设置同步任务_添加chann.mp4 2.19M
| | ├──26-Otter安装配置(设置同步任务_添加pipelin.mp4 13.85M
| | ├──27-Otter安装配置(设置同步任务_添加映射关.mp4 4.83M
| | ├──28-Otter安装配置(设置同步任务_测试).mp4 9.26M
| | └──29-数据聚合服务介绍.mp4 6.79M
| ├──第七章 车辆轨迹服务
| | ├──01-本章内容介绍.mp4 5.30M
| | ├──02-ApacheDruid概述(Druid介绍).mp4 17.61M
| | ├──03-ApacheDruid概述(Druid应用场景).mp4 18.07M
| | ├──04-ApacheDruid概述(Druid特点).mp4 34.80M
| | ├──05-ApacheDruid概述(Druid进程和服务).mp4 33.47M
| | ├──06-ApacheDruid概述(Druid数据结构).mp4 25.30M
| | ├──07-ApacheDruid概述(Druid在本项目的应.mp4 8.93M
| | ├──08-ApacheDruid安装(依赖环境安装_jdk、Z.mp4 9.22M
| | ├──09-ApacheDruid安装(依赖环境安装_kafka).mp4 32.83M
| | ├──10-ApacheDruid安装(依赖环境安装_kafka验.mp4 39.50M
| | ├──11-ApacheDruid安装(Druid安装和配置文件.mp4 65.69M
| | ├──12-ApacheDruid安装(Druid启动).mp4 16.93M
| | ├──13-ApacheDruid摄取数据(从本地文件摄取数.mp4 93.78M
| | ├──14-ApacheDruid摄取数据(从本地文件摄取数.mp4 61.29M
| | ├──15-ApacheDruid摄取数据(从本地文件摄取数.mp4 50.34M
| | ├──16-ApacheDruid摄取数据(从本地文件摄取数.mp4 41.92M
| | ├──17-ApacheDruid摄取数据(从kafka摄取数据.mp4 14.98M
| | ├──18-ApacheDruid摄取数据(从kafka摄取数.mp4 35.33M
| | ├──19-Java客户端操作Druid.mp4 47.79M
| | ├──20-车辆轨迹服务(说明).mp4 5.51M
| | ├──21-车辆轨迹服务(pd-netty开发_HTTP接口方.mp4 43.88M
| | ├──22-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 27.64M
| | ├──23-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 23.25M
| | ├──24-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 21.39M
| | ├──25-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 43.77M
| | ├──26-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 36.30M
| | ├──27-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 34.80M
| | └──28-车辆轨迹服务(pd-druid开发).mp4 15.61M
| ├──第三章 用户服务
| | ├──01-第3章内容介绍.mp4 2.91M
| | ├──02-j2cache多级缓存(j2cache介绍).mp4 28.10M
| | ├──03-j2cache多级缓存(入门案例_1).mp4 41.74M
| | ├──04-j2cache多级缓存(入门案例_2).mp4 42.91M
| | ├──05-j2cache多级缓存(入门案例_3).mp4 36.93M
| | ├──06-j2cache多级缓存(入门案例_4).mp4 11.83M
| | ├──07-j2cache多级缓存(入门案例_5).mp4 20.56M
| | ├──08-j2cache多级缓存(入门案例_6).mp4 30.76M
| | ├──09-用户服务数据模型.mp4 28.20M
| | ├──10-用户服务开发准备(配置文件).mp4 31.22M
| | ├──11-用户服务开发准备(服务启动类、配置类).mp4 15.94M
| | ├──12-地址簿管理(业务需求和产品原型).mp4 8.04M
| | ├──13-地址簿管理(导入实体类).mp4 10.04M
| | ├──14-地址簿管理(服务接口开发_新增地址簿_1).mp4 35.68M
| | ├──15-地址簿管理(服务接口开发_新增地址簿_2).mp4 28.09M
| | ├──16-地址簿管理(服务接口开发_导入其他接口).mp4 22.60M
| | ├──17-地址簿管理(服务接口开发_接口测试).mp4 30.94M
| | ├──18-用户信息管理(业务需求和产品原型、数据模.mp4 19.19M
| | ├──19-用户信息管理(导入功能代码).mp4 25.94M
| | ├──20-用户信息管理(接口测试).mp4 18.38M
| | ├──21-声明式缓存(原生j2cache问题分析_问题分析.mp4 42.25M
| | ├──22-声明式缓存(原生j2cache问题分析_实现思.mp4 35.77M
| | ├──23-声明式缓存(声明式缓存代码实现_编写缓存.mp4 35.81M
| | ├──24-声明式缓存(声明式缓存代码实现_应用缓存.mp4 28.44M
| | ├──25-声明式缓存(声明式缓存代码实现_编写mod.mp4 24.99M
| | ├──26-声明式缓存(声明式缓存代码实现_导入工具.mp4 15.63M
| | ├──27-声明式缓存(声明式缓存代码实现_编写拦截.mp4 71.71M
| | ├──28-声明式缓存(声明式缓存代码实现_编写拦.mp4 35.45M
| | ├──29-声明式缓存(声明式缓存代码实现_编写拦截.mp4 62.52M
| | ├──30-声明式缓存(声明式缓存代码实现_编写拦截.mp4 42.76M
| | ├──31-声明式缓存(声明式缓存代码实现_编写抽象.mp4 46.13M
| | ├──32-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.62M
| | ├──33-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.57M
| | ├──34-声明式缓存(声明式缓存代码实现_编写抽象.mp4 13.32M
| | ├──35-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.17M
| | ├──36-声明式缓存(声明式缓存代码实现_编写缓存.mp4 37.60M
| | ├──37-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.18M
| | ├──38-声明式缓存(声明式缓存代码实现_编写缓存.mp4 45.01M
| | ├──39-声明式缓存(声明式缓存代码实现_编写清理.mp4 20.23M
| | ├──40-声明式缓存(声明式缓存代码实现_编写清理.mp4 15.82M
| | ├──41-声明式缓存(声明式缓存代码实现_编写清理.mp4 33.82M
| | ├──42-声明式缓存(项目改造).mp4 16.60M
| | └──43-声明式缓存(项目改造_测试).mp4 24.24M
| ├──第十二章 总结
| | ├──12-1 微服务架构
| | ├──12-2 软件架构体系
| | ├──12-3 系统架构
| | ├──12-4 技术架构
| | ├──12-5 业务流程
| | ├──12-6 数据库设计
| | └──12-7 服务列表
| ├──第十一章 TMS司机端、快递员端
| | ├──11-1 导入功能代码
| | ├──11-2 分布式事务概述
| | └──11-3 分布式事务解决方案Seata
| ├──第十章 TMS客户端
| | ├──01-本章内容介绍.mp4 6.25M
| | ├──02-导入功能代码.mp4 37.22M
| | ├──03-RabbitMQ(介绍).mp4 11.42M
| | ├──04-RabbitMQ(工作原理).mp4 14.60M
| | ├──05-RabbitMQ(安装和启动).mp4 38.34M
| | ├──06-RabbitMQ(入门案例_生产者开发_1).mp4 63.07M
| | ├──07-RabbitMQ(入门案例_生产者开发_2).mp4 8.50M
| | ├──08-RabbitMQ(入门案例_消费者开发).mp4 24.47M
| | ├──09-RabbitMQ(工作模式_1).mp4 21.26M
| | ├──10-RabbitMQ(工作模式_2).mp4 20.52M
| | ├──11-RabbitMQ(工作模式_3).mp4 11.10M
| | ├──12-分布式链路追踪(介绍).mp4 17.86M
| | ├──13-分布式链路追踪(SpringCloudSleuth介.mp4 24.16M
| | ├──14-分布式链路追踪(入门案例_启动zipkin).mp4 9.42M
| | ├──15-分布式链路追踪(入门案例_导入maven工.mp4 24.57M
| | ├──16-分布式链路追踪(入门案例_操作过程).mp4 25.03M
| | ├──17-分布式链路追踪(入门案例_概念说明).mp4 29.98M
| | ├──18-分布式链路追踪(使用MySql存储链路追踪数.mp4 38.45M
| | └──19-分布式链路追踪(通过RabbitMQ发送数据).mp4 38.43M
| ├──第四章 订单服务
| | ├──01-第4章内容介绍.mp4 11.11M
| | ├──02-订单中心服务数据模型.mp4 26.54M
| | ├──03-订单中心服务业务需求和产品原型.mp4 11.92M
| | ├──04-订单中心服务代码.mp4 13.60M
| | ├──05-百度地图开放平台(介绍).mp4 20.62M
| | ├──06-百度地图开放平台(注册账号、申请AK).mp4 13.51M
| | ├──07-百度地图开放平台(入门案例_案例一).mp4 61.66M
| | ├──08-百度地图开放平台(入门案例_案例二).mp4 36.30M
| | ├──09-百度地图开放平台(入门案例_案例三).mp4 21.26M
| | ├──10-百度地图开放平台(入门案例_案例四).mp4 26.27M
| | ├──11-百度地图开放平台(入门案例_案例五).mp4 56.94M
| | ├──12-百度地图开放平台(入门案例_案例六_1).mp4 28.34M
| | ├──13-百度地图开放平台(入门案例_案例六_2).mp4 44.09M
| | ├──14-百度地图开放平台(入门案例_案例六_3).mp4 49.63M
| | ├──15-百度地图开放平台(入门案例_案例七_1).mp4 98.16M
| | ├──16-百度地图开放平台(入门案例_案例七_2).mp4 24.45M
| | ├──17-基于百度地图计算订单距离(实现思路).mp4 14.98M
| | ├──18-基于百度地图计算订单距离(封装工具类_1).mp4 37.71M
| | ├──19-基于百度地图计算订单距离(封装工具类_2).mp4 50.09M
| | ├──20-基于百度地图计算订单距离(封装工具类_3).mp4 21.56M
| | ├──21-规则引擎内容介绍.mp4 15.87M
| | ├──22-规则引擎问题引出(业务规则说明).mp4 27.42M
| | ├──23-规则引擎问题引出(传统实现方式).mp4 277.26M
| | ├──24-规则引擎概述(什么是规则引擎).mp4 131.81M
| | ├──25-规则引擎概述(使用规则引擎的优势).mp4 28.70M
| | ├──26-规则引擎概述(规则引擎应用场景).mp4 18.11M
| | ├──27-规则引擎概述(drools介绍).mp4 48.59M
| | ├──28-drools入门案例(业务场景说明).mp4 8.86M
| | ├──29-drools入门案例(开发实现_1).mp4 143.05M
| | ├──30-drools入门案例(开发实现_2).mp4 130.64M
| | ├──31-drools入门案例(开发实现_3).mp4 176.05M
| | ├──32-drools入门案例(开发实现_4).mp4 61.67M
| | ├──33-drools入门案例(小结_规则引擎构成).mp4 66.91M
| | ├──34-drools入门案例(小结_相关概念说明).mp4 26.62M
| | ├──35-drools入门案例(小结_规则引擎执行过程).mp4 6.50M
| | ├──36-drools入门案例(小结_kie介绍).mp4 27.17M
| | ├──37-drools基础语法(规则文件构成).mp4 35.36M
| | ├──38-drools基础语法(规则体语法结构).mp4 34.87M
| | ├──39-drools基础语法(注释).mp4 12.89M
| | ├──40-drools基础语法(模式匹配).mp4 66.73M
| | ├──41-drools基础语法(比较操作符_语法).mp4 63.49M
| | ├──42-drools基础语法(比较操作符_contains和no.mp4 193.12M
| | ├──43-drools基础语法(比较操作符_memberof和.mp4 65.08M
| | ├──44-drools基础语法(比较操作符_matches和no.mp4 42.40M
| | ├──45-drools基础语法(执行指定规则).mp4 109.84M
| | ├──46-drools基础语法(关键字).mp4 48.06M
| | ├──47-drools基础语法(内置方法_介绍).mp4 37.53M
| | ├──48-drools基础语法(内置方法_update方法).mp4 116.61M
| | ├──49-drools基础语法(内置方法_insert方法).mp4 72.85M
| | ├──50-drools基础语法(内置方法_retract方法).mp4 71.50M
| | ├──51-Drools规则属性.mp4 37.35M
| | ├──52-SpringBoot整合Drools_1.mp4 40.16M
| | ├──53-SpringBoot整合Drools_2.mp4 6.12M
| | ├──54-根据规则计算订单价格(规则).mp4 16.07M
| | ├──55-根据规则计算订单价格(实现步骤_1).mp4 34.93M
| | ├──56-根据规则计算订单价格(实现步骤_2).mp4 45.12M
| | ├──57-根据规则计算订单价格(实现步骤_3).mp4 70.10M
| | ├──58-根据规则计算订单价格(实现步骤_4).mp4 23.95M
| | ├──59-根据规则计算订单价格(实现步骤_5).mp4 25.00M
| | ├──60-根据规则计算订单价格(实现步骤_6).mp4 30.98M
| | ├──61-根据规则计算订单价格(实现步骤_7).mp4 64.83M
| | ├──62-根据规则计算订单价格(实现步骤_8).mp4 18.60M
| | ├──63-根据规则计算订单价格(实现步骤_9).mp4 29.28M
| | ├──64-实现动态规则(实现思路).mp4 9.62M
| | ├──65-实现动态规则(实现步骤_1).mp4 22.92M
| | ├──66-实现动态规则(实现步骤_2).mp4 43.83M
| | ├──67-实现动态规则(实现步骤_3).mp4 21.27M
| | ├──68-实现动态规则(实现步骤_4).mp4 28.52M
| | └──69-实现动态规则(实现步骤_5).mp4 27.52M
| ├──第五章 作业中心服务
| | ├──01-作业中心服务业务梳理.mp4 23.31M
| | ├──02-作业中心服务数据模型(快递员取件、派件任.mp4 9.52M
| | ├──03-作业中心服务数据模型(运单表).mp4 7.09M
| | ├──04-作业中心服务数据模型(运输任务表).mp4 26.95M
| | ├──05-作业中心服务数据模型(运单与运输任务关联.mp4 4.86M
| | └──06-作业中心服务数据模型(司机作业单表).mp4 16.95M
| └──第一章 项目概述和环境搭建
| | ├──01-第1章内容介绍.mp4 5.16M
| | ├──02-项目概述(项目介绍).mp4 31.39M
| | ├──03-项目概述(物流行业介绍).mp4 13.50M
| | ├──04-项目概述(系统架构).mp4 20.92M
| | ├──05-项目概述(技术架构).mp4 7.05M
| | ├──06-业务需求说明(产品需求和原型设计_1).mp4 63.80M
| | ├──07-业务需求说明(产品需求和原型设计_2).mp4 59.17M
| | ├──08-业务需求说明(整体业务流程).mp4 18.05M
| | ├──09-开发方式介绍(软件架构介绍).mp4 14.11M
| | ├──10-开发方式介绍(各个服务介绍).mp4 30.77M
| | ├──11-基础数据配置(配置组织基础数据).mp4 25.26M
| | ├──12-基础数据配置(配置菜单、权限基础数据).mp4 27.13M
| | ├──13-基础数据配置(配置岗位基础数据).mp4 11.45M
| | ├──14-基础数据配置(配置角色基础数据).mp4 21.16M
| | ├──15-基础数据配置(配置用户基础数据).mp4 27.77M
| | ├──16-搭建TMS项目开发环境(数据库环境搭建).mp4 64.06M
| | ├──17-搭建TMS项目开发环境(配置中心Nacos).mp4 15.41M
| | ├──18-搭建TMS项目开发环境(导入maven初始工.mp4 38.74M
| | ├──19-搭建TMS项目开发环境(修改Nacos命名空间.mp4 27.90M
| | ├──20-搭建TMS项目开发环境(配置maven配置文.mp4 38.51M
| | └──21-测试初始工程.mp4 64.12M
├──03、阶段三 智牛股
| ├──1 第一章 智牛股-1.项目概述
| | ├──02-项目介绍-目标与学习路径.mp4 4.14M
| | ├──03-项目介绍-整体简要介绍.mp4 16.53M
| | ├──04-项目介绍-操作演示.mp4 14.13M
| | ├──05-项目介绍-股票与K线.mp4 9.42M
| | ├──06-项目介绍-基本交易规则.mp4 10.42M
| | ├──07-项目介绍-如何交易.mp4 15.75M
| | ├──08-项目介绍-需求介绍.mp4 13.45M
| | ├──09-项目介绍-架构设计.mp4 12.33M
| | ├──10-项目介绍-功能设计.mp4 17.64M
| | ├──11-项目介绍-技术架构.mp4 14.78M
| | ├──12-项目介绍-架构设计说明.mp4 24.14M
| | ├──13-项目介绍-整体技术说明.mp4 33.32M
| | ├──14-项目介绍-项目技术特色.mp4 14.61M
| | ├──15-项目介绍-技术解决方案.mp4 8.92M
| | ├──16-项目介绍-如何技术选型.mp4 28.43M
| | ├──17-项目介绍-技术选型案例RocketMQ.mp4 28.16M
| | ├──18-项目介绍-技术选型案例Sentinel.mp4 7.47M
| | ├──19-项目介绍-回顾与小结.mp4 19.98M
| | ├──20-环境搭建-目标与学习步骤.mp4 2.66M
| | ├──21-环境搭建-工程结构规范.mp4 37.95M
| | ├──22-环境搭建-准备.mp4 12.08M
| | ├──23-环境搭建-Nacos配置与启动.mp4 13.68M
| | ├──24-环境搭建-父级工程创建与POM配置.mp4 18.57M
| | ├──25-环境搭建-网关服务搭建配置.mp4 18.68M
| | ├──26-环境搭建-用户服务搭建配置.mp4 21.70M
| | ├──27-环境搭建-网关路由配置与测试.mp4 13.48M
| | └──28-环境搭建-小结.mp4 12.72M
| ├──10
教程:优采云采集器不用配规则采集数据的方法样稿.docx
采集交流 • 优采云 发表了文章 • 0 个评论 • 109 次浏览 • 2022-11-06 14:15
优采云采集器可以采集网页数据图形无需配置规则
对于刚注册优采云采集器的小伙伴来说,学习掌握配置规则是新手和高手必备的阶段。优采云除了自己配置规则外,还提供了专门的规则市场供朋友们下载学习。这也是初学者快速学习****优采云规则的配置路径之一。
接下来,我们以新浪微博上的话题采集为例,图文并茂地介绍一下市场的相关操作!
第一步,登录优采云客户端,找到规则市场
第二步,找到你想要的规则,直接下载。在这里,优采云提醒朋友们,VIP用户可以免费下载所有规则,免费用户需要消耗积分才能下载。
第三步,将下载的规则导入到任务中
第四步,直接开始运行任务
如果不需要修改规则,直接点击“下一步”,直到页面完成,点击“巡检任务”
运行任务,推荐使用cloud采集数据服务,可以多任务,通过shutdown实现。
最后,数据实现完成后,就可以导出数据了。
优采云规则市场马上深度开放。以后小伙伴可以独立上传和配置规则,供其他小伙伴下载使用。请关注相关开放规则优采云采集器网站消息。
免费的:免费PbootCMS采集发布告别PbootCMS采集不到内容
SEO优化规则上千条,要想排名网站,需要网站才有收录。网站收录 的重要性不言而喻。对于SEO优化来说,能够实现稳定的收录增长是基础的优化。但是往往对于新站点来说,很多站点遇到的问题不是收录,可能网站上线几个月没有收录,或者只是收录几个。那么当我们遇到新站不是收录的问题时,我们应该如何处理呢?网站没有收录的原因有很多。如果新站还没有收录,我们可以看以下几点。
网站设计合理性
很多网站不是收录,很大程度上是网站本身在上线前就存在严重问题。首先,确认网站的链接结构是否合理对我们来说非常重要。对于很多公司来说,网站公司都是外包的,这也导致网站的质量参差不齐。
网站层级
网站高低与搜索引擎的爬取效率有一定的关系。级别越浅,越容易爬行。一般来说,网站级别在3-5级之间,网站保持在3级。
很多网站为了所谓的网站结构清晰,层次分明,把网站的URL层级都做好了。通过URL,可以清楚的知道当前页面在哪个目录下属于哪个类别。
这种方法的起点是好的。对于网站的层次关系明确,应该通过前端页面而不是URL来表达给用户,这样有点浪费钱。
伪静态处理
纯粹为了收录,不需要做伪静态处理。动态页面也可以很好收录,但是动态页面肯定会比静态页面慢,同时动态页面在一定程度上更容易出现重复页面。
另外,综合来看,静态页面的收录速度和效果要好于动态页面,所以网站前期需要做伪静态处理。
网站TDK 合理化
TDK对SEO优化很重要,尤其是网站的标题很重要,不仅对SEO优化,页面标题对用户也是不可见的。一个好的标题对于 网站 的点击转化很重要。
同时,网站的TDK中不要堆叠关键词,如果你不是很擅长网站title关键词布局。然后我们可以只写一个标题并将 关键词 和描述留空。
目前,搜索引擎基本上都是全文检索,TDK已经不像以前那么重要了。不是你写了一个关键词,这个页面会被认为和这个关键词相关,TDK对于搜索引擎的参考价值已经降低了很多,但是如果你堆积了很多关键词 或者有大量的页面具有高度重复的 TDK,那么 网站 的 收录 是一个大热门。
网站 稳定性
对于网站的前期,要保证网站的可访问性和稳定性,网站的带宽要足够。现在我们更注重用户体验,所以基本上我们需要保证网站首屏资源在3秒内加载,1.5秒内控制。
所以我们需要关键词的搜索引擎的抓取时间,我们需要控制网站的抓取时间在1500毫秒以内,抓取时间越低越好。
这个爬取时间在一定程度上决定了网站的爬取频率。网站抓取时间短网站不一定抓取频率高;但是如果抓取时间比较长,那么抓取频率一定要低。对于百度,站长后台提供完整的数据监控。如下图所示,截取了本站抓取时间的数据。
如果你的爬取时间超过1500毫秒,那么你必须优化网站的代码,否则搜索引擎会因为网站服务器的压力自动调整以减少爬取。检索频率会大大降低网站页面发现和收录的速度。
链接重复问题
对于网站想做SEO优化的,一定要做好网站的页面关系跳转。比如我们解析域名的时候,一般会解析有www和不带www的域名。需要做一个301跳转。
确保不要被搜索引擎抓取到两个相同的页面。如果您不进行 301 重定向,它将被视为两个高度相似的不同页面。重复页面不适合新站点收录。
内容问题
新站点 网站 的内容非常重要。很多新站不是收录的问题是网站的内容质量很差,新站的内容也很少。网上都是无意义的东西。今天教大家一个快速采集高质量文章Pbootcms采集方法。
这个Pbootcms采集不需要学习更多的专业技能,只需几个简单的步骤就可以轻松采集内容数据,用户只需要在Pbootcms采集在>上进行简单的设置,完成后Pbootcms采集会根据用户设置的关键词匹配内容和图片的准确率,可以选择保存在本地或者选择伪原创发布后,提供方便快捷的内容采集伪原创发布服务!!
相比其他Pbootcms采集这个Pbootcms采集基本没有什么门槛,也不需要花很多时间去学习正则表达式或者html标签,一分钟上手,只需要输入关键词即可实现采集(pbootcms采集也自带关键词采集 功能)。一路挂断!设置任务自动执行采集伪原创发布和推送任务。
几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。这类Pbootcms采集工具也配备了很多SEO功能,通过采集伪原创软件发布后还可以提升很多SEO方面。
例如:设置自动下载图片保存在本地或第三方(使内容不再有对方的外链)。自动内链(让搜索引擎更深入地抓取你的链接)、前后插入内容或标题,以及网站内容插入或随机作者、随机阅读等,形成“高原创 ”。
这些SEO小功能不仅提高了网站页面原创的度数,还间接提升了网站的收录排名。您可以通过软件工具上的监控管理直接查看文章采集的发布状态,不再需要每天登录网站后台查看。目前博主亲测软件是免费的,可以直接下载使用!
所以新网站不能急着上线,开发过程中需要保证搜索引擎的不可访问性。网站正式上线前,需要将网站初期填写的内容修改为比较优质的内容。
没有完成内容的优化,不要轻易上线。一旦在搜索引擎上留下低质量网站的印象,网站的初始优化就会带来很多麻烦。
网站前期,因为网站质量很低,所以要保证每天有足够的内容,不断更新优化原创的内容,这也是很关键的。 查看全部
教程:优采云采集器不用配规则采集数据的方法样稿.docx
优采云采集器可以采集网页数据图形无需配置规则
对于刚注册优采云采集器的小伙伴来说,学习掌握配置规则是新手和高手必备的阶段。优采云除了自己配置规则外,还提供了专门的规则市场供朋友们下载学习。这也是初学者快速学习****优采云规则的配置路径之一。
接下来,我们以新浪微博上的话题采集为例,图文并茂地介绍一下市场的相关操作!

第一步,登录优采云客户端,找到规则市场
第二步,找到你想要的规则,直接下载。在这里,优采云提醒朋友们,VIP用户可以免费下载所有规则,免费用户需要消耗积分才能下载。
第三步,将下载的规则导入到任务中
第四步,直接开始运行任务

如果不需要修改规则,直接点击“下一步”,直到页面完成,点击“巡检任务”
运行任务,推荐使用cloud采集数据服务,可以多任务,通过shutdown实现。
最后,数据实现完成后,就可以导出数据了。
优采云规则市场马上深度开放。以后小伙伴可以独立上传和配置规则,供其他小伙伴下载使用。请关注相关开放规则优采云采集器网站消息。
免费的:免费PbootCMS采集发布告别PbootCMS采集不到内容
SEO优化规则上千条,要想排名网站,需要网站才有收录。网站收录 的重要性不言而喻。对于SEO优化来说,能够实现稳定的收录增长是基础的优化。但是往往对于新站点来说,很多站点遇到的问题不是收录,可能网站上线几个月没有收录,或者只是收录几个。那么当我们遇到新站不是收录的问题时,我们应该如何处理呢?网站没有收录的原因有很多。如果新站还没有收录,我们可以看以下几点。
网站设计合理性
很多网站不是收录,很大程度上是网站本身在上线前就存在严重问题。首先,确认网站的链接结构是否合理对我们来说非常重要。对于很多公司来说,网站公司都是外包的,这也导致网站的质量参差不齐。
网站层级
网站高低与搜索引擎的爬取效率有一定的关系。级别越浅,越容易爬行。一般来说,网站级别在3-5级之间,网站保持在3级。
很多网站为了所谓的网站结构清晰,层次分明,把网站的URL层级都做好了。通过URL,可以清楚的知道当前页面在哪个目录下属于哪个类别。
这种方法的起点是好的。对于网站的层次关系明确,应该通过前端页面而不是URL来表达给用户,这样有点浪费钱。
伪静态处理
纯粹为了收录,不需要做伪静态处理。动态页面也可以很好收录,但是动态页面肯定会比静态页面慢,同时动态页面在一定程度上更容易出现重复页面。
另外,综合来看,静态页面的收录速度和效果要好于动态页面,所以网站前期需要做伪静态处理。
网站TDK 合理化
TDK对SEO优化很重要,尤其是网站的标题很重要,不仅对SEO优化,页面标题对用户也是不可见的。一个好的标题对于 网站 的点击转化很重要。

同时,网站的TDK中不要堆叠关键词,如果你不是很擅长网站title关键词布局。然后我们可以只写一个标题并将 关键词 和描述留空。
目前,搜索引擎基本上都是全文检索,TDK已经不像以前那么重要了。不是你写了一个关键词,这个页面会被认为和这个关键词相关,TDK对于搜索引擎的参考价值已经降低了很多,但是如果你堆积了很多关键词 或者有大量的页面具有高度重复的 TDK,那么 网站 的 收录 是一个大热门。
网站 稳定性
对于网站的前期,要保证网站的可访问性和稳定性,网站的带宽要足够。现在我们更注重用户体验,所以基本上我们需要保证网站首屏资源在3秒内加载,1.5秒内控制。
所以我们需要关键词的搜索引擎的抓取时间,我们需要控制网站的抓取时间在1500毫秒以内,抓取时间越低越好。
这个爬取时间在一定程度上决定了网站的爬取频率。网站抓取时间短网站不一定抓取频率高;但是如果抓取时间比较长,那么抓取频率一定要低。对于百度,站长后台提供完整的数据监控。如下图所示,截取了本站抓取时间的数据。
如果你的爬取时间超过1500毫秒,那么你必须优化网站的代码,否则搜索引擎会因为网站服务器的压力自动调整以减少爬取。检索频率会大大降低网站页面发现和收录的速度。
链接重复问题
对于网站想做SEO优化的,一定要做好网站的页面关系跳转。比如我们解析域名的时候,一般会解析有www和不带www的域名。需要做一个301跳转。
确保不要被搜索引擎抓取到两个相同的页面。如果您不进行 301 重定向,它将被视为两个高度相似的不同页面。重复页面不适合新站点收录。
内容问题
新站点 网站 的内容非常重要。很多新站不是收录的问题是网站的内容质量很差,新站的内容也很少。网上都是无意义的东西。今天教大家一个快速采集高质量文章Pbootcms采集方法。

这个Pbootcms采集不需要学习更多的专业技能,只需几个简单的步骤就可以轻松采集内容数据,用户只需要在Pbootcms采集在>上进行简单的设置,完成后Pbootcms采集会根据用户设置的关键词匹配内容和图片的准确率,可以选择保存在本地或者选择伪原创发布后,提供方便快捷的内容采集伪原创发布服务!!
相比其他Pbootcms采集这个Pbootcms采集基本没有什么门槛,也不需要花很多时间去学习正则表达式或者html标签,一分钟上手,只需要输入关键词即可实现采集(pbootcms采集也自带关键词采集 功能)。一路挂断!设置任务自动执行采集伪原创发布和推送任务。
几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。这类Pbootcms采集工具也配备了很多SEO功能,通过采集伪原创软件发布后还可以提升很多SEO方面。
例如:设置自动下载图片保存在本地或第三方(使内容不再有对方的外链)。自动内链(让搜索引擎更深入地抓取你的链接)、前后插入内容或标题,以及网站内容插入或随机作者、随机阅读等,形成“高原创 ”。
这些SEO小功能不仅提高了网站页面原创的度数,还间接提升了网站的收录排名。您可以通过软件工具上的监控管理直接查看文章采集的发布状态,不再需要每天登录网站后台查看。目前博主亲测软件是免费的,可以直接下载使用!
所以新网站不能急着上线,开发过程中需要保证搜索引擎的不可访问性。网站正式上线前,需要将网站初期填写的内容修改为比较优质的内容。
没有完成内容的优化,不要轻易上线。一旦在搜索引擎上留下低质量网站的印象,网站的初始优化就会带来很多麻烦。
网站前期,因为网站质量很低,所以要保证每天有足够的内容,不断更新优化原创的内容,这也是很关键的。
技巧:机器学习入门系列:关于机器学习算法你需要了解的东西、如何开发机器学习模型?
采集交流 • 优采云 发表了文章 • 0 个评论 • 81 次浏览 • 2022-11-05 08:32
1.你需要了解的机器学习算法
摘要:分类学习算法基于构建模型所需的数据:数据是否需要收录输入和输出或仅收录输入、需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
上次我们讨论了机器学习可以影响的业务类型。另请参阅:机器学习可以为您的企业做什么?(机器学习入门系列的第 1 部分)
现在,让我们回顾一下您需要了解的技术术语,以便您可以有效地与您的数据科学团队协作并协助您的数据科学团队,以便他们的工作可以对您的业务产生最大的影响(或者至少让您知道他们在说什么) .
算法、模型和数据
从概念上讲,我们正在构建一台机器,给定一组输入数据,它可以通过在数据中找到模式并从中学习来产生一些期望的输出。
一个很常见的情况是要求机器查找一组输入数据并产生相应的输出数据。机器识别输入数据中的模式并创建一组复杂的规则,然后将其应用于从未见过的输入并产生所需的输出。例如,给定房屋的大小、地址和房间数量(输入),让我们预测房屋的售价(输出)。假设我们有 10,000 组这样的数据,包括房子的大小、地址、房间数量和售价。然后机器会根据这些数据“训练”自己,即识别出影响房价的房间大小、地址、房间数量的模式,这样只要我们给一个房子的 3 个输入我们以前从未见过,我们可以预测房价。
数据科学家的角色是找到能够在给定输入的情况下获得预期输出的最佳机器。她有多个模板,对于机器来说,这些模板被称为**算法**。解决从这些模板生成的特定问题的机器称为**模型**。模板具有各种选项和设置,可以进行调整以从同一模板生成不同的模型。您还可以使用不同的模板生成多个模型或调整同一模板的设置以测试哪个模型提供最佳结果。
请注意,模型输出仅对具有一定概率的决策是正确或有用的。该模型并非 100% 正确,它是基于模型所看到的大量数据的“最佳猜测”。模型看到的数据越多,就越有可能提供有用的输出。
数据科学家用来“训练”机器(即让模型识别数据中的模式并创建规则)的一组已知输入和输出称为“**训练集**”。该数据与一个或多个“模板”结合使用,以创建一个或多个模型来解决问题。请记住,即使只使用一个“模板”(算法),也可以通过调整一些选项从同一个模板生成多个模型。
在获得一些“训练有素”的模型后,您必须检查它们是否有效,以及哪一个效果最好。要检查的新数据集称为“**验证集**”。将验证集作为输入,然后运行模型以查看哪个模型输出最接近验证集输出的结果。在我们上面的例子中,就是看哪个模型预测的房子价格最接近实际售价。在这个阶段,需要一组新的数据作为验证集,并且由于这些模型是从训练集创建的,它们将在训练集上运行良好,并且不会给出真实的结果。
一旦我们验证了哪个模型表现最好并选择了最好的,我们的数据科学家需要确定该模型的实际性能,即这个最佳模型在解决问题方面的表现如何。同样,我们需要另一个新数据集,因为该模型在训练集和验证集上都表现良好!最后一个数据集称为“**测试集**”。在我们的例子中,系统检查测试集预测的房价与测试集实际价格的接近程度。
“学习”的类型
您用于解决机器学习问题的算法类型取决于您拥有的数据。学习算法的分类基于构建模型所需的数据:数据是需要包括输入和输出还是只包括输入,需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
1. 监督学习
我们在上一节中详细讨论的案例描述了我们所说的“监督学习”。这种类型的学习需要大量的**标记数据**示例,即由输入和相应输出组成的数据。在我们的房价示例中,“标记”是指用模型预测的结果标记输入。
标记数据(也称为“ground-truth”数据)可以在监督学习算法中看到,从这些数据中学习并根据这些实例进行预测。它们需要大量标记数据:虽然数据量取决于用例,但最少需要几百个数据点。
使用监督学习解决的两个经典问题是:
2. 无监督学习
在无监督学习中,算法尝试识别数据中的模式,而不用预期结果标记数据集。数据是“未标记的”,即没有附加任何有意义的标记。一些经典问题可以通过无监督学习方法解决:
3. 半监督学习
这是监督学习和非监督学习混合的结果,其中算法需要一些训练数据,但比监督学习少得多(可能差一个数量级)。它的算法可以是监督和非监督学习中使用的方法的扩展:分类、回归、聚类、异常检测等。
4. 强化学习
该算法从有限的数据集开始,在学习的同时,可以获得更多关于其预测的反馈,以进一步改进学习。
如您所见,除了要解决的问题类型之外,您拥有的数据量也会影响您可以使用的学习方法。这也适用于另一种方式:您需要使用的学习方法可能需要比您目前拥有的更多的数据才能有效地解决您的问题。我们稍后会讨论这个。
其他常见的“流行语”
在您的工作中,您会遇到其他几个术语。了解它们与我们今天讨论的类别之间的关系非常重要。
深度学习与上述定义无关。它只是将特定类型的系统应用于学习问题,其解决方案可以是有监督的或无监督的等。
人工神经网络 (ANN) 是一种学习系统,它试图模拟我们的大脑通过不同层的“神经”网络工作的方式。神经网络至少有一个输入层(即一组将数据输入网络的神经元)、一个输出层(将结果传递出去的神经元),以及介于两者之间的一个或多个层,称为“隐藏层” . ”(实际进行计算工作的层)。深度学习只是使用具有多个隐藏层的神经网络来完成学习任务。如果你曾经使用过这样的网络,那么恭喜你,你也可以合理地抛弃流行语!
集成方法或**集成学习**使用多个模型来获得比使用单个模型更好的结果。这些模型可以使用不同的算法,也可以使用具有不同参数的相同算法。例如,对于某种类型的预测,你有一组模型,每个模型都可以产生一个预测,并且有处理方法来平衡不同的预测结果并决定应该输出什么组合。集成方法通常用于监督学习(它们在预测问题中非常有用),但也可以用于无监督学习。您的数据科学团队可能会测试这些方法并在适当的时候使用它们。
自然语言处理 (NLP) 是计算机科学的一门学科,研究机器对语言的理解。并非所有类型的 NLP 都使用机器学习。例如,如果我们生成一个“标签云”(一个单词在文本中出现的次数的视觉表示),则不涉及学习。对语言和文本进行更复杂的分析和理解通常需要机器学习。这里有些例子:
NLP 不仅用于机器学习领域中面向语言的应用程序,例如聊天机器人,还广泛用于准备和预处理数据,以便这些数据可以成为许多机器学习模型的有用输入。我们稍后会讨论这个。
请注意:以上定义是为了表达其主要思想,方便大家理解;有关详细的科学定义,请参阅其他来源。
问题如何影响解决方案(以及一些关键的机器学习概念)
通过机器学习实现的战略目标将决定许多下游决策。为了确保您的数据科学团队能够为业务生成正确的解决方案,了解一些基本的机器学习概念及其对业务目标的影响非常重要。
算法的选择
问题定义的微小变化可能需要完全不同的算法来解决,或者至少需要使用不同的数据输入来构建不同的模型。可以为用户识别照片类型的约会网站 可以使用无监督学习技术(例如聚类)来识别常见主题。如果你想向特定的人推荐一个潜在的约会对象,网站可能希望使用基于特定于该人的输入数据的监督学习,例如他们已经看过的照片。
特征选择
机器学习模型识别数据中的模式。输入模型的数据被组织成特征(也称为变量或属性):这些特征是相关的,主要是描述您想要预测或识别的现象的某些方面的独立数据片段。
以前面提到的希望优先考虑贷款申请人外展的公司为例。如果我们将问题定义为“根据转化的可能性对客户进行优先排序”,我们将获得包括对公司各种外展活动的相似客户响应率在内的特征。如果我们将问题定义为“优先考虑最有可能偿还贷款的客户”,我们将不会获得这些功能,因为它们与评估客户的可能性无关。
目标函数的选择
目标函数是您要优化的内容,或者模型试图预测的内容。例如,如果您向用户推荐他们可能感兴趣的商品,则模型的输出可能是用户在看到商品时点击该商品的概率,或者用户购买该商品的概率。目标函数的选择主要取决于业务目标,在这个例子中,您是对用户参与度(目标函数可能是点击或停留时间)还是业务收入(目标函数是购买)感兴趣?另一个需要考虑的关键因素是数据的可用性:要让算法学习,您必须提供大量“标记”的正面(用户看到并点击的产品)或负面(用户看到但没有点击的产品)上)数据点。
文章原标题《你需要了解的机器学习算法以及为什么要关心》,作者:Yael Gavish,译者:Summer,审稿人:主题曲哥。
-------------------------------------------------- ----------------------------------
2. 如何开发机器学习模型?
摘要:创建一个好的机器学习模型与创建任何其他产品一样:从一个想法开始,考虑要解决的问题以及一些潜在的解决方案。一旦你有了明确的方向,你就可以对解决方案进行原型设计,然后对其进行测试,看看它是否满足你的需求,看看这篇文章是如何一步一步做到的。
建模步骤一目了然
在高层次上,创建一个出色的机器学习模型与创建任何其他产品一样:从一个想法开始,然后考虑要解决的问题以及一些潜在的解决方案。一旦有了明确的方向,就可以对解决方案进行原型设计,然后对其进行测试,看看它是否符合要求。您需要在构思、原型设计和测试之间进行迭代,直到您的解决方案足以投放市场,此时您可以将其产品化并发布。现在,让我们看看每个阶段的细节。
由于数据是机器学习的重要组成部分,我们需要在产品开发过程之上进行数据分层,所以我们的过程如下所示:
主意
此阶段的目标是将模型解决的关键问题、目标函数和潜在输入与整个模型保持一致。
数据准备
此阶段的目标是采集原创数据并将其用作原型模型的输入。您可能需要对原创数据执行复杂的转换以使其成为输入数据。例如,假设您的一个特征是消费者对品牌的看法:您首先需要找到消费者谈论您品牌的相关来源。如果品牌名称中收录常用词(如“苹果”),则需要将品牌名称与其一般含义(与水果相关)区分开来,然后通过一个意见分析模型,在构建原型之前完成。并非所有功能都难以构建,但有些功能可能是劳动密集型的。
让我们仔细看看在这个阶段需要做什么:
原型和测试
此阶段的目标是获得模型的原型,对其进行测试并对其进行迭代,直到获得足以用于生产的模型。
商品化
当原型模型很好地解决了业务问题并可以投入生产时,您就进入了这个阶段。请注意,如果您还没有准备好进行全面生产,您需要首先确定模型的缩放比例。比如一个电影推荐工具:一开始可能会为少数几个用户提供推荐服务,但是为了给每个用户提供完整的用户体验,这种情况下,模型会根据每个用户与数据库的相关性来进行. 对每部电影进行排序。这是与仅推荐动作电影不同的扩展要求。
现在,让我们探讨一些有关使模型高效的技术细节:
到目前为止,我所描述的是一个概念过程。在现实中,线一般是模糊的,你经常需要在阶段之间来回走动。您可能对数据供应不满意,考虑重新开始,或者模型商业化后,您可能会发现模型效果不太好,您必须回去重新构建原型。
文章原标题《Developing a Machine Learning Model from Start to Finish》,作者:Yael Gavish,译者:夏夏,审稿人:主题曲哥。
文章 是一个简化的翻译。更多详情请查看原文(需要梯子)。您也可以下载下方的PDF文档查看原文。
附件下载:/m/29087/
更多技术干货请关注云栖社区知乎组织编号:阿里云云栖社区-知乎
优化的解决方案:苹果CMS虚拟主机设置自动采集
苹果cms,管理功能强大,管理后台界面大方,操作简单,功能齐全,模块多,双端管理。苹果cms加上丰富的系统标签,系统内置丰富的cms标签,支持thinkphp框架标签的完美集成,可以检索系统中的所有数据,只要站长有一些前端知识 快速开发自己的模板功能。Applecms部署安装简单,任何操作系统(Windows、Mac、Linux)都可以在PHP+MYSQL环境下快速安装部署。
苹果cms是一个成熟稳定的资源管理系统,可以用来搭建自己的影视网站。苹果cms很大一部分影视网站都是用苹果cms搭建的。苹果cms有很多优点,包括一键建站、配置简单、资源方便采集等。
以下是如何构建 Apple cms 系统以及如何配置它。要申请自己的VPS主机,首先要拥有自己的VPS。我们的 Apple cms 系统将安装在此 VPS 上。目前主流的VPS有很多,而且大部分都非常稳定。一键配置服务器环境非常方便。二、搭建LAMP环境 在安装苹果cms之前,首先要在你的VPS上搭建一个LAMP环境。
所谓LAMP就是指Linux+Apache+Mysql+PHP。其中,苹果cms的操作系统ubuntu是Linux。Apache是一个服务器,浏览器可以通过Apache在服务器(也就是你的VPS)上提供的服务获取网页资源,并显示在你的电脑屏幕上。Mysql 是一个数据库,在您的 网站(这里是 Apple cms)动态运行时访问的数据由数据库管理。
PHP 和 Apache 相互配合,为用户提供动态网页。我们要安装的苹果cms是用PHP语言编写的,必须依赖苹果cms的运行。数据库的信息可以根据网站的MySQL中的实际配置填写。目的是让 Apple cms 通过这些参数登录你的 MySQL。只有这样,Apple cms 才能使用数据库读写所需的数据。
Apple cms采集 可能会报错类别未绑定。这是因为站长站点的电影类别与资源站点的电影类别之间没有一一对应的关系。因此,Apple cms 不知道资源站上的哪个A类对应你网站上的哪个类别。此时,只需要绑定分类即可。这些操作并不难,稍微探索一下就可以上手。
Applecms 已成为易用性和功能性的领导者。程序体积小,程序代码优化,运行速度快,缓存处理效率高,只要能完美搭建普通虚拟主机,建站成本很低。类MVC模板分离,内置标签,自定义功能标签界面,强大的自定义采集功能,只要站长懂HTML,就可以轻松制作个性化网站。
苹果cms一直积极采纳广大站长在易用性和功能方面提出的各种好的建议,对各种紧迫问题做出快速响应,确保每一位站长都能从容应对每一个环节。. v10采用tp5.x内核开发,扩展了模板处理引擎,简单地将后台程序与html模板分离。Apple cms 允许设计师和程序员在不互相干扰的情况下最大限度地发挥自己的优势。大大加快了项目的有序、快速完成。即使站长是第一次接触,他也会在最短的时间内掌握苹果cms的使用方法。后台管理模块一目了然,操作简单,绝不会让站长眼花缭乱。 查看全部
技巧:机器学习入门系列:关于机器学习算法你需要了解的东西、如何开发机器学习模型?
1.你需要了解的机器学习算法
摘要:分类学习算法基于构建模型所需的数据:数据是否需要收录输入和输出或仅收录输入、需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
上次我们讨论了机器学习可以影响的业务类型。另请参阅:机器学习可以为您的企业做什么?(机器学习入门系列的第 1 部分)
现在,让我们回顾一下您需要了解的技术术语,以便您可以有效地与您的数据科学团队协作并协助您的数据科学团队,以便他们的工作可以对您的业务产生最大的影响(或者至少让您知道他们在说什么) .
算法、模型和数据
从概念上讲,我们正在构建一台机器,给定一组输入数据,它可以通过在数据中找到模式并从中学习来产生一些期望的输出。
一个很常见的情况是要求机器查找一组输入数据并产生相应的输出数据。机器识别输入数据中的模式并创建一组复杂的规则,然后将其应用于从未见过的输入并产生所需的输出。例如,给定房屋的大小、地址和房间数量(输入),让我们预测房屋的售价(输出)。假设我们有 10,000 组这样的数据,包括房子的大小、地址、房间数量和售价。然后机器会根据这些数据“训练”自己,即识别出影响房价的房间大小、地址、房间数量的模式,这样只要我们给一个房子的 3 个输入我们以前从未见过,我们可以预测房价。
数据科学家的角色是找到能够在给定输入的情况下获得预期输出的最佳机器。她有多个模板,对于机器来说,这些模板被称为**算法**。解决从这些模板生成的特定问题的机器称为**模型**。模板具有各种选项和设置,可以进行调整以从同一模板生成不同的模型。您还可以使用不同的模板生成多个模型或调整同一模板的设置以测试哪个模型提供最佳结果。
请注意,模型输出仅对具有一定概率的决策是正确或有用的。该模型并非 100% 正确,它是基于模型所看到的大量数据的“最佳猜测”。模型看到的数据越多,就越有可能提供有用的输出。
数据科学家用来“训练”机器(即让模型识别数据中的模式并创建规则)的一组已知输入和输出称为“**训练集**”。该数据与一个或多个“模板”结合使用,以创建一个或多个模型来解决问题。请记住,即使只使用一个“模板”(算法),也可以通过调整一些选项从同一个模板生成多个模型。
在获得一些“训练有素”的模型后,您必须检查它们是否有效,以及哪一个效果最好。要检查的新数据集称为“**验证集**”。将验证集作为输入,然后运行模型以查看哪个模型输出最接近验证集输出的结果。在我们上面的例子中,就是看哪个模型预测的房子价格最接近实际售价。在这个阶段,需要一组新的数据作为验证集,并且由于这些模型是从训练集创建的,它们将在训练集上运行良好,并且不会给出真实的结果。
一旦我们验证了哪个模型表现最好并选择了最好的,我们的数据科学家需要确定该模型的实际性能,即这个最佳模型在解决问题方面的表现如何。同样,我们需要另一个新数据集,因为该模型在训练集和验证集上都表现良好!最后一个数据集称为“**测试集**”。在我们的例子中,系统检查测试集预测的房价与测试集实际价格的接近程度。
“学习”的类型
您用于解决机器学习问题的算法类型取决于您拥有的数据。学习算法的分类基于构建模型所需的数据:数据是需要包括输入和输出还是只包括输入,需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
1. 监督学习
我们在上一节中详细讨论的案例描述了我们所说的“监督学习”。这种类型的学习需要大量的**标记数据**示例,即由输入和相应输出组成的数据。在我们的房价示例中,“标记”是指用模型预测的结果标记输入。
标记数据(也称为“ground-truth”数据)可以在监督学习算法中看到,从这些数据中学习并根据这些实例进行预测。它们需要大量标记数据:虽然数据量取决于用例,但最少需要几百个数据点。
使用监督学习解决的两个经典问题是:
2. 无监督学习
在无监督学习中,算法尝试识别数据中的模式,而不用预期结果标记数据集。数据是“未标记的”,即没有附加任何有意义的标记。一些经典问题可以通过无监督学习方法解决:
3. 半监督学习

这是监督学习和非监督学习混合的结果,其中算法需要一些训练数据,但比监督学习少得多(可能差一个数量级)。它的算法可以是监督和非监督学习中使用的方法的扩展:分类、回归、聚类、异常检测等。
4. 强化学习
该算法从有限的数据集开始,在学习的同时,可以获得更多关于其预测的反馈,以进一步改进学习。
如您所见,除了要解决的问题类型之外,您拥有的数据量也会影响您可以使用的学习方法。这也适用于另一种方式:您需要使用的学习方法可能需要比您目前拥有的更多的数据才能有效地解决您的问题。我们稍后会讨论这个。
其他常见的“流行语”
在您的工作中,您会遇到其他几个术语。了解它们与我们今天讨论的类别之间的关系非常重要。
深度学习与上述定义无关。它只是将特定类型的系统应用于学习问题,其解决方案可以是有监督的或无监督的等。
人工神经网络 (ANN) 是一种学习系统,它试图模拟我们的大脑通过不同层的“神经”网络工作的方式。神经网络至少有一个输入层(即一组将数据输入网络的神经元)、一个输出层(将结果传递出去的神经元),以及介于两者之间的一个或多个层,称为“隐藏层” . ”(实际进行计算工作的层)。深度学习只是使用具有多个隐藏层的神经网络来完成学习任务。如果你曾经使用过这样的网络,那么恭喜你,你也可以合理地抛弃流行语!
集成方法或**集成学习**使用多个模型来获得比使用单个模型更好的结果。这些模型可以使用不同的算法,也可以使用具有不同参数的相同算法。例如,对于某种类型的预测,你有一组模型,每个模型都可以产生一个预测,并且有处理方法来平衡不同的预测结果并决定应该输出什么组合。集成方法通常用于监督学习(它们在预测问题中非常有用),但也可以用于无监督学习。您的数据科学团队可能会测试这些方法并在适当的时候使用它们。
自然语言处理 (NLP) 是计算机科学的一门学科,研究机器对语言的理解。并非所有类型的 NLP 都使用机器学习。例如,如果我们生成一个“标签云”(一个单词在文本中出现的次数的视觉表示),则不涉及学习。对语言和文本进行更复杂的分析和理解通常需要机器学习。这里有些例子:
NLP 不仅用于机器学习领域中面向语言的应用程序,例如聊天机器人,还广泛用于准备和预处理数据,以便这些数据可以成为许多机器学习模型的有用输入。我们稍后会讨论这个。
请注意:以上定义是为了表达其主要思想,方便大家理解;有关详细的科学定义,请参阅其他来源。
问题如何影响解决方案(以及一些关键的机器学习概念)
通过机器学习实现的战略目标将决定许多下游决策。为了确保您的数据科学团队能够为业务生成正确的解决方案,了解一些基本的机器学习概念及其对业务目标的影响非常重要。
算法的选择
问题定义的微小变化可能需要完全不同的算法来解决,或者至少需要使用不同的数据输入来构建不同的模型。可以为用户识别照片类型的约会网站 可以使用无监督学习技术(例如聚类)来识别常见主题。如果你想向特定的人推荐一个潜在的约会对象,网站可能希望使用基于特定于该人的输入数据的监督学习,例如他们已经看过的照片。
特征选择
机器学习模型识别数据中的模式。输入模型的数据被组织成特征(也称为变量或属性):这些特征是相关的,主要是描述您想要预测或识别的现象的某些方面的独立数据片段。
以前面提到的希望优先考虑贷款申请人外展的公司为例。如果我们将问题定义为“根据转化的可能性对客户进行优先排序”,我们将获得包括对公司各种外展活动的相似客户响应率在内的特征。如果我们将问题定义为“优先考虑最有可能偿还贷款的客户”,我们将不会获得这些功能,因为它们与评估客户的可能性无关。
目标函数的选择
目标函数是您要优化的内容,或者模型试图预测的内容。例如,如果您向用户推荐他们可能感兴趣的商品,则模型的输出可能是用户在看到商品时点击该商品的概率,或者用户购买该商品的概率。目标函数的选择主要取决于业务目标,在这个例子中,您是对用户参与度(目标函数可能是点击或停留时间)还是业务收入(目标函数是购买)感兴趣?另一个需要考虑的关键因素是数据的可用性:要让算法学习,您必须提供大量“标记”的正面(用户看到并点击的产品)或负面(用户看到但没有点击的产品)上)数据点。
文章原标题《你需要了解的机器学习算法以及为什么要关心》,作者:Yael Gavish,译者:Summer,审稿人:主题曲哥。

-------------------------------------------------- ----------------------------------
2. 如何开发机器学习模型?
摘要:创建一个好的机器学习模型与创建任何其他产品一样:从一个想法开始,考虑要解决的问题以及一些潜在的解决方案。一旦你有了明确的方向,你就可以对解决方案进行原型设计,然后对其进行测试,看看它是否满足你的需求,看看这篇文章是如何一步一步做到的。
建模步骤一目了然
在高层次上,创建一个出色的机器学习模型与创建任何其他产品一样:从一个想法开始,然后考虑要解决的问题以及一些潜在的解决方案。一旦有了明确的方向,就可以对解决方案进行原型设计,然后对其进行测试,看看它是否符合要求。您需要在构思、原型设计和测试之间进行迭代,直到您的解决方案足以投放市场,此时您可以将其产品化并发布。现在,让我们看看每个阶段的细节。
由于数据是机器学习的重要组成部分,我们需要在产品开发过程之上进行数据分层,所以我们的过程如下所示:
主意
此阶段的目标是将模型解决的关键问题、目标函数和潜在输入与整个模型保持一致。
数据准备
此阶段的目标是采集原创数据并将其用作原型模型的输入。您可能需要对原创数据执行复杂的转换以使其成为输入数据。例如,假设您的一个特征是消费者对品牌的看法:您首先需要找到消费者谈论您品牌的相关来源。如果品牌名称中收录常用词(如“苹果”),则需要将品牌名称与其一般含义(与水果相关)区分开来,然后通过一个意见分析模型,在构建原型之前完成。并非所有功能都难以构建,但有些功能可能是劳动密集型的。
让我们仔细看看在这个阶段需要做什么:
原型和测试
此阶段的目标是获得模型的原型,对其进行测试并对其进行迭代,直到获得足以用于生产的模型。
商品化
当原型模型很好地解决了业务问题并可以投入生产时,您就进入了这个阶段。请注意,如果您还没有准备好进行全面生产,您需要首先确定模型的缩放比例。比如一个电影推荐工具:一开始可能会为少数几个用户提供推荐服务,但是为了给每个用户提供完整的用户体验,这种情况下,模型会根据每个用户与数据库的相关性来进行. 对每部电影进行排序。这是与仅推荐动作电影不同的扩展要求。
现在,让我们探讨一些有关使模型高效的技术细节:
到目前为止,我所描述的是一个概念过程。在现实中,线一般是模糊的,你经常需要在阶段之间来回走动。您可能对数据供应不满意,考虑重新开始,或者模型商业化后,您可能会发现模型效果不太好,您必须回去重新构建原型。
文章原标题《Developing a Machine Learning Model from Start to Finish》,作者:Yael Gavish,译者:夏夏,审稿人:主题曲哥。
文章 是一个简化的翻译。更多详情请查看原文(需要梯子)。您也可以下载下方的PDF文档查看原文。
附件下载:/m/29087/
更多技术干货请关注云栖社区知乎组织编号:阿里云云栖社区-知乎
优化的解决方案:苹果CMS虚拟主机设置自动采集
苹果cms,管理功能强大,管理后台界面大方,操作简单,功能齐全,模块多,双端管理。苹果cms加上丰富的系统标签,系统内置丰富的cms标签,支持thinkphp框架标签的完美集成,可以检索系统中的所有数据,只要站长有一些前端知识 快速开发自己的模板功能。Applecms部署安装简单,任何操作系统(Windows、Mac、Linux)都可以在PHP+MYSQL环境下快速安装部署。
苹果cms是一个成熟稳定的资源管理系统,可以用来搭建自己的影视网站。苹果cms很大一部分影视网站都是用苹果cms搭建的。苹果cms有很多优点,包括一键建站、配置简单、资源方便采集等。
以下是如何构建 Apple cms 系统以及如何配置它。要申请自己的VPS主机,首先要拥有自己的VPS。我们的 Apple cms 系统将安装在此 VPS 上。目前主流的VPS有很多,而且大部分都非常稳定。一键配置服务器环境非常方便。二、搭建LAMP环境 在安装苹果cms之前,首先要在你的VPS上搭建一个LAMP环境。

所谓LAMP就是指Linux+Apache+Mysql+PHP。其中,苹果cms的操作系统ubuntu是Linux。Apache是一个服务器,浏览器可以通过Apache在服务器(也就是你的VPS)上提供的服务获取网页资源,并显示在你的电脑屏幕上。Mysql 是一个数据库,在您的 网站(这里是 Apple cms)动态运行时访问的数据由数据库管理。
PHP 和 Apache 相互配合,为用户提供动态网页。我们要安装的苹果cms是用PHP语言编写的,必须依赖苹果cms的运行。数据库的信息可以根据网站的MySQL中的实际配置填写。目的是让 Apple cms 通过这些参数登录你的 MySQL。只有这样,Apple cms 才能使用数据库读写所需的数据。

Apple cms采集 可能会报错类别未绑定。这是因为站长站点的电影类别与资源站点的电影类别之间没有一一对应的关系。因此,Apple cms 不知道资源站上的哪个A类对应你网站上的哪个类别。此时,只需要绑定分类即可。这些操作并不难,稍微探索一下就可以上手。
Applecms 已成为易用性和功能性的领导者。程序体积小,程序代码优化,运行速度快,缓存处理效率高,只要能完美搭建普通虚拟主机,建站成本很低。类MVC模板分离,内置标签,自定义功能标签界面,强大的自定义采集功能,只要站长懂HTML,就可以轻松制作个性化网站。
苹果cms一直积极采纳广大站长在易用性和功能方面提出的各种好的建议,对各种紧迫问题做出快速响应,确保每一位站长都能从容应对每一个环节。. v10采用tp5.x内核开发,扩展了模板处理引擎,简单地将后台程序与html模板分离。Apple cms 允许设计师和程序员在不互相干扰的情况下最大限度地发挥自己的优势。大大加快了项目的有序、快速完成。即使站长是第一次接触,他也会在最短的时间内掌握苹果cms的使用方法。后台管理模块一目了然,操作简单,绝不会让站长眼花缭乱。
核心方法:用js来实现那些数据结构及算法—目录
采集交流 • 优采云 发表了文章 • 0 个评论 • 68 次浏览 • 2022-11-04 19:21
让我告诉你我个人对这本书的看法。数据结构的介绍不够深入细致,对于那些主修计算机专业的前端从业者来说非常鸡肋。对于那些不是计算机专业并且从未接触过数据结构的前端编码人员。解释很不具体,很多内容只是几笔而已,完全没有代表性。思路的解释不是很清楚,但是每一步都列出来了,但其实每一步都是单独列出来的。它没有任何帮助,我可以自己查看代码并使用您所说的。当然,我在网上也找到了很多类似这个系列的文章,大部分都是基于本书的代码,但是要么代码完全复制,
所以,想写下自己的理解,自己对这个数据结构的想法,每一行代码在上下文中的作用以及学习过程中彼此的影响。希望大家在学习数据结构的时候能走的轻松一点。学习的过程中,有没有看懂的地方,书里不好理解的地方都是自己画的,自己找资料,再回来结合代码给个“自己-thinking”的解释还不错。
终于完成了所有关于使用js实现数据结构的内容,耗时一个多月近40个小时,共16篇文章。里面有最基础的js数组的详细讲解。还有非线性哈希表、树和图。其实对于使用js实现数据结构,个人觉得需要学习的是数据结构的思想。一旦你理解了这个数据结构的思想,那么,当然,实现代码只是时间问题。这个系列的所有内容都是我一个字一个字打出来的,包括书中的代码和我自己的评论。当然,一些概念性的问题来自这本书。文中附有信息链接。
那么,如果你有不明白的地方,或者在阅读的时候感觉不清楚,希望你能留言。互相学习。
哦,是的,让我们谈谈我认为这个系列的重点。重点是最后 6 篇文章和前 3 篇文章(Array、hashMap、Tree 和 Graph)。而对于前面的栈、队列等是你学习后面的基础,因为前面的数据结构都是在树、图等数据结构的实现中用到的。
所以,如果你想学习数据结构。所以我个人认为这个系列 文章 是一个好的开始。你可能会问,看完这个系列文章我会学到什么?我真的了解数据结构吗?当然不是。一张照片就足以写一本厚厚的书。所以,看完这个系列,最多只是打开数据结构的门,迈出右脚(或左脚)去探索门内的世界,甚至没有走进这扇门。
最后说一下这个系列的使用和大概的阅读时间。
使用方法:首先将代码复制到本地,去掉所有注释,然后用文章阅读代码。然后自己敲代码,有什么不懂的就去评论区。以下是参加本系列的说明。
花费时间:每天一小时,大约一个月。当然,不仅仅是阅读,而是按照 文章 中的代码和注释来完整地过一遍我的脑海。
好吧,让我们停止罗嗦。就去这里吧。可以算是给自己的6分答题卡。
这是目录:
数据结构部分(已完成):
附:算法部分基本完成,比如搜索和排序算法,比如函数式编程。这些文章文章强烈推荐大家仔细阅读,因为如果你对这方面没有深入研究过,那么在你阅读并研究了下面的文章之后,会有一个很多收据。当然,这里有一篇文章文章我个人的看法是,你可以简单的看一下,不过看不懂也没关系,因为已经是算法比较深入的部分了,这就是js算法05(算法模式02-动态规划与贪心算法)本文的第一眼,如果你有算法基础,那就当我没说吧。
算法部分:
最后,谢谢!
核心方法:网页数据导出excel的方法
如何获取和导出网页数据并保存在本地?
如何将网页数据(文字、图片等)导出并保存在本地,以便我想看的时候可以看或者跟进更深层次的数据处理?导出网页数据一般有几种方法。
1.通过浏览器导出网页数据
具体操作:打开网页后,在网页空白处右击,在下拉列表中选择“另存为”,然后在弹出的保存窗口中选择保存类型为“所有网页”。选择保存位置并确认,保存后会自动保存两个文件,一个是网址,一个是保存网页内容元素。
如何导出网页数据,以赶集网采集为例 图1
2.通过网页数据采集器导出网页数据
先传网页数据采集器,下载网页数据采集,然后导出成需要的格式。本文中使用
它是一个简单而强大的优采云采集器。下面是一个完整的优采云采集和导出网页数据的例子。例子中的采集是赶集线上房地产-店铺-深圳-南山类下所有店铺的信息。
示例网站:
第 1 步:创建一个 采集 任务
1)进入主界面,选择“自定义模式”
如何导出网页数据,以赶集网采集为例 图2
2) 将要为采集的网址的网址复制粘贴到网址输入框中,点击“保存网址”
如何导出网页数据,以赶集网采集为例 图3
第 2 步:创建翻页循环
1) 在页面右上角,打开“流程”,显示“流程设计器”和“自定义当前操作”两个部分。将页面下拉至最下方,点击“下一页”按钮,在右侧的操作提示框中,选择“循环点击下一页”
如何导出网页数据,以赶集网采集为例 图4
第 3 步:创建列表循环
1) 移动鼠标选择页面上的第一个店铺链接。选中后,系统会自动识别页面中其他类似的链接。在右侧的操作提示框中,选择“全选”
如何导出网页数据,以赶集网采集为例 图5
2)选择“循环通过每个链接”创建一个列表循环
如何导出网页数据,以赶集网采集为例 图6
第四步:提取店铺信息
1)创建列表循环后,系统会自动点击第一个店铺链接进入店铺详情页面。点击所需的字段信息,在右侧的操作提示框中,选择“采集该元素的文本”
如何导出网页数据,以赶集网采集为例 图7
2)字段信息选择完成后,选择对应字段,自定义字段名称。完成后点击左上角的“Save and Launch”启动采集任务
如何导出网页数据,以赶集网采集为例 图8
3) 选择“启动本地采集”
如何导出网页数据,以赶集网采集为例
9
第 5 步:数据采集 和导出
1)采集完成后会弹出提示,选择“导出数据”
如何导出网页数据,以赶集网采集为例 图10
2)选择“合适的导出方式”导出采集好店铺信息数据
如何导出网页数据,以赶集网采集为例 图11
3)这里我们选择excel作为导出格式,数据导出如下图
如何导出网页数据,以赶集网采集为例 图12
经过以上操作,我们采集就到了赶集网的南山门店信息数据。网站 上其他公共数据的基本采集 步骤相同。有些网页比较复杂(涉及点击、登录、翻页、识别验证码、瀑布流、Ajax),可以在优采云中设置一些高级选项。
数据采集完成后,我们可以将数据导出,为以后的数据分析和挖掘提供数据支持。如上图所示,优采云目前支持的导出格式包括excel 2007、excel 2003、csv文件、HTML文件和导出到数据库。
3.通过excel导出网页数据
1)打开excel(本文以2010为例),点击“数据”中的“From 网站”,在弹出的窗口中,在地址栏中输入目标URL,点击“Go”,窗口将打开将跳转到目标页面
如何导出网页数据,以赶集网采集为例 图13
2)将鼠标移动到对话框中网页表格的左上角,会出现一个黄底黑色箭头,表示Excel已经识别出该网页上的表格。点击箭头,箭头会变成绿色的对勾,表示选表成功,最后点击下方的“导入”,如下图:
如何导出网页数据,以赶集网采集为例 图14
3)选择放置数据的工作表后,点击“确定”,网页数据就会导出到这个工作表中。
4)这种方法获取的数据需要等待很长时间,容易出错。最好使用 采集器 来高效便捷地导出数据。相关 采集 教程:
美团商业资讯采集
58城市资讯采集
人民网商户采集
优采云——70万用户选择的网页数据采集器。
1.操作简单,任何人都可以使用:不需要技术背景,只要能上网采集即可。完成流程可视化,点击鼠标完成操作,2分钟快速上手。
2、功能强大,任意网站可选:对于点击、登录、翻页、身份验证码、瀑布流、Ajax脚本异步加载数据,所有页面都可以通过简单设置采集。
3.云采集,也可以关机。配置采集任务后,可以将其关闭,并可以在云端执行任务。庞大的云采集集群24*7不间断运行,无需担心IP阻塞和网络中断。
4、免费功能+增值服务,按需选择。免费版具有满足用户基本采集需求的所有功能。同时设置一些增值服务(如私有云),满足高端付费企业用户的需求。 查看全部
核心方法:用js来实现那些数据结构及算法—目录
让我告诉你我个人对这本书的看法。数据结构的介绍不够深入细致,对于那些主修计算机专业的前端从业者来说非常鸡肋。对于那些不是计算机专业并且从未接触过数据结构的前端编码人员。解释很不具体,很多内容只是几笔而已,完全没有代表性。思路的解释不是很清楚,但是每一步都列出来了,但其实每一步都是单独列出来的。它没有任何帮助,我可以自己查看代码并使用您所说的。当然,我在网上也找到了很多类似这个系列的文章,大部分都是基于本书的代码,但是要么代码完全复制,
所以,想写下自己的理解,自己对这个数据结构的想法,每一行代码在上下文中的作用以及学习过程中彼此的影响。希望大家在学习数据结构的时候能走的轻松一点。学习的过程中,有没有看懂的地方,书里不好理解的地方都是自己画的,自己找资料,再回来结合代码给个“自己-thinking”的解释还不错。
终于完成了所有关于使用js实现数据结构的内容,耗时一个多月近40个小时,共16篇文章。里面有最基础的js数组的详细讲解。还有非线性哈希表、树和图。其实对于使用js实现数据结构,个人觉得需要学习的是数据结构的思想。一旦你理解了这个数据结构的思想,那么,当然,实现代码只是时间问题。这个系列的所有内容都是我一个字一个字打出来的,包括书中的代码和我自己的评论。当然,一些概念性的问题来自这本书。文中附有信息链接。
那么,如果你有不明白的地方,或者在阅读的时候感觉不清楚,希望你能留言。互相学习。
哦,是的,让我们谈谈我认为这个系列的重点。重点是最后 6 篇文章和前 3 篇文章(Array、hashMap、Tree 和 Graph)。而对于前面的栈、队列等是你学习后面的基础,因为前面的数据结构都是在树、图等数据结构的实现中用到的。

所以,如果你想学习数据结构。所以我个人认为这个系列 文章 是一个好的开始。你可能会问,看完这个系列文章我会学到什么?我真的了解数据结构吗?当然不是。一张照片就足以写一本厚厚的书。所以,看完这个系列,最多只是打开数据结构的门,迈出右脚(或左脚)去探索门内的世界,甚至没有走进这扇门。
最后说一下这个系列的使用和大概的阅读时间。
使用方法:首先将代码复制到本地,去掉所有注释,然后用文章阅读代码。然后自己敲代码,有什么不懂的就去评论区。以下是参加本系列的说明。
花费时间:每天一小时,大约一个月。当然,不仅仅是阅读,而是按照 文章 中的代码和注释来完整地过一遍我的脑海。
好吧,让我们停止罗嗦。就去这里吧。可以算是给自己的6分答题卡。

这是目录:
数据结构部分(已完成):
附:算法部分基本完成,比如搜索和排序算法,比如函数式编程。这些文章文章强烈推荐大家仔细阅读,因为如果你对这方面没有深入研究过,那么在你阅读并研究了下面的文章之后,会有一个很多收据。当然,这里有一篇文章文章我个人的看法是,你可以简单的看一下,不过看不懂也没关系,因为已经是算法比较深入的部分了,这就是js算法05(算法模式02-动态规划与贪心算法)本文的第一眼,如果你有算法基础,那就当我没说吧。
算法部分:
最后,谢谢!
核心方法:网页数据导出excel的方法
如何获取和导出网页数据并保存在本地?
如何将网页数据(文字、图片等)导出并保存在本地,以便我想看的时候可以看或者跟进更深层次的数据处理?导出网页数据一般有几种方法。
1.通过浏览器导出网页数据
具体操作:打开网页后,在网页空白处右击,在下拉列表中选择“另存为”,然后在弹出的保存窗口中选择保存类型为“所有网页”。选择保存位置并确认,保存后会自动保存两个文件,一个是网址,一个是保存网页内容元素。
如何导出网页数据,以赶集网采集为例 图1
2.通过网页数据采集器导出网页数据
先传网页数据采集器,下载网页数据采集,然后导出成需要的格式。本文中使用
它是一个简单而强大的优采云采集器。下面是一个完整的优采云采集和导出网页数据的例子。例子中的采集是赶集线上房地产-店铺-深圳-南山类下所有店铺的信息。
示例网站:
第 1 步:创建一个 采集 任务
1)进入主界面,选择“自定义模式”
如何导出网页数据,以赶集网采集为例 图2
2) 将要为采集的网址的网址复制粘贴到网址输入框中,点击“保存网址”
如何导出网页数据,以赶集网采集为例 图3
第 2 步:创建翻页循环
1) 在页面右上角,打开“流程”,显示“流程设计器”和“自定义当前操作”两个部分。将页面下拉至最下方,点击“下一页”按钮,在右侧的操作提示框中,选择“循环点击下一页”
如何导出网页数据,以赶集网采集为例 图4

第 3 步:创建列表循环
1) 移动鼠标选择页面上的第一个店铺链接。选中后,系统会自动识别页面中其他类似的链接。在右侧的操作提示框中,选择“全选”
如何导出网页数据,以赶集网采集为例 图5
2)选择“循环通过每个链接”创建一个列表循环
如何导出网页数据,以赶集网采集为例 图6
第四步:提取店铺信息
1)创建列表循环后,系统会自动点击第一个店铺链接进入店铺详情页面。点击所需的字段信息,在右侧的操作提示框中,选择“采集该元素的文本”
如何导出网页数据,以赶集网采集为例 图7
2)字段信息选择完成后,选择对应字段,自定义字段名称。完成后点击左上角的“Save and Launch”启动采集任务
如何导出网页数据,以赶集网采集为例 图8
3) 选择“启动本地采集”
如何导出网页数据,以赶集网采集为例
9
第 5 步:数据采集 和导出
1)采集完成后会弹出提示,选择“导出数据”
如何导出网页数据,以赶集网采集为例 图10
2)选择“合适的导出方式”导出采集好店铺信息数据

如何导出网页数据,以赶集网采集为例 图11
3)这里我们选择excel作为导出格式,数据导出如下图
如何导出网页数据,以赶集网采集为例 图12
经过以上操作,我们采集就到了赶集网的南山门店信息数据。网站 上其他公共数据的基本采集 步骤相同。有些网页比较复杂(涉及点击、登录、翻页、识别验证码、瀑布流、Ajax),可以在优采云中设置一些高级选项。
数据采集完成后,我们可以将数据导出,为以后的数据分析和挖掘提供数据支持。如上图所示,优采云目前支持的导出格式包括excel 2007、excel 2003、csv文件、HTML文件和导出到数据库。
3.通过excel导出网页数据
1)打开excel(本文以2010为例),点击“数据”中的“From 网站”,在弹出的窗口中,在地址栏中输入目标URL,点击“Go”,窗口将打开将跳转到目标页面
如何导出网页数据,以赶集网采集为例 图13
2)将鼠标移动到对话框中网页表格的左上角,会出现一个黄底黑色箭头,表示Excel已经识别出该网页上的表格。点击箭头,箭头会变成绿色的对勾,表示选表成功,最后点击下方的“导入”,如下图:
如何导出网页数据,以赶集网采集为例 图14
3)选择放置数据的工作表后,点击“确定”,网页数据就会导出到这个工作表中。
4)这种方法获取的数据需要等待很长时间,容易出错。最好使用 采集器 来高效便捷地导出数据。相关 采集 教程:
美团商业资讯采集
58城市资讯采集
人民网商户采集
优采云——70万用户选择的网页数据采集器。
1.操作简单,任何人都可以使用:不需要技术背景,只要能上网采集即可。完成流程可视化,点击鼠标完成操作,2分钟快速上手。
2、功能强大,任意网站可选:对于点击、登录、翻页、身份验证码、瀑布流、Ajax脚本异步加载数据,所有页面都可以通过简单设置采集。
3.云采集,也可以关机。配置采集任务后,可以将其关闭,并可以在云端执行任务。庞大的云采集集群24*7不间断运行,无需担心IP阻塞和网络中断。
4、免费功能+增值服务,按需选择。免费版具有满足用户基本采集需求的所有功能。同时设置一些增值服务(如私有云),满足高端付费企业用户的需求。
直观:无规则采集器列表算法的简单变式(上)
采集交流 • 优采云 发表了文章 • 0 个评论 • 95 次浏览 • 2022-11-03 16:16
无规则采集器列表算法的简单变式(-infinite-mistakes-and-powerful-engineering/)可以看看上面那个live。我看那个live时正值自己的ea一周年,很感动,可以入个门。此外,英语好的话,我推荐theartofpowerfultraining这个公众号。我自己也花了半个月在里面每周翻译一点(包括我自己很多想推荐的机器学习/人工智能/深度学习/新机器学习/深度学习库/seo/web方面的好东西)。
写东西速度比较慢,而且翻译水平也比较差。非程序员的推荐/the-art-of-powerful-training/我曾经做过网页抓取的功能项目,用它搭了三个同类网站抓取。对于入门很有帮助。如果经济允许,想接触人工智能的话,建议接触下国外ai领域新近发展的一些学者(计算机,自然语言处理,最好是cs相关专业),要不看论文资料很容易过于纯理论太枯燥。
国内的话,欢迎关注我校的计算机相关专业的计算机系学生的开源项目。毕竟我校名气大,好多信息技术方面的“大牛”和“新奇”需要一些低门槛的开源项目做“中介”,也给了我一些新的想法和见识。(cs289和2895这两个就是网页抓取模拟程序的开源,不知道国内有没有)。国内做机器学习的多,还是学校里的效果好。最后,关于深度学习的语言实现(python、matlab/sylizip、caffe等),我就推荐本人自己写的-learning/caffe的文档吧。
因为还是新人,水平差,和github工程师合作,想偷懒,可以用scikit-learn之类,不过可能需要定制类型。按照例子的业务逻辑拆分自己的list,虽然我还是喜欢有类型,但这种说法有点太赶了。仅作参考。不过通常数据预处理的需求没有像是高级语言那么复杂,解决数据预处理问题再做预处理就好了。--。 查看全部
直观:无规则采集器列表算法的简单变式(上)
无规则采集器列表算法的简单变式(-infinite-mistakes-and-powerful-engineering/)可以看看上面那个live。我看那个live时正值自己的ea一周年,很感动,可以入个门。此外,英语好的话,我推荐theartofpowerfultraining这个公众号。我自己也花了半个月在里面每周翻译一点(包括我自己很多想推荐的机器学习/人工智能/深度学习/新机器学习/深度学习库/seo/web方面的好东西)。

写东西速度比较慢,而且翻译水平也比较差。非程序员的推荐/the-art-of-powerful-training/我曾经做过网页抓取的功能项目,用它搭了三个同类网站抓取。对于入门很有帮助。如果经济允许,想接触人工智能的话,建议接触下国外ai领域新近发展的一些学者(计算机,自然语言处理,最好是cs相关专业),要不看论文资料很容易过于纯理论太枯燥。

国内的话,欢迎关注我校的计算机相关专业的计算机系学生的开源项目。毕竟我校名气大,好多信息技术方面的“大牛”和“新奇”需要一些低门槛的开源项目做“中介”,也给了我一些新的想法和见识。(cs289和2895这两个就是网页抓取模拟程序的开源,不知道国内有没有)。国内做机器学习的多,还是学校里的效果好。最后,关于深度学习的语言实现(python、matlab/sylizip、caffe等),我就推荐本人自己写的-learning/caffe的文档吧。
因为还是新人,水平差,和github工程师合作,想偷懒,可以用scikit-learn之类,不过可能需要定制类型。按照例子的业务逻辑拆分自己的list,虽然我还是喜欢有类型,但这种说法有点太赶了。仅作参考。不过通常数据预处理的需求没有像是高级语言那么复杂,解决数据预处理问题再做预处理就好了。--。
汇总:B站的数据怎么自定义采集,只筛选那些自己想要的数据?
采集交流 • 优采云 发表了文章 • 0 个评论 • 191 次浏览 • 2022-11-03 11:39
很多媒体人可能会遇到这样的问题,需要对某些视频进行综合分析,但目前市面上的大部分工具都可以实现对视频博主的综合分析。那么如果你想分析一些特定的视频呢?
这个问题需要借助专业的数据分析平台来解决。今天给大家推荐的是Pepper Data的【Pepper Aggregation】采集平台。平台的自定义采集有以下几种模式:
一:指定关键词采集视频模式
在采集模式下,勾选【指定关键词采集视频】,输入关键词在B站搜索,采集所有收录关键词的结果。最多可以设置 200 个 关键词。
根据自定义的采集模板,采集收到的数据表如下:
另外,您可以自定义配置栏,可以根据自己的需要进行配置,勾选需要的数据项,过滤掉不必要的选项。
在此数据的基础上,您可以进一步点击表格顶部的【过滤条件】-【添加条件】自定义采集。
2.指定UP主采集模式
在采集模式下,选择【指定UP主采集视频】,输入UP主的用户账号(MID),对本次发布的所有视频进行完整的采集 UP Master,最多 500 UP Master 的用户帐号(MID)。
Pepper 数据与其他平台略有不同。也可以手动输入,也可以下载Excel模板批量导入。
也可以直接在模板中填写UP主页的URL地址,系统会自动解析UP主的用户账号:
3.指定视频链接采集模式
在指定视频链接采集模式下,输入视频URL地址,对指定视频采集进行数据处理,最多可设置500个视频地址,与指定UP主相同采集模式,也可以使用Excel模板批量导入。
由于B站视频地址中有AVID和BVID两种采集模式,系统会自动将AVID转换为BVID,操作过程中也省略了手动转换步骤。
综上所述,Pepper Data【B站数据定制采集】流程清晰,操作简单。只需选择你需要的规则采集并配置对应的采集关键词即可完成数据采集。即使是非技术人员也可以轻松快速地采集获取他们想要的数据。
还可以省去数据采集开发环节,有利于各大主流平台的长期维护,数据接入一键完成,助您快速实现业务需求!
总结:织梦筛选功能怎么弄?详细说明 ,谢谢!
织梦内容过滤(织梦内容页面调用)
软件开发2022-08-22T22:01:12 13
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!织梦如何获取过滤功能?详细指导,谢谢!织梦多条件过滤功能实现我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想修复好它们,因为它们在model Type 是数字类型,而不是其他三个(品牌、平台和显卡)是选项类型。现在前台已经准备好了,我们开始后台功能。
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!
织梦如何获取过滤功能?详细指导,谢谢!
织梦多条件过滤功能实现
我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想很好地修复它们,因为它们在模型中使用的类型是数字类型,而不是其他三(品牌、平台和显卡)是选项类型。
现在前台已经准备好了,我们开始后台功能。
我使用的具体后台是advancedsearch.php的搜索功能来实现的。
我们复制一个advancedsearch.php模板,默认的advancedserach.php模板是/templets/default/advancesearch.htm,我们把这个模板复制到我们自定义的模板文件夹/templets/jingdong,名字叫filter_tmp.htm。
然后进入后台,在“内容模型管理”中选择需要搜索的模型,然后点击模型后面的放大镜图标,在“附件表中自定义搜索的字段”中选择需要搜索的字段,自定义搜索结果模板页面,写上我们刚才复制的模板名称,叫filter_tmp.htm,OK。
这里可以测试一下搜索是否可以正常使用。
不过貌似系统自带织梦。我已经尝试了很多次,但它不起作用。跟踪了一下,好像没有查询到附加表,所以在advancedsearch.php的第218行,原来的代码是
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
在type.*后面加一行addon.*,变成如下代码
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*,addon.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
然后有124行要添加 ${$var}=iconv("utf-8","gb2312",${$var}); 否则会造成中文乱码。
还有一个就是如果使用()英文括号,要小心,因为会被secure sql过滤掉。
下面,我简单制作了filter_tmp.htm,大家可以参考一下。
{dede:数据列表}
div
strongtitle: /strong{dede:field.title/}br /
strongBrand: /strong{dede:field.pinpai/}br /
strongPrice: /strong{dede:field.jiage/}br /
strongSize: /strong{dede:field.chicun/}br /
强平台:/strong{dede:field.pingtai/}br /
strong显卡:/strong{dede:field.xianka/}br /
/div
{/dede:数据列表}
{dede:pagelist listsize='5'/}
但我们最终希望将此页面“嵌入”到 filter.htm 中,即最终列表页面。
现在我们打开过滤器模板文件,在底部添加一个div,并将id设置为result。这是存储最终过滤结果的地方。
然后打开filter.js,这个js里面写了以下关键点。
织梦dede采集方法教程
方法/步骤
1.首先,我们打开织梦背景,点击
采集——采集节点管理——添加新节点
2.这里我们以采集normal文章为例,我们选择normal文章,然后确认
3、我们进入了采集的设置页面,填写节点名,也就是给新节点起个名字,这里随便填。
然后打开你要采集的文章列表页面,打开这个页面的链接,右键-查看源文件
找到目标页面编码,就在字符集之后
4.页面的基本信息一般会被忽略,如图
5.现在我们来填写列表URL获取规则
看列表第一页的地址文章jianzhanxinde/list_49_1.html
对比第二页的地址 jinzhanxinde/list_49_2.html
我们发现除了49_后面的数字之外它们是一样的,所以我们可以写
/建站新德/list_49_(*).html
只需将 1 替换为 (*)
由于这里只有2页,我们从1填到2
每页的增量当然是1,2-1...等于1
到这里我们就完成了
6.可能你的一些采集列表没有规则,只能手动指定列表URL,如图
7. 每行写一个页地址
写完列表规则,我们开始写文章 URL匹配规则,回到文章列表页面
右键查看源文件
找到HTML开头的区域,就是找到列表开头的文章标记。
8.我们可以很容易地找到如图所示的“新闻列表”
. 从这里开始,以下是 文章 列表
让我们在 文章 列表的末尾找到 HTML
9. 这就是它,一个容易找到的标志
如果链接收录图像:
不处理
采集 是缩略图
在这里你可以根据自己的需要选择
再次过滤区域 URL:
(使用正则表达式)
必须收录:
(优先级高于后者)
不能收录:
打开源文件,我们可以清楚的看到文章链接都是以.html结尾的
所以,我们在必须收录之后填写.html
如果遇到一些麻烦的列表,也可以填写以下不能收录的
8.我们点击保存设置进入下一步,可以看到我们得到的文章 URL
看到这些都正确,我们保存信息,进入下一步设置内容字段获取规则
看看文章有没有分页,输入一篇文章文章就可以了。. 我们看到这里的 文章 没有分页
所以这里我们默认
9. 我们现在正在寻找 文章 标题等
随便输入一个文章,右键查看源文件
看看这些
10.根据源码填写
11.我们来填写文章的内容的开头和结尾
如上,找到开始和结束标记
12.开始:
12.结束:
13.如果要过滤文章中的内容,请写过滤规则,例如过滤文章中的图片
选择通用规则
14.再次检查IMG,然后确认
15.这样,我们过滤文本中的图片
设置好后点击保存设置并预览
这样的采集 规则已经写好了。这很简单。有些网站很难写,但需要付出更多的努力。
16.我们点击保存开始采集--开始采集网页
过了一会儿,采集结束了
17 让我们看看 文章 我们 采集 到
18.好像成功了,我们来导出数据
织梦cms如何删除后台等待审核的过滤词文章
在后台的基本设置中,有一个设置让你设置停用词,然后他们就不能发布停用词的内容了。
请求接受
织梦如何过滤消息模板中的重复数据
在diy.php文件中,在插入消息数据库之前,检查提交的标题或电话信息是否重复。如果重复,不要插入,提示相同信息已经存在。
校验是使用提交的title或者phone字段查询消息表单,如果匹配则证明存在
织梦采集字符的功能介绍
1.一键安装,全自动采集
织梦采集安装非常简单方便,只需一分钟即可启动采集,结合简单、健壮、灵活、开源的dedecms程序,新手也可以快速上手,我们有专门的客服为企业客户提供技术支持。
2.一个字采集,不用写采集规则
3.RSS采集,输入RSS地址到采集内容
只要RSS订阅地址由采集的网站提供,就可以通过RSS采集,只需要输入RSS地址就可以方便地采集目标网站内容,无需编写采集规则,方便简单。
4.方向采集,精确采集标题,正文,作者,出处
定位采集只需要提供列表URL和文章URL即可智能采集指定网站或列内容,方便简单,写简单就能准确规则采集 标题、正文、作者、来源。
5.各种伪原创和优化方法来提高收录率和排名
自动标题、段落重排、高级混淆、自动内链、内容过滤、URL过滤、同义词替换、插入seo词、关键词添加链接等方法对采集返回文章进行处理,提升采集文章原创的性能,有利于搜索引擎优化,提高搜索引擎收录、网站和关键词的权重排名.
6.插件全自动采集,无需人工干预
7.手动发布文章也可以伪原创和搜索优化处理
织梦采集Xia不仅仅是一个采集插件,还是一个织梦必备伪原创和搜索优化插件,手工发布文章可以通过伪原创处理和织梦采集xia的搜索优化,可以对文章进行同义词替换,自动内链,随机插入关键词 links 和 文章 收录 关键词 等会自动添加指定链接的功能,是 织梦 的必备插件。
8、定期、定量地进行采集伪原创SEO更新
该插件有两种触发采集方法,一种是在页面中添加代码,通过用户访问触发采集更新,另一种是远程触发我们提供的采集服务商业用户。定量的采集更新可以定期安排,无需人工干预,无需人工干预。
9.定期定量更新待审稿件
即使你的数据库里有上千篇文章文章,织梦采集厦门也可以根据你的需要,在你设定的时间段内,每天定时定量的回顾和更新。
10.绑定织梦采集节点,调度采集伪原创SEO更新
绑定织梦采集节点的函数,这样织梦cms自带的采集函数也可以自动采集更新经常。方便设置了采集规则的用户定期更新采集。
织梦批量删除添加到内容中的图片?
在 dede/article_add.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
在 dede/article_edit.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
如果你不使用它,只需添加 // 并将其注释掉。
这个方法是过滤掉所有的图片,希望对你有帮助。
织梦 内容过滤和织梦 内容页面调用的介绍到此结束。你找到你需要的信息了吗?如果您想了解更多相关信息,请记得采集并关注本站。
织梦内容过滤
乔生170260
织梦内容过滤织梦系统如何替换网站内容 查看全部
汇总:B站的数据怎么自定义采集,只筛选那些自己想要的数据?
很多媒体人可能会遇到这样的问题,需要对某些视频进行综合分析,但目前市面上的大部分工具都可以实现对视频博主的综合分析。那么如果你想分析一些特定的视频呢?
这个问题需要借助专业的数据分析平台来解决。今天给大家推荐的是Pepper Data的【Pepper Aggregation】采集平台。平台的自定义采集有以下几种模式:
一:指定关键词采集视频模式
在采集模式下,勾选【指定关键词采集视频】,输入关键词在B站搜索,采集所有收录关键词的结果。最多可以设置 200 个 关键词。
根据自定义的采集模板,采集收到的数据表如下:
另外,您可以自定义配置栏,可以根据自己的需要进行配置,勾选需要的数据项,过滤掉不必要的选项。

在此数据的基础上,您可以进一步点击表格顶部的【过滤条件】-【添加条件】自定义采集。
2.指定UP主采集模式
在采集模式下,选择【指定UP主采集视频】,输入UP主的用户账号(MID),对本次发布的所有视频进行完整的采集 UP Master,最多 500 UP Master 的用户帐号(MID)。
Pepper 数据与其他平台略有不同。也可以手动输入,也可以下载Excel模板批量导入。

也可以直接在模板中填写UP主页的URL地址,系统会自动解析UP主的用户账号:
3.指定视频链接采集模式
在指定视频链接采集模式下,输入视频URL地址,对指定视频采集进行数据处理,最多可设置500个视频地址,与指定UP主相同采集模式,也可以使用Excel模板批量导入。
由于B站视频地址中有AVID和BVID两种采集模式,系统会自动将AVID转换为BVID,操作过程中也省略了手动转换步骤。
综上所述,Pepper Data【B站数据定制采集】流程清晰,操作简单。只需选择你需要的规则采集并配置对应的采集关键词即可完成数据采集。即使是非技术人员也可以轻松快速地采集获取他们想要的数据。
还可以省去数据采集开发环节,有利于各大主流平台的长期维护,数据接入一键完成,助您快速实现业务需求!
总结:织梦筛选功能怎么弄?详细说明 ,谢谢!
织梦内容过滤(织梦内容页面调用)
软件开发2022-08-22T22:01:12 13
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!织梦如何获取过滤功能?详细指导,谢谢!织梦多条件过滤功能实现我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想修复好它们,因为它们在model Type 是数字类型,而不是其他三个(品牌、平台和显卡)是选项类型。现在前台已经准备好了,我们开始后台功能。
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!
织梦如何获取过滤功能?详细指导,谢谢!
织梦多条件过滤功能实现
我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想很好地修复它们,因为它们在模型中使用的类型是数字类型,而不是其他三(品牌、平台和显卡)是选项类型。
现在前台已经准备好了,我们开始后台功能。
我使用的具体后台是advancedsearch.php的搜索功能来实现的。
我们复制一个advancedsearch.php模板,默认的advancedserach.php模板是/templets/default/advancesearch.htm,我们把这个模板复制到我们自定义的模板文件夹/templets/jingdong,名字叫filter_tmp.htm。
然后进入后台,在“内容模型管理”中选择需要搜索的模型,然后点击模型后面的放大镜图标,在“附件表中自定义搜索的字段”中选择需要搜索的字段,自定义搜索结果模板页面,写上我们刚才复制的模板名称,叫filter_tmp.htm,OK。
这里可以测试一下搜索是否可以正常使用。
不过貌似系统自带织梦。我已经尝试了很多次,但它不起作用。跟踪了一下,好像没有查询到附加表,所以在advancedsearch.php的第218行,原来的代码是
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
在type.*后面加一行addon.*,变成如下代码
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*,addon.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
然后有124行要添加 ${$var}=iconv("utf-8","gb2312",${$var}); 否则会造成中文乱码。
还有一个就是如果使用()英文括号,要小心,因为会被secure sql过滤掉。
下面,我简单制作了filter_tmp.htm,大家可以参考一下。
{dede:数据列表}
div
strongtitle: /strong{dede:field.title/}br /
strongBrand: /strong{dede:field.pinpai/}br /
strongPrice: /strong{dede:field.jiage/}br /
strongSize: /strong{dede:field.chicun/}br /
强平台:/strong{dede:field.pingtai/}br /
strong显卡:/strong{dede:field.xianka/}br /
/div
{/dede:数据列表}
{dede:pagelist listsize='5'/}
但我们最终希望将此页面“嵌入”到 filter.htm 中,即最终列表页面。
现在我们打开过滤器模板文件,在底部添加一个div,并将id设置为result。这是存储最终过滤结果的地方。
然后打开filter.js,这个js里面写了以下关键点。
织梦dede采集方法教程
方法/步骤
1.首先,我们打开织梦背景,点击
采集——采集节点管理——添加新节点
2.这里我们以采集normal文章为例,我们选择normal文章,然后确认
3、我们进入了采集的设置页面,填写节点名,也就是给新节点起个名字,这里随便填。

然后打开你要采集的文章列表页面,打开这个页面的链接,右键-查看源文件
找到目标页面编码,就在字符集之后
4.页面的基本信息一般会被忽略,如图
5.现在我们来填写列表URL获取规则
看列表第一页的地址文章jianzhanxinde/list_49_1.html
对比第二页的地址 jinzhanxinde/list_49_2.html
我们发现除了49_后面的数字之外它们是一样的,所以我们可以写
/建站新德/list_49_(*).html
只需将 1 替换为 (*)
由于这里只有2页,我们从1填到2
每页的增量当然是1,2-1...等于1
到这里我们就完成了
6.可能你的一些采集列表没有规则,只能手动指定列表URL,如图
7. 每行写一个页地址
写完列表规则,我们开始写文章 URL匹配规则,回到文章列表页面
右键查看源文件
找到HTML开头的区域,就是找到列表开头的文章标记。
8.我们可以很容易地找到如图所示的“新闻列表”
. 从这里开始,以下是 文章 列表
让我们在 文章 列表的末尾找到 HTML
9. 这就是它,一个容易找到的标志
如果链接收录图像:
不处理
采集 是缩略图
在这里你可以根据自己的需要选择
再次过滤区域 URL:
(使用正则表达式)
必须收录:
(优先级高于后者)
不能收录:
打开源文件,我们可以清楚的看到文章链接都是以.html结尾的
所以,我们在必须收录之后填写.html
如果遇到一些麻烦的列表,也可以填写以下不能收录的
8.我们点击保存设置进入下一步,可以看到我们得到的文章 URL
看到这些都正确,我们保存信息,进入下一步设置内容字段获取规则
看看文章有没有分页,输入一篇文章文章就可以了。. 我们看到这里的 文章 没有分页
所以这里我们默认
9. 我们现在正在寻找 文章 标题等
随便输入一个文章,右键查看源文件
看看这些
10.根据源码填写
11.我们来填写文章的内容的开头和结尾
如上,找到开始和结束标记
12.开始:
12.结束:
13.如果要过滤文章中的内容,请写过滤规则,例如过滤文章中的图片
选择通用规则
14.再次检查IMG,然后确认

15.这样,我们过滤文本中的图片
设置好后点击保存设置并预览
这样的采集 规则已经写好了。这很简单。有些网站很难写,但需要付出更多的努力。
16.我们点击保存开始采集--开始采集网页
过了一会儿,采集结束了
17 让我们看看 文章 我们 采集 到
18.好像成功了,我们来导出数据
织梦cms如何删除后台等待审核的过滤词文章
在后台的基本设置中,有一个设置让你设置停用词,然后他们就不能发布停用词的内容了。
请求接受
织梦如何过滤消息模板中的重复数据
在diy.php文件中,在插入消息数据库之前,检查提交的标题或电话信息是否重复。如果重复,不要插入,提示相同信息已经存在。
校验是使用提交的title或者phone字段查询消息表单,如果匹配则证明存在
织梦采集字符的功能介绍
1.一键安装,全自动采集
织梦采集安装非常简单方便,只需一分钟即可启动采集,结合简单、健壮、灵活、开源的dedecms程序,新手也可以快速上手,我们有专门的客服为企业客户提供技术支持。
2.一个字采集,不用写采集规则
3.RSS采集,输入RSS地址到采集内容
只要RSS订阅地址由采集的网站提供,就可以通过RSS采集,只需要输入RSS地址就可以方便地采集目标网站内容,无需编写采集规则,方便简单。
4.方向采集,精确采集标题,正文,作者,出处
定位采集只需要提供列表URL和文章URL即可智能采集指定网站或列内容,方便简单,写简单就能准确规则采集 标题、正文、作者、来源。
5.各种伪原创和优化方法来提高收录率和排名
自动标题、段落重排、高级混淆、自动内链、内容过滤、URL过滤、同义词替换、插入seo词、关键词添加链接等方法对采集返回文章进行处理,提升采集文章原创的性能,有利于搜索引擎优化,提高搜索引擎收录、网站和关键词的权重排名.
6.插件全自动采集,无需人工干预
7.手动发布文章也可以伪原创和搜索优化处理
织梦采集Xia不仅仅是一个采集插件,还是一个织梦必备伪原创和搜索优化插件,手工发布文章可以通过伪原创处理和织梦采集xia的搜索优化,可以对文章进行同义词替换,自动内链,随机插入关键词 links 和 文章 收录 关键词 等会自动添加指定链接的功能,是 织梦 的必备插件。
8、定期、定量地进行采集伪原创SEO更新
该插件有两种触发采集方法,一种是在页面中添加代码,通过用户访问触发采集更新,另一种是远程触发我们提供的采集服务商业用户。定量的采集更新可以定期安排,无需人工干预,无需人工干预。
9.定期定量更新待审稿件
即使你的数据库里有上千篇文章文章,织梦采集厦门也可以根据你的需要,在你设定的时间段内,每天定时定量的回顾和更新。
10.绑定织梦采集节点,调度采集伪原创SEO更新
绑定织梦采集节点的函数,这样织梦cms自带的采集函数也可以自动采集更新经常。方便设置了采集规则的用户定期更新采集。
织梦批量删除添加到内容中的图片?
在 dede/article_add.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
在 dede/article_edit.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
如果你不使用它,只需添加 // 并将其注释掉。
这个方法是过滤掉所有的图片,希望对你有帮助。
织梦 内容过滤和织梦 内容页面调用的介绍到此结束。你找到你需要的信息了吗?如果您想了解更多相关信息,请记得采集并关注本站。
织梦内容过滤
乔生170260
织梦内容过滤织梦系统如何替换网站内容
解决方法:优采云采集器使用方法
采集交流 • 优采云 发表了文章 • 0 个评论 • 95 次浏览 • 2022-11-01 08:20
优采云采集器() 作为采集行业老手采集器是一款功能强大且不易上手的专业采集软件,优采云采集器捕获数据的过程取决于用户编写的规则。用户必须分析来自目标站的html代码中的唯一代码标识符,并遵守优采云规则。该模块是向服务器提交采集数据,服务器程序自动将数据正确写入数据库。这里的服务端程序可以是网站程序,也可以是自己编写的接口,只要数据能正确写入数据库即可。这里提交数据需要大家具备post抓包的基础技术。简单说一下post数据传输的过程。通过HTTP传输数据的方式主要有两种,一种是get,一种是post。get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!
对于小白和只懂基本编程的人来说,一定是一头雾水。完全掌握优采云采集器大约需要一个月的时间。这里涉及到什么更多,更多的知识!
详细数据:数据分析(一)数据采集(优采云采集器)
这是一个免费的在线词云生成网站,并且支持图片下载,非常方便
3、采集资料网站联家二手房官网:
这是我过滤后的网址,直接打开即可
三进正题~~~微词云操作
1.打开微词云,点击“开始创建”
2.选择形状、内容
步骤1。点击形状,选择你想要的形状;
第2步。点击内容,打开导入下拉框,选择大文本分词导入
三进正题~~~优采云采集器采集资料
说说微词云上的内容是从哪里来的,又是怎么来的。(PS:再提醒一下我们今天的目标:采集上海徐汇区二手房各区单价及房子的特色信息。然后根据做一个词云图用于视觉显示的区域信息。)
1.打开优采云采集器,启动采集
2.输入链家二手房地址,搜索“徐汇区”网站,点击立即创建
(上图中红框内的按钮可以过滤字段,清除内容,添加任何你想要的字段到采集,这里就不赘述了,大家可以自己研究)
3. 开始采集
这里我们有采集150条数据,点击停止,然后导出数据
以下是导出数据的截图:
至此,优采云采集器采集的数据基本完成。
顺便补充一下,自动采集时可能出现广告、红包等,可以采取以下方法:
4.采集结果数据处理
步骤1。接下来,我们将处理要在微词云中显示的字段。我们选择 positionInfo 列并将其复制到另一个工作表页面
第2步。选择数据”列,下一步
第三步。根据内容选择分隔符来分隔数据
第4步。选择C列并复制到word中,然后从word复制到微词云的文章输入。去完成。这是我制作的一张图片:
你可以试试,今天就到这里。这是最基本的数据采集和显示。如果想采集更多数据,需要用到python,学完python后再更新。 查看全部
解决方法:优采云采集器使用方法

优采云采集器() 作为采集行业老手采集器是一款功能强大且不易上手的专业采集软件,优采云采集器捕获数据的过程取决于用户编写的规则。用户必须分析来自目标站的html代码中的唯一代码标识符,并遵守优采云规则。该模块是向服务器提交采集数据,服务器程序自动将数据正确写入数据库。这里的服务端程序可以是网站程序,也可以是自己编写的接口,只要数据能正确写入数据库即可。这里提交数据需要大家具备post抓包的基础技术。简单说一下post数据传输的过程。通过HTTP传输数据的方式主要有两种,一种是get,一种是post。get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!

对于小白和只懂基本编程的人来说,一定是一头雾水。完全掌握优采云采集器大约需要一个月的时间。这里涉及到什么更多,更多的知识!
详细数据:数据分析(一)数据采集(优采云采集器)
这是一个免费的在线词云生成网站,并且支持图片下载,非常方便
3、采集资料网站联家二手房官网:
这是我过滤后的网址,直接打开即可
三进正题~~~微词云操作
1.打开微词云,点击“开始创建”
2.选择形状、内容
步骤1。点击形状,选择你想要的形状;
第2步。点击内容,打开导入下拉框,选择大文本分词导入
三进正题~~~优采云采集器采集资料
说说微词云上的内容是从哪里来的,又是怎么来的。(PS:再提醒一下我们今天的目标:采集上海徐汇区二手房各区单价及房子的特色信息。然后根据做一个词云图用于视觉显示的区域信息。)
1.打开优采云采集器,启动采集

2.输入链家二手房地址,搜索“徐汇区”网站,点击立即创建
(上图中红框内的按钮可以过滤字段,清除内容,添加任何你想要的字段到采集,这里就不赘述了,大家可以自己研究)
3. 开始采集
这里我们有采集150条数据,点击停止,然后导出数据
以下是导出数据的截图:
至此,优采云采集器采集的数据基本完成。

顺便补充一下,自动采集时可能出现广告、红包等,可以采取以下方法:
4.采集结果数据处理
步骤1。接下来,我们将处理要在微词云中显示的字段。我们选择 positionInfo 列并将其复制到另一个工作表页面
第2步。选择数据”列,下一步
第三步。根据内容选择分隔符来分隔数据
第4步。选择C列并复制到word中,然后从word复制到微词云的文章输入。去完成。这是我制作的一张图片:
你可以试试,今天就到这里。这是最基本的数据采集和显示。如果想采集更多数据,需要用到python,学完python后再更新。
心得:【马克拉伯每日分享】机器视觉三种目标识别方法——深度学习法
采集交流 • 优采云 发表了文章 • 0 个评论 • 106 次浏览 • 2022-11-01 01:28
深度学习的概念对于机器视觉来说相对较新,但对于机器学习来说绝对不是新的。深度学习是机器学习的一种特殊类型,是人工智能的一种。在短短几年内,深度学习已经能够在许多领域比任何传统算法更好地对图像进行分类,并可能很快超越人类的检测能力。
深度学习软件使用多层神经网络根据人工检查员标记的图像识别好坏图像。这些数据集通常收录至少 100 个每种缺陷类型的图像,并且网络经过训练以创建一个模型,该模型对每个输入图像中的对象进行分类并确保高水平的可预测性。
不得不说,深度学习对传统的机器视觉技术很有希望,因为它不同于使用基于规则的方法的传统图像处理算法。在传统的机器视觉中,需要手动设计特征。
随着工业自动化水平的不断提高,传统机器视觉逻辑局限简单,无法应用于随机性强、特征复杂的任务。
当图像模板不足以覆盖所有可能的样本时,通过预先设置很难实现缺陷特征。
当图像不规则和不规则时,很难根据经验手动设计特征并直接输出映射关系。
然而,在深度学习中,我们的训练输入不再是常规数据,它可能是语言、对话语料库、图像或视频。因此,深度学习的核心任务是找到一个能够将我们的输入转化为正确输出的模型。
目前,机器视觉用户已经可以在市场上找到深度学习系统软件。例如,首个深度学习工业图像分析平台——时刻视觉智能低码平台,以人工智能技术为核心,为开发者提供图像采集、图像标注、算法开发、算法封装和应用集成。一站式完整工具链。深度学习的另一个优势是,与传统的机器视觉解决方案相比,它可以减少开发机器视觉程序所需的时间。一般来说,大多数机器视觉应用需要60天以上的软件开发和可行性测试,而使用Matrix Smart低代码平台可以在10分钟内完成开发。
什么是马克拉伯?
MookLab 是一个机器视觉应用的开放社区。MookLab 致力于帮助用户以最低的成本和门槛构建视觉系统。具体来说:
1)提供免费软件:平台提供免费可视化软件,专业团队提供免费软件服务支持。
2)筛选整合优质视觉硬件品牌:如整合优质视觉硬件(如相机、镜头、光源)等品牌,为用户提供低成本的视觉配件匹配平台。
3)提供项目应用支持:提供技术服务交易平台,吸纳平台各区域的集成商用户作为视觉应用服务商,为部分视觉应用能力较弱的用户提供就近和行业针对性的应用支持服务。
4)提供专业的人才培养机制:面向行业初学者和大专院校教育的机器视觉实验平台+软件包,以及相应的教育支持服务。
SGVision 是什么以及它与 MookLab 的关系?
SGVision 是一款无需编程即可使用的机器视觉应用软件。SGVision软件的无限永久免费许可是Mooklab平台为平台会员提供的权利,所以该权利以用户为会员用户为前提。
如何获得免费的机器视觉检测软件SGvision?
下载链接:
直观:优化+选品,这些亚马逊关键词分析工具很实用
在亚马逊店铺运营的过程中,很多时候我们需要借助工具来达到事半功倍的效果。而关键词作为seo优化的最小单位也是非常重要的。
今天老李就讲几个特别好用的亚马逊关键词分析工具。
为什么要使用这些分析工具?
亚马逊本身不对外开放内部数据,所以我们需要自力更生。其实在海外营销中,分析工具是很常见的,但是因为比较广泛,对卖家的针对性不是很强。今天,我们将开出正确的药方。
关键词分析工具有什么用?
帮助卖家分析产品的关键词是否有效,一些工具还提供很多相关词条的搜索曲线。在大数据时代,这些数据可以说是第一手信息,帮助卖家发现新的蓝海,这个过程就是数据的选择。
1
自由的
谷歌广告关键词
(老浣熊用力推)
Google Ads 下的附加功能是非常常用的 关键词 工具,包括以下两个:
关键词关键字规划师
谷歌趋势 谷歌趋势
这两个工具需要翻墙才能使用,并且需要注册自己的google邮箱才能开通adwords账号(具体操作流程见)。
卖家可以使用关键词规划器来优化亚马逊的搜索内容,但需要注意的一点是,纯电商网站中消费者的搜索方式与万能搜索引擎并不一致。有时候关键词planne分析出的高频关键词并不代表消费者想购买这个产品,或者他们可能只是想了解与关键词相关的其他方面。
以iphone 7机箱关键词为例,在红框标注的部分输入关键词
弹窗如下,在这个页面,你可以看到最相关的高频关键词,并且会告诉你搜索量(这个功能需要谷歌广告账号)
然后,可以在google趋势中查看这些词的搜索趋势对比,也可以看到相关的搜索词,如下图1和图2所示
图1
图 2
Amazon Autosuggest(即下拉列表)
这也是一个非常简单常用的关键词工具。在亚马逊搜索框中输入关键词,下拉列表中会出现几个相关的关键词,如下图所示。你可以为这些关键词建立一个列表,然后一一统计对应的搜索结果。
几乎每个亚马逊关键词工具都从自动建议中获取一个 关键词 列表,并将这些词转换为更直观的图表和目标。
搜索引擎优化聊天关键字建议工具
(老浣熊用力推)
即 SEO Chat 关键词 建议工具。这个由 SEOChat 开发的 关键词 建议工具会主动爬取 Google、Bing、YouTube 和亚马逊的 关键词 自动建议数据。卖家可以选择一次获取四个网站数据来比较人们在传统搜索、产品搜索和视频搜索方面的差异,也可以选择亚马逊平台,专注于产品搜索。
使用 SEO Chat关键词 工具需要三个步骤:
(1)先输入关键词或关键词的一部分,工具会抓取亚马逊的自动提示关键词,下图是第一步搜索“蘑菇套装”。
这个工具的独特之处在于它还会自动关联后续关键词s的首字母,并在卖家每次输入一个完整的单词时显示相关的关键词s。
比如上图中,在SEO Chat工具中输入“mushroom kit”后,它会自动在末尾添加字母“i”,这提示亚马逊显示短语“mushroom kit interior”,即前10个条目 关键词 不在建议的结果中。
(2) 选择所有结果后,点击“Run Part 2: Bulk Suggest”按钮,该工具会运行亚马逊搜索框中的所有关键词建议,然后卖家可以获得更具体的自动建议关键词 组。第一步产生了 13 个结果,而第二步产生了 6 个结果,总共 19 个关键词。
(3) 最后,点击“Run Part 3: Useful Suggest”按钮,卖家每月可以通过SEMRush API获取100条Google Keyword Tool搜索数据。但是,100 个 关键词 组太有限了,所以卖家也可以跳过第 3 步,导出数据并在 Google Keyword Tool 上运行。
SEO Chat 的 关键词 工具非常简单。虽然只需单击一两次按钮即可获得结果,但它可以随时导出数据、扩大或缩小数据,而且该工具是 100% 免费的。
关键字工具支配者
价格:免费试用仅限每天 3 个关键词,终身订阅基本计划 16 美元,以及其他选项可供选择。
Keyword Tool Dominator 提供独特的数据:排名 1-10 关键词 基于亚马逊的自动建议 关键词 表。#1 最受欢迎的 关键词 建议短语,第 10 受欢迎的不太受欢迎。
但是,Keyword Tool Dominator 生成的亚马逊自动提示 关键词 不如 SEO Chat 全面。同样输入“mushroom kit”只会产生 4 个结果,如下图所示。相比之下,SEO Chat 是 19 岁。
但是,数据排名很有趣,卖家可以将 Keyword Tool Dominator 和 SEO Chat 与 Google Keyword Tool 的月度搜索数据结合起来。卖家需要至少支付 16 美元才能获得 3+ 每天 关键词。
科学卖家
(老浣熊用力推)
价格:免费,可升级
科学卖家的免费亚马逊关键词工具关键词优化工具,基本功能免费,主要通过后续升级盈利,比其他工具更深入。用了一个小时,发现了58个关键词,几乎是SEO Chat的三倍,而且关键词里面有SEO Chat做的“食用菌套装”和“小蘑菇套装”找不到。成套工具”。
免费版只能查美国站,要查其他站就得充值了。查询速度比较慢,需要一段时间才能得到更多的结果。
该应用仅向亚马逊买家显示 关键词。如果您在亚马逊的搜索框中输入关键词,系统会自动显示完整的关键词(因为这些关键词亚马逊客户使用频率很高)帮助您完成搜索。
这个免费工具从各种来源采集关键词,包括潜在语义索引 (LSI),但如果不是 Amazon关键词,则会自动过滤掉。允许卖家删除条款,增加 关键词 的相关性。
2
收费
商家词
价格:每月 30 美元
MerchantWords 是唯一可以将您的搜索范围缩小到特定亚马逊类别的 关键词 工具,为您提供与您的搜索相匹配的产品类别,如下所示:
MerchantWords 还通过算法确定与输入的词 关键词 相关的每月搜索次数。不过,也有卖家对这一数据的结果表示怀疑。例如,一个月内,有 73,500 人在亚马逊上搜索“蘑菇包”,但在 Google 上搜索相同词的只有 1,300 人。这个数据不可信。
如果卖家想要获得超过 5 个搜索结果,那么他们需要以每月 30 美元的价格订阅完整版。
Merchantwords有一个强项,就是同义词可以出现在搜索结果中:比如你搜索pest repeler,pest repelant也会出来。
SEOBook关键字工具
收费
这个工具可以看到搜索量
关键字工具支配者
收费
这个工具直接有亚马逊的关键词搜索(图3),也可以根据不同站点调整关键词(图4)。
图 3
图 4
还有一点是,虽然这个工具说一天只有3个机会,但实际上,如果你关闭页面再重新打开,你又可以有3个搜索机会。当然,如果觉得麻烦,可以付费购买,16美元可以永久使用。
列出的关键字列表 1~10 按受欢迎程度降序排列。1 表示此关键字最受欢迎。事实上,这个工具也是基于处理亚马逊下拉列表得到的数据。
Semrush关键词竞争力工具
(老浣熊用力推)
目前没有中文版。免费使用,但有限制。付费,一共有三个级别,$69.95, $79.95, $149.95 可以正常使用第一个级别。
SEMRush 是一个搜索引擎优化和搜索引擎营销服务网站。SEMRush 通常会采集一些 Google SERP 相关信息,包括:
AdWords 广告文案、域名在 8000 万次关键词 搜索中的排名、域名统计和 关键词 统计、搜索量统计、搜索结果数、按点击付费广告等相关信息。
3
一些利基但很好
AMZ 追踪器
使用此工具,您可以更好地了解 关键词 排名并产生新的想法来优化列表和促进销售。
这种销售跟踪监控工具允许卖家及时了解竞争对手的信息,包括单日销售额、总收入、库存等。
当您输入 关键词 或 关键词 的一部分时,排名靠前的结果通常是由最高的搜索量生成的——之后大多是按字母顺序排列的。
等级追踪器
Race Tracer 在亚马逊上查找任何产品的销售排名和销售图表,并生成虚拟实时销售数据(即一小时内),这意味着您可以快速抓住新的机会。
该工具还可以找出在亚马逊上销售的书籍或产品,找出您的竞争对手正在使用的营销策略和促销活动,并相应地添加到您的营销计划中。
最后,老李要提醒大家,如果想要一个准确而强大的关键词,当然可以使用一些工具。为什么不?同时,每个人都要善于分析。为什么有些畅销的产品可以多下单?对当时使用的关键词做更多的研究,你是怎么找到的。但是好的关键词还是需要在亚马逊页面上试验,当然你也可以使用一些关键词的工具来提高准确率。
联系我们
地址:上海市新华路365弄6号东华大学科技园8号楼1层
邮件:
客户服务热线:
联系人:魏经理
综合咨询:陈先生
美好的过去文章:
1.""
2.""
》
》
》
》
》
》
》 查看全部
心得:【马克拉伯每日分享】机器视觉三种目标识别方法——深度学习法
深度学习的概念对于机器视觉来说相对较新,但对于机器学习来说绝对不是新的。深度学习是机器学习的一种特殊类型,是人工智能的一种。在短短几年内,深度学习已经能够在许多领域比任何传统算法更好地对图像进行分类,并可能很快超越人类的检测能力。
深度学习软件使用多层神经网络根据人工检查员标记的图像识别好坏图像。这些数据集通常收录至少 100 个每种缺陷类型的图像,并且网络经过训练以创建一个模型,该模型对每个输入图像中的对象进行分类并确保高水平的可预测性。
不得不说,深度学习对传统的机器视觉技术很有希望,因为它不同于使用基于规则的方法的传统图像处理算法。在传统的机器视觉中,需要手动设计特征。
随着工业自动化水平的不断提高,传统机器视觉逻辑局限简单,无法应用于随机性强、特征复杂的任务。
当图像模板不足以覆盖所有可能的样本时,通过预先设置很难实现缺陷特征。
当图像不规则和不规则时,很难根据经验手动设计特征并直接输出映射关系。

然而,在深度学习中,我们的训练输入不再是常规数据,它可能是语言、对话语料库、图像或视频。因此,深度学习的核心任务是找到一个能够将我们的输入转化为正确输出的模型。
目前,机器视觉用户已经可以在市场上找到深度学习系统软件。例如,首个深度学习工业图像分析平台——时刻视觉智能低码平台,以人工智能技术为核心,为开发者提供图像采集、图像标注、算法开发、算法封装和应用集成。一站式完整工具链。深度学习的另一个优势是,与传统的机器视觉解决方案相比,它可以减少开发机器视觉程序所需的时间。一般来说,大多数机器视觉应用需要60天以上的软件开发和可行性测试,而使用Matrix Smart低代码平台可以在10分钟内完成开发。
什么是马克拉伯?
MookLab 是一个机器视觉应用的开放社区。MookLab 致力于帮助用户以最低的成本和门槛构建视觉系统。具体来说:
1)提供免费软件:平台提供免费可视化软件,专业团队提供免费软件服务支持。
2)筛选整合优质视觉硬件品牌:如整合优质视觉硬件(如相机、镜头、光源)等品牌,为用户提供低成本的视觉配件匹配平台。

3)提供项目应用支持:提供技术服务交易平台,吸纳平台各区域的集成商用户作为视觉应用服务商,为部分视觉应用能力较弱的用户提供就近和行业针对性的应用支持服务。
4)提供专业的人才培养机制:面向行业初学者和大专院校教育的机器视觉实验平台+软件包,以及相应的教育支持服务。
SGVision 是什么以及它与 MookLab 的关系?
SGVision 是一款无需编程即可使用的机器视觉应用软件。SGVision软件的无限永久免费许可是Mooklab平台为平台会员提供的权利,所以该权利以用户为会员用户为前提。
如何获得免费的机器视觉检测软件SGvision?
下载链接:
直观:优化+选品,这些亚马逊关键词分析工具很实用
在亚马逊店铺运营的过程中,很多时候我们需要借助工具来达到事半功倍的效果。而关键词作为seo优化的最小单位也是非常重要的。
今天老李就讲几个特别好用的亚马逊关键词分析工具。
为什么要使用这些分析工具?
亚马逊本身不对外开放内部数据,所以我们需要自力更生。其实在海外营销中,分析工具是很常见的,但是因为比较广泛,对卖家的针对性不是很强。今天,我们将开出正确的药方。
关键词分析工具有什么用?
帮助卖家分析产品的关键词是否有效,一些工具还提供很多相关词条的搜索曲线。在大数据时代,这些数据可以说是第一手信息,帮助卖家发现新的蓝海,这个过程就是数据的选择。
1
自由的
谷歌广告关键词
(老浣熊用力推)
Google Ads 下的附加功能是非常常用的 关键词 工具,包括以下两个:
关键词关键字规划师
谷歌趋势 谷歌趋势
这两个工具需要翻墙才能使用,并且需要注册自己的google邮箱才能开通adwords账号(具体操作流程见)。
卖家可以使用关键词规划器来优化亚马逊的搜索内容,但需要注意的一点是,纯电商网站中消费者的搜索方式与万能搜索引擎并不一致。有时候关键词planne分析出的高频关键词并不代表消费者想购买这个产品,或者他们可能只是想了解与关键词相关的其他方面。
以iphone 7机箱关键词为例,在红框标注的部分输入关键词
弹窗如下,在这个页面,你可以看到最相关的高频关键词,并且会告诉你搜索量(这个功能需要谷歌广告账号)
然后,可以在google趋势中查看这些词的搜索趋势对比,也可以看到相关的搜索词,如下图1和图2所示
图1
图 2
Amazon Autosuggest(即下拉列表)
这也是一个非常简单常用的关键词工具。在亚马逊搜索框中输入关键词,下拉列表中会出现几个相关的关键词,如下图所示。你可以为这些关键词建立一个列表,然后一一统计对应的搜索结果。
几乎每个亚马逊关键词工具都从自动建议中获取一个 关键词 列表,并将这些词转换为更直观的图表和目标。
搜索引擎优化聊天关键字建议工具
(老浣熊用力推)
即 SEO Chat 关键词 建议工具。这个由 SEOChat 开发的 关键词 建议工具会主动爬取 Google、Bing、YouTube 和亚马逊的 关键词 自动建议数据。卖家可以选择一次获取四个网站数据来比较人们在传统搜索、产品搜索和视频搜索方面的差异,也可以选择亚马逊平台,专注于产品搜索。
使用 SEO Chat关键词 工具需要三个步骤:
(1)先输入关键词或关键词的一部分,工具会抓取亚马逊的自动提示关键词,下图是第一步搜索“蘑菇套装”。

这个工具的独特之处在于它还会自动关联后续关键词s的首字母,并在卖家每次输入一个完整的单词时显示相关的关键词s。
比如上图中,在SEO Chat工具中输入“mushroom kit”后,它会自动在末尾添加字母“i”,这提示亚马逊显示短语“mushroom kit interior”,即前10个条目 关键词 不在建议的结果中。
(2) 选择所有结果后,点击“Run Part 2: Bulk Suggest”按钮,该工具会运行亚马逊搜索框中的所有关键词建议,然后卖家可以获得更具体的自动建议关键词 组。第一步产生了 13 个结果,而第二步产生了 6 个结果,总共 19 个关键词。
(3) 最后,点击“Run Part 3: Useful Suggest”按钮,卖家每月可以通过SEMRush API获取100条Google Keyword Tool搜索数据。但是,100 个 关键词 组太有限了,所以卖家也可以跳过第 3 步,导出数据并在 Google Keyword Tool 上运行。
SEO Chat 的 关键词 工具非常简单。虽然只需单击一两次按钮即可获得结果,但它可以随时导出数据、扩大或缩小数据,而且该工具是 100% 免费的。
关键字工具支配者
价格:免费试用仅限每天 3 个关键词,终身订阅基本计划 16 美元,以及其他选项可供选择。
Keyword Tool Dominator 提供独特的数据:排名 1-10 关键词 基于亚马逊的自动建议 关键词 表。#1 最受欢迎的 关键词 建议短语,第 10 受欢迎的不太受欢迎。
但是,Keyword Tool Dominator 生成的亚马逊自动提示 关键词 不如 SEO Chat 全面。同样输入“mushroom kit”只会产生 4 个结果,如下图所示。相比之下,SEO Chat 是 19 岁。
但是,数据排名很有趣,卖家可以将 Keyword Tool Dominator 和 SEO Chat 与 Google Keyword Tool 的月度搜索数据结合起来。卖家需要至少支付 16 美元才能获得 3+ 每天 关键词。
科学卖家
(老浣熊用力推)
价格:免费,可升级
科学卖家的免费亚马逊关键词工具关键词优化工具,基本功能免费,主要通过后续升级盈利,比其他工具更深入。用了一个小时,发现了58个关键词,几乎是SEO Chat的三倍,而且关键词里面有SEO Chat做的“食用菌套装”和“小蘑菇套装”找不到。成套工具”。
免费版只能查美国站,要查其他站就得充值了。查询速度比较慢,需要一段时间才能得到更多的结果。
该应用仅向亚马逊买家显示 关键词。如果您在亚马逊的搜索框中输入关键词,系统会自动显示完整的关键词(因为这些关键词亚马逊客户使用频率很高)帮助您完成搜索。
这个免费工具从各种来源采集关键词,包括潜在语义索引 (LSI),但如果不是 Amazon关键词,则会自动过滤掉。允许卖家删除条款,增加 关键词 的相关性。
2
收费
商家词
价格:每月 30 美元
MerchantWords 是唯一可以将您的搜索范围缩小到特定亚马逊类别的 关键词 工具,为您提供与您的搜索相匹配的产品类别,如下所示:
MerchantWords 还通过算法确定与输入的词 关键词 相关的每月搜索次数。不过,也有卖家对这一数据的结果表示怀疑。例如,一个月内,有 73,500 人在亚马逊上搜索“蘑菇包”,但在 Google 上搜索相同词的只有 1,300 人。这个数据不可信。
如果卖家想要获得超过 5 个搜索结果,那么他们需要以每月 30 美元的价格订阅完整版。
Merchantwords有一个强项,就是同义词可以出现在搜索结果中:比如你搜索pest repeler,pest repelant也会出来。
SEOBook关键字工具
收费
这个工具可以看到搜索量
关键字工具支配者
收费
这个工具直接有亚马逊的关键词搜索(图3),也可以根据不同站点调整关键词(图4)。
图 3

图 4
还有一点是,虽然这个工具说一天只有3个机会,但实际上,如果你关闭页面再重新打开,你又可以有3个搜索机会。当然,如果觉得麻烦,可以付费购买,16美元可以永久使用。
列出的关键字列表 1~10 按受欢迎程度降序排列。1 表示此关键字最受欢迎。事实上,这个工具也是基于处理亚马逊下拉列表得到的数据。
Semrush关键词竞争力工具
(老浣熊用力推)
目前没有中文版。免费使用,但有限制。付费,一共有三个级别,$69.95, $79.95, $149.95 可以正常使用第一个级别。
SEMRush 是一个搜索引擎优化和搜索引擎营销服务网站。SEMRush 通常会采集一些 Google SERP 相关信息,包括:
AdWords 广告文案、域名在 8000 万次关键词 搜索中的排名、域名统计和 关键词 统计、搜索量统计、搜索结果数、按点击付费广告等相关信息。
3
一些利基但很好
AMZ 追踪器
使用此工具,您可以更好地了解 关键词 排名并产生新的想法来优化列表和促进销售。
这种销售跟踪监控工具允许卖家及时了解竞争对手的信息,包括单日销售额、总收入、库存等。
当您输入 关键词 或 关键词 的一部分时,排名靠前的结果通常是由最高的搜索量生成的——之后大多是按字母顺序排列的。
等级追踪器
Race Tracer 在亚马逊上查找任何产品的销售排名和销售图表,并生成虚拟实时销售数据(即一小时内),这意味着您可以快速抓住新的机会。
该工具还可以找出在亚马逊上销售的书籍或产品,找出您的竞争对手正在使用的营销策略和促销活动,并相应地添加到您的营销计划中。
最后,老李要提醒大家,如果想要一个准确而强大的关键词,当然可以使用一些工具。为什么不?同时,每个人都要善于分析。为什么有些畅销的产品可以多下单?对当时使用的关键词做更多的研究,你是怎么找到的。但是好的关键词还是需要在亚马逊页面上试验,当然你也可以使用一些关键词的工具来提高准确率。
联系我们
地址:上海市新华路365弄6号东华大学科技园8号楼1层
邮件:
客户服务热线:
联系人:魏经理
综合咨询:陈先生
美好的过去文章:
1.""
2.""
》
》
》
》
》
》
》
汇总:采集规则如何写?免费任意网页数据采集一款不用写规则的采集器
采集交流 • 优采云 发表了文章 • 0 个评论 • 86 次浏览 • 2022-10-29 19:20
采集规则怎么写?相信很多人都用过很多采集器,基本上每一个采集器都会写采集规则,对很多新手不友好。今天给大家分享一个不需要写采集规则的免费采集器。只需输入域名,或输入关键词即可实现网站批量采集。详情请参阅图片教程。
网站成立的目的是为了更好的服务市场,采集规则是怎么写的但是这个服务有具体的操作意义。比如购物网站的目的是促进消费,促进营业额。不管是什么网站,网站完成后的执行是非常有必要的,常用的执行方式有竞价和优化。网站优化比竞价有什么优势?SEO的方式是网友自己搜索后带来的网站。这是用户有确切需求的搜索。它可以很好地防止广告方法和精确定位活动带来的负面厌恶。
竞价是对点击量的扣减,所以被别人恶意点击的网站会损失不少。采集规则怎么写和网站优化带来的排名真实自然,点击不扣费,所以无论点击属于客户类型还是恶意点击同行,不会给企业带来损失的风险。优化方法需要关注网站的动态,及时更新客户需求的信息和内容,以保持网站的生动性和新颖性。
SEO优化后,除非搜索引擎算法出现严重错误,采集规则怎么写,或者确实有强大的竞争对手,网站的排名总是会比较稳定。其实我们都知道这种搜索引擎出现算法严重错误的概率是很低的,除非你头脑一热,做了一些违法的技术,比如黑帽seo。所以在稳定性方面,只要你的关键词排名上去,基本就很稳定了。
投标是一种非常昂贵的实施方法。在SEO优化一年的排名成本中,采集规则怎么写,可能是一两个月的竞价成本。SEO优化可以说在成本上降低了很多。
很多人在选择SEO的时候,第一次看到SEO的成本并不高。采集规则怎么写?等了一会儿,他们自然会发现,这种优化方式带来的好处是最吸引人的。例如,这种优化方式带来了很强的稳定性,防止恶意点击的发生,实现了精准的流量。
学习任何专业都需要一个周期,不同的朋友会在不同的时间学习这个专业。采集规则怎么写 很多零基础的朋友在学习SEO技巧的时候都会遇到类似的问题。他们从头开始学习搜索引擎优化技术需要多长时间?
一般来说,如果你从零开始去更好的SEO培训机构,你需要三个月到六个月的时间来学习采集规则是如何编写的。这个社会的概念并不意味着成为SEO专家,而是可以说是真正融入了行业,能够匹配行业内的职位。
但如果只能达到与普通seo职位相匹配的人才,很多朋友会不满意。因为在学习搜索引擎优化技术之前,采集如何写规则,我想通过搜索引擎优化专业提高自己的工作能力。我什至能够以这个专业为起点,进入一个非常理想的创业状态。如果你想达到这个水平,需要多长时间?简单来说,根据不同朋友的学习能力、理解能力、执行能力等,结果会大不相同。
虽然我是seo技术专业的,完全没有联系,但是在时不时的学习过程中,采集规则的写法保证了我的学习能力和执行态度。我每天都会抽出一定的时间来分析案例,我会搭建几个网站来积累实践经验。在这样的状态下,如何编写培训课程的采集规则的分离,会使一个人的专业进步迅速,最终达到预期的学习效果。
解决方案:关于织梦采集,你需要知道这些问题?
织梦系统是国内最早使用的cms系统,也是使用最多的cms系统。织梦后台界面虽然不漂亮,但它的逻辑结构还是很清晰的,至少你可以花10分钟时间熟悉整个后台的基本操作,上手速度非常快!因此,织梦也适合初学者开始使用。因为新手太多,很多人不会用织梦采集。今天就和大家聊一聊织梦采集以及如何自动挂机织梦采集发帖推!
1、我们打开织梦后台点击采集——采集节点管理——添加新节点,填写网站列表的相关规则即可采集,查看采集网站的代码和网站源代码,我们右键,点击查看源代码,在源代码的开头,找到一个meta标记带有charset=某个编码,比如charset="gb2312",这就是所谓的网站编码。选择 采集 站点的代码后
2.我们查看采集站点列表页的源码,找到文章列表开始html和结束html标签,复制到添加采集节点->文章 URL 匹配 规则的“范围开始 HTML”和“范围结束 HTML”输入框。您不必右键单击查看源代码找到 文章 列表开始标记,您可以右键单击 文章 开始的位置并检查元素(chrome浏览器,firefox是view element),这样更方便在列表的开头和结尾找到文章标签。设置好后,我们点击“保存信息,进入下一步”
3. URL获取规则测试如果测试结果中发现不相关的URL信息,是URL过滤规则错误或者过滤规则没有填写,如果发现采集错误,可以返回最后修改,如果没有,点击“保存信息并进入下一步”。
4.内容字段获取规则查看采集站点的文章源码,找到相关选项的开始和结束html标签,填写指定位置,开始和结束标签分开通过“[内容]”
5.过滤规则如:网站每篇文章文章都有一个iframe标签,我们要网页的采集文章,采集不可能回来吧,这个广告要一一去掉。但是如何去除呢?删除方法是过滤规则。当我们点击常用规则时,会弹出一个小窗口,列出常用的过滤规则。我们只需要点击我们想要过滤的规则。要在 iframe 标签中过滤网站文章,我们只需点击 iframe。.
四、第三方织梦采集软件兼容性的优势:
1.支持任何PHP版本
2.支持任意版本的Mysql
3.支持任何版本的Nginx
4.支持任何织梦cms版本
采集 将因版本不匹配或服务器环境不支持等其他原因不可用
5.第三方织梦采集软件更易用
门槛低:无需花大量时间学习软件操作,一分钟即可上手,无需配置采集规则,输入关键词到采集即可。
高效:提供一站式网站文章解决方案,无需人工干预,设置任务自动执行采集releases。
零成本:几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。
织梦第三方采集软件很强大,只要输入关键词采集,完全可以实现自动采集和发布文章,为了让搜索引擎收录你的网站,我们还可以设置自动下载图片和替换链接,支持的图片存储方式:阿里云OSS、七牛对象存储、腾讯云,再拍云。同时还配备了自动内链,在内容或标题前后插入一定的内容,形成“伪原创”。软件还有监控功能,可以直接通过软件查看文章采集的发布状态。看完这篇文章,如果你觉得不错,不妨采集起来或发给有需要的朋友和同事!你的一举一动都会成为小编源源不断的动力! 查看全部
汇总:采集规则如何写?免费任意网页数据采集一款不用写规则的采集器
采集规则怎么写?相信很多人都用过很多采集器,基本上每一个采集器都会写采集规则,对很多新手不友好。今天给大家分享一个不需要写采集规则的免费采集器。只需输入域名,或输入关键词即可实现网站批量采集。详情请参阅图片教程。
网站成立的目的是为了更好的服务市场,采集规则是怎么写的但是这个服务有具体的操作意义。比如购物网站的目的是促进消费,促进营业额。不管是什么网站,网站完成后的执行是非常有必要的,常用的执行方式有竞价和优化。网站优化比竞价有什么优势?SEO的方式是网友自己搜索后带来的网站。这是用户有确切需求的搜索。它可以很好地防止广告方法和精确定位活动带来的负面厌恶。
竞价是对点击量的扣减,所以被别人恶意点击的网站会损失不少。采集规则怎么写和网站优化带来的排名真实自然,点击不扣费,所以无论点击属于客户类型还是恶意点击同行,不会给企业带来损失的风险。优化方法需要关注网站的动态,及时更新客户需求的信息和内容,以保持网站的生动性和新颖性。

SEO优化后,除非搜索引擎算法出现严重错误,采集规则怎么写,或者确实有强大的竞争对手,网站的排名总是会比较稳定。其实我们都知道这种搜索引擎出现算法严重错误的概率是很低的,除非你头脑一热,做了一些违法的技术,比如黑帽seo。所以在稳定性方面,只要你的关键词排名上去,基本就很稳定了。
投标是一种非常昂贵的实施方法。在SEO优化一年的排名成本中,采集规则怎么写,可能是一两个月的竞价成本。SEO优化可以说在成本上降低了很多。
很多人在选择SEO的时候,第一次看到SEO的成本并不高。采集规则怎么写?等了一会儿,他们自然会发现,这种优化方式带来的好处是最吸引人的。例如,这种优化方式带来了很强的稳定性,防止恶意点击的发生,实现了精准的流量。
学习任何专业都需要一个周期,不同的朋友会在不同的时间学习这个专业。采集规则怎么写 很多零基础的朋友在学习SEO技巧的时候都会遇到类似的问题。他们从头开始学习搜索引擎优化技术需要多长时间?

一般来说,如果你从零开始去更好的SEO培训机构,你需要三个月到六个月的时间来学习采集规则是如何编写的。这个社会的概念并不意味着成为SEO专家,而是可以说是真正融入了行业,能够匹配行业内的职位。
但如果只能达到与普通seo职位相匹配的人才,很多朋友会不满意。因为在学习搜索引擎优化技术之前,采集如何写规则,我想通过搜索引擎优化专业提高自己的工作能力。我什至能够以这个专业为起点,进入一个非常理想的创业状态。如果你想达到这个水平,需要多长时间?简单来说,根据不同朋友的学习能力、理解能力、执行能力等,结果会大不相同。
虽然我是seo技术专业的,完全没有联系,但是在时不时的学习过程中,采集规则的写法保证了我的学习能力和执行态度。我每天都会抽出一定的时间来分析案例,我会搭建几个网站来积累实践经验。在这样的状态下,如何编写培训课程的采集规则的分离,会使一个人的专业进步迅速,最终达到预期的学习效果。
解决方案:关于织梦采集,你需要知道这些问题?
织梦系统是国内最早使用的cms系统,也是使用最多的cms系统。织梦后台界面虽然不漂亮,但它的逻辑结构还是很清晰的,至少你可以花10分钟时间熟悉整个后台的基本操作,上手速度非常快!因此,织梦也适合初学者开始使用。因为新手太多,很多人不会用织梦采集。今天就和大家聊一聊织梦采集以及如何自动挂机织梦采集发帖推!
1、我们打开织梦后台点击采集——采集节点管理——添加新节点,填写网站列表的相关规则即可采集,查看采集网站的代码和网站源代码,我们右键,点击查看源代码,在源代码的开头,找到一个meta标记带有charset=某个编码,比如charset="gb2312",这就是所谓的网站编码。选择 采集 站点的代码后
2.我们查看采集站点列表页的源码,找到文章列表开始html和结束html标签,复制到添加采集节点->文章 URL 匹配 规则的“范围开始 HTML”和“范围结束 HTML”输入框。您不必右键单击查看源代码找到 文章 列表开始标记,您可以右键单击 文章 开始的位置并检查元素(chrome浏览器,firefox是view element),这样更方便在列表的开头和结尾找到文章标签。设置好后,我们点击“保存信息,进入下一步”
3. URL获取规则测试如果测试结果中发现不相关的URL信息,是URL过滤规则错误或者过滤规则没有填写,如果发现采集错误,可以返回最后修改,如果没有,点击“保存信息并进入下一步”。
4.内容字段获取规则查看采集站点的文章源码,找到相关选项的开始和结束html标签,填写指定位置,开始和结束标签分开通过“[内容]”
5.过滤规则如:网站每篇文章文章都有一个iframe标签,我们要网页的采集文章,采集不可能回来吧,这个广告要一一去掉。但是如何去除呢?删除方法是过滤规则。当我们点击常用规则时,会弹出一个小窗口,列出常用的过滤规则。我们只需要点击我们想要过滤的规则。要在 iframe 标签中过滤网站文章,我们只需点击 iframe。.

四、第三方织梦采集软件兼容性的优势:
1.支持任何PHP版本
2.支持任意版本的Mysql
3.支持任何版本的Nginx
4.支持任何织梦cms版本
采集 将因版本不匹配或服务器环境不支持等其他原因不可用
5.第三方织梦采集软件更易用

门槛低:无需花大量时间学习软件操作,一分钟即可上手,无需配置采集规则,输入关键词到采集即可。
高效:提供一站式网站文章解决方案,无需人工干预,设置任务自动执行采集releases。
零成本:几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。
织梦第三方采集软件很强大,只要输入关键词采集,完全可以实现自动采集和发布文章,为了让搜索引擎收录你的网站,我们还可以设置自动下载图片和替换链接,支持的图片存储方式:阿里云OSS、七牛对象存储、腾讯云,再拍云。同时还配备了自动内链,在内容或标题前后插入一定的内容,形成“伪原创”。软件还有监控功能,可以直接通过软件查看文章采集的发布状态。看完这篇文章,如果你觉得不错,不妨采集起来或发给有需要的朋友和同事!你的一举一动都会成为小编源源不断的动力!
解决办法:无规则采集器列表设计方法应该注意哪些?
采集交流 • 优采云 发表了文章 • 0 个评论 • 99 次浏览 • 2022-10-25 02:10
无规则采集器列表算法就是最大熵算法(zero-shotadversarialnetwork),其基本思想是:如果模仿其他人的行为则要接受被模仿的概率与模仿被成功的概率相比为0,否则算法惩罚机制则是所产生结果的一个条件概率,如果条件概率与采集的数据量相比为1则算法关闭。多规则采集器列表设计方法应该还有其他如最大熵方法(最大熵原理)、最大边距采集器列表(最大边距法)、随机化采集器列表等不一一列举,可参见geoffreyhinton教授的ml中的原理介绍。
另外一个需要注意的是不同采集器要选择适当算法规则以解决异或(|u1=u2|),多值(k_u2=k_u1|)情况。原因如上所述,选择最优算法规则将会提高采集效率。ml算法相关的论文不多,目前比较出名的算法主要有bayesiangraphicprocessing,multi-valuefunctionalbayesiangraphicprocessing,deepgraphicprocessing,learningtomaximizevideoratio,backgroundviolationmatching,topicsmodelingandonlinelearning.。
开盘秒杀,设定好条件,比如买入前10秒不卖出等等。
使用网络爬虫这种技术。按照你自己的想法,选择一个关键词。当然还可以按照年份,品种等。
没有,资本市场根本没有考虑这些,仅仅是通过各种新闻客户端来看,不过现在很多券商为了提高交易效率,需要交易员在交易前先做交易策略, 查看全部
解决办法:无规则采集器列表设计方法应该注意哪些?
无规则采集器列表算法就是最大熵算法(zero-shotadversarialnetwork),其基本思想是:如果模仿其他人的行为则要接受被模仿的概率与模仿被成功的概率相比为0,否则算法惩罚机制则是所产生结果的一个条件概率,如果条件概率与采集的数据量相比为1则算法关闭。多规则采集器列表设计方法应该还有其他如最大熵方法(最大熵原理)、最大边距采集器列表(最大边距法)、随机化采集器列表等不一一列举,可参见geoffreyhinton教授的ml中的原理介绍。

另外一个需要注意的是不同采集器要选择适当算法规则以解决异或(|u1=u2|),多值(k_u2=k_u1|)情况。原因如上所述,选择最优算法规则将会提高采集效率。ml算法相关的论文不多,目前比较出名的算法主要有bayesiangraphicprocessing,multi-valuefunctionalbayesiangraphicprocessing,deepgraphicprocessing,learningtomaximizevideoratio,backgroundviolationmatching,topicsmodelingandonlinelearning.。
开盘秒杀,设定好条件,比如买入前10秒不卖出等等。

使用网络爬虫这种技术。按照你自己的想法,选择一个关键词。当然还可以按照年份,品种等。
没有,资本市场根本没有考虑这些,仅仅是通过各种新闻客户端来看,不过现在很多券商为了提高交易效率,需要交易员在交易前先做交易策略,
归纳总结:五大机器学习范例:神经网络、遗传算法、规则归纳?
采集交流 • 优采云 发表了文章 • 0 个评论 • 76 次浏览 • 2022-10-22 05:14
假设有一个代理人想在大联盟级别打棒球。要达到这个水平,通常需要 15 年或更长时间的培训。虽然规则极其简单,但学习周期很长:“扔球、接球、击球”。
这句话出自 1988 年由 Ron Shelton 执导的电影 Bull Durham。
在训练的早期,智能体必须了解棒球比赛中的许多可能状态。
(1) 我们的团队领先吗?
(2) 如果我处于防守位置并且球朝我飞来,我必须知道现在在一垒的跑垒员是否跑得快?如果是,那么我必须迅速把球扔出去。
(3) 对方投手是否投掷了一个旋转球(很难击中!)?如果是,那么也许我今天应该假装生病。
这个年轻代理收到的这种反馈是学习过程的核心。在机器学习中,反馈有 3 种类型:监督学习、无监督学习和强化学习。
使用监督学习来学习特征是最直接、最简单的方法。代理执行了一些动作后,它可以立即收到适当的反馈。例如,当一个敏捷的跑垒员给他一个地滚球时,如果他要花一点时间将球传到一垒,那么在这种情况下,在几分钟内,他会被提醒加快速度。第 11 章介绍了神经网络如何使用监督学习来学习布尔函数。我们为网络提供每个可能输入的正确输出列表。
在无监督学习中,训练期间不提供具体的反馈。但是,如果要学习,代理必须收到一些反馈。假设代理人进攻失败,例如他没有击中垒,但他的防守非常不同 - 他设法完成了两次斜线并拦截了本垒打。这是一场势均力敌的比赛,他的球队赢了。赛后,队友们纷纷恭喜他,他总结说,好的防守也是值得赞赏的。
在强化学习期间,没有老师为代理提供正确答案。事实上,代理甚至无法提前知道一个动作的后果。更复杂的是,假设即使代理知道一个动作的影响,它也不知道影响会有多大,所以代理必须通过反复试验来学习。因为奖励延迟了,agent 很难判断这个动作是好是坏。任何尝试使用中指平衡伞(未打开)的人都了解强化学习的基础知识,如图 10.2 所示。
图 10.2 平衡伞,需要在 xy 平面上做一个小的运动来保持伞的平衡
如果伞向左倾斜,那么你必须向左移动很多,很快你就会发现这是大材小用。让我们回到棒球经纪人的例子。假设他是一名投手,当对手击出本垒打时,代理倾向于将棒球扔给对方的击球手。当对方投手将时速 145 公里的快球投进他的腿时,几局之后,他需要将疼痛的膝盖骨与可能过于激进的比赛联系起来。在这里,我们将讨论严格限制在监督学习上。在 Ballard 的著作 [7] 中,您可以找到关于无监督学习和强化学习的精彩讨论。
通过监督学习,您可以看到一组有序的对:
我们将这组有序对称为训练集。在
是输入的n维空间向量,即
这个函数在
at 的值是学习值。函数 f 将每个输入向量映射到正确的输出响应。一般来说,在 m 维空间中
,每个分量 tk(k = 1,…, m) 都来自一个预定的集合,例如整数、实数等的集合(输入和输出集合可能不同)。
10.3 归纳学习
归纳学习的任务是找到最接近真实函数 f() 的函数 h。我们称 h 为 f() 的假设。学习算法将假设空间 H 视为一组逼近正确函数 f() 的函数。在这个学习中,目标是找到训练集中所有点的 h 与 f 一致。人们把这种尝试称为曲线拟合,如图 10.3 所示。
图 10.3 如果 h 在所有点上都与 f 一致,则 h 与 f 一致
在图 10.4 中,有 3 个不同的假设。乍一看,h3 似乎是最好的假设。但是,重要的是要记住,学习的目的不是让智能体在训练集上表现完美,而是让智能体在验证集上表现良好。
图 10. 43 种不同的假设。请注意,由于只有 h3 通过了所有 6 个点,因此只有 h3 与 f 一致
验证集是测试代理程序的示例集。如果代理实际上已经学习了一些概念,它不应该仅仅记住输入和输出之间的对应关系,而是应该获得泛化能力,例如对它尚未遇到的输入做出适当的响应。一般来说,一个在训练集上表现完美的假设是过度训练的,并且不能很好地概括这个概念。实现泛化的一种方法是交替训练和验证,需要注意的是,在验证期间应该关闭代理的学习机制。当验证错误而不是训练错误最小化时,训练终止。在第 11 章中,我们将深入研究这种训练方法。最后,让我们谈谈棒球经纪人。如果他真的学会了打棒球,
再次参考图 10.4(c)。这个函数遍历所有 6 个点。我们可以使用拉格朗日插值来找到具有此属性的许多其他函数,例如 7、8、9 阶多项式等。在学习领域(机器和人类学习),指导原则是当存在多种解释时同样观察到的现象,明智的做法是选择最简单的解释。这个原理就是所谓的奥卡姆剃刀原理。以下是该原则的一些示例。
(1) 在遥远的天空中,看到一道小小的亮光在移动。解释一,一架飞机从附近的机场起飞或准备降落。解释二,一颗恒星离开了它的星系,正准备进入我们的星系。解释一种是更优选的一种。
(2) 你在圣诞节的早晨醒来,看到窗外的街道上有雪——你昨晚睡觉的时候没有雪。解释一,因为你今年过得很好,所以圣诞老人委托精灵们把北极的雪带到你家附近。解释二,你睡觉的时候下雪了。解释二的可能性更大。
(3) 几年前,九月的一个早晨,当你经过曼哈顿的布莱克街和第六大道时,你看到成千上万的纽约人离开这座城市,向北走。解释 1、地铁出现电气故障,列车不运行。解释二,恐怖分子劫持了两架飞机,撞向世贸中心。解释一的可能性更大,但不幸的是,解释二是正确的。
大多数科学家都同意,当有两种理论可以解释同一现象时,越简单的理论相对越好。然而,正如我们所知,这并不总是保证是正确的。在发现新证据之前,这可能只是一个更好的探索起点。
2001 年的一个星期二早上,其中一位作者 (SL) 约会迟到,无法听到早间新闻。
还有一个特性适用于学习方法,要么是懒惰的,要么是急切的。懒惰的学习者被认为是懒惰的,因为它延迟了训练数据之外的泛化,直到出现新的查询。懒惰的学习者从不努力压缩数据,因此,当模型被调用时,所有数据都可用。这与渴望学习者不同,后者已经抽象出可以在出现新查询时应用的一般规则。但是这样一来,训练数据本身就没有保留下来。一般来说,训练惰性学习者的速度更快,但使用它们需要更多的时间。急切的学习者坚持单一的假设,因此比懒惰的学习者更不灵活。
基于案例的推理(见第 9 章)被归类为惰性学习者。在这种情况下的优点是我们有整个案例可用,因此这可能具有更广泛的适用性。相反,神经网络被归类为渴望学习者。在反向传播网络 (BPN) 中,网络学习权重,我们将权重视为训练数据的压缩版本。为了将 BPN 应用于新样本,您只需将新查询用作网络的输入,但不会检索先前用于训练网络的数据。
10.4 用决策树学习
对于概念学习,决策树是广泛使用的归纳方法。决策树中的节点对应于对某些属性进行的查询。从节点发出的分支代表假定的属性值,如图 10.5 所示。
图 10.5 描绘了一位作者(SL)的面食偏好的决策树
任何熟悉意大利餐厅的人都会很快发现意大利面有多种形状和大小。
这棵树可以用来将意大利面条实例分为两类——SL 喜欢的和 SL 不喜欢的。查询总是从树的根节点开始,到我们找到类标签的叶节点结束。考虑以下意大利面食列表。
(1) Spaghetti and Meatballs – 意粉配红酱肉丸。
(2) 意大利面 Arrabbiata——红酱意大利面。
(3) 意大利面平静的红酱 Vongole – 意大利面配红酱蛤蜊。
(4) 意大利面平静的白酱 Vongole – 白酱蛤蜊意大利面。
(5) 伏特加通心粉。
如图 10.5 所示,为了从这个列表中分类意大利面和肉丸,我们从根节点开始。这道菜的酱汁是红色的,所以我们选择了左边的树枝。左子书问:这道菜“含”肉吗?这当然收录肉。那棵树将意大利面和肉丸归类为 SL 最喜欢的意大利面。尝试使用相同的决策树跟踪其他 4 个实例。您会注意到所有 5 种意大利面食谱都分为两个不同的类别。
第一类 - SL 最喜欢的意大利面,收录示例 1、4 和 5。
第二类——SL不喜欢的意大利面,收录例子2和3。
免责声明 - 作者之一 (SL) 选择这些属性值仅用于说明目的。SL 在纽约曼哈顿下城的“小意大利”长大,不幸的是(因为他的腰围)他喜欢各种意大利面!事实上,他品尝了他最喜欢的两家餐厅的大部分菜肴,即《小意大利》中汉斯特街 189 号的普利亚和迈伯里街 164 号的丹尼科。
如图10.5所示,从决策树的根结点到叶结点末端的任意一条路径都表示该路径上属性值的合取(AND)。例如,Spaghetti Arrabbiata 分类的路径是 (sauce = red) ∧ (meat = no)。SL 喜欢的意大利面食的概念对应于所有连词的析取(OR),这些连词沿着通往回答是的节点的路径。在示例中,我们有:[(sauce=red)∧(meat=yes)]∨[(sauce=white)∧(seafood=no)]∨[(sauce=pink)]。
10.5 适用于决策树的问题
使用决策树可以有效学习的一些问题的特征如下。
(1)属性应该只有少数几个值,例如酱=红色、白色或粉红色;实例由一组属性值表示,例如实例 = 意大利面条和肉丸。我们给一些属性赋予一定的值,比如酱汁是否是红色的,其中肉=是。
(2) 一般来说,目标函数只有几个离散值。在面食示例中,值为 Yes 和 No。
(3) 训练数据可能存在错误。当属性值或实例分类出现错误时,决策树表现良好(这与第 11 章中神经网络学习的鲁棒性形成对比)。
这些都是理想的条件。通过参考该领域的文献,您可以了解许多规避这些限制的方法。
在训练数据的过程中,可能会出现属性值缺失的情况。例如,假设决策树的用户知道 Spaghetti Arrabbiata 不含肉,则该属性也缺失。
许多现实世界的问题都满足前一个列表所施加的约束。在医疗应用中,属性对应于患者的可见症状或描述(肤色 = 黄色、鼻子 = 流鼻涕、头痛)或医疗应用中的测试结果(体温升高、高血压或血糖水平、心脏酶异常)。的目标函数可能表明存在疾病或状况:患者患有花粉热、肝炎或最近修复的心脏瓣膜出现问题。
决策树广泛用于医疗行业。
在金融领域,决策树也用于从信用卡价值确定到房地产投资有利条件的方方面面。商业世界的一个基本应用是期权交易。期权是一种合同,赋予个人以给定价格或在特定日期购买或出售某些资产(例如股票)的权利。
10.6 熵
熵量化了样本集中存在的均匀性。为了简化讨论,假设要学习的概念本质上是二元的——例如,一个人是否喜欢意大利面。给定一个集合 S,对于这个二元分类,S 的熵是
{-:-} 熵 = -p(+) log2 p(+) -p(-) log2 p(-)
其中,p(+)代表你喜欢的部分,即喜欢面食;p(-) 代表你不喜欢的部分。在讨论熵时,对数总是以 2 为底,即使分类不是二元的。
图 10.5 中的决策树描述了面食偏好。假设有一组 4 种类型的面食有人喜欢吃——我们将这种情况表示为 [4(+), 0(-)],那么这组中的熵是
熵[4(+), 0(-)] = -4/4×log2(4/4) - 0/4×log2(0/4)
= -1 × log2(1) - 0 × log2(0)
= -1×0 - 0×0
= 0
如果有人喜欢其中两种意大利面而不喜欢另外两种,那么
熵[2(+), 2(-)] = -2/4×log2(2/4)-2/4×log2(2/4)
= -1/2×(-1)-1/2×(-1)
= 1/2 - (-1/2)
= 1
我们观察到,当所有成员属于同一个组时,集合的熵为 0。这个 0 值表示这个集合中没有杂质,并且这个例子中的所有成员都为真。在第二个例子中,一半的成员是正的,一半是负的,在这种情况下,熵的最大值为 1。在二元分类中,集成熵的范围是 0 到 1,如图 10.6 所示。
图 10.6 在二元分类中,熵函数随着正样本的增加而增加
尺度变化在区间 [0,1] 内变化
集合的熵可以被认为是确定所选项目来自哪个类别所需的位数。例如,对于集合 [2(+), 2(-)],需要一位来指定从哪个类别中选择哪个项目,其中 1 表示有人喜欢该项目,0 表示有人不喜欢该项目。反之,当有人喜欢所有项目时,在集合 [4(+), 0(-)] 中,不需要位来标记项目,所以当有人喜欢所有项目时,熵为 0。
10.7 用 ID3 构建决策树
1986 年,Quinlan 开发了 ID3 算法。ID3是决策树学习中应用最广泛的算法之一,它以自顶向下的方式构建决策树。它首先搜索将训练集划分为尽可能相等的子集的那个属性。如果您要成功应用决策树,您必须了解它们是如何构建的。在面食示例中,有三个属性——酱汁颜色、肉类和海鲜——见表 10.1。
表 10.1 用于决策树学习的数据
No. Pasta Sauce Color 含肉 含海鲜 1Spaghetti with Meatballs Red True False Yes 2Spaghetti Arrabbiata Red False False No 3Linguine Vongole Red False True No 4Linguine Vongole White False True or Not 5Rigatoni alla Vodka Pink False Yes 6Lasagne Red True False Yes 7Rigatoni Lucia White假 假 是 8Fettucine Alfredo White Fake Yes 9Fusilli Boscaiola Red Fake No 10Ravioli Florentine Pink Fake Yes
有 3 种不同的属性,因此哪个属性先出现有不同的选择,如图 10.7 所示。
一个属性如果可以根据属性的值将样本分为两个,则认为该属性是好的,例如,某个属性值对应的所有实例都是正的,而其他属性值对应的所有实例都是负的。相反,如果一个属性不收录区分属性值,则该属性被认为是无用的。在示例中,好属性意味着对于每个属性值,意大利面的喜欢和不喜欢的数量是相等的。
ID3 使用信息增益来定位属性。如果该属性达到最大预期熵减少,则该属性位于更靠近根节点的位置。如图 10.7 所示,为了确定三个子树中哪个子树首先被选中,ID3 首先计算其对中显示的每个子树的平均信息,然后选择能够产生最大信息增益的子树。其中,属性A产生的信息增益是指用A来划分集合S,导致熵减少。
其中v是属性A所采用的值。这个公式对v的所有值求和Sv(S与值v的子集)。如图10.8到图10.10所示,了解ID3必须进行的计算。
图 10.7 决策树可以从三个属性中的任何一个开始。在(a)中,酱汁颜色为红色,作者喜欢两种意大利面,不喜欢三种意大利面。其他盒子也可以做类似的解释
仔细观察图10.8~图10.10,很明显,由于“收录海鲜”的属性,其相关信息增益为0.32,是对应的三个属性中的最大值,所以ID3选择属性“收录海鲜”为决策树。的第一个属性。
接下来,ID3 必须在图 10.11 中绘制的两棵树之间进行选择。
一旦选择了第二个属性,则在需要时应用未选择的属性。本书要求你在练习中完成这些计算。
图 10.8 如果先选择酱汁颜色,则信息增益等于 0.29
图 10.9 如果先选择收录肉的属性,则信息增益等于 0.17
图 10.10 如果先选择收录海鲜的属性,则信息增益等于 0.32
图 10.11 ID3 必须选择哪个属性作为第二个属性——是酱汁的颜色,还是含有肉?
本文节选自《人工智能》(第2版)
本书是作者结合多年教学经验精心编写的人工智能教材,堪称“人工智能百科全书”。这本书涵盖了人工智能的简史、搜索方法、知情搜索、游戏中的搜索、人工智能中的逻辑、知识表示、生成系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级电脑游戏、人工智能的历史和未来。
本书提供了丰富的教学配套资源,适合作为高校人工智能相关专业的教材,也适合对人工智能相关领域感兴趣的读者阅读和参考。
技巧:谷歌seo的关键词分析工具 怎么用?
关键词分析工具
对于Google SEO至关重要,使用免费或商业关键词分析工具进行适当的关键字分析。关键词分析非常耗时,请花时间分析您的关键词,不要急于求成。关键词分析实际上是分析用户使用搜索引擎搜索关键词搜索的内容,并发现搜索用户搜索关键词的频率。
通过关键词分析,我们可以找出被忽视的重要关键词,SEO优化器经常发生的事情,经常认为关键词重要的不是我们想要的潜在客户,而是访问我们网站的人正在使用其他关键词。不要以为这个问题不会发生在你身上,你可以试试你认为对的关键词,它会给你带来潜在客户吗?
如何使用谷歌关键词规划器进行关键词分析?关键词分析实际上是分析关键词搜索用户通过搜索引擎搜索的内容,用户搜索每个关键词的频率,并可能向关键词列表中添加一些新关键词。
关键词分析工具对于提高关键词采矿效率至关重要
关键词分析工具:谷歌关键词规划师
Google 关键词调整规划师来投放广告系列以获得准确的搜索,但必应关键字搜索工具无需投放有效的广告即可查看使用必应搜索关键词的确切搜索次数。
关键词调查分析工具的商业版
单词跟踪器
莫兹
关键字发现
关键字
斯皮夫
塞姆拉什
溶盐剂
西莫伊托
免费的第三方关键词调查分析工具
例如,免费关键词调查分析工具,关键词分析通常在初始关键词头脑风暴阶段可能很有用,因此我们需要在多个维度上进行关键词分析,充分利用搜索下拉推荐关键词,对搜索结果进行相关推荐,并进一步挖掘更多高质量的关键词。
关键词分析建议以Google关键词规划师为支柱,辅以必应关键字研究工具。
谷歌关键词规划器相关功能的简要介绍
谷歌关键词规划师
输入您的关键词
想要,建议开始输入单个单词或几个单词,也可以输入您的网站的URL或竞争对手的URL,Google会检查您的页面并为您提供该页面的相关关键词。这并不容易使用,因为没有优化的页面,Google不会给出很好的关键词。让我们以操作关键词产品类别为例:
设置右侧
目标市场,选择合适的语言和国家;
关键词过滤(用于PPC);
您只能打开显示与我的搜索字词密切相关的想法;
关键词包括设置;
告诉谷歌包括我提供关键词;
时间设置;
如果您的企业是季节性的,您可以这样做:
关键字提示
广告组提示
重要的是要记住,关键词挖掘非常耗时且耗精力,请花时间挖掘您的关键词,不要急于求成。 查看全部
归纳总结:五大机器学习范例:神经网络、遗传算法、规则归纳?
假设有一个代理人想在大联盟级别打棒球。要达到这个水平,通常需要 15 年或更长时间的培训。虽然规则极其简单,但学习周期很长:“扔球、接球、击球”。
这句话出自 1988 年由 Ron Shelton 执导的电影 Bull Durham。
在训练的早期,智能体必须了解棒球比赛中的许多可能状态。
(1) 我们的团队领先吗?
(2) 如果我处于防守位置并且球朝我飞来,我必须知道现在在一垒的跑垒员是否跑得快?如果是,那么我必须迅速把球扔出去。
(3) 对方投手是否投掷了一个旋转球(很难击中!)?如果是,那么也许我今天应该假装生病。
这个年轻代理收到的这种反馈是学习过程的核心。在机器学习中,反馈有 3 种类型:监督学习、无监督学习和强化学习。
使用监督学习来学习特征是最直接、最简单的方法。代理执行了一些动作后,它可以立即收到适当的反馈。例如,当一个敏捷的跑垒员给他一个地滚球时,如果他要花一点时间将球传到一垒,那么在这种情况下,在几分钟内,他会被提醒加快速度。第 11 章介绍了神经网络如何使用监督学习来学习布尔函数。我们为网络提供每个可能输入的正确输出列表。
在无监督学习中,训练期间不提供具体的反馈。但是,如果要学习,代理必须收到一些反馈。假设代理人进攻失败,例如他没有击中垒,但他的防守非常不同 - 他设法完成了两次斜线并拦截了本垒打。这是一场势均力敌的比赛,他的球队赢了。赛后,队友们纷纷恭喜他,他总结说,好的防守也是值得赞赏的。
在强化学习期间,没有老师为代理提供正确答案。事实上,代理甚至无法提前知道一个动作的后果。更复杂的是,假设即使代理知道一个动作的影响,它也不知道影响会有多大,所以代理必须通过反复试验来学习。因为奖励延迟了,agent 很难判断这个动作是好是坏。任何尝试使用中指平衡伞(未打开)的人都了解强化学习的基础知识,如图 10.2 所示。
图 10.2 平衡伞,需要在 xy 平面上做一个小的运动来保持伞的平衡
如果伞向左倾斜,那么你必须向左移动很多,很快你就会发现这是大材小用。让我们回到棒球经纪人的例子。假设他是一名投手,当对手击出本垒打时,代理倾向于将棒球扔给对方的击球手。当对方投手将时速 145 公里的快球投进他的腿时,几局之后,他需要将疼痛的膝盖骨与可能过于激进的比赛联系起来。在这里,我们将讨论严格限制在监督学习上。在 Ballard 的著作 [7] 中,您可以找到关于无监督学习和强化学习的精彩讨论。
通过监督学习,您可以看到一组有序的对:
我们将这组有序对称为训练集。在
是输入的n维空间向量,即
这个函数在
at 的值是学习值。函数 f 将每个输入向量映射到正确的输出响应。一般来说,在 m 维空间中
,每个分量 tk(k = 1,…, m) 都来自一个预定的集合,例如整数、实数等的集合(输入和输出集合可能不同)。
10.3 归纳学习
归纳学习的任务是找到最接近真实函数 f() 的函数 h。我们称 h 为 f() 的假设。学习算法将假设空间 H 视为一组逼近正确函数 f() 的函数。在这个学习中,目标是找到训练集中所有点的 h 与 f 一致。人们把这种尝试称为曲线拟合,如图 10.3 所示。
图 10.3 如果 h 在所有点上都与 f 一致,则 h 与 f 一致
在图 10.4 中,有 3 个不同的假设。乍一看,h3 似乎是最好的假设。但是,重要的是要记住,学习的目的不是让智能体在训练集上表现完美,而是让智能体在验证集上表现良好。
图 10. 43 种不同的假设。请注意,由于只有 h3 通过了所有 6 个点,因此只有 h3 与 f 一致
验证集是测试代理程序的示例集。如果代理实际上已经学习了一些概念,它不应该仅仅记住输入和输出之间的对应关系,而是应该获得泛化能力,例如对它尚未遇到的输入做出适当的响应。一般来说,一个在训练集上表现完美的假设是过度训练的,并且不能很好地概括这个概念。实现泛化的一种方法是交替训练和验证,需要注意的是,在验证期间应该关闭代理的学习机制。当验证错误而不是训练错误最小化时,训练终止。在第 11 章中,我们将深入研究这种训练方法。最后,让我们谈谈棒球经纪人。如果他真的学会了打棒球,
再次参考图 10.4(c)。这个函数遍历所有 6 个点。我们可以使用拉格朗日插值来找到具有此属性的许多其他函数,例如 7、8、9 阶多项式等。在学习领域(机器和人类学习),指导原则是当存在多种解释时同样观察到的现象,明智的做法是选择最简单的解释。这个原理就是所谓的奥卡姆剃刀原理。以下是该原则的一些示例。
(1) 在遥远的天空中,看到一道小小的亮光在移动。解释一,一架飞机从附近的机场起飞或准备降落。解释二,一颗恒星离开了它的星系,正准备进入我们的星系。解释一种是更优选的一种。
(2) 你在圣诞节的早晨醒来,看到窗外的街道上有雪——你昨晚睡觉的时候没有雪。解释一,因为你今年过得很好,所以圣诞老人委托精灵们把北极的雪带到你家附近。解释二,你睡觉的时候下雪了。解释二的可能性更大。
(3) 几年前,九月的一个早晨,当你经过曼哈顿的布莱克街和第六大道时,你看到成千上万的纽约人离开这座城市,向北走。解释 1、地铁出现电气故障,列车不运行。解释二,恐怖分子劫持了两架飞机,撞向世贸中心。解释一的可能性更大,但不幸的是,解释二是正确的。
大多数科学家都同意,当有两种理论可以解释同一现象时,越简单的理论相对越好。然而,正如我们所知,这并不总是保证是正确的。在发现新证据之前,这可能只是一个更好的探索起点。

2001 年的一个星期二早上,其中一位作者 (SL) 约会迟到,无法听到早间新闻。
还有一个特性适用于学习方法,要么是懒惰的,要么是急切的。懒惰的学习者被认为是懒惰的,因为它延迟了训练数据之外的泛化,直到出现新的查询。懒惰的学习者从不努力压缩数据,因此,当模型被调用时,所有数据都可用。这与渴望学习者不同,后者已经抽象出可以在出现新查询时应用的一般规则。但是这样一来,训练数据本身就没有保留下来。一般来说,训练惰性学习者的速度更快,但使用它们需要更多的时间。急切的学习者坚持单一的假设,因此比懒惰的学习者更不灵活。
基于案例的推理(见第 9 章)被归类为惰性学习者。在这种情况下的优点是我们有整个案例可用,因此这可能具有更广泛的适用性。相反,神经网络被归类为渴望学习者。在反向传播网络 (BPN) 中,网络学习权重,我们将权重视为训练数据的压缩版本。为了将 BPN 应用于新样本,您只需将新查询用作网络的输入,但不会检索先前用于训练网络的数据。
10.4 用决策树学习
对于概念学习,决策树是广泛使用的归纳方法。决策树中的节点对应于对某些属性进行的查询。从节点发出的分支代表假定的属性值,如图 10.5 所示。
图 10.5 描绘了一位作者(SL)的面食偏好的决策树
任何熟悉意大利餐厅的人都会很快发现意大利面有多种形状和大小。
这棵树可以用来将意大利面条实例分为两类——SL 喜欢的和 SL 不喜欢的。查询总是从树的根节点开始,到我们找到类标签的叶节点结束。考虑以下意大利面食列表。
(1) Spaghetti and Meatballs – 意粉配红酱肉丸。
(2) 意大利面 Arrabbiata——红酱意大利面。
(3) 意大利面平静的红酱 Vongole – 意大利面配红酱蛤蜊。
(4) 意大利面平静的白酱 Vongole – 白酱蛤蜊意大利面。
(5) 伏特加通心粉。
如图 10.5 所示,为了从这个列表中分类意大利面和肉丸,我们从根节点开始。这道菜的酱汁是红色的,所以我们选择了左边的树枝。左子书问:这道菜“含”肉吗?这当然收录肉。那棵树将意大利面和肉丸归类为 SL 最喜欢的意大利面。尝试使用相同的决策树跟踪其他 4 个实例。您会注意到所有 5 种意大利面食谱都分为两个不同的类别。
第一类 - SL 最喜欢的意大利面,收录示例 1、4 和 5。
第二类——SL不喜欢的意大利面,收录例子2和3。
免责声明 - 作者之一 (SL) 选择这些属性值仅用于说明目的。SL 在纽约曼哈顿下城的“小意大利”长大,不幸的是(因为他的腰围)他喜欢各种意大利面!事实上,他品尝了他最喜欢的两家餐厅的大部分菜肴,即《小意大利》中汉斯特街 189 号的普利亚和迈伯里街 164 号的丹尼科。
如图10.5所示,从决策树的根结点到叶结点末端的任意一条路径都表示该路径上属性值的合取(AND)。例如,Spaghetti Arrabbiata 分类的路径是 (sauce = red) ∧ (meat = no)。SL 喜欢的意大利面食的概念对应于所有连词的析取(OR),这些连词沿着通往回答是的节点的路径。在示例中,我们有:[(sauce=red)∧(meat=yes)]∨[(sauce=white)∧(seafood=no)]∨[(sauce=pink)]。
10.5 适用于决策树的问题
使用决策树可以有效学习的一些问题的特征如下。
(1)属性应该只有少数几个值,例如酱=红色、白色或粉红色;实例由一组属性值表示,例如实例 = 意大利面条和肉丸。我们给一些属性赋予一定的值,比如酱汁是否是红色的,其中肉=是。
(2) 一般来说,目标函数只有几个离散值。在面食示例中,值为 Yes 和 No。
(3) 训练数据可能存在错误。当属性值或实例分类出现错误时,决策树表现良好(这与第 11 章中神经网络学习的鲁棒性形成对比)。
这些都是理想的条件。通过参考该领域的文献,您可以了解许多规避这些限制的方法。
在训练数据的过程中,可能会出现属性值缺失的情况。例如,假设决策树的用户知道 Spaghetti Arrabbiata 不含肉,则该属性也缺失。
许多现实世界的问题都满足前一个列表所施加的约束。在医疗应用中,属性对应于患者的可见症状或描述(肤色 = 黄色、鼻子 = 流鼻涕、头痛)或医疗应用中的测试结果(体温升高、高血压或血糖水平、心脏酶异常)。的目标函数可能表明存在疾病或状况:患者患有花粉热、肝炎或最近修复的心脏瓣膜出现问题。
决策树广泛用于医疗行业。
在金融领域,决策树也用于从信用卡价值确定到房地产投资有利条件的方方面面。商业世界的一个基本应用是期权交易。期权是一种合同,赋予个人以给定价格或在特定日期购买或出售某些资产(例如股票)的权利。
10.6 熵
熵量化了样本集中存在的均匀性。为了简化讨论,假设要学习的概念本质上是二元的——例如,一个人是否喜欢意大利面。给定一个集合 S,对于这个二元分类,S 的熵是
{-:-} 熵 = -p(+) log2 p(+) -p(-) log2 p(-)
其中,p(+)代表你喜欢的部分,即喜欢面食;p(-) 代表你不喜欢的部分。在讨论熵时,对数总是以 2 为底,即使分类不是二元的。
图 10.5 中的决策树描述了面食偏好。假设有一组 4 种类型的面食有人喜欢吃——我们将这种情况表示为 [4(+), 0(-)],那么这组中的熵是
熵[4(+), 0(-)] = -4/4×log2(4/4) - 0/4×log2(0/4)
= -1 × log2(1) - 0 × log2(0)
= -1×0 - 0×0

= 0
如果有人喜欢其中两种意大利面而不喜欢另外两种,那么
熵[2(+), 2(-)] = -2/4×log2(2/4)-2/4×log2(2/4)
= -1/2×(-1)-1/2×(-1)
= 1/2 - (-1/2)
= 1
我们观察到,当所有成员属于同一个组时,集合的熵为 0。这个 0 值表示这个集合中没有杂质,并且这个例子中的所有成员都为真。在第二个例子中,一半的成员是正的,一半是负的,在这种情况下,熵的最大值为 1。在二元分类中,集成熵的范围是 0 到 1,如图 10.6 所示。
图 10.6 在二元分类中,熵函数随着正样本的增加而增加
尺度变化在区间 [0,1] 内变化
集合的熵可以被认为是确定所选项目来自哪个类别所需的位数。例如,对于集合 [2(+), 2(-)],需要一位来指定从哪个类别中选择哪个项目,其中 1 表示有人喜欢该项目,0 表示有人不喜欢该项目。反之,当有人喜欢所有项目时,在集合 [4(+), 0(-)] 中,不需要位来标记项目,所以当有人喜欢所有项目时,熵为 0。
10.7 用 ID3 构建决策树
1986 年,Quinlan 开发了 ID3 算法。ID3是决策树学习中应用最广泛的算法之一,它以自顶向下的方式构建决策树。它首先搜索将训练集划分为尽可能相等的子集的那个属性。如果您要成功应用决策树,您必须了解它们是如何构建的。在面食示例中,有三个属性——酱汁颜色、肉类和海鲜——见表 10.1。
表 10.1 用于决策树学习的数据
No. Pasta Sauce Color 含肉 含海鲜 1Spaghetti with Meatballs Red True False Yes 2Spaghetti Arrabbiata Red False False No 3Linguine Vongole Red False True No 4Linguine Vongole White False True or Not 5Rigatoni alla Vodka Pink False Yes 6Lasagne Red True False Yes 7Rigatoni Lucia White假 假 是 8Fettucine Alfredo White Fake Yes 9Fusilli Boscaiola Red Fake No 10Ravioli Florentine Pink Fake Yes
有 3 种不同的属性,因此哪个属性先出现有不同的选择,如图 10.7 所示。
一个属性如果可以根据属性的值将样本分为两个,则认为该属性是好的,例如,某个属性值对应的所有实例都是正的,而其他属性值对应的所有实例都是负的。相反,如果一个属性不收录区分属性值,则该属性被认为是无用的。在示例中,好属性意味着对于每个属性值,意大利面的喜欢和不喜欢的数量是相等的。
ID3 使用信息增益来定位属性。如果该属性达到最大预期熵减少,则该属性位于更靠近根节点的位置。如图 10.7 所示,为了确定三个子树中哪个子树首先被选中,ID3 首先计算其对中显示的每个子树的平均信息,然后选择能够产生最大信息增益的子树。其中,属性A产生的信息增益是指用A来划分集合S,导致熵减少。
其中v是属性A所采用的值。这个公式对v的所有值求和Sv(S与值v的子集)。如图10.8到图10.10所示,了解ID3必须进行的计算。
图 10.7 决策树可以从三个属性中的任何一个开始。在(a)中,酱汁颜色为红色,作者喜欢两种意大利面,不喜欢三种意大利面。其他盒子也可以做类似的解释
仔细观察图10.8~图10.10,很明显,由于“收录海鲜”的属性,其相关信息增益为0.32,是对应的三个属性中的最大值,所以ID3选择属性“收录海鲜”为决策树。的第一个属性。
接下来,ID3 必须在图 10.11 中绘制的两棵树之间进行选择。
一旦选择了第二个属性,则在需要时应用未选择的属性。本书要求你在练习中完成这些计算。
图 10.8 如果先选择酱汁颜色,则信息增益等于 0.29
图 10.9 如果先选择收录肉的属性,则信息增益等于 0.17
图 10.10 如果先选择收录海鲜的属性,则信息增益等于 0.32
图 10.11 ID3 必须选择哪个属性作为第二个属性——是酱汁的颜色,还是含有肉?
本文节选自《人工智能》(第2版)
本书是作者结合多年教学经验精心编写的人工智能教材,堪称“人工智能百科全书”。这本书涵盖了人工智能的简史、搜索方法、知情搜索、游戏中的搜索、人工智能中的逻辑、知识表示、生成系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级电脑游戏、人工智能的历史和未来。
本书提供了丰富的教学配套资源,适合作为高校人工智能相关专业的教材,也适合对人工智能相关领域感兴趣的读者阅读和参考。
技巧:谷歌seo的关键词分析工具 怎么用?
关键词分析工具
对于Google SEO至关重要,使用免费或商业关键词分析工具进行适当的关键字分析。关键词分析非常耗时,请花时间分析您的关键词,不要急于求成。关键词分析实际上是分析用户使用搜索引擎搜索关键词搜索的内容,并发现搜索用户搜索关键词的频率。
通过关键词分析,我们可以找出被忽视的重要关键词,SEO优化器经常发生的事情,经常认为关键词重要的不是我们想要的潜在客户,而是访问我们网站的人正在使用其他关键词。不要以为这个问题不会发生在你身上,你可以试试你认为对的关键词,它会给你带来潜在客户吗?
如何使用谷歌关键词规划器进行关键词分析?关键词分析实际上是分析关键词搜索用户通过搜索引擎搜索的内容,用户搜索每个关键词的频率,并可能向关键词列表中添加一些新关键词。
关键词分析工具对于提高关键词采矿效率至关重要
关键词分析工具:谷歌关键词规划师
Google 关键词调整规划师来投放广告系列以获得准确的搜索,但必应关键字搜索工具无需投放有效的广告即可查看使用必应搜索关键词的确切搜索次数。
关键词调查分析工具的商业版
单词跟踪器
莫兹
关键字发现

关键字
斯皮夫
塞姆拉什
溶盐剂
西莫伊托
免费的第三方关键词调查分析工具
例如,免费关键词调查分析工具,关键词分析通常在初始关键词头脑风暴阶段可能很有用,因此我们需要在多个维度上进行关键词分析,充分利用搜索下拉推荐关键词,对搜索结果进行相关推荐,并进一步挖掘更多高质量的关键词。
关键词分析建议以Google关键词规划师为支柱,辅以必应关键字研究工具。
谷歌关键词规划器相关功能的简要介绍
谷歌关键词规划师
输入您的关键词
想要,建议开始输入单个单词或几个单词,也可以输入您的网站的URL或竞争对手的URL,Google会检查您的页面并为您提供该页面的相关关键词。这并不容易使用,因为没有优化的页面,Google不会给出很好的关键词。让我们以操作关键词产品类别为例:

设置右侧
目标市场,选择合适的语言和国家;
关键词过滤(用于PPC);
您只能打开显示与我的搜索字词密切相关的想法;
关键词包括设置;
告诉谷歌包括我提供关键词;
时间设置;
如果您的企业是季节性的,您可以这样做:
关键字提示
广告组提示
重要的是要记住,关键词挖掘非常耗时且耗精力,请花时间挖掘您的关键词,不要急于求成。
无规则采集器列表算法 推荐文章:论文阅读
采集交流 • 优采云 发表了文章 • 0 个评论 • 92 次浏览 • 2022-10-18 00:39
论文链接:
目录
摘要
虚假关注者是专门为夸大目标账户关注者数量而创建的那些 Twitter 账户。假追随者对社交平台及其他领域来说是危险的,因为他们可能会改变 Twitter 领域的流行度和影响力等概念,从而影响经济、政治和社会。在本文中,我们沿着不同的维度做出贡献。首先,我们回顾了一些最相关的现有功能和规则(由学术界和媒体提出),用于异常 Twitter 帐户检测。其次,我们创建了一个经过验证的人类和虚假追随者帐户的基线数据集。这样的基线数据集对科学界是公开的。然后,我们利用基线数据集来训练一组基于审查的规则和特征构建的机器学习分类器。我们的结果表明,Media 提出的大多数规则在揭示虚假粉丝方面的表现并不令人满意,而 Academia 过去提出的用于垃圾邮件检测的特征提供了良好的结果。基于最有希望的特征,我们在减少过度拟合和采集计算特征所需数据的成本方面修改了分类器。最终结果是一个新颖的 A 类分类器,其通用性足以阻止过度拟合,由于使用了成本较低的特征,因此轻量级,并且仍然能够正确分类原创训练集的 95% 以上的帐户。我们最终执行基于信息融合的敏感性分析,以评估分类器使用的每个特征的全局敏感性。
本文报告的研究结果,除了得到了彻底的实验方法的支持和本身的趣味性外,还为进一步调查假推特追随者的新问题铺平了道路。
1 绪论
Twitter最初是一个个人微博网站,现在已经从普通用户转变为一个信息发布场所。据统计,Twitter 订阅者约为 10 亿,每月活跃用户为 3.02 亿。 Twitter 2014 年的年度广告收入估计约为 4.8 亿美元。流行的公众人物,例如演员和歌手,以及传统的大众媒体(广播、电视和报纸)都使用 Twitter 作为新的媒体渠道。
这样的多功能性和使用范围使 Twitter 成为异常账户扩散的理想场所,这些账户以非常规的方式行事。学术界主要关注垃圾邮件发送者,这些帐户积极致力于传播恶意软件、发送垃圾邮件和宣传合法性可疑的活动 。为了提高其有效性,这些恶意帐户通常配备自动推特程序,就像模仿真实用户一样隐秘,称为机器人。最近,媒体开始报道政客、名人和流行品牌的账户出现了可疑的追随者膨胀。所谓的虚假关注者对应于专门用于增加目标账户关注者数量的 Twitter 账户。例如,在 2012 年美国大选期间,挑战者罗姆尼 (Romney) 的推特账户的关注者数量突然激增。其中绝大多数后来被声称是假的。同样,在上一次意大利大选(2013 年 2 月)之前,在线博客和报纸报道了有关主要候选人假追随者比例的统计数据。乍一看,获得虚假追随者似乎是一种仅限于培养虚荣心的做法——一种可能有问题但无害的做法。但是,人为夸大关注者数量也可以最终确定,以使帐户更值得信赖和有影响力,从而脱颖而出并吸引其他真正的关注者。最近,美国的银行和金融机构在实际发放贷款之前已开始分析贷款申请人的 Twitter 和 Facebook 账户。因此,拥有“受欢迎”的个人资料绝对有助于提高申请人的信誉。同样,如果恶意账户采用购买虚假粉丝的做法,作为垃圾邮件发送者,它可以作为发布更权威消息和发起更有效广告活动的一种方式。对许多博主来说,检测假粉丝似乎是一件容易的事,他们提出了自己的“黄金法则”,并提供了一系列标准,用来对推特账户行为进行分类。然而一些规则通常既不与分析算法配对以聚合它们,也不与验证机制配对。至于学术界,研究人员主要关注垃圾邮件和机器人检测,基于 Twitter 帐户的(非)人类特征,主要是通过在人工注释的帐户集上训练的机器学习分类器,获得了出色的结果。
然而,据我们所知,尽管假追随者构成了一种具有经济和社会影响的普遍现象,但在文献中该主题尚未得到深入研究。
这项工作的目标是阐明假 Twitter 追随者的现象,旨在克服目前在其表征和检测方面的局限性。特别是,我们提供了以下贡献。首先,我们构建了一个 Twitter 账户的基线数据集,其中人类和假粉丝是先验已知的。其次,我们在基线数据集上测试已知的机器人和垃圾邮件检测方法。特别是,我们针对基于以下算法的算法测试参考集中的 Twitter 帐户:(i) 博客作者提出的单一分类规则,以及 (ii) 文献中提出的用于检测垃圾邮件发送者的特征集。分析结果表明,假追随者检测值得专门的机制:具体而言,基于分类规则的算法无法成功检测我们基线数据集中的假追随者。相反,基于特征集的垃圾邮件检测分类器也适用于虚假关注者检测。第三,我们根据采集计算它们所需的数据采集所需的成本,并对所有调查的规则和特征进行分类。在理论计算和经验评估的基础上,我们展示了性能最好的特征也是最昂贵的特征。我们分析的新结果表明,数据获取成本通常严重限制了这些功能的实际适用性。最后,在爬虫成本分析的基础上,我们设计并实现了轻量级分类器,这些分类器利用了成本较低的特征,同时仍然能够正确分类我们训练数据集 95% 以上的帐户。此外,我们还验证了我们的分类器在与原创训练数据集不相交的另外两组人类和虚假追随者帐户上的检测性能。
本文的其余部分的结构如下。第 2 节考虑和比较 Twitter 垃圾邮件和机器人检测领域的相关工作。第 3 节描述了我们的基线数据集。在第 4 节中,我们使用我们的基线数据集评估了社交媒体分析推广的一组虚假 Twitter 关注者检测标准。在第 5 节中,我们检查了以前工作中用于 Twitter 帐户垃圾邮件检测的功能。在第 6 节中,我们计算了提取分类器所基于的特征的成本。还提供了一个轻量级、高效的分类器,在虚假关注者检测能力和爬取成本之间取得了很好的平衡。最后,第 7 节总结了论文。
2 相关工作
引用 [7] 的内容,“虚假的 Twitter 帐户被认为是一种欺骗形式(即,在个人资料的内容和个人信息方面的欺骗,以及让个人资料关注他人而不是因为个人兴趣,而是因为他们这样做是有报酬的)。”虚假的 Twitter 帐户的第二个特征正是我们在论文中要讨论的:我们特别将虚假追随者视为那些适当创建并出售给客户的 Twitter 帐户,这些帐户旨在放大他们在世界眼中的影响力和参与度,并产生大量追随者的错觉。
如此定义的虚假追随者只是在 Twitter 上传播的异常账户的一个例子。文献中确实将异常确定为垃圾邮件发送者(即宣传未经请求且通常有害的内容的帐户,收录指向恶意页面的链接 [8])或机器人(即控制社交帐户的计算机程序,隐秘到模仿真实用户 [9])或 cyborgs(即交织手动和自动行为特征的帐户 [10])。最后,还有虚假的追随者,为追随目标账户而大量创建的账户,可以从在线账户市场购买。
2.1 灰色文学和在线博客
在介绍学术文献之前,我们简要报告了在线文档,该文档提供了一系列直觉的虚假追随者检测标准,尽管并未以科学的方式证明是有效的。我们引用这项工作的原因有两个:一方面,在线文章和帖子证明了对真假 Twitter 追随者的正确区分;另一方面,我们旨在以科学的方式评估这些标准是否真的可以用于检测假粉丝。
例如,[11] 中的一位知名博主指出,机器人帐户可能具有类似机器人的独特信号:1)通常有大量的追随者和少量的追随者; 2) 向所有人发推文;并且,3)玩关注/取消关注游戏,即他们通常在 24 小时内关注然后取消关注帐户。在线博客宣传的标准主要基于常识,作者通常甚至不建议如何验证它们。
数字评估公司[12]发布的一系列报告引起了意大利和欧洲报纸和杂志的注意,引发了人们对政界人士和主要国际公司在Twitter上受欢迎程度的质疑。报告中列出了一些标准,这些标准受到常识的启发,并表示人类行为,用于评估选定账户的追随者样本。对于follower满足的每一个标准,将分配一个人类得分。对于每一个不满足的标准,要么给机器人评分,要么给中立评分。根据总分,Twitter粉丝分为人类、机器人或中立(在后者的情况下,没有足够的信息来评估他们的性质),为被关注账号的有效影响力提供一个质量分数。但是,[12]中的结果缺少验证阶段。
最后,一些专门从事社交媒体分析的公司提供在线服务,以估计 Twitter 帐户在其追随者方面的真实性 [13,14,15]。但是,用于分析的标准并未公开披露,仅可从其网站上可用的信息中部分扣除。此外,正如我们之前的工作 [16] 所证明的,这些分析受到一些偏差的影响,例如小的和统计上不健全的采样策略。
2.2 学术文献
近年来,Twitter 上的垃圾邮件检测已成为许多调查的主题,从多个角度处理该问题。例如,一个研究分支专注于推文的文本内容 [4, 3, 17],研究推文中嵌入 URL 的重定向 [18],并对 URL 登录页面进行分类 [19]。其他作品通过认识论解决了 Twitter 上的欺骗问题。例如,在 [20] 中,作者评估了欺骗检测任务的 4 个认识论特征:权威、合理性和支持、独立确证和呈现。
在[21]中的工作克服了不能正确地标记那些没有 URL 的 tweet 为垃圾 tweet 的限制,通过提出一个复合工具,能够将传入的 tweet 与垃圾邮件发送者通常使用的底层模板匹配。 [7] 中的工作没有考虑推文的内容,而是尝试仅根据源自帐户配置文件的可能不一致的信息来分类帐户是否可以信任。
一系列作品通过多特征的方法调查微博平台上的垃圾邮件发送者,包括个人资料、行为和帐户时间线的特征。在这个研究方向内,我们在此引用 [8]、[2] 和 [22]。 [8] 中的工作分析了垃圾邮件发送者在 Facebook、Twitter 和 MySpace 上的运作方式,报告称可疑帐户在特定功能上具有一些共同特征。这些作为基于机器学习的分类器 [23] 的输入,导致检测到超过 15,000 个垃圾邮件配置文件,Twitter 迅速删除了这些配置文件。在 [2] 中,作者提出了检测 Twitter 垃圾邮件发送者的标准分类法。一系列实验表明,与现有标准相比,新设计的标准具有更高的检测率。在 [22] 中,作者利用行为特征(例如推文和转发活动)、网络特征(例如帐户的关注者和朋友的数量)和基于内容的特征的组合开发了一个混合数学模型来检测微博上的垃圾邮件发送者,微博是类似于 Twitter 的中国微博网站。
[10] 的作者将 Twitter 帐户分为三类:人类、机器人和半机器人。后一类代表机器人辅助人类或人类辅助机器人。作者使用了一个基于三个专门组件的决策者,这些组件考虑了推文的内容和时间以及一些帐户属性。
[24, 4] 中提出的算法旨在尽快发现自动恶意 Twitter 帐户组,以避免帐户所有者利用它们。因此,作者将聚类算法应用于在短时间内创建的帐户组时间,除其他外,考虑基于名称和内容的特征。在 [25] 中,作者列出了检测 Twitter 帐户市场的客户和受害者的几个标准,即 在线服务,为他们的订阅者提供追随者以换取费用,并代表他们传播促销推文。在另一项工作 [26] 中,同一研究团队提供了有关帐户市场的更多详细信息,分析了客户的其他属性和特征(例如,关注者和朋友的动态以及产生参与的能力),并为检测市场和市场客户。 [27] 的作者在 10 个月的时间里监控一组 Twitter 帐户商家的价格、可用性和欺诈行为。这样的研究重点关注账户市场用来创建和注册欺诈账户的技术和方法,从 CAPTCHA 解决服务到欺骗性电子邮件凭据和用于逃避黑名单的各种 IP 地址池。与 Twitter 本身合作,作者开发了一个分类器来检测此类欺诈账户,这些账户因此被暂停。
值得注意的是,学术著作的引用选择并不详尽。但是,它考虑了大量标准,我们进一步利用这些标准来检测虚假 Twitter 关注者。还有其他用于垃圾邮件检测的工作,此处不详述,例如 [1, 28, 29, 30, 31, 32],其结果基于所选相关工作集所考虑标准的子集或略微修改的版本。
2.3 与我们的方法的异同
我们研究的目标是自动检测那些专门为增加某些目标帐户的关注者数量而创建的 Twitter 账户(所谓的虚假 Twitter 关注者)。先验地,垃圾邮件发送者、机器人和真实用户的帐户都可能属于虚假关注者的宏观类别,并且文献中已经证明可以有效发现垃圾邮件发送者和机器人的特定功能也可以在虚假关注者的情况下起作用。确实正是这一观察结果最初驱使本文的作者朝着在真实账户和虚假追随者的参考数据集上测试过去作品中的规则和特征的方向发展。这有助于修剪那些在检测虚假追随者方面表现最差的规则和特征,并留下表现良好的规则和特征。
从技术角度来看,在我们的实验中,我们依赖于基于机器学习的分类器,这些分类器利用 1) 配置文件、2) 活动和 3) 帐户关系的特征,类似于 [8, 2]。相反,我们不依赖推文特定内容固有的特征,例如 URL 的存在和文本的语义 [17, 19]。因为我们修改了我们的分类器以减少过度拟合和数据采集的成本,所以我们不仅仅是应用已经测试过的特性到一个新的数据集,如第5节和第6节所示。
最后,与 [26] 类似,我们从网络上的不同市场购买了虚假的 Twitter 追随者。我们独立于 [26] 进行了这样的训练,此外,这两项工作的目标完全不同,我们的目标是这些市场销售的账户,而另一个则针对他们的客户。至于我们的基线数据集的真实用户,我们招募了自愿加入我们活动的人的账户,并利用一个带有注释的账户数据集,这些账户属于在特定域的特定时间段内活跃在Twitter上的人,其真实性已经过验证。然而,为了在整个 Twitter 人口的代表性样本上测试我们的分类器,我们还通过随机挑选来构建测试集:1)巴拉克奥巴马的追随者样本,以及 2)Twitter 人群的样本。
3 基线数据集
在本节中,我们将介绍用于在整篇论文中进行实证研究的 Twitter 账户数据集。我们详细说明了我们如何采集他们每个人,以及我们如何验证他们是真人还是假追随者。为了进行我们的研究,我们总共抓取了 900 万个 Twitter 帐户和大约 300 万条推文。为了促进对假 Twitter 追随者这一新问题的调查,我们的基线数据集已公开用于研究目的 [33]。
3.1 The Fake Project
The Fake Project 于 2012 年 12 月 12 日开始其活动,并创建了 Twitter 帐户@TheFakeProject。它的简介报告了以下座右铭:“只有当你不是假货时才关注我”,并解释说该倡议与意大利比萨 IIT-CNR 研究人员拥有的一个研究项目有关。在第一阶段,业主联系了更多的研究人员和记者来宣传该倡议,外国记者和博主也在他们的国家支持该倡议。在十二天的时间里(2012 年 12 月 12 日至 24 日),该帐户已被 574 位关注者关注。通过 Twitter API,我们抓取了一系列关于这些关注者的公共信息以及他们的关注者和关注者的信息。对于这个数据集,我们爬取了 574 个账户,最终采集了 616,193 条推文和 971,649 个关系(即关联的 Twitter 账户)。
所有这些追随者都自愿加入了该项目。为了将它们收录在我们的参考人类集中,我们还启动了验证阶段。每个追随者在 Twitter 上收到来自@TheFakeProject 的直接消息,其中收录一个验证码的 URL,每个追随者都是唯一的。我们将成功完成 CAPTCHA 的 574 个关注者中的所有 469 个帐户视为“认证人”。在本节的其余部分,这个数据集被称为 TFP;
3.2. #elezioni2013 dataset
#elezioni2013 数据集(以下简称 E13)的诞生是为了支持一项与佩鲁贾大学和罗马第一大学合作开展的社会学研究计划。该研究侧重于 2013-2015 年 3 年期间意大利政治格局的战略变化。研究人员在 2013 年 1 月 9 日至 2 月 28 日期间确定了 84,033 个在其推文中使用 #elezioni2013 主题标签的唯一 Twitter 帐户。这些帐户的识别是基于对帐户的用户名和传记字段的特定关键字驱动的查询' 个人资料。关键词包括博主、记者、社交媒体策略师/分析师和国会议员。还搜索了政党的具体名称。总之,所有属于政治家和候选人的账户,政党、记者、博客作者、特定的协会和团体,以及任何以某种方式正式参与政治的人,都被抛弃了。其余账户(约 40k)已被归类为公民。最后一组已被抽样(置信度为 95%,置信区间为 2.5),产生了最后一组 1488 个帐户,这些帐户已经过手动验证以确定其个人资料和推文的性质。手动验证过程由意大利佩鲁贾大学的两名社会学家进行。它涉及对被调查账户的个人资料图片、传记和时间表的分析。没有传记或头像的帐户已被丢弃。传记中的 URL 也经过人工检查,以便对主题进行更深入的分析。只有被两位社会学家标记为人类的帐户才收录在 E13 数据集中。总体而言,手动验证阶段持续了大约两个月。结果,1481 个账户成为数据集 E13 的一部分。
3.3人类帐户的基线数据集
上面介绍的数据集形成了我们最终的一组,标记为 HUM,由 1950 个经过验证的人类账户组成。值得注意的是,这两个子集彼此之间有何不同。 TFP 集合由在志愿者基础上招募的帐户组成:参与该计划的人旨在成为在 Twitter 上发现虚假追随者的学术研究的一部分,他们是研究人员、社交媒体专家和记者的混合体,主要来自意大利,但也来自美国和其他欧洲国家。 E13 组由特别活跃的意大利 Twitter 用户组成,具有不同的专业背景,属于不同的社会阶层,对政治有着共同的兴趣,但不属于以下类别:政治家、政党、记者、博主;
3.4 虚假关注者的基线数据集
2013 年 4 月,我们从三个不同的 Twitter 在线市场购买了 3000 个虚假账户。特别是,我们从 购买了 1000 个假账户,从 购买了 1000 个,从 购买了 1000 个假账户,价格分别为 19 美元、14 美元和 13 美元.令人惊讶的是,fastfollowerz 和 intertwitter 给了我们比我们支付的更多的账户,分别是 1169 和 1337 而不是 1000。我们爬取了所有这些账户以构建一个 fastfollowerz 数据集,标记为 FSF,以及一个标记为 INT 的 intertwitter 数据集。相反,我们无法抓取从 twittertechnology 购买的所有 1000 个假粉丝,因为其中 155 个几乎立即被暂停。其余 845 个账户构成 twittertechnology 数据集,标记为 TWT。
我们承认,我们的假追随者数据集只是说明性的,而不是所有可能存在的假追随者集合的详尽说明。然而,值得注意的是,我们通过在最常见的搜索引擎上简单地通过网络搜索找到了 Twitter 帐户市场。因此,我们可以争辩说,我们的数据集代表了在搜索时很容易在 Web 上找到的内容。
3.5 虚假关注者和人类账户的基线数据集
我们实验中使用的最终基线数据集由虚假和人类档案组成。在下文中,我们将简要讨论为此数据集选择的虚假账户和人工账户之间的分布。许多机器学习技术受到少数类和多数类的自然分布不平衡的影响。这就是为什么,例如,文献中的作品研究了基于决策树的技术在改变训练集分布时的表现。特别是,Weiss 和 Provost 在 [34] 中考虑了基于决策树的分类器的性能,以预测 26 个不同数据集的样本,在少数类和多数类之间具有不同的分布。他们的调查结论表明,用于评估不同分类器性能的度量改变了训练集的类的最佳分布。例如,经过他们的经验分析,以准确率作为评价指标,26 个数据集中有 9 个数据集的最优分布与自然的非常不同,而当使用 AUC 作为评价指标时,这个数字增长到 26 个数据集中的 14 个. 而且,最优分布对少数类样本有过采样(也有过采样高达 90% 的少数类样本得到最佳分类器的情况)。
在这里,我们面临另一个基本问题:我们并不准确地知道假粉丝和人工账户的真实(自然)分布。 2013 年,Twitter 工作人员推测“虚假或垃圾账户的数量应占我们 MAU 的不到 5%”(其中 MAU 是指每月活跃用户)[35]。但是,MAU 既不能与 Twitter 帐户的随机样本同化,也不能与给定帐户的追随者同化。此外,如果一个账户购买了虚假关注者,那么它的虚假关注者和人类关注者的分布可能与人们可以找到的自然分布有很大的不同,无论是在 MAU 中,还是在 Twitter 圈中的所有 Twitter 账户中。总之,在整个 Twitter 中,5% 的虚假或垃圾账户估计不能直接扩展到给定账户的虚假粉丝。
尽管 Twitter 从未披露过注册用户总数,但非官方消息称,最新创建的 Twitter 账户数量远远超过 MAU。这就是我们做出保守假设的原因,将假追随者和人类追随者的平衡分布作为我们的基线数据集。
为了验证这个假设,我们在 [34] 中对我们的数据集进行了实验。我们逐渐改变数据集中假追随者和人类追随者的类别分布,从 5%–95% 到 95%–5%(分别为 100 人–1900 假追随者,1900 人–100 假追随者),并使用获得的数据集训练 J48 分类器,考虑它们的交叉验证性能。经过训练的分类器在人类和虚假追随者的平衡分布上获得了最佳结果。为了获得平衡的数据集,我们随机对假账户的总集合(即 3351)进行欠采样,以匹配经过验证的人类账户的 HUM 数据集的大小。因此,我们构建了一个收录 1950 个假粉丝的基线数据集,标记为 FAK。这项工作的最终基线数据集包括 HUM 数据集和 FAK 数据集,共有 3900 个 Twitter 帐户。在本文的其余部分中,这个平衡的数据集被标记为 BAS,并且已被用于本工作中描述的所有实验(未另行指定)。表 1 显示了本节描述的数据集中收录的帐户、推文和关系的数量。
4. 使用基于分类规则的算法进行虚假检测
在本节中,我们详细介绍了最初由博主和社交媒体分析师提出的三个程序,它们明确构思了用于检测假粉丝和机器人帐户。这些提议是在 [12, 11, 14] 中介绍的。我们在本节中关注的工作并不直接归因于学术工作。但是,这是媒体和社交营销公司对虚假 Twitter 追随者现象产生兴趣的一个例子。尽管我们不希望这些提议能够令人满意地执行虚假追随者检测的复杂任务,但我们相信对提议标准的彻底分析仍然可以提供一些有用的见解。巧合的是,所有程序都被提议为依赖于规则列表或标准的算法:每个要分类的帐户都根据所有规则进行检查,并且必须将检查的输出组合在一起以获得最终分类。不幸的是,在许多情况下,有关如何结合标准来获得帐户最终分类的详细信息并不公开。仅在 [12] 中提供了有关如何执行聚合的详细信息。在提供的细节的驱动下,我们实现了 [12] 中描述的完整算法,并在第 4.5 节中介绍了它的检测性能。此外,对于每个程序,我们报告原创来源所指示的标准,并进一步说明我们如何将它们实施为适用于我们数据集的规则。我们还详细说明了我们选择实施的原因。
在本节中,我们主要关注每条规则在我们的数据集上的应用,以评估其在区分虚假追随者方面的优势(或劣势)。在第 6 节中,我们将所有规则与第 5 节中分析的特征结合在一起,以评估它们的集体分类能力。这是因为单个规则(或特征)在分类虚假账户和人工账户方面可能表现不佳,但如果与其他规则结合使用,它可能会改善检测。事实上,值得注意的是,本节中分析的一些标准实际上已被第6节中内置的分类器所利用。
在本文的后续部分中,我们使用术语“朋友”来表示关注帐户的用户(即,如果 A 关注 B,则 B 是 A 的朋友)。
4.1. 政治候选人的追随者
Camisani-Calzolari [12] 对罗姆尼和奥巴马的 Twitter 追随者样本进行了一系列测试,用于上届美国总统选举,以及受欢迎的意大利政客。在 [12] 中,详细介绍了一种基于帐户的一些公共特征来评估帐户的算法。引用的算法有足够的细节可以重现:它分配人类/活跃和机器人/非活跃分数,并考虑两个分数总和之间的差距对帐户进行分类。特别是,该算法为表 2 中的每个标准分配了 1 个(或更多,如果指定)人工点。此外,如果该帐户仅使用 API,则该帐户会收到 2 个机器人点。
最后,对于每个未能验证的标准,帐户都会收到 1 个机器人点,但标准 8、13、14、15、16 和 17 除外:在这种情况下,不会分配机器人点。为了验证这些规则,我们参考了推文的源元数据,其中收录一个不同的值,代表用于发布推文的平台。特别是,关于上述规则,我们分别考虑了具有值 iphone、android、foursquare、instagram 和 web 的源元数据,并且我们为在采集的帐户推文中至少找到一次的每个值分配了 1 个人工点.对于标准 21,如果该帐户的推文没有被其他用户转发,则分配 2 个机器人点。考虑到规则 8,地理定位与推文有关。因此,当帐户的至少一条推文已进行地理本地化时,我们将此规则设置为满足。对于规则 11,已在个人简介和时间线中搜索了标点符号。
4.2.
根据社交媒体网站 [11] 的创始人的说法,在提出识别可疑 Twitter 帐户的黄金法则的几位博主中,我们考虑了“识别 Twitter 机器人的 7 个信号”。表 3 列出了识别 Twitter 机器人的“需要注意的 7 个信号”。
规则 3 已将推文视为一个单元来实施。我们考虑每个时间线的最后 20 条推文。对于规则 4,当数据集中至少 3 个帐户具有相同的头像时,我们认为存在重复的头像。对于规则 5,我们将所有未从网站 发布的推文视为从 API 发布的推文。
对于规则 6 和 7,在查找帐户的朋友或关注者列表时,Twitter 仅提供有关当前列表的信息,而不提供有关过去朋友或关注者的详细信息。此外,Twitter 不会披露与用户关注或被其他用户关注的时刻相关的任何时间数据。这意味着检查用户的关注/取消关注行为(规则 7)的唯一方法是持续监控完整的朋友和关注者的完整列表。这同样适用于测量用户关注(和回复)其他用户时所经历的延迟(规则 6)。正如第 6 节中进一步详述的那样,Twitter 对 API 使用的速率限制使得监控即使是一小群用户的朋友和关注者列表实际上也不可行。因此,我们没有将规则 6 和 7 应用于我们的数据集,因为这需要持续监控这些帐户。这也意味着这些规则不能用于支持自动检测过程,因为它们需要评估交互式过程。
4.3 社交网站的 FakeFollowerCheck
几家公司提供在线工具,根据 Twitter 关注者的虚假程度对其进行分类。在这里,我们考虑由 Socialbakers [14] 开发的“FakeFollowerCheck 工具”。虽然公司网站提供了八个标准来评估某个帐户的关注者的虚假程度,但它省略了如何结合这些标准对帐户进行分类的细节。我们联系了他们的客户服务,但我们得到的回答是“如何衡量各自的标准是内部信息”。 FakeFollowerCheck 工具分析帐户的关注者,并在满足表 4 中列出的标准时认为他们可能是假的。
对于规则2,我们将Socialbakers网站建议的“节食”、“赚钱”或“在家工作”(英语和意大利语都有)视为垃圾短语。
4.4. 评估方法
上面详细描述的所有标准都已应用于2个验证的人类账户数据集(TFP和E13)以及从Twitter账户市场(FSF∪NT∪TWT)购买的所有3351个假追随者账户,如第3节所述。
我们针对每条规则进行了一项实验,考虑了两类账户,即虚假关注者和人类账户。为了总结每个实验的结果,我们考虑了基于四个标准指标的一些评估指标,即:
真阳性(TP):被规则识别为假关注者的假关注者的数量;
• True Negative (TN):被规则识别为人类追随者的人类追随者的数量;
• 误报(FP):被规则识别为假追随者的人类追随者的数量;
• 假阴性 (FN):被规则识别为人类追随者的虚假追随者的数量;
每个指标的含义由表 5 中的矩阵(称为混淆矩阵)以图形方式突出显示,其中每一列代表预测类中的实例,而每一行代表实际类中的实例 [36]:为了评估每一条规则对基线数据集中账户的应用,我们考虑以下标准评估指标:
准确率:预测的真实结果(真阳性和真阴性)在总体中的比例,即
精度:预测的正例中确实是真正正例的比例,即(TP)/(TP + FP);
召回率(或敏感度):真正预测为阳性的真实阳性病例的比例,即(TP)/(TP+FN);
F-Measure:准确率和召回率的调和平均值,即
Matthew Correlation Coefficient(MCC)[37]:预测类与样本真实类之间相关性的估计量,定义为
上述每一项措施都捕获了属于相关类别的样本(我们的数据集中的假追随者)的预测质量的不同方面。准确度衡量有多少样本在两个类中被正确识别,但它不表示相关类是否比另一个类更好地识别。此外,在某些情况下,某些预测模型的性能比其他模型更好,甚至精度较低 [38]。高精确度表明许多被识别为相关的样本被正确识别,但它没有提供有关尚未识别的相关样本的任何信息。该信息由召回指标提供,表示在整个相关样本集中有多少样本被正确识别:低召回意味着许多相关样本未被识别。 F-Measure 和 MCC 试图在一个单一的值中传达预测的质量,并结合其他指标。此外,MCC 被认为是 F-Measure 的无偏版本,因为它使用了混淆矩阵的所有四个元素 。然后,我们将那些应用给出 MCC ≥ 0.6 的标准视为最佳规则,因为这些规则与账户类型具有最强的相关性。为了完整起见,我们还报告了曲线下面积度量 (AUC),即接受者操作特征 (ROC) 曲线下的面积 [39]。后者是描述分类器性能的曲线,考虑了真阳性样本的百分比与假阳性样本的百分比。 AUC 用于将 ROC 曲线总结为单个值:面积越接近 1,分类器越有能力.
最后,我们还报告了信息增益(I gain)和皮尔逊相关系数(Pcc)。虽然 Pearson 相关系数可以检测特征和目标类之间的线性依赖关系,但信息增益考虑了更一般的依赖关系,利用概率密度(或频率,在离散变量的情况下)。更准确地说,信息增益是关于特征相对于预测类的信息量的度量,通常用于训练机器学习分类器。它可以非正式地定义为由给定属性的值的知识引起的熵的预期减少[40]。我们计算两个信息增益:关于规则结果的增益和关于规则使用的属性的增益*。对于 I gain,基于属性 A 的规则只能假设值 0(不满足)和 1(满足),而对于 I gain*,属性 A 可以假设很多异类值。例如,在评估规则“followers ≥ 30”的信息增益时,具有 234 个关注者的样本在计算 I gain 时贡献值为 1,在计算 I gain∗ 时贡献值为 234。相反,皮尔逊相关系数是衡量两个随机变量X和Y之间线性关系的强度。同样,我们计算 Pcc,考虑规则满足的结果(即:true=1 或 false=0)和 Pcc*,基于用于评估规则的属性所假定的值。我们在以下部分中的实验将表明,一般来说,一个规则和相应的属性假定信息增益和皮尔逊相关系数的值非常不同
4.5. Camisani-Calzolari 算法的评估
[12] 中的检测算法汇总了 4.1 节介绍的用于识别人类和机器人行为的 22 条标准。该算法评估正在调查的帐户上的每条规则,并根据规则应用程序的输出分配正面的人工得分或负面的机器人得分。最终结果取决于账户获得的全局分数:如果结果大于0,则将该账户标记为人类;如果介于 0 和 -4 之间,则标记为中性;否则,它被标记为机器人。
表 6 详细说明了在完整数据集上运行算法的结果,包括 FAK 集,即所有购买的假粉丝账户。虽然在检测真实的人类账户方面取得了很好的效果,但该算法实现了较差的虚假关注者账户检测。大多数帐户也被错误地标记为人类,主要是因为我们数据集中的假追随者具有很容易使他们获得比机器人更高的人类分数的特征。
在我们的第二个实验的结果中,上述无法检测到虚假账户的情况很明显。为了评估该算法,我们使用它来预测我们的基线数据集 (BAS) 的账户类别,在表 7 中报告最终预测的评估。正如预期的那样,该算法的准确度很差(非常接近 0.5)并且高精度,这意味着被识别为假的(少数)帐户实际上是假的。然而,它的召回率也非常低,这意味着许多其他虚假账户都未被识别为虚假账户。这种较差的性能也通过接近 0.1 的 F-Measure 和低 MCC 值来表示。
4.6.单一规则评估
在本节中,我们分析了原作者设计的每条规则的有效性,以评估哪个规则可以被视为检测虚假 Twitter 关注者的良好标准。
表 8 总结了将 4.1、4.2 和 4.3 节中介绍的每个规则应用于我们的 BAS 数据集所获得的结果。在表 8 中,我们强调了实现高 MCC 值的规则。如图所示,只有三个规则获得了高于 0.6 的值,即:(1)至少 30 个关注者的阈值,(2)至少 50 条推文的阈值,以及(3)至少一个用户 ID 的使用userID。
正如 MCC 的定义所预期的那样,这些规则还表现出高精度、精确度和召回率的组合。然而,值得观察信息增益和皮尔逊相关系数的值。规则的信息增益(I gain)总是低于对相关属性 I gain* 的评估,而对于 Pearson 相关系数(Pcc 和 Pcc*)则不然。实际上,这是因为Pcc评估两个假设值非常相似的变量(即规则和类的输出)之间的线性依赖关系,而Pcc*则考虑具有更多异类值的变量。实际上,在第一种情况下,变量类和输出都只能假设值 0 和 1:类可以是 0(人)或 1(假),规则可以输出 0(假,例如,帐户没有超过 50 条推文)或 1 条(真实,例如,帐户有超过 50 条推文)。相反,对于 Pcc* ,规则的属性(在示例中为推文的数量)可以采用更高的值(帐户有 234 条推文)。这显然不是线性依赖于类值,导致 Pcc* 相对于 Pcc [41] 的值较低。
因此,对于第 4.1 节(表 8 顶部)中列出的每个规则,比较 Pcc 和 Pcc* 值是没有意义的。相反,我们只需要关注相同类型的指标,即按列,来比较特征与类的线性相关性。然后,将注意力转移到信息增益上,我们注意到许多规则考虑了能够有效区分两个类别的属性。如果我们认为信息增益值高于 0.5 的规则和特征是有用的,我们观察到,即使许多规则表现出非常低的 I 增益,它们的“特征”版本也会变得更有趣:例如,规则 18,当用作特征时,图 20、21 和 22 的信息增益明显增加。因此,我们可以得出该规则是基于正确的假设(例如,使用主题标签),但规则定义过于简单而无法有效:[12] 提出的算法对于复杂的任务来说太天真了Twitter 中的虚假帐户检测。巧合的是,我们发现表现最好的规则也显示出最高的 Pcc 值,即它们的满意度与所属类别更密切相关。关于规则背后的特征,我们发现 Pcc* 大大降低了,因为如上所述,它们可以(并且确实)假设非常高的值,这严重影响了与类的线性相关性。
观察表 8 的其他规则,我们可以注意到在线博客和 Socialbakers 的 FakeFollowerCheck 建议的标准都没有成功地检测到我们数据集中的假粉丝。例如,Van Den Beld 的所有规则的准确率和精度都接近 0.5 或非常低的召回率。此外,我们观察到“来自 API 的推文”的 MCC 为 -0.779,这意味着它与帐户的类别严格相关,但有一个相反的因素:在我们的数据集中,虚假的追随者帐户几乎从不来自 API 的推文(相反,他们使用 发布推文),而人类帐户至少从网站外部发布过一次。这与博主为机器人建议的行为完全相反,后者(应该)几乎完全使用 API 发布推文。 I gain/I gain* 和 Pcc/Pcc* 值也证实了与预测任务的相关性。
另一个有趣的观察是,Socialbakers 提出的许多规则的 MCC 值接近 0,这意味着它们的结果几乎与账户类别无关。事实上,绝大多数账户都被识别为人类,从而导致高精度、0.5 左右的准确度和非常低的召回率。例外是规则 6,“0 条推文”:通常,它的信息增益值为 0.02,但当考虑一个特征(即推文数量)时,它获得 0.621。类似地,规则4和规则5在考虑它们的基本特征(即转发数和带有url的tweet数)时对检测过程更有用。总而言之,独立于帐户的类型,规则几乎总是得到满足,导致在处理虚假关注者检测时出现严重缺陷。
5. 基于特征集的伪造检测算法
在本节中,我们研究了 [8, 2] 中解决 Twitter 上的垃圾邮件帐户检测的工作。他们都提出了要从手动分类的帐户数据集中提取的特征列表。然后使用这些特征集来训练和测试机器学习分类器,以区分人类和垃圾邮件发送者。即使提议的功能最初是为垃圾邮件检测而设计的,但在这里,我们第一次认为它们可以发现另一类 Twitter 帐户,即假粉丝。尽管在关注 Twitter 垃圾邮件检测的文献中存在许多其他著作(参见第 2 节),但其中许多都考虑了可以在某种程度上与本节和前一节中分析的特征相似的特征。
与第 4 节中基于规则的算法不同,此处将特征表示为所考虑样本属性的量化。因此,它们是在没有任何关于将表征所考虑类的特征的值的先验知识的情况下引入的。只有在训练阶段之后,才有可能观察不同类别中特征的最常见值。
对于我们的分析,我们使用了生成“玻璃盒”和“黑盒”模型的分类器。在“玻璃盒”模型中,例如决策树和回归模型,模型的内部结构可以被人类理解,也提供了关于分类器如何识别虚假账户的见解 [39]。相反,在诸如支持向量机之类的“黑盒”模型中,模型的内部结构没有直接的人类可解释的对应关系。
5.1 检测社交网络中的垃圾邮件发送者
[8] 中提出的研究侧重于垃圾邮件检测。作者利用了几个特征,这些特征可以从账户的个人资料和时间线中抓取账户的详细信息。对于每个调查的帐户,在随机森林算法 [23, 43] 中利用这些特征,该算法输出该帐户是否是垃圾邮件机器人。 [8] 中的分析结果描述了正在调查的垃圾邮件帐户的一些有趣特征,如表9所示:
为了评估特征 3,我们通过检查帐户时间线的最后 15 条推文中是否存在至少两条推文来实现消息相似度的概念,其中 4 个连续单词相等。同一作者在后来的作品中给出了这个概念 [25]。
如果没有原创训练集,我们无法重现相同的分类器,但我们选择了五个特征并使用它们用我们的 BAS 数据集训练一组分类器。结果报告在第 5.3 节的表 12 中。
5.2 对抗不断发展的 Twitter 垃圾信息散布者
[2] 的作者观察到 Twitter 垃圾邮件发送者经常修改他们的行为以逃避现有的垃圾邮件检测技术。因此,他们建议考虑一些新功能,使垃圾邮件发送者更难以规避。除了直接从帐户配置文件查找中获得的功能之外,作者还提出了一些基于图形、自动化和时间的功能。在表 10 中,我们详细介绍了其中的九个,以及他们在 [2] 中的分析结果
[2] 的作者将他们的特征结合在四种不同的机器学习分类器中,并将它们的实现与其他现有方法进行比较。我们无法完全重现 [2] 中的机器学习分类器,因为我们有不同的数据集。相反,我们在此评估这些功能在检测虚假 Twitter 追随者方面的表现如何,这些功能被证明对垃圾邮件发送者采用的规避技术非常强大。与 [2] 中一样,以下比率(特征 9)已近似为朋友/年龄的比率,因为精确的评估需要知道一个帐户的朋友数量的演变,但这实际上是公开不可用的.最后,在[2]中,除了上面提到的那些之外,还有其他的特征。然而,正如同一作者所声称的,它们在规避技术方面的鲁棒性较差,因此我们决定不将它们包括在我们的评估中。
5.3 评估
正如第 4 节中的规则集所做的那样,我们在表 11 中报告了 BAS 数据集中所有特征的信息增益和 Pearson 相关系数的评估。同样在这种情况下,由于 Pcc 评估所考虑的特征和类别之间的线性相关性(只能为 0 或 1),因此与信息增益相比,它产生的结果略有不同。观察表 11 中的结果,我们可以确定几个有希望的特征:“推文数量”(已经在第 4 节中注意到)、“朋友和关注者之间的比率^2”、“双向链接比率”和“API 比率”。 5.4.3 节的实验将进一步证实双链路比率的有益效果。
为了评估第 5.1 节和第 5.2 节中描述的特征集在检测虚假追随者帐户方面的综合有效性,我们使用了 8 个分类器,这些分类器来自不同的基于机器学习的算法,即:装饰 (D)、自适应提升 (AB)、随机森林(RF)、决策树 (J48)、贝叶斯网络 (BN)、k-最近邻 (kNN)、多项岭逻辑回归 (LR) 和支持向量机 (SVM)。我们的 SVM 分类器利用径向基函数 (RBF) 内核,并使用 libSVM 作为机器学习算法进行了训练 [44]。在 SVM 的训练阶段,成本和 gamma 参数已通过网格搜索算法进行了优化。类似地,kNN 分类器的 k 参数和 LR 模型的脊惩罚参数已通过交叉验证参数选择算法进行了优化。这项工作中使用的所有分类器和优化算法都是在 Weka 框架内实现的 [43]。
在这些算法中,RF 是 [8] 中唯一使用的一种。相反,[2] 的作者使用了 D、RF、J48 和 BN。我们决定将 AB 纳入我们的工作,因为它被认为是用于分类任务的最有效的机器学习算法之一 [39]。此外,我们还添加了其他著名的和广泛采用的分类器,它们基于不同的分类技术,如支持向量机,kNN和LR,以便对我们的检测系统进行彻底的评估。我们已经建立了 8 个分类器,采用了第 5.1 节和第 5.2 节中的特征,并使用我们的基线(BAS)数据集训练了模型。然后,我们使用 10 倍交叉验证 [23] 来估计每个获得的分类器的性能。至于 4.4 节中基于规则的算法,我们将 MCC 视为评估分类器性能的首选指标。表 12 总结了结果。每个指标的最高值以粗体显示。
我们可以观察到所有的分类器都有很好的预测能力。基于 [2] 的特征集构建的那些获得了稍微好一点的结果。特别是,RF、J48 和 D 分类器的 MCC 大于 0.98。同样,所有这些的准确率和召回率都在 0.99 左右。此外,与使用 [8] 的特征集构建的分类器相比,基于 [2] 的特征集的所有分类器都具有更高的 AUC。无论如何,后者也获得了很高的检测水平:RF、D 和 J48 的准确率、精确度和召回率约为 0.98,MCC 约为 0.96。相对于使用 Yang 等人的集合获得的精度和召回率较低。 [2] 表明 Stringhini 等人的特征。 [8] 表现出将某些人类帐户视为虚假追随者的趋势。对于 [2] 和 [8] 特征集,BN、kNN 和 LR 分类器总体上实现了更差的性能。相反,SVM 分类器取得了显着的结果,尤其是在使用 [2] 的特征集时。事实上,在这个实验中,SVM 的得分只比 RF、D 和 J48 稍差,但比 AB 好。然而,当使用 AUC 指标评估时,AB 实现了极高的性能。最后,在所有考虑的分类器和评估指标中,RF 和 D 是已被证明更一致的那些。
总体而言,即使在评估指标中可以观察到一些小的差异,对于我们的基线 BAS 数据集,所有分类器几乎都可以正确区分人类和虚假追随者帐户。与CC算法相比,基于特征的分类器在假追随者检测方面无疑更准确,但CC算法在我们的数据集中表现不佳,如上文第4.5节所述。
5.4. Discussion
通过检查分类器的内部结构,我们可以深入了解更有助于区分人类和虚假追随者的最佳特征。在决策树的情况下,最好的特征是更接近根的特征,分类器自动找到数字阈值,对于给定的特征,人类和假追随者之间的边界。值得注意的是,装饰、AdaBoost 和随机森林算法最终也利用了简单决策树分类器的组合。尽管它们的性能非常好,但它们的缺点是难以分析,因为它们可以收录数十个相互作用的单独树。然后,我们只关注 J48 分类器(单个决策树)来检查特征在分类过程中是如何应用的。
5.4.1 虚假关注者和垃圾邮件帐户之间的区别
查看树形结构,我们观察到 BAS 数据集中的虚假关注者与 [8] 和 [2] 中的垃圾邮件帐户之间存在一些有趣的差异。例如,已发现特征 URL 比率对垃圾邮件发送者的值高于对合法用户的值,如 [8](第 5.1 节)中强调的那样。相反,观察我们的 J48 分类器的树形结构,该特征的低值表示虚假追随者,而在我们的基线数据集中表示人类账户的较高值。在我们的训练数据集中,超过 72% 的虚假关注者的 URL 比率低于 0.05,与 14% 的人类账户相反。同样,发现垃圾邮件发送者的 API 比率功能高于合法帐户([2],另请参见第 5.2 节)。在我们的数据集中,78% 的假粉丝的 API 比率低于 0.0001。对于普通邻居的推文特征,已经观察到类似的行为,在 [2] 中发现垃圾邮件发送者的行为较低,但对于我们的假追随者而言则较高。
这些初步观察突出了垃圾邮件帐户和虚假追随者之间的行为差异。特别是,与垃圾邮件发送者相比,虚假关注者似乎更被动,并且他们不像垃圾邮件发送者通常那样使用自动机制来发布他们的推文。
5.4.2 减少过度拟合
众所周知,经过训练的分类器可能会受到“过度拟合”的影响,即对训练数据集过于专业化并且无法将分类推广到新的和看不见的数据的问题[45]。
避免过度拟合的一个简单方法是使分类器尽可能简单。例如,在决策树算法的情况下,一种解决方案可能是减少节点的数量,并可能减少树的高度。使用 Stringhini 等人的特征集获得的决策树。 [8] 有 22 个叶子,43 个节点,高度为 7,而最好的特征是放在根的朋友/(followers^2)比率。具有杨等人特征集的决策树。 [2]有17个叶子,33个节点,高度为8,以双向链接比为根。
泛化分类器的一种常见做法是采用更积极的剪枝策略,例如,通过对小测试集使用减少错误剪枝 [23, 43]。采用这种策略,我们能够获得具有较少节点数和非常低高度的更简单的树。这种更简单的树通常使用特征集的子集,在我们的 BAS 数据集上仍然保持非常好的性能。
表 13 报告了我们进行的实验的特征和性能,改变了剪枝策略。值得注意的是,树的复杂性并不总是与检测能力的提高直接相关:例如,对于 Yang 等人的特征集。 [2],将节点数量从 33 个减少到 11 个,只会降低 0.007 的精度和 0.014 的 MCC。
同样,树的修剪和未修剪版本之间的 AUC 值几乎保持不变。此外,我们清楚地观察到 Stringhini 等人的修剪版本。 [8] 减少了 0.017 的召回率,而 Yang 等人的 [2]仅下降 0.004,这意味着后者在修剪后能够比前者漏掉更少的假货。这从 F-Measure 和 MCC 的较高减少也很明显。我们认为这种提高的有效性是所用特征质量的直接结果。总体而言,该实验的结果表明,即使减少特征,检测率也可能高于 0.95(如表 13 的最后一行,分别针对 [8] 和 [2])。例如,在这两个实验中,被修剪的树使用的特征只有双向链接比率、平均邻居的追随者、年龄,以及对中位数邻居追随者的追随者作为杨的原创特征集的子集等。 [2],以及作为 Stringhini 等人的子集的朋友/(追随者^2)、URL 比率和朋友数量。 [8] 原创特征集。
核心方法:PHP文章采集方法及思路
1.采集文章的大致思路: 1.定时抓取文章列表页,提取文章的所有链接地址写入临时表2、从数据库中读取获取文章的所有链接并访问,然后定期匹配文章的标题和内容,写入文章表。2.其中两个需要注意: 1.采集防死:因为程序在采集的过程中需要执行很多操作,如果是一次性全部读取,加上一些网络问题(比如网速慢,网络不稳定),程序在采集的过程中可能会出现页面超时。为此,我想到了用一个一个一个读入的方法,就是在打开页面的时候,read-only每次取一个文章 链接到采集,然后跳转到页面,可以减轻程序运行的负担,增加程序运行的流畅度,从而在一定程度上减少页面超时的问题。2. 采集文章中的图片:在采集...
查看全部
无规则采集器列表算法 推荐文章:论文阅读
论文链接:
目录
摘要
虚假关注者是专门为夸大目标账户关注者数量而创建的那些 Twitter 账户。假追随者对社交平台及其他领域来说是危险的,因为他们可能会改变 Twitter 领域的流行度和影响力等概念,从而影响经济、政治和社会。在本文中,我们沿着不同的维度做出贡献。首先,我们回顾了一些最相关的现有功能和规则(由学术界和媒体提出),用于异常 Twitter 帐户检测。其次,我们创建了一个经过验证的人类和虚假追随者帐户的基线数据集。这样的基线数据集对科学界是公开的。然后,我们利用基线数据集来训练一组基于审查的规则和特征构建的机器学习分类器。我们的结果表明,Media 提出的大多数规则在揭示虚假粉丝方面的表现并不令人满意,而 Academia 过去提出的用于垃圾邮件检测的特征提供了良好的结果。基于最有希望的特征,我们在减少过度拟合和采集计算特征所需数据的成本方面修改了分类器。最终结果是一个新颖的 A 类分类器,其通用性足以阻止过度拟合,由于使用了成本较低的特征,因此轻量级,并且仍然能够正确分类原创训练集的 95% 以上的帐户。我们最终执行基于信息融合的敏感性分析,以评估分类器使用的每个特征的全局敏感性。
本文报告的研究结果,除了得到了彻底的实验方法的支持和本身的趣味性外,还为进一步调查假推特追随者的新问题铺平了道路。
1 绪论
Twitter最初是一个个人微博网站,现在已经从普通用户转变为一个信息发布场所。据统计,Twitter 订阅者约为 10 亿,每月活跃用户为 3.02 亿。 Twitter 2014 年的年度广告收入估计约为 4.8 亿美元。流行的公众人物,例如演员和歌手,以及传统的大众媒体(广播、电视和报纸)都使用 Twitter 作为新的媒体渠道。
这样的多功能性和使用范围使 Twitter 成为异常账户扩散的理想场所,这些账户以非常规的方式行事。学术界主要关注垃圾邮件发送者,这些帐户积极致力于传播恶意软件、发送垃圾邮件和宣传合法性可疑的活动 。为了提高其有效性,这些恶意帐户通常配备自动推特程序,就像模仿真实用户一样隐秘,称为机器人。最近,媒体开始报道政客、名人和流行品牌的账户出现了可疑的追随者膨胀。所谓的虚假关注者对应于专门用于增加目标账户关注者数量的 Twitter 账户。例如,在 2012 年美国大选期间,挑战者罗姆尼 (Romney) 的推特账户的关注者数量突然激增。其中绝大多数后来被声称是假的。同样,在上一次意大利大选(2013 年 2 月)之前,在线博客和报纸报道了有关主要候选人假追随者比例的统计数据。乍一看,获得虚假追随者似乎是一种仅限于培养虚荣心的做法——一种可能有问题但无害的做法。但是,人为夸大关注者数量也可以最终确定,以使帐户更值得信赖和有影响力,从而脱颖而出并吸引其他真正的关注者。最近,美国的银行和金融机构在实际发放贷款之前已开始分析贷款申请人的 Twitter 和 Facebook 账户。因此,拥有“受欢迎”的个人资料绝对有助于提高申请人的信誉。同样,如果恶意账户采用购买虚假粉丝的做法,作为垃圾邮件发送者,它可以作为发布更权威消息和发起更有效广告活动的一种方式。对许多博主来说,检测假粉丝似乎是一件容易的事,他们提出了自己的“黄金法则”,并提供了一系列标准,用来对推特账户行为进行分类。然而一些规则通常既不与分析算法配对以聚合它们,也不与验证机制配对。至于学术界,研究人员主要关注垃圾邮件和机器人检测,基于 Twitter 帐户的(非)人类特征,主要是通过在人工注释的帐户集上训练的机器学习分类器,获得了出色的结果。
然而,据我们所知,尽管假追随者构成了一种具有经济和社会影响的普遍现象,但在文献中该主题尚未得到深入研究。
这项工作的目标是阐明假 Twitter 追随者的现象,旨在克服目前在其表征和检测方面的局限性。特别是,我们提供了以下贡献。首先,我们构建了一个 Twitter 账户的基线数据集,其中人类和假粉丝是先验已知的。其次,我们在基线数据集上测试已知的机器人和垃圾邮件检测方法。特别是,我们针对基于以下算法的算法测试参考集中的 Twitter 帐户:(i) 博客作者提出的单一分类规则,以及 (ii) 文献中提出的用于检测垃圾邮件发送者的特征集。分析结果表明,假追随者检测值得专门的机制:具体而言,基于分类规则的算法无法成功检测我们基线数据集中的假追随者。相反,基于特征集的垃圾邮件检测分类器也适用于虚假关注者检测。第三,我们根据采集计算它们所需的数据采集所需的成本,并对所有调查的规则和特征进行分类。在理论计算和经验评估的基础上,我们展示了性能最好的特征也是最昂贵的特征。我们分析的新结果表明,数据获取成本通常严重限制了这些功能的实际适用性。最后,在爬虫成本分析的基础上,我们设计并实现了轻量级分类器,这些分类器利用了成本较低的特征,同时仍然能够正确分类我们训练数据集 95% 以上的帐户。此外,我们还验证了我们的分类器在与原创训练数据集不相交的另外两组人类和虚假追随者帐户上的检测性能。
本文的其余部分的结构如下。第 2 节考虑和比较 Twitter 垃圾邮件和机器人检测领域的相关工作。第 3 节描述了我们的基线数据集。在第 4 节中,我们使用我们的基线数据集评估了社交媒体分析推广的一组虚假 Twitter 关注者检测标准。在第 5 节中,我们检查了以前工作中用于 Twitter 帐户垃圾邮件检测的功能。在第 6 节中,我们计算了提取分类器所基于的特征的成本。还提供了一个轻量级、高效的分类器,在虚假关注者检测能力和爬取成本之间取得了很好的平衡。最后,第 7 节总结了论文。
2 相关工作
引用 [7] 的内容,“虚假的 Twitter 帐户被认为是一种欺骗形式(即,在个人资料的内容和个人信息方面的欺骗,以及让个人资料关注他人而不是因为个人兴趣,而是因为他们这样做是有报酬的)。”虚假的 Twitter 帐户的第二个特征正是我们在论文中要讨论的:我们特别将虚假追随者视为那些适当创建并出售给客户的 Twitter 帐户,这些帐户旨在放大他们在世界眼中的影响力和参与度,并产生大量追随者的错觉。
如此定义的虚假追随者只是在 Twitter 上传播的异常账户的一个例子。文献中确实将异常确定为垃圾邮件发送者(即宣传未经请求且通常有害的内容的帐户,收录指向恶意页面的链接 [8])或机器人(即控制社交帐户的计算机程序,隐秘到模仿真实用户 [9])或 cyborgs(即交织手动和自动行为特征的帐户 [10])。最后,还有虚假的追随者,为追随目标账户而大量创建的账户,可以从在线账户市场购买。
2.1 灰色文学和在线博客
在介绍学术文献之前,我们简要报告了在线文档,该文档提供了一系列直觉的虚假追随者检测标准,尽管并未以科学的方式证明是有效的。我们引用这项工作的原因有两个:一方面,在线文章和帖子证明了对真假 Twitter 追随者的正确区分;另一方面,我们旨在以科学的方式评估这些标准是否真的可以用于检测假粉丝。
例如,[11] 中的一位知名博主指出,机器人帐户可能具有类似机器人的独特信号:1)通常有大量的追随者和少量的追随者; 2) 向所有人发推文;并且,3)玩关注/取消关注游戏,即他们通常在 24 小时内关注然后取消关注帐户。在线博客宣传的标准主要基于常识,作者通常甚至不建议如何验证它们。
数字评估公司[12]发布的一系列报告引起了意大利和欧洲报纸和杂志的注意,引发了人们对政界人士和主要国际公司在Twitter上受欢迎程度的质疑。报告中列出了一些标准,这些标准受到常识的启发,并表示人类行为,用于评估选定账户的追随者样本。对于follower满足的每一个标准,将分配一个人类得分。对于每一个不满足的标准,要么给机器人评分,要么给中立评分。根据总分,Twitter粉丝分为人类、机器人或中立(在后者的情况下,没有足够的信息来评估他们的性质),为被关注账号的有效影响力提供一个质量分数。但是,[12]中的结果缺少验证阶段。
最后,一些专门从事社交媒体分析的公司提供在线服务,以估计 Twitter 帐户在其追随者方面的真实性 [13,14,15]。但是,用于分析的标准并未公开披露,仅可从其网站上可用的信息中部分扣除。此外,正如我们之前的工作 [16] 所证明的,这些分析受到一些偏差的影响,例如小的和统计上不健全的采样策略。
2.2 学术文献
近年来,Twitter 上的垃圾邮件检测已成为许多调查的主题,从多个角度处理该问题。例如,一个研究分支专注于推文的文本内容 [4, 3, 17],研究推文中嵌入 URL 的重定向 [18],并对 URL 登录页面进行分类 [19]。其他作品通过认识论解决了 Twitter 上的欺骗问题。例如,在 [20] 中,作者评估了欺骗检测任务的 4 个认识论特征:权威、合理性和支持、独立确证和呈现。
在[21]中的工作克服了不能正确地标记那些没有 URL 的 tweet 为垃圾 tweet 的限制,通过提出一个复合工具,能够将传入的 tweet 与垃圾邮件发送者通常使用的底层模板匹配。 [7] 中的工作没有考虑推文的内容,而是尝试仅根据源自帐户配置文件的可能不一致的信息来分类帐户是否可以信任。
一系列作品通过多特征的方法调查微博平台上的垃圾邮件发送者,包括个人资料、行为和帐户时间线的特征。在这个研究方向内,我们在此引用 [8]、[2] 和 [22]。 [8] 中的工作分析了垃圾邮件发送者在 Facebook、Twitter 和 MySpace 上的运作方式,报告称可疑帐户在特定功能上具有一些共同特征。这些作为基于机器学习的分类器 [23] 的输入,导致检测到超过 15,000 个垃圾邮件配置文件,Twitter 迅速删除了这些配置文件。在 [2] 中,作者提出了检测 Twitter 垃圾邮件发送者的标准分类法。一系列实验表明,与现有标准相比,新设计的标准具有更高的检测率。在 [22] 中,作者利用行为特征(例如推文和转发活动)、网络特征(例如帐户的关注者和朋友的数量)和基于内容的特征的组合开发了一个混合数学模型来检测微博上的垃圾邮件发送者,微博是类似于 Twitter 的中国微博网站。
[10] 的作者将 Twitter 帐户分为三类:人类、机器人和半机器人。后一类代表机器人辅助人类或人类辅助机器人。作者使用了一个基于三个专门组件的决策者,这些组件考虑了推文的内容和时间以及一些帐户属性。
[24, 4] 中提出的算法旨在尽快发现自动恶意 Twitter 帐户组,以避免帐户所有者利用它们。因此,作者将聚类算法应用于在短时间内创建的帐户组时间,除其他外,考虑基于名称和内容的特征。在 [25] 中,作者列出了检测 Twitter 帐户市场的客户和受害者的几个标准,即 在线服务,为他们的订阅者提供追随者以换取费用,并代表他们传播促销推文。在另一项工作 [26] 中,同一研究团队提供了有关帐户市场的更多详细信息,分析了客户的其他属性和特征(例如,关注者和朋友的动态以及产生参与的能力),并为检测市场和市场客户。 [27] 的作者在 10 个月的时间里监控一组 Twitter 帐户商家的价格、可用性和欺诈行为。这样的研究重点关注账户市场用来创建和注册欺诈账户的技术和方法,从 CAPTCHA 解决服务到欺骗性电子邮件凭据和用于逃避黑名单的各种 IP 地址池。与 Twitter 本身合作,作者开发了一个分类器来检测此类欺诈账户,这些账户因此被暂停。
值得注意的是,学术著作的引用选择并不详尽。但是,它考虑了大量标准,我们进一步利用这些标准来检测虚假 Twitter 关注者。还有其他用于垃圾邮件检测的工作,此处不详述,例如 [1, 28, 29, 30, 31, 32],其结果基于所选相关工作集所考虑标准的子集或略微修改的版本。
2.3 与我们的方法的异同
我们研究的目标是自动检测那些专门为增加某些目标帐户的关注者数量而创建的 Twitter 账户(所谓的虚假 Twitter 关注者)。先验地,垃圾邮件发送者、机器人和真实用户的帐户都可能属于虚假关注者的宏观类别,并且文献中已经证明可以有效发现垃圾邮件发送者和机器人的特定功能也可以在虚假关注者的情况下起作用。确实正是这一观察结果最初驱使本文的作者朝着在真实账户和虚假追随者的参考数据集上测试过去作品中的规则和特征的方向发展。这有助于修剪那些在检测虚假追随者方面表现最差的规则和特征,并留下表现良好的规则和特征。
从技术角度来看,在我们的实验中,我们依赖于基于机器学习的分类器,这些分类器利用 1) 配置文件、2) 活动和 3) 帐户关系的特征,类似于 [8, 2]。相反,我们不依赖推文特定内容固有的特征,例如 URL 的存在和文本的语义 [17, 19]。因为我们修改了我们的分类器以减少过度拟合和数据采集的成本,所以我们不仅仅是应用已经测试过的特性到一个新的数据集,如第5节和第6节所示。
最后,与 [26] 类似,我们从网络上的不同市场购买了虚假的 Twitter 追随者。我们独立于 [26] 进行了这样的训练,此外,这两项工作的目标完全不同,我们的目标是这些市场销售的账户,而另一个则针对他们的客户。至于我们的基线数据集的真实用户,我们招募了自愿加入我们活动的人的账户,并利用一个带有注释的账户数据集,这些账户属于在特定域的特定时间段内活跃在Twitter上的人,其真实性已经过验证。然而,为了在整个 Twitter 人口的代表性样本上测试我们的分类器,我们还通过随机挑选来构建测试集:1)巴拉克奥巴马的追随者样本,以及 2)Twitter 人群的样本。
3 基线数据集
在本节中,我们将介绍用于在整篇论文中进行实证研究的 Twitter 账户数据集。我们详细说明了我们如何采集他们每个人,以及我们如何验证他们是真人还是假追随者。为了进行我们的研究,我们总共抓取了 900 万个 Twitter 帐户和大约 300 万条推文。为了促进对假 Twitter 追随者这一新问题的调查,我们的基线数据集已公开用于研究目的 [33]。
3.1 The Fake Project
The Fake Project 于 2012 年 12 月 12 日开始其活动,并创建了 Twitter 帐户@TheFakeProject。它的简介报告了以下座右铭:“只有当你不是假货时才关注我”,并解释说该倡议与意大利比萨 IIT-CNR 研究人员拥有的一个研究项目有关。在第一阶段,业主联系了更多的研究人员和记者来宣传该倡议,外国记者和博主也在他们的国家支持该倡议。在十二天的时间里(2012 年 12 月 12 日至 24 日),该帐户已被 574 位关注者关注。通过 Twitter API,我们抓取了一系列关于这些关注者的公共信息以及他们的关注者和关注者的信息。对于这个数据集,我们爬取了 574 个账户,最终采集了 616,193 条推文和 971,649 个关系(即关联的 Twitter 账户)。
所有这些追随者都自愿加入了该项目。为了将它们收录在我们的参考人类集中,我们还启动了验证阶段。每个追随者在 Twitter 上收到来自@TheFakeProject 的直接消息,其中收录一个验证码的 URL,每个追随者都是唯一的。我们将成功完成 CAPTCHA 的 574 个关注者中的所有 469 个帐户视为“认证人”。在本节的其余部分,这个数据集被称为 TFP;
3.2. #elezioni2013 dataset
#elezioni2013 数据集(以下简称 E13)的诞生是为了支持一项与佩鲁贾大学和罗马第一大学合作开展的社会学研究计划。该研究侧重于 2013-2015 年 3 年期间意大利政治格局的战略变化。研究人员在 2013 年 1 月 9 日至 2 月 28 日期间确定了 84,033 个在其推文中使用 #elezioni2013 主题标签的唯一 Twitter 帐户。这些帐户的识别是基于对帐户的用户名和传记字段的特定关键字驱动的查询' 个人资料。关键词包括博主、记者、社交媒体策略师/分析师和国会议员。还搜索了政党的具体名称。总之,所有属于政治家和候选人的账户,政党、记者、博客作者、特定的协会和团体,以及任何以某种方式正式参与政治的人,都被抛弃了。其余账户(约 40k)已被归类为公民。最后一组已被抽样(置信度为 95%,置信区间为 2.5),产生了最后一组 1488 个帐户,这些帐户已经过手动验证以确定其个人资料和推文的性质。手动验证过程由意大利佩鲁贾大学的两名社会学家进行。它涉及对被调查账户的个人资料图片、传记和时间表的分析。没有传记或头像的帐户已被丢弃。传记中的 URL 也经过人工检查,以便对主题进行更深入的分析。只有被两位社会学家标记为人类的帐户才收录在 E13 数据集中。总体而言,手动验证阶段持续了大约两个月。结果,1481 个账户成为数据集 E13 的一部分。
3.3人类帐户的基线数据集
上面介绍的数据集形成了我们最终的一组,标记为 HUM,由 1950 个经过验证的人类账户组成。值得注意的是,这两个子集彼此之间有何不同。 TFP 集合由在志愿者基础上招募的帐户组成:参与该计划的人旨在成为在 Twitter 上发现虚假追随者的学术研究的一部分,他们是研究人员、社交媒体专家和记者的混合体,主要来自意大利,但也来自美国和其他欧洲国家。 E13 组由特别活跃的意大利 Twitter 用户组成,具有不同的专业背景,属于不同的社会阶层,对政治有着共同的兴趣,但不属于以下类别:政治家、政党、记者、博主;
3.4 虚假关注者的基线数据集
2013 年 4 月,我们从三个不同的 Twitter 在线市场购买了 3000 个虚假账户。特别是,我们从 购买了 1000 个假账户,从 购买了 1000 个,从 购买了 1000 个假账户,价格分别为 19 美元、14 美元和 13 美元.令人惊讶的是,fastfollowerz 和 intertwitter 给了我们比我们支付的更多的账户,分别是 1169 和 1337 而不是 1000。我们爬取了所有这些账户以构建一个 fastfollowerz 数据集,标记为 FSF,以及一个标记为 INT 的 intertwitter 数据集。相反,我们无法抓取从 twittertechnology 购买的所有 1000 个假粉丝,因为其中 155 个几乎立即被暂停。其余 845 个账户构成 twittertechnology 数据集,标记为 TWT。
我们承认,我们的假追随者数据集只是说明性的,而不是所有可能存在的假追随者集合的详尽说明。然而,值得注意的是,我们通过在最常见的搜索引擎上简单地通过网络搜索找到了 Twitter 帐户市场。因此,我们可以争辩说,我们的数据集代表了在搜索时很容易在 Web 上找到的内容。
3.5 虚假关注者和人类账户的基线数据集

我们实验中使用的最终基线数据集由虚假和人类档案组成。在下文中,我们将简要讨论为此数据集选择的虚假账户和人工账户之间的分布。许多机器学习技术受到少数类和多数类的自然分布不平衡的影响。这就是为什么,例如,文献中的作品研究了基于决策树的技术在改变训练集分布时的表现。特别是,Weiss 和 Provost 在 [34] 中考虑了基于决策树的分类器的性能,以预测 26 个不同数据集的样本,在少数类和多数类之间具有不同的分布。他们的调查结论表明,用于评估不同分类器性能的度量改变了训练集的类的最佳分布。例如,经过他们的经验分析,以准确率作为评价指标,26 个数据集中有 9 个数据集的最优分布与自然的非常不同,而当使用 AUC 作为评价指标时,这个数字增长到 26 个数据集中的 14 个. 而且,最优分布对少数类样本有过采样(也有过采样高达 90% 的少数类样本得到最佳分类器的情况)。
在这里,我们面临另一个基本问题:我们并不准确地知道假粉丝和人工账户的真实(自然)分布。 2013 年,Twitter 工作人员推测“虚假或垃圾账户的数量应占我们 MAU 的不到 5%”(其中 MAU 是指每月活跃用户)[35]。但是,MAU 既不能与 Twitter 帐户的随机样本同化,也不能与给定帐户的追随者同化。此外,如果一个账户购买了虚假关注者,那么它的虚假关注者和人类关注者的分布可能与人们可以找到的自然分布有很大的不同,无论是在 MAU 中,还是在 Twitter 圈中的所有 Twitter 账户中。总之,在整个 Twitter 中,5% 的虚假或垃圾账户估计不能直接扩展到给定账户的虚假粉丝。
尽管 Twitter 从未披露过注册用户总数,但非官方消息称,最新创建的 Twitter 账户数量远远超过 MAU。这就是我们做出保守假设的原因,将假追随者和人类追随者的平衡分布作为我们的基线数据集。
为了验证这个假设,我们在 [34] 中对我们的数据集进行了实验。我们逐渐改变数据集中假追随者和人类追随者的类别分布,从 5%–95% 到 95%–5%(分别为 100 人–1900 假追随者,1900 人–100 假追随者),并使用获得的数据集训练 J48 分类器,考虑它们的交叉验证性能。经过训练的分类器在人类和虚假追随者的平衡分布上获得了最佳结果。为了获得平衡的数据集,我们随机对假账户的总集合(即 3351)进行欠采样,以匹配经过验证的人类账户的 HUM 数据集的大小。因此,我们构建了一个收录 1950 个假粉丝的基线数据集,标记为 FAK。这项工作的最终基线数据集包括 HUM 数据集和 FAK 数据集,共有 3900 个 Twitter 帐户。在本文的其余部分中,这个平衡的数据集被标记为 BAS,并且已被用于本工作中描述的所有实验(未另行指定)。表 1 显示了本节描述的数据集中收录的帐户、推文和关系的数量。
4. 使用基于分类规则的算法进行虚假检测
在本节中,我们详细介绍了最初由博主和社交媒体分析师提出的三个程序,它们明确构思了用于检测假粉丝和机器人帐户。这些提议是在 [12, 11, 14] 中介绍的。我们在本节中关注的工作并不直接归因于学术工作。但是,这是媒体和社交营销公司对虚假 Twitter 追随者现象产生兴趣的一个例子。尽管我们不希望这些提议能够令人满意地执行虚假追随者检测的复杂任务,但我们相信对提议标准的彻底分析仍然可以提供一些有用的见解。巧合的是,所有程序都被提议为依赖于规则列表或标准的算法:每个要分类的帐户都根据所有规则进行检查,并且必须将检查的输出组合在一起以获得最终分类。不幸的是,在许多情况下,有关如何结合标准来获得帐户最终分类的详细信息并不公开。仅在 [12] 中提供了有关如何执行聚合的详细信息。在提供的细节的驱动下,我们实现了 [12] 中描述的完整算法,并在第 4.5 节中介绍了它的检测性能。此外,对于每个程序,我们报告原创来源所指示的标准,并进一步说明我们如何将它们实施为适用于我们数据集的规则。我们还详细说明了我们选择实施的原因。
在本节中,我们主要关注每条规则在我们的数据集上的应用,以评估其在区分虚假追随者方面的优势(或劣势)。在第 6 节中,我们将所有规则与第 5 节中分析的特征结合在一起,以评估它们的集体分类能力。这是因为单个规则(或特征)在分类虚假账户和人工账户方面可能表现不佳,但如果与其他规则结合使用,它可能会改善检测。事实上,值得注意的是,本节中分析的一些标准实际上已被第6节中内置的分类器所利用。
在本文的后续部分中,我们使用术语“朋友”来表示关注帐户的用户(即,如果 A 关注 B,则 B 是 A 的朋友)。
4.1. 政治候选人的追随者
Camisani-Calzolari [12] 对罗姆尼和奥巴马的 Twitter 追随者样本进行了一系列测试,用于上届美国总统选举,以及受欢迎的意大利政客。在 [12] 中,详细介绍了一种基于帐户的一些公共特征来评估帐户的算法。引用的算法有足够的细节可以重现:它分配人类/活跃和机器人/非活跃分数,并考虑两个分数总和之间的差距对帐户进行分类。特别是,该算法为表 2 中的每个标准分配了 1 个(或更多,如果指定)人工点。此外,如果该帐户仅使用 API,则该帐户会收到 2 个机器人点。
最后,对于每个未能验证的标准,帐户都会收到 1 个机器人点,但标准 8、13、14、15、16 和 17 除外:在这种情况下,不会分配机器人点。为了验证这些规则,我们参考了推文的源元数据,其中收录一个不同的值,代表用于发布推文的平台。特别是,关于上述规则,我们分别考虑了具有值 iphone、android、foursquare、instagram 和 web 的源元数据,并且我们为在采集的帐户推文中至少找到一次的每个值分配了 1 个人工点.对于标准 21,如果该帐户的推文没有被其他用户转发,则分配 2 个机器人点。考虑到规则 8,地理定位与推文有关。因此,当帐户的至少一条推文已进行地理本地化时,我们将此规则设置为满足。对于规则 11,已在个人简介和时间线中搜索了标点符号。
4.2.
根据社交媒体网站 [11] 的创始人的说法,在提出识别可疑 Twitter 帐户的黄金法则的几位博主中,我们考虑了“识别 Twitter 机器人的 7 个信号”。表 3 列出了识别 Twitter 机器人的“需要注意的 7 个信号”。
规则 3 已将推文视为一个单元来实施。我们考虑每个时间线的最后 20 条推文。对于规则 4,当数据集中至少 3 个帐户具有相同的头像时,我们认为存在重复的头像。对于规则 5,我们将所有未从网站 发布的推文视为从 API 发布的推文。
对于规则 6 和 7,在查找帐户的朋友或关注者列表时,Twitter 仅提供有关当前列表的信息,而不提供有关过去朋友或关注者的详细信息。此外,Twitter 不会披露与用户关注或被其他用户关注的时刻相关的任何时间数据。这意味着检查用户的关注/取消关注行为(规则 7)的唯一方法是持续监控完整的朋友和关注者的完整列表。这同样适用于测量用户关注(和回复)其他用户时所经历的延迟(规则 6)。正如第 6 节中进一步详述的那样,Twitter 对 API 使用的速率限制使得监控即使是一小群用户的朋友和关注者列表实际上也不可行。因此,我们没有将规则 6 和 7 应用于我们的数据集,因为这需要持续监控这些帐户。这也意味着这些规则不能用于支持自动检测过程,因为它们需要评估交互式过程。
4.3 社交网站的 FakeFollowerCheck
几家公司提供在线工具,根据 Twitter 关注者的虚假程度对其进行分类。在这里,我们考虑由 Socialbakers [14] 开发的“FakeFollowerCheck 工具”。虽然公司网站提供了八个标准来评估某个帐户的关注者的虚假程度,但它省略了如何结合这些标准对帐户进行分类的细节。我们联系了他们的客户服务,但我们得到的回答是“如何衡量各自的标准是内部信息”。 FakeFollowerCheck 工具分析帐户的关注者,并在满足表 4 中列出的标准时认为他们可能是假的。
对于规则2,我们将Socialbakers网站建议的“节食”、“赚钱”或“在家工作”(英语和意大利语都有)视为垃圾短语。
4.4. 评估方法
上面详细描述的所有标准都已应用于2个验证的人类账户数据集(TFP和E13)以及从Twitter账户市场(FSF∪NT∪TWT)购买的所有3351个假追随者账户,如第3节所述。
我们针对每条规则进行了一项实验,考虑了两类账户,即虚假关注者和人类账户。为了总结每个实验的结果,我们考虑了基于四个标准指标的一些评估指标,即:
真阳性(TP):被规则识别为假关注者的假关注者的数量;
• True Negative (TN):被规则识别为人类追随者的人类追随者的数量;
• 误报(FP):被规则识别为假追随者的人类追随者的数量;
• 假阴性 (FN):被规则识别为人类追随者的虚假追随者的数量;
每个指标的含义由表 5 中的矩阵(称为混淆矩阵)以图形方式突出显示,其中每一列代表预测类中的实例,而每一行代表实际类中的实例 [36]:为了评估每一条规则对基线数据集中账户的应用,我们考虑以下标准评估指标:
准确率:预测的真实结果(真阳性和真阴性)在总体中的比例,即
精度:预测的正例中确实是真正正例的比例,即(TP)/(TP + FP);
召回率(或敏感度):真正预测为阳性的真实阳性病例的比例,即(TP)/(TP+FN);
F-Measure:准确率和召回率的调和平均值,即
Matthew Correlation Coefficient(MCC)[37]:预测类与样本真实类之间相关性的估计量,定义为
上述每一项措施都捕获了属于相关类别的样本(我们的数据集中的假追随者)的预测质量的不同方面。准确度衡量有多少样本在两个类中被正确识别,但它不表示相关类是否比另一个类更好地识别。此外,在某些情况下,某些预测模型的性能比其他模型更好,甚至精度较低 [38]。高精确度表明许多被识别为相关的样本被正确识别,但它没有提供有关尚未识别的相关样本的任何信息。该信息由召回指标提供,表示在整个相关样本集中有多少样本被正确识别:低召回意味着许多相关样本未被识别。 F-Measure 和 MCC 试图在一个单一的值中传达预测的质量,并结合其他指标。此外,MCC 被认为是 F-Measure 的无偏版本,因为它使用了混淆矩阵的所有四个元素 。然后,我们将那些应用给出 MCC ≥ 0.6 的标准视为最佳规则,因为这些规则与账户类型具有最强的相关性。为了完整起见,我们还报告了曲线下面积度量 (AUC),即接受者操作特征 (ROC) 曲线下的面积 [39]。后者是描述分类器性能的曲线,考虑了真阳性样本的百分比与假阳性样本的百分比。 AUC 用于将 ROC 曲线总结为单个值:面积越接近 1,分类器越有能力.
最后,我们还报告了信息增益(I gain)和皮尔逊相关系数(Pcc)。虽然 Pearson 相关系数可以检测特征和目标类之间的线性依赖关系,但信息增益考虑了更一般的依赖关系,利用概率密度(或频率,在离散变量的情况下)。更准确地说,信息增益是关于特征相对于预测类的信息量的度量,通常用于训练机器学习分类器。它可以非正式地定义为由给定属性的值的知识引起的熵的预期减少[40]。我们计算两个信息增益:关于规则结果的增益和关于规则使用的属性的增益*。对于 I gain,基于属性 A 的规则只能假设值 0(不满足)和 1(满足),而对于 I gain*,属性 A 可以假设很多异类值。例如,在评估规则“followers ≥ 30”的信息增益时,具有 234 个关注者的样本在计算 I gain 时贡献值为 1,在计算 I gain∗ 时贡献值为 234。相反,皮尔逊相关系数是衡量两个随机变量X和Y之间线性关系的强度。同样,我们计算 Pcc,考虑规则满足的结果(即:true=1 或 false=0)和 Pcc*,基于用于评估规则的属性所假定的值。我们在以下部分中的实验将表明,一般来说,一个规则和相应的属性假定信息增益和皮尔逊相关系数的值非常不同
4.5. Camisani-Calzolari 算法的评估
[12] 中的检测算法汇总了 4.1 节介绍的用于识别人类和机器人行为的 22 条标准。该算法评估正在调查的帐户上的每条规则,并根据规则应用程序的输出分配正面的人工得分或负面的机器人得分。最终结果取决于账户获得的全局分数:如果结果大于0,则将该账户标记为人类;如果介于 0 和 -4 之间,则标记为中性;否则,它被标记为机器人。
表 6 详细说明了在完整数据集上运行算法的结果,包括 FAK 集,即所有购买的假粉丝账户。虽然在检测真实的人类账户方面取得了很好的效果,但该算法实现了较差的虚假关注者账户检测。大多数帐户也被错误地标记为人类,主要是因为我们数据集中的假追随者具有很容易使他们获得比机器人更高的人类分数的特征。

在我们的第二个实验的结果中,上述无法检测到虚假账户的情况很明显。为了评估该算法,我们使用它来预测我们的基线数据集 (BAS) 的账户类别,在表 7 中报告最终预测的评估。正如预期的那样,该算法的准确度很差(非常接近 0.5)并且高精度,这意味着被识别为假的(少数)帐户实际上是假的。然而,它的召回率也非常低,这意味着许多其他虚假账户都未被识别为虚假账户。这种较差的性能也通过接近 0.1 的 F-Measure 和低 MCC 值来表示。
4.6.单一规则评估
在本节中,我们分析了原作者设计的每条规则的有效性,以评估哪个规则可以被视为检测虚假 Twitter 关注者的良好标准。
表 8 总结了将 4.1、4.2 和 4.3 节中介绍的每个规则应用于我们的 BAS 数据集所获得的结果。在表 8 中,我们强调了实现高 MCC 值的规则。如图所示,只有三个规则获得了高于 0.6 的值,即:(1)至少 30 个关注者的阈值,(2)至少 50 条推文的阈值,以及(3)至少一个用户 ID 的使用userID。
正如 MCC 的定义所预期的那样,这些规则还表现出高精度、精确度和召回率的组合。然而,值得观察信息增益和皮尔逊相关系数的值。规则的信息增益(I gain)总是低于对相关属性 I gain* 的评估,而对于 Pearson 相关系数(Pcc 和 Pcc*)则不然。实际上,这是因为Pcc评估两个假设值非常相似的变量(即规则和类的输出)之间的线性依赖关系,而Pcc*则考虑具有更多异类值的变量。实际上,在第一种情况下,变量类和输出都只能假设值 0 和 1:类可以是 0(人)或 1(假),规则可以输出 0(假,例如,帐户没有超过 50 条推文)或 1 条(真实,例如,帐户有超过 50 条推文)。相反,对于 Pcc* ,规则的属性(在示例中为推文的数量)可以采用更高的值(帐户有 234 条推文)。这显然不是线性依赖于类值,导致 Pcc* 相对于 Pcc [41] 的值较低。
因此,对于第 4.1 节(表 8 顶部)中列出的每个规则,比较 Pcc 和 Pcc* 值是没有意义的。相反,我们只需要关注相同类型的指标,即按列,来比较特征与类的线性相关性。然后,将注意力转移到信息增益上,我们注意到许多规则考虑了能够有效区分两个类别的属性。如果我们认为信息增益值高于 0.5 的规则和特征是有用的,我们观察到,即使许多规则表现出非常低的 I 增益,它们的“特征”版本也会变得更有趣:例如,规则 18,当用作特征时,图 20、21 和 22 的信息增益明显增加。因此,我们可以得出该规则是基于正确的假设(例如,使用主题标签),但规则定义过于简单而无法有效:[12] 提出的算法对于复杂的任务来说太天真了Twitter 中的虚假帐户检测。巧合的是,我们发现表现最好的规则也显示出最高的 Pcc 值,即它们的满意度与所属类别更密切相关。关于规则背后的特征,我们发现 Pcc* 大大降低了,因为如上所述,它们可以(并且确实)假设非常高的值,这严重影响了与类的线性相关性。
观察表 8 的其他规则,我们可以注意到在线博客和 Socialbakers 的 FakeFollowerCheck 建议的标准都没有成功地检测到我们数据集中的假粉丝。例如,Van Den Beld 的所有规则的准确率和精度都接近 0.5 或非常低的召回率。此外,我们观察到“来自 API 的推文”的 MCC 为 -0.779,这意味着它与帐户的类别严格相关,但有一个相反的因素:在我们的数据集中,虚假的追随者帐户几乎从不来自 API 的推文(相反,他们使用 发布推文),而人类帐户至少从网站外部发布过一次。这与博主为机器人建议的行为完全相反,后者(应该)几乎完全使用 API 发布推文。 I gain/I gain* 和 Pcc/Pcc* 值也证实了与预测任务的相关性。
另一个有趣的观察是,Socialbakers 提出的许多规则的 MCC 值接近 0,这意味着它们的结果几乎与账户类别无关。事实上,绝大多数账户都被识别为人类,从而导致高精度、0.5 左右的准确度和非常低的召回率。例外是规则 6,“0 条推文”:通常,它的信息增益值为 0.02,但当考虑一个特征(即推文数量)时,它获得 0.621。类似地,规则4和规则5在考虑它们的基本特征(即转发数和带有url的tweet数)时对检测过程更有用。总而言之,独立于帐户的类型,规则几乎总是得到满足,导致在处理虚假关注者检测时出现严重缺陷。
5. 基于特征集的伪造检测算法
在本节中,我们研究了 [8, 2] 中解决 Twitter 上的垃圾邮件帐户检测的工作。他们都提出了要从手动分类的帐户数据集中提取的特征列表。然后使用这些特征集来训练和测试机器学习分类器,以区分人类和垃圾邮件发送者。即使提议的功能最初是为垃圾邮件检测而设计的,但在这里,我们第一次认为它们可以发现另一类 Twitter 帐户,即假粉丝。尽管在关注 Twitter 垃圾邮件检测的文献中存在许多其他著作(参见第 2 节),但其中许多都考虑了可以在某种程度上与本节和前一节中分析的特征相似的特征。
与第 4 节中基于规则的算法不同,此处将特征表示为所考虑样本属性的量化。因此,它们是在没有任何关于将表征所考虑类的特征的值的先验知识的情况下引入的。只有在训练阶段之后,才有可能观察不同类别中特征的最常见值。
对于我们的分析,我们使用了生成“玻璃盒”和“黑盒”模型的分类器。在“玻璃盒”模型中,例如决策树和回归模型,模型的内部结构可以被人类理解,也提供了关于分类器如何识别虚假账户的见解 [39]。相反,在诸如支持向量机之类的“黑盒”模型中,模型的内部结构没有直接的人类可解释的对应关系。
5.1 检测社交网络中的垃圾邮件发送者
[8] 中提出的研究侧重于垃圾邮件检测。作者利用了几个特征,这些特征可以从账户的个人资料和时间线中抓取账户的详细信息。对于每个调查的帐户,在随机森林算法 [23, 43] 中利用这些特征,该算法输出该帐户是否是垃圾邮件机器人。 [8] 中的分析结果描述了正在调查的垃圾邮件帐户的一些有趣特征,如表9所示:
为了评估特征 3,我们通过检查帐户时间线的最后 15 条推文中是否存在至少两条推文来实现消息相似度的概念,其中 4 个连续单词相等。同一作者在后来的作品中给出了这个概念 [25]。
如果没有原创训练集,我们无法重现相同的分类器,但我们选择了五个特征并使用它们用我们的 BAS 数据集训练一组分类器。结果报告在第 5.3 节的表 12 中。
5.2 对抗不断发展的 Twitter 垃圾信息散布者
[2] 的作者观察到 Twitter 垃圾邮件发送者经常修改他们的行为以逃避现有的垃圾邮件检测技术。因此,他们建议考虑一些新功能,使垃圾邮件发送者更难以规避。除了直接从帐户配置文件查找中获得的功能之外,作者还提出了一些基于图形、自动化和时间的功能。在表 10 中,我们详细介绍了其中的九个,以及他们在 [2] 中的分析结果
[2] 的作者将他们的特征结合在四种不同的机器学习分类器中,并将它们的实现与其他现有方法进行比较。我们无法完全重现 [2] 中的机器学习分类器,因为我们有不同的数据集。相反,我们在此评估这些功能在检测虚假 Twitter 追随者方面的表现如何,这些功能被证明对垃圾邮件发送者采用的规避技术非常强大。与 [2] 中一样,以下比率(特征 9)已近似为朋友/年龄的比率,因为精确的评估需要知道一个帐户的朋友数量的演变,但这实际上是公开不可用的.最后,在[2]中,除了上面提到的那些之外,还有其他的特征。然而,正如同一作者所声称的,它们在规避技术方面的鲁棒性较差,因此我们决定不将它们包括在我们的评估中。
5.3 评估
正如第 4 节中的规则集所做的那样,我们在表 11 中报告了 BAS 数据集中所有特征的信息增益和 Pearson 相关系数的评估。同样在这种情况下,由于 Pcc 评估所考虑的特征和类别之间的线性相关性(只能为 0 或 1),因此与信息增益相比,它产生的结果略有不同。观察表 11 中的结果,我们可以确定几个有希望的特征:“推文数量”(已经在第 4 节中注意到)、“朋友和关注者之间的比率^2”、“双向链接比率”和“API 比率”。 5.4.3 节的实验将进一步证实双链路比率的有益效果。
为了评估第 5.1 节和第 5.2 节中描述的特征集在检测虚假追随者帐户方面的综合有效性,我们使用了 8 个分类器,这些分类器来自不同的基于机器学习的算法,即:装饰 (D)、自适应提升 (AB)、随机森林(RF)、决策树 (J48)、贝叶斯网络 (BN)、k-最近邻 (kNN)、多项岭逻辑回归 (LR) 和支持向量机 (SVM)。我们的 SVM 分类器利用径向基函数 (RBF) 内核,并使用 libSVM 作为机器学习算法进行了训练 [44]。在 SVM 的训练阶段,成本和 gamma 参数已通过网格搜索算法进行了优化。类似地,kNN 分类器的 k 参数和 LR 模型的脊惩罚参数已通过交叉验证参数选择算法进行了优化。这项工作中使用的所有分类器和优化算法都是在 Weka 框架内实现的 [43]。
在这些算法中,RF 是 [8] 中唯一使用的一种。相反,[2] 的作者使用了 D、RF、J48 和 BN。我们决定将 AB 纳入我们的工作,因为它被认为是用于分类任务的最有效的机器学习算法之一 [39]。此外,我们还添加了其他著名的和广泛采用的分类器,它们基于不同的分类技术,如支持向量机,kNN和LR,以便对我们的检测系统进行彻底的评估。我们已经建立了 8 个分类器,采用了第 5.1 节和第 5.2 节中的特征,并使用我们的基线(BAS)数据集训练了模型。然后,我们使用 10 倍交叉验证 [23] 来估计每个获得的分类器的性能。至于 4.4 节中基于规则的算法,我们将 MCC 视为评估分类器性能的首选指标。表 12 总结了结果。每个指标的最高值以粗体显示。
我们可以观察到所有的分类器都有很好的预测能力。基于 [2] 的特征集构建的那些获得了稍微好一点的结果。特别是,RF、J48 和 D 分类器的 MCC 大于 0.98。同样,所有这些的准确率和召回率都在 0.99 左右。此外,与使用 [8] 的特征集构建的分类器相比,基于 [2] 的特征集的所有分类器都具有更高的 AUC。无论如何,后者也获得了很高的检测水平:RF、D 和 J48 的准确率、精确度和召回率约为 0.98,MCC 约为 0.96。相对于使用 Yang 等人的集合获得的精度和召回率较低。 [2] 表明 Stringhini 等人的特征。 [8] 表现出将某些人类帐户视为虚假追随者的趋势。对于 [2] 和 [8] 特征集,BN、kNN 和 LR 分类器总体上实现了更差的性能。相反,SVM 分类器取得了显着的结果,尤其是在使用 [2] 的特征集时。事实上,在这个实验中,SVM 的得分只比 RF、D 和 J48 稍差,但比 AB 好。然而,当使用 AUC 指标评估时,AB 实现了极高的性能。最后,在所有考虑的分类器和评估指标中,RF 和 D 是已被证明更一致的那些。
总体而言,即使在评估指标中可以观察到一些小的差异,对于我们的基线 BAS 数据集,所有分类器几乎都可以正确区分人类和虚假追随者帐户。与CC算法相比,基于特征的分类器在假追随者检测方面无疑更准确,但CC算法在我们的数据集中表现不佳,如上文第4.5节所述。
5.4. Discussion
通过检查分类器的内部结构,我们可以深入了解更有助于区分人类和虚假追随者的最佳特征。在决策树的情况下,最好的特征是更接近根的特征,分类器自动找到数字阈值,对于给定的特征,人类和假追随者之间的边界。值得注意的是,装饰、AdaBoost 和随机森林算法最终也利用了简单决策树分类器的组合。尽管它们的性能非常好,但它们的缺点是难以分析,因为它们可以收录数十个相互作用的单独树。然后,我们只关注 J48 分类器(单个决策树)来检查特征在分类过程中是如何应用的。
5.4.1 虚假关注者和垃圾邮件帐户之间的区别
查看树形结构,我们观察到 BAS 数据集中的虚假关注者与 [8] 和 [2] 中的垃圾邮件帐户之间存在一些有趣的差异。例如,已发现特征 URL 比率对垃圾邮件发送者的值高于对合法用户的值,如 [8](第 5.1 节)中强调的那样。相反,观察我们的 J48 分类器的树形结构,该特征的低值表示虚假追随者,而在我们的基线数据集中表示人类账户的较高值。在我们的训练数据集中,超过 72% 的虚假关注者的 URL 比率低于 0.05,与 14% 的人类账户相反。同样,发现垃圾邮件发送者的 API 比率功能高于合法帐户([2],另请参见第 5.2 节)。在我们的数据集中,78% 的假粉丝的 API 比率低于 0.0001。对于普通邻居的推文特征,已经观察到类似的行为,在 [2] 中发现垃圾邮件发送者的行为较低,但对于我们的假追随者而言则较高。
这些初步观察突出了垃圾邮件帐户和虚假追随者之间的行为差异。特别是,与垃圾邮件发送者相比,虚假关注者似乎更被动,并且他们不像垃圾邮件发送者通常那样使用自动机制来发布他们的推文。
5.4.2 减少过度拟合
众所周知,经过训练的分类器可能会受到“过度拟合”的影响,即对训练数据集过于专业化并且无法将分类推广到新的和看不见的数据的问题[45]。
避免过度拟合的一个简单方法是使分类器尽可能简单。例如,在决策树算法的情况下,一种解决方案可能是减少节点的数量,并可能减少树的高度。使用 Stringhini 等人的特征集获得的决策树。 [8] 有 22 个叶子,43 个节点,高度为 7,而最好的特征是放在根的朋友/(followers^2)比率。具有杨等人特征集的决策树。 [2]有17个叶子,33个节点,高度为8,以双向链接比为根。
泛化分类器的一种常见做法是采用更积极的剪枝策略,例如,通过对小测试集使用减少错误剪枝 [23, 43]。采用这种策略,我们能够获得具有较少节点数和非常低高度的更简单的树。这种更简单的树通常使用特征集的子集,在我们的 BAS 数据集上仍然保持非常好的性能。
表 13 报告了我们进行的实验的特征和性能,改变了剪枝策略。值得注意的是,树的复杂性并不总是与检测能力的提高直接相关:例如,对于 Yang 等人的特征集。 [2],将节点数量从 33 个减少到 11 个,只会降低 0.007 的精度和 0.014 的 MCC。
同样,树的修剪和未修剪版本之间的 AUC 值几乎保持不变。此外,我们清楚地观察到 Stringhini 等人的修剪版本。 [8] 减少了 0.017 的召回率,而 Yang 等人的 [2]仅下降 0.004,这意味着后者在修剪后能够比前者漏掉更少的假货。这从 F-Measure 和 MCC 的较高减少也很明显。我们认为这种提高的有效性是所用特征质量的直接结果。总体而言,该实验的结果表明,即使减少特征,检测率也可能高于 0.95(如表 13 的最后一行,分别针对 [8] 和 [2])。例如,在这两个实验中,被修剪的树使用的特征只有双向链接比率、平均邻居的追随者、年龄,以及对中位数邻居追随者的追随者作为杨的原创特征集的子集等。 [2],以及作为 Stringhini 等人的子集的朋友/(追随者^2)、URL 比率和朋友数量。 [8] 原创特征集。
核心方法:PHP文章采集方法及思路

1.采集文章的大致思路: 1.定时抓取文章列表页,提取文章的所有链接地址写入临时表2、从数据库中读取获取文章的所有链接并访问,然后定期匹配文章的标题和内容,写入文章表。2.其中两个需要注意: 1.采集防死:因为程序在采集的过程中需要执行很多操作,如果是一次性全部读取,加上一些网络问题(比如网速慢,网络不稳定),程序在采集的过程中可能会出现页面超时。为此,我想到了用一个一个一个读入的方法,就是在打开页面的时候,read-only每次取一个文章 链接到采集,然后跳转到页面,可以减轻程序运行的负担,增加程序运行的流畅度,从而在一定程度上减少页面超时的问题。2. 采集文章中的图片:在采集...

汇总:【技术干货】大数据日志分析统计
采集交流 • 优采云 发表了文章 • 0 个评论 • 65 次浏览 • 2022-10-14 15:14
作者:罗广,网易高级开发工程师,目前从事分布式视频处理系统的开发和维护工作。曾参与天空手游平台服务器的开发和海康威视交警平台组的平台架构开发和JVM调优。熟悉基于SOA的分布式系统架构设计和Storm Streaming框架。对lucene和solr搜索有丰富的经验,对hadoop和spark有浓厚的兴趣。
一
日志概述
日志来自第三方 CDK 制造商。主要内容是推拉流的日志,包括rtmp推拉流、flv拉流、hls拉流。flv和hls拉流的协议是http,rtmp推流和拉流的协议是rtmp。大致格式如下:
分析指标为在线数、总时长、总流量(客户端到服务器的流量和服务器到客户端的流量之和)。需要用到的数据也在上图中用红色表示。乍一看可以做distinct和sum,但其实上面的流日志在垂直方面比较一致,在水平方面对比比较大。统计的粒度要求精确到频道和分钟,不能直接从日志数据中获取频道。一个会话中大约有10条RTMP数据(会话ID相同),但只能间接获取2条数据;一条FLV数据代表一个会话,可以轻松获取频道;HLS 数据是客户端' s 主动性首先从服务器获取一条Meta信息,比如可以获取多少条数据信息data,然后继续获取data数据。一个会话可能会产生数以万计的日志记录。
日志分析特点:数据量大、数据内容格式不同、延迟(只能获取第二天的数据)、细粒度统计(后续可能是5分钟、1小时、日、月、 ETC。)。一天的数据量约4000万,完全不均匀分布在约250个域名上,1个月左右数据量翻倍(取决于新增用户和转化率)。.
二
分析过程
第一阶段:数据模型分析
采集 CDN 供应商的日志,解析它们,存储在 MySQL 中,并启动分析和统计任务。这个阶段是需求研究,数据模型与数据大小无关。
阶段 2:数据清洗、MongoDB 存储和 MapReduce
在模型分析阶段,随着数据量的增加和分析指标的聚合操作,MySQL存储在检索、聚合以及后续的重新聚合已经不能满足系统需求,更换存储势在必行。MongoDB 因其基于文档的存储、简单的 API (JSON)、高性能、方便的集群分片和内置的 MapReduce 功能而成为该系统的替代数据库。网易在MongoDB方面也有比较资深的实战经验。
通过对存储数据的反复分析比较,发现与Uri和Url相关的数据并没有产生任何值,大大增加了存储容量。因此,对原创数据进行清洗,只保留客户端IP、日期、时间、时长、流量等。对结果有影响的字段,记录不符合原日志分析规则的数据,用于后续数据修正。根据不同的协议规则(Rtmp除外),设置其频道ID,方便后续根据频道进行分析。rtmp数据单独存储在一个表中,rtmp数据根据同一个session,同一个channel进行修正。至此,log数据已经被修正到同一个平面,和map、reduce、并编写相关维度的 finalize 函数来执行 MapReduce 计算。作业调度器(schduler)协调管理任务执行单元(worker),根据任务链、任务状态的变化判断是否调度下一个任务。
三
整体架构
即紧接上述第三阶段,在第二阶段的基础上,考虑系统的高可用、分布式、容错等维度,采用去中心化的方案设计,依托RabbitMQ进行横向扩展,增加了对外接口层和任务的手动发布处理。
1
集电极
记录数据采集器(定时),从CDN端获取每个域名对应的数据包下载地址,将后缀相同的域名分类为一个整体,创建作业(Job)。根据下载地址下载日志包(原创数据包用gzip压缩)。在这个过程中,为了防止并发访问过高而被CDN方拒绝,进行了熔断过程,即在规定时间内抑制访问次数。
获取数据包后,调用linux系统命令gzip命令解压;顺序读取日志文件,如果单个日志文件很大,会用包号分包;这批数据将被 gzip 压缩并扔到 Rabbitmq 中。上面创建了作业。一个 Job 最多对应四个域名,分别创建子 Job。每次下载、解压、数据传输,分别记录状态(启动时间、耗时、失败/成功),方便后续失败任务检测和性能分析。
2
工人
任务执行单元。订阅从rabbitmq获取日志包数据。如果是HTTP协议(上面的hls、flv),先清理数据,然后在java中根据channel维度进行map reduce计算。ip set数据结构使用hashset来ip to 最后将结果存入mongodb;如果使用 RTMP 协议,则更新数据(设置通道),并使用 mongodb 聚合数据。生成的数据格式与HTTP日志一致,方便后续通道聚合操作。聚合操作涉及到细粒度的分析。这里使用了一个小技巧,将日期和时间结合起来,添加了一个字段ymdhm,代表点,这个字段的数据非常离散,大大提高了map reduce的运行效率。.
MongoDB 中的 MapReduce 相当于关系数据库中的 group by。使用 MapReduce 实现 Map 和 Reduce 两个功能。Map函数调用emit(key, value),遍历采集中的所有记录,将key和value传递给Reduce函数进行处理。本文使用javascript代码编写map和reduce函数,主要处理ip set去重和流量积累。
3
调度器
worker执行调度器,负责记录每个子任务的状态,判断子任务是否完成。如果执行完成,则从作业链中获取下一个子任务的队列,扔到rabbitmq中供worker消费。此外,还包括失败任务检测,轮询当日任务列表,判断任务是否完成。如果有任务执行失败,它会从分析表中抓取数据扔到临时集合中,再次进行聚合分析,最后将结果归档。
4
mongodb
MongoDB的版本是3.0.1,对应的java客户端是mongo-java-driver3.0.1。在高可用方面,使用了官方推荐的主从复制和高可用方案Replicat Set。Replicat Set 具有自动切换功能。当Primary挂掉时,可以由Replica Set中的Secondary自动切换到Primary,实现高可用。目的。比如配置了一个由3台服务器组成的mongo集群,1主2副,客户端连接时需要写入所有IP,并设置读操作从副本集读取,实现主从分离,减少主节点的访问压力。
5
兔子MQ
为了确保消息不丢失,RabbitMQ 支持消息确认。消费者发送消息回复,告诉 RabbitMQ 在 RabbitMQ 可以将其删除之前,该消息已被接收并处理。如果一个消费者宕机了,没有发送响应,RabbitMQ 会理解该消息没有被完全处理,然后将其交给另一个消费者重新处理。这样,所有依赖 RabbitMQ 的节点都不会丢失消息,保证了整个分析过程的完整性。没有任何消息超时限制,RabbitMQ 只会在消费者宕机时重新投递,即使处理一条消息需要很长时间。
镜像队列是 RabbitMQ 高可用的一种。队列中消息的每个节点都会有一个副本。在单个节点故障的情况下,整个集群仍然可以提供服务。但是,由于数据需要在多个节点上进行复制,因此系统的吞吐量会降低,而可用性会提高。在实现机制上,镜像队列内部实现了一套选举算法。有一个master和多个slave。队列中的消息主要是master。对于发布,您可以选择要连接的任何节点。如果节点不是rabbitmq中的master,就会转发给master。master将消息发送给其他slave节点,然后将消息本地化,并多播复制消息到其他节点进行存储;对于消费者来说,可以选择任意节点连接,消费请求会转发给master。为了保证消息的可靠性,消费者需要确认ack。master收到ack后会删除消息,ack消息是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。
镜像队列使用起来比较简单。先将当前节点加入之前已经启动的RabbitMQ节点,然后设置HA策略。下图为镜像节点的启动脚本:
镜像节点设置成功后,可以看到整个集群的状态。
四
健康
在线部署一共7台服务器,包括2台云主机,每台4核8G,部署schduler、collector和rabbitmq;3台云主机,每台4核8G,部署mongodb Cluster Replica Set;2台云主机,每台8核32G,部署16个Worker实例,4000万数据,20分钟完成分析。
汇总:内容采集
爬虫:用于搜索,但搜索的内容仍然在原来的网站、主动、智能
采集:将其他网站放在您的网站上
网站首页相当于入口,入口下有很多一级分类,首页是上下层的关系。分类是分层的
网站内容体系结构:
首先确定抓取范围:首先分析网站的内容结构;例如:抓取整个堆栈的数据 - 然后使用网站主页作为入口
网站内容结构:首页下为一级分类
,而下一级分类就是二级分类
内容爬网过程:
门户是一个列表页
要使用 Java 程序进行解析,必须首先获取页面的 html 代码
如果你想获取数据,你必须首先分析网址是什么样的
关于提取:HTML 解析类库:日功和小数
1,jsoup
前提条件:没有第三方类库自动帮我做到这一点,用纯Java系统类库做吗?
转载于: 查看全部
汇总:【技术干货】大数据日志分析统计
作者:罗广,网易高级开发工程师,目前从事分布式视频处理系统的开发和维护工作。曾参与天空手游平台服务器的开发和海康威视交警平台组的平台架构开发和JVM调优。熟悉基于SOA的分布式系统架构设计和Storm Streaming框架。对lucene和solr搜索有丰富的经验,对hadoop和spark有浓厚的兴趣。
一
日志概述
日志来自第三方 CDK 制造商。主要内容是推拉流的日志,包括rtmp推拉流、flv拉流、hls拉流。flv和hls拉流的协议是http,rtmp推流和拉流的协议是rtmp。大致格式如下:
分析指标为在线数、总时长、总流量(客户端到服务器的流量和服务器到客户端的流量之和)。需要用到的数据也在上图中用红色表示。乍一看可以做distinct和sum,但其实上面的流日志在垂直方面比较一致,在水平方面对比比较大。统计的粒度要求精确到频道和分钟,不能直接从日志数据中获取频道。一个会话中大约有10条RTMP数据(会话ID相同),但只能间接获取2条数据;一条FLV数据代表一个会话,可以轻松获取频道;HLS 数据是客户端' s 主动性首先从服务器获取一条Meta信息,比如可以获取多少条数据信息data,然后继续获取data数据。一个会话可能会产生数以万计的日志记录。
日志分析特点:数据量大、数据内容格式不同、延迟(只能获取第二天的数据)、细粒度统计(后续可能是5分钟、1小时、日、月、 ETC。)。一天的数据量约4000万,完全不均匀分布在约250个域名上,1个月左右数据量翻倍(取决于新增用户和转化率)。.
二
分析过程
第一阶段:数据模型分析
采集 CDN 供应商的日志,解析它们,存储在 MySQL 中,并启动分析和统计任务。这个阶段是需求研究,数据模型与数据大小无关。
阶段 2:数据清洗、MongoDB 存储和 MapReduce
在模型分析阶段,随着数据量的增加和分析指标的聚合操作,MySQL存储在检索、聚合以及后续的重新聚合已经不能满足系统需求,更换存储势在必行。MongoDB 因其基于文档的存储、简单的 API (JSON)、高性能、方便的集群分片和内置的 MapReduce 功能而成为该系统的替代数据库。网易在MongoDB方面也有比较资深的实战经验。

通过对存储数据的反复分析比较,发现与Uri和Url相关的数据并没有产生任何值,大大增加了存储容量。因此,对原创数据进行清洗,只保留客户端IP、日期、时间、时长、流量等。对结果有影响的字段,记录不符合原日志分析规则的数据,用于后续数据修正。根据不同的协议规则(Rtmp除外),设置其频道ID,方便后续根据频道进行分析。rtmp数据单独存储在一个表中,rtmp数据根据同一个session,同一个channel进行修正。至此,log数据已经被修正到同一个平面,和map、reduce、并编写相关维度的 finalize 函数来执行 MapReduce 计算。作业调度器(schduler)协调管理任务执行单元(worker),根据任务链、任务状态的变化判断是否调度下一个任务。
三
整体架构
即紧接上述第三阶段,在第二阶段的基础上,考虑系统的高可用、分布式、容错等维度,采用去中心化的方案设计,依托RabbitMQ进行横向扩展,增加了对外接口层和任务的手动发布处理。
1
集电极
记录数据采集器(定时),从CDN端获取每个域名对应的数据包下载地址,将后缀相同的域名分类为一个整体,创建作业(Job)。根据下载地址下载日志包(原创数据包用gzip压缩)。在这个过程中,为了防止并发访问过高而被CDN方拒绝,进行了熔断过程,即在规定时间内抑制访问次数。
获取数据包后,调用linux系统命令gzip命令解压;顺序读取日志文件,如果单个日志文件很大,会用包号分包;这批数据将被 gzip 压缩并扔到 Rabbitmq 中。上面创建了作业。一个 Job 最多对应四个域名,分别创建子 Job。每次下载、解压、数据传输,分别记录状态(启动时间、耗时、失败/成功),方便后续失败任务检测和性能分析。
2
工人
任务执行单元。订阅从rabbitmq获取日志包数据。如果是HTTP协议(上面的hls、flv),先清理数据,然后在java中根据channel维度进行map reduce计算。ip set数据结构使用hashset来ip to 最后将结果存入mongodb;如果使用 RTMP 协议,则更新数据(设置通道),并使用 mongodb 聚合数据。生成的数据格式与HTTP日志一致,方便后续通道聚合操作。聚合操作涉及到细粒度的分析。这里使用了一个小技巧,将日期和时间结合起来,添加了一个字段ymdhm,代表点,这个字段的数据非常离散,大大提高了map reduce的运行效率。.
MongoDB 中的 MapReduce 相当于关系数据库中的 group by。使用 MapReduce 实现 Map 和 Reduce 两个功能。Map函数调用emit(key, value),遍历采集中的所有记录,将key和value传递给Reduce函数进行处理。本文使用javascript代码编写map和reduce函数,主要处理ip set去重和流量积累。
3
调度器

worker执行调度器,负责记录每个子任务的状态,判断子任务是否完成。如果执行完成,则从作业链中获取下一个子任务的队列,扔到rabbitmq中供worker消费。此外,还包括失败任务检测,轮询当日任务列表,判断任务是否完成。如果有任务执行失败,它会从分析表中抓取数据扔到临时集合中,再次进行聚合分析,最后将结果归档。
4
mongodb
MongoDB的版本是3.0.1,对应的java客户端是mongo-java-driver3.0.1。在高可用方面,使用了官方推荐的主从复制和高可用方案Replicat Set。Replicat Set 具有自动切换功能。当Primary挂掉时,可以由Replica Set中的Secondary自动切换到Primary,实现高可用。目的。比如配置了一个由3台服务器组成的mongo集群,1主2副,客户端连接时需要写入所有IP,并设置读操作从副本集读取,实现主从分离,减少主节点的访问压力。
5
兔子MQ
为了确保消息不丢失,RabbitMQ 支持消息确认。消费者发送消息回复,告诉 RabbitMQ 在 RabbitMQ 可以将其删除之前,该消息已被接收并处理。如果一个消费者宕机了,没有发送响应,RabbitMQ 会理解该消息没有被完全处理,然后将其交给另一个消费者重新处理。这样,所有依赖 RabbitMQ 的节点都不会丢失消息,保证了整个分析过程的完整性。没有任何消息超时限制,RabbitMQ 只会在消费者宕机时重新投递,即使处理一条消息需要很长时间。
镜像队列是 RabbitMQ 高可用的一种。队列中消息的每个节点都会有一个副本。在单个节点故障的情况下,整个集群仍然可以提供服务。但是,由于数据需要在多个节点上进行复制,因此系统的吞吐量会降低,而可用性会提高。在实现机制上,镜像队列内部实现了一套选举算法。有一个master和多个slave。队列中的消息主要是master。对于发布,您可以选择要连接的任何节点。如果节点不是rabbitmq中的master,就会转发给master。master将消息发送给其他slave节点,然后将消息本地化,并多播复制消息到其他节点进行存储;对于消费者来说,可以选择任意节点连接,消费请求会转发给master。为了保证消息的可靠性,消费者需要确认ack。master收到ack后会删除消息,ack消息是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。
镜像队列使用起来比较简单。先将当前节点加入之前已经启动的RabbitMQ节点,然后设置HA策略。下图为镜像节点的启动脚本:
镜像节点设置成功后,可以看到整个集群的状态。
四
健康
在线部署一共7台服务器,包括2台云主机,每台4核8G,部署schduler、collector和rabbitmq;3台云主机,每台4核8G,部署mongodb Cluster Replica Set;2台云主机,每台8核32G,部署16个Worker实例,4000万数据,20分钟完成分析。
汇总:内容采集
爬虫:用于搜索,但搜索的内容仍然在原来的网站、主动、智能
采集:将其他网站放在您的网站上
网站首页相当于入口,入口下有很多一级分类,首页是上下层的关系。分类是分层的
网站内容体系结构:

首先确定抓取范围:首先分析网站的内容结构;例如:抓取整个堆栈的数据 - 然后使用网站主页作为入口
网站内容结构:首页下为一级分类
,而下一级分类就是二级分类
内容爬网过程:
门户是一个列表页

要使用 Java 程序进行解析,必须首先获取页面的 html 代码
如果你想获取数据,你必须首先分析网址是什么样的
关于提取:HTML 解析类库:日功和小数
1,jsoup
前提条件:没有第三方类库自动帮我做到这一点,用纯Java系统类库做吗?
转载于:
经验:这5个应用你要全有,绝对是老司机无疑!
采集交流 • 优采云 发表了文章 • 0 个评论 • 111 次浏览 • 2022-10-14 15:14
大家好,我是小昊~
今天给大家分享5款非常好用的电脑软件,可以解决很多问题,直接上干货!
▍1. 格式工厂
格式工厂是一款办公工具,可以转换几乎所有类型的多媒体格式,以及文件压缩、图像处理、视频文件修复、文件备份等功能。
▍2.Keepass
KeePass 是一款功能强大的密码管理软件。它可以帮助您记住电子邮件、主页FTP、Internet、论坛等的用户名和密码,解决您忘记密码的烦恼,节省时间。
KeePass 将密码存储在高度加密的数据库中,其他人和其他应用程序无法识别。
▍3.优采云采集器
优采云采集器 由前 Google 技术团队打造。基于人工智能技术,只需输入网址即可自动识别采集的内容。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图片、价格等。
流程图模式:只需要根据软件提示点击页面,完全符合浏览网页的思维方式。复杂的 采集 规则可以通过几个简单的步骤生成。结合智能识别算法,任何网页的数据都可以轻松采集。
可以模拟操作:输入文本、点击、移动鼠标、下拉框、滚动页面、等待加载、循环操作和判断条件等。
谢谢大家的支持!
▍4.ScreenToGif
ScreenToGif是一款非常好用的录屏、拍照、画板和GIF编辑软件,开源免费,功能强大实用。
ScreenToGif 整体操作非常流畅,界面也非常简洁,编辑功能也非常丰富。
▍5.罗兰
Rolan 是一款轻量级的桌面快速启动工具,可以让你快速启动各种软件和命令。常用软件和群组可以自定义管理,提高您的电脑操作效率和办公效率。
Launchpad可以灵活设置属性和组结构,自由存储内容;launchpad支持两级分组;快捷方式可以存储在组中;指定文件夹内容实时显示,无需手动进入文件夹;还有浏览器书签、笔记、剪贴板历史、快捷键绑定等等。
今天的分享到此结束。感谢您在这里看到它。如果你喜欢它,记得喜欢它,观看它,并与你的朋友分享。
▍软件获取
##老规矩,文章点击右下角“关注”,点击底部“小光gào”,即可获取资源。你在看,加上鸡腿让我更有动力分享##
解决方案:常见的6个东莞网站优化工具(90%站长都用过)
无论你做什么,你都可以使用一些工具,用更少的资源实现更多的目标。东莞网站优化是一样的,通过使用一些网站优化工具,可以更好更快地增加网站权重和关键词排名。今天,有素网会给大家介绍6个常用的东莞网站优化工具,相信90%的网站主都用过。
东莞常见的6网站优化工具如下:
1.百度站长工具。百度搜索资源平台又称URL:,如果是百度SEO优化,这个网站一定要用,通过这个网站,可以了解百度的实时算法更新动态,提交百度地图,模拟网站抓取,网站显示和点击等,非常重要。
2. 网站管理员之家。通常也称为站长工具,URL:,这种网站SEO工具非常多,可以查询网站的权重、域名年限、IP、关键词排名、友情链接检测和网站速度测量等功能,这种网站相信90%以上的站长都知道。
3. 爱站网络。URL:这个网站类似于“网站管理员之家”,两者的许多功能都是相同的。
4. 搜外网络。网站:搜外是一家专业的SEO培训和交流网站,在这里您可以找到许多从事SEO的网站管理员。
5、5118。URL:这个网站也非常强大,关键词挖掘、网站权重查询、反向链接查询、内容查找等,都可以通过这个网站进行操作。
6.橘子搜索引擎优化工具。URL:这个网站比较大的特点是查询网站的外部链接,这个网站还可以查询域名的历史记录、搜索旧域名、网站标题主题检测等,对外部链接有很好的参考数据。
以上就是“东莞6种常见的网站优化工具(90%的网站管理员都用过)”的介绍,感谢您的阅读。 查看全部
经验:这5个应用你要全有,绝对是老司机无疑!
大家好,我是小昊~
今天给大家分享5款非常好用的电脑软件,可以解决很多问题,直接上干货!
▍1. 格式工厂
格式工厂是一款办公工具,可以转换几乎所有类型的多媒体格式,以及文件压缩、图像处理、视频文件修复、文件备份等功能。
▍2.Keepass
KeePass 是一款功能强大的密码管理软件。它可以帮助您记住电子邮件、主页FTP、Internet、论坛等的用户名和密码,解决您忘记密码的烦恼,节省时间。
KeePass 将密码存储在高度加密的数据库中,其他人和其他应用程序无法识别。

▍3.优采云采集器
优采云采集器 由前 Google 技术团队打造。基于人工智能技术,只需输入网址即可自动识别采集的内容。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图片、价格等。
流程图模式:只需要根据软件提示点击页面,完全符合浏览网页的思维方式。复杂的 采集 规则可以通过几个简单的步骤生成。结合智能识别算法,任何网页的数据都可以轻松采集。
可以模拟操作:输入文本、点击、移动鼠标、下拉框、滚动页面、等待加载、循环操作和判断条件等。
谢谢大家的支持!
▍4.ScreenToGif
ScreenToGif是一款非常好用的录屏、拍照、画板和GIF编辑软件,开源免费,功能强大实用。

ScreenToGif 整体操作非常流畅,界面也非常简洁,编辑功能也非常丰富。
▍5.罗兰
Rolan 是一款轻量级的桌面快速启动工具,可以让你快速启动各种软件和命令。常用软件和群组可以自定义管理,提高您的电脑操作效率和办公效率。
Launchpad可以灵活设置属性和组结构,自由存储内容;launchpad支持两级分组;快捷方式可以存储在组中;指定文件夹内容实时显示,无需手动进入文件夹;还有浏览器书签、笔记、剪贴板历史、快捷键绑定等等。
今天的分享到此结束。感谢您在这里看到它。如果你喜欢它,记得喜欢它,观看它,并与你的朋友分享。
▍软件获取
##老规矩,文章点击右下角“关注”,点击底部“小光gào”,即可获取资源。你在看,加上鸡腿让我更有动力分享##
解决方案:常见的6个东莞网站优化工具(90%站长都用过)
无论你做什么,你都可以使用一些工具,用更少的资源实现更多的目标。东莞网站优化是一样的,通过使用一些网站优化工具,可以更好更快地增加网站权重和关键词排名。今天,有素网会给大家介绍6个常用的东莞网站优化工具,相信90%的网站主都用过。
东莞常见的6网站优化工具如下:
1.百度站长工具。百度搜索资源平台又称URL:,如果是百度SEO优化,这个网站一定要用,通过这个网站,可以了解百度的实时算法更新动态,提交百度地图,模拟网站抓取,网站显示和点击等,非常重要。

2. 网站管理员之家。通常也称为站长工具,URL:,这种网站SEO工具非常多,可以查询网站的权重、域名年限、IP、关键词排名、友情链接检测和网站速度测量等功能,这种网站相信90%以上的站长都知道。
3. 爱站网络。URL:这个网站类似于“网站管理员之家”,两者的许多功能都是相同的。
4. 搜外网络。网站:搜外是一家专业的SEO培训和交流网站,在这里您可以找到许多从事SEO的网站管理员。

5、5118。URL:这个网站也非常强大,关键词挖掘、网站权重查询、反向链接查询、内容查找等,都可以通过这个网站进行操作。
6.橘子搜索引擎优化工具。URL:这个网站比较大的特点是查询网站的外部链接,这个网站还可以查询域名的历史记录、搜索旧域名、网站标题主题检测等,对外部链接有很好的参考数据。
以上就是“东莞6种常见的网站优化工具(90%的网站管理员都用过)”的介绍,感谢您的阅读。
解决方案:无人系统故障知识图谱的构建方法及应用
采集交流 • 优采云 发表了文章 • 0 个评论 • 235 次浏览 • 2022-10-14 15:13
于凡坤1、2、胡超芳1、罗晓亮2、梁秀冰2
(1. 天津大学电气自动化与信息工程学院, 天津 300072; 2. 中国人民解放军军事科学院国防科技创新研究院, 北京 100071)
摘要:无人系统产生的海量数据存储分散、缺乏联系,信息共享困难,难以满足无人系统日益复杂和集成化的维护保障需求;知识图谱技术可以将复杂的数据信息提取成结构知识,建立数据之间的联系,增强知识之间的语义信息;以无人系统的故障数据为研究对象,利用知识图谱技术进行知识抽取、知识融合和知识处理,形成一系列相互关联的知识,为构建无人系统领域的故障知识图谱提供了一种可行的方法;知识图谱技术利用海量数据建立的知识库,能有效整合分散的数据信息,提高专业领域知识的利用率和使用价值,具有重要的军事意义。应用前景。
关键词:知识图谱;无人系统;维护支持;自然语言处理
0 前言
近年来,各军事强国高度重视并积极推进无人系统及相关领域的研究,产生了颠覆性的应用技术[1]。我国民用无人机在全球的市场占有率高达70%。以大疆无人机为代表的民用无人机技术一直走在世界前列[2]。差距很大,军用无人机是我国未来武器装备发展的重点方向。
随着信息化、智能化的深入融合发展,无人系统在执行任务的过程中积累了大量数据,国产某型飞机每小时产生的数据量可高达20国标 [3]。无人系统产生的海量数据大多采用故障树分析法来定性分析故障原因。故障树逻辑性强,能有效避免初始故障[4-5]。王进新[6]等。通过贝叶斯网络变换,提出了一种基于贝叶斯的故障诊断方法,有效解决了柴油机润滑系统多故障的解耦诊断问题;楚景春[7]等。概率神经网络构建故障诊断模型,能有效提高风电机组转速故障检测的准确性。故障树分析方法可以有效理解系统故障的原因,但故障树模型中的知识元素缺乏语义联系,无法穷尽所有故障原因,难以满足无人系统的维护保障需求。
人工智能已经渗透到各行各业,迅速而深刻地改变着我们的日常生活。2017年7月,《新一代人工智能发展规划》发布,人工智能逐渐成为国家发展的新兴战略需求,大数据、人机协同、群体智能成为人工智能发展的重点。随着大数据时代的到来,数据量呈指数级增长,海量数据的出现将引发数据处理、数据存储、数据查询、数据集成等方面的技术变革[8-10],将导致无人系统的维护和保障模式。新的挑战和机遇已经到来。现在,无人系统产生的数据采用故障树模型分析故障原因,可以在一定程度上缓解维修保障问题。随着数据量的爆炸式增长,使用故障树模型来分析无人系统的故障原因将导致海量数据的巨大浪费和知识的低利用率。如何有效利用无人系统的海量数据亟待解决。
针对上述情况,为有效利用无人系统产生的海量数据,满足现代无人系统的维护保障需求。考虑到数据的海量、复杂性和语义,本文利用知识图谱技术对无人系统的故障数据进行提取、融合和处理,形成一系列相互关联的知识。人类系统领域的故障知识图谱提供了一种可行的方法。
1 知识图谱概述与架构 1.1 知识图谱定义
知识图谱(Knowledge graph)是 Google 于 2012 年 5 月 17 日正式提出的,作为提高其搜索质量的知识库。知识图谱的本质是一个语义网络,其节点代表实体或概念,边代表实体或概念之间的各种语义关系。知识图谱以结构化三元组的形式存储现实世界中的实体(概念)以及它们之间的关系,即 G = ,Head 表示头部实体,Relation 表示关系集,Tail 表示尾部实体,其中,一些“关系”。”也称为“属性”,相应地,尾部实体称为属性值[11]。例如,在无人系统中,要感知无人机的方向,
图1 无人系统知识图谱示意图
1.2 知识图谱的发展
知识图谱已成为学术界和工业界的研究热点。它最初用于提高搜索引擎的准确率,已广泛应用于机器翻译[12]、智能问答[13]、推荐系统[14-15]等。我国知识图谱虽然起步较晚,但研究成果比较丰富。在学术界,中文知识图谱研究平台zhishi.me、开放知识图谱OpenKG、复旦大学知识工厂等,不仅知识来源广泛,还具备文本理解和智能等功能。搜索,有利于促进知识图谱的普及和应用。. 在工业界,为了提高搜索质量,搜狗、百度先后建立了自己的知识库“知识立方”和“知心”,并引入语义理解技术,将搜索结果精准传递给用户。随着通用知识图谱的快速发展,很多公司都建立了自己的知识库,比如IBM的Watson Health、阿里的健康百科“一智录”等,可见知识图谱在特殊领域也发挥着重要作用。
目前国内外利用无人系统故障数据构建知识图谱的研究较少,但在医疗、旅游、社交网络等垂直领域的知识图谱研究较多。侯梦伟[16]等深入分析了医学知识表示、医学知识抽取、医学知识融合、医学知识推理,总结了构建医学知识图谱的关键技术和挑战;徐璞[17]改进了属性知识扩展和属性值。融合方法提高了知识图谱构建的质量;程文亮[18]使用最大熵模型,使得关系抽取的准确率平均高达85%,构建了企业间的高质量知识图谱。
图2 无人系统数据采集及维护保障示意图
1.3 知识图谱架构
知识图谱一般包括逻辑结构和技术(系统)框架。本文从无人系统领域故障知识图谱的构建入手,详细介绍了技术框架。
1.3.1 知识图谱的逻辑结构
知识图谱在逻辑上可以分为数据层和模式层。模式层通常由本体库管理。本体是结构化知识库的概念模板,如“无人系统故障”、“飞控系统故障”等概念实体。本体库形成的知识库不仅具有很强的层次结构。,且冗余度较小,可见schema层是知识图谱的核心。数据层存储具体的数据信息,由一系列事实组成,如无人系统的常见故障信息,知识以事实为单位存储。在业界,Neo4j 图数据库主要用于存储数据。
1.3.2 知识图谱的系统(技术)架构
随着无人系统智能化的快速发展,传统的数据处理技术难以理解数据之间的隐含关系和规则,信息共享困难,无人系统产生的海量数据无法得到有效利用[3]。知识图谱技术利用自然语言处理、数据挖掘和机器学习技术的方法和原理,使计算机能够更好地理解数据。无人系统在飞行任务和停机维护过程中积累了大量结构化数据(状态监控数据)、半结构化数据(日志文件)和非结构化数据(图片、文档、视频),知识图谱技术可以有效利用这些数据构建了一个高质量的知识库。
图3 无人系统知识图谱架构
从图3可以看出,无人系统知识图谱主要由知识抽取、知识融合和知识处理三部分组成。无人系统知识抽取,通过无人系统在飞行过程中状态参数和运动参数的结构化、半结构化或非结构化信息提取实体、属性及其关系,并将这些信息以三元组的形式存储到知识库中。无人系统知识融合通过实体消歧、实体对齐等方法对无人系统知识库的冗余和错误信息进行整合和消歧,从而提高无人系统知识库的质量。无人系统知识处理,借助知识推理,推断缺失的事实,
2 无人系统故障知识图谱关键技术
构建无人系统知识图谱的方式主要有两种:自下而上和自上而下。自底向上是通过知识抽取获取实体、属性及其关系,通过数据驱动自动化构建本体,进而构建知识图谱;自上而下是先构建顶层本体和数据模式,然后通过实体来丰富它们。形成知识库。目前知识图谱的构建大多采用自下而上的方法,但无人系统故障的知识图谱是领域知识图谱,涉及的知识范围较窄。本文采用自下而上和自上而下相结合的方法构建无人系统。知识图谱。
2.1 知识抽取
知识抽取是从开放的无人系统数据(半结构化数据、非结构化数据)中自动或手动抽取知识单元。知识单元包括实体、关系及其属性。显然,知识抽取由实体抽取组成,它由关系抽取和属性抽取三部分组成。实体提取可以识别专有名词和特殊词并对其进行分类。关系抽取是在网络化知识结构中的许多离散实体之间建立语义联系。实体的属性是实体之间的一种特殊关系。郭建义[19]等利用条件随机场和支持向量机的方法提取景区实体属性相当于实体关系提取,所以属性抽取的问题可以转化为关系抽取。问题。无人系统数据资源包括结构化数据、半结构化数据和非结构化数据。对于不同类型的数据,采用不同的方法将其转换为三元组结构。知识抽取过程如图4所示。
图4 无人系统知识抽取过程
对于无人系统的结构化数据(状态监测数据),由于存储在数据库中的数据结构强,可以直接通过D2R映射自动提取,转化为三元知识单元。对于半结构化数据(百科知识等),可以设计专门的包装器进行针对性的提取。例如,王辉[20]等CN-DBpedia构建的特殊包装器可以实现高质量的网络知识提取。非结构化数据是以文本、图像、视频等文档形式存在的数据,是知识提取的难点。从非结构化数据中提取信息主要有三种方法。基于规则的方法需要领域专家制定具体的规则,不仅耗费大量人力,但也具有较差的鲁棒性。基于机器学习的方法需要对语料库信息进行标注来训练模型,存在标注的语料库质量参差不齐、需要人工提取特征等缺点。目前,半监督学习方法主要用于从小样本中学习,在减少人力资源的同时改进信息。萃取质量。近年来,深度学习的兴起为高质量的信息提取提供了更多途径。BILSTM-CRF是信息提取中的主流深度学习模型。L. Luo [21] 在生物医学领域使用了 BILSTM-CRF 模型。信息抽取使得实体识别和实体关系识别的准确率分别高达91.14%和92.57%,模型在其他领域也取得了不错的效果。
2.2 知识融合
通过知识抽取得到的三元知识单元具有多样性、冗余性、歧义性甚至错误的特点[22]。例如,“无人机系统”和“无人机系统”可能都指向同一个实体。知识融合融合来自不同数据源的多源异构、语义多样的无人系统知识,将异构数据、冲突检测、消歧、处理等集成在同一个框架规范下,从而对知识进行正确的判断,去除粗糙和提炼精华,构建优质知识库[23]。
2.2.1 实体消歧
实体消歧旨在解决实体引用与现实世界实体之间的歧义,实体消歧的难点主要体现在两个方面[24]:
1)实体引用的多样性:同一个实体在文中会有不同的引用;例如,不同的实体指的是“飞行控制”、“飞行控制系统”、“飞行控制系统”等,它们可能都对应于知识库中的“飞行控制系统”。无人机飞控”同一实体。
2)实体引用的歧义:同一个实体引用可以在不同的上下文中引用不同的实体;例如,同一实体引用“大疆”可能对应知识库中的“大疆无人机”和“深圳大疆创新科技”。有限公司”和其他实体。
实体消歧主要包括基于聚类的实体消歧方法和基于实体链接的实体消歧方法。流程示意图如图 5 所示。
图5 实体消歧示意图
从图5可以看出,在没有目标实体的情况下,大部分实体消歧方法都是基于聚类的。聚类方法是根据实体引用的特征(上下文中的词、实体属性等)计算实体引用之间的相似度,并通过聚类算法对实体引用进行聚类。李光义[25]等基于向量空间的相似性,利用层次聚合聚类(HAC)算法对未链接到知识库的文档进行聚类,实现歧义消解,F值高达88.35 %。基于实体链接的实体消歧通过计算实体引用与目标实体之间的相似度,将实体引用链接到与知识库中的实体引用相似度最高的目标实体。但是,当知识库中没有实体引用对应的目标实体时,实体引用会链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。
2.2.2 实体对齐
实体对齐,也称为实体匹配,旨在解决相同或不同知识库中的两个或多个实体在现实世界中是否为同一实体的问题。实体冲突、指向不明确等不一致性问题,高质量链接多个现有知识库,从顶层创建大规模统一知识库[26-27]。
无人系统产生的海量数据和通过知识抽取得到的实体也需要进行实体对齐,以提高无人系统知识库的质量。实体对齐算法是实体对齐技术的核心,主要包括成对实体对齐和协同(集体)实体对齐。Pairwise entity alignment主要通过提取实体及其属性特征并计算其相似度来实现实体对齐。相似度计算方法主要基于传统的概率模型和机器学习方法;协作实体对齐是基于实体对齐的。在计算相似度时,会考虑与实体相关的其他实体属性并赋予权重 [16, 26]。
2.3 知识处理
通过知识抽取、知识融合等技术,可以从无人系统的原创数据中得到基本的事实表达,通过特殊的知识处理,事实可以形成高质量的知识。知识处理主要包括以下四个方面:本体构建、知识推理、质量评估和知识更新。
1)本体构建:无人系统故障知识图谱涉及的知识范围较窄,知识图谱采用自下而上和自上而下相结合的方法构建。本体是标准化共享概念并正式描述对象、属性及其关系[28]。首先确定无人系统故障知识图谱的核心概念(“无人系统故障”、“飞控系统故障”、“动力系统故障”等),并以数据驱动的方式自动构建提取实体的本体方法。步骤:并行关系相似度计算、实体从属关系提取和本体生成[29]。
2)知识推理:知识推理是从现有无人系统知识库中已有的实体关系出发,在实体之间建立新的联系,扩展和丰富知识库的知识网络[30]。知识推理主要包括基于逻辑的推理和基于图的推理,可以从已有的知识中发现新的知识。如果在无人系统知识库中已知(陀螺仪,测量,飞行器方向),(飞行器方向,安全壳,偏航角)和(偏航角,异常,角度),则可以推断陀螺仪有故障。
3)质量评估:无人系统领域通过知识抽取获得的知识元素可能存在误差,无法充分保证通过知识推理获得的新知识的质量。因此,在将其添加到知识库之前,需要进行质量评估过程。,质量评估是保证数据的重要手段,并贯穿知识图谱的整个生命周期[30-31]。通过高置信度的数据筛选,可以进一步保证无人系统知识库中的数据。
4)知识更新:信息随时间的积累是一个动态的过程,无人系统的知识图谱也需要迭代更新。知识库的更新包括模式层的更新和数据层的更新;模式层的更新是指概念层的更新。知识库的概念层增加一个新概念后,需要更新概念的属性和关系;更新主要是添加或更新实体、关系和属性值[30, 32]。
3 知识图谱的军事应用
知识图谱可以提供管理和利用海量异构数据的有效途径,使海量数据能够被普遍链接和良好表达,具有广泛的军事应用。
3.1 智能搜索
传统搜索基于关键词匹配索引,搜索引擎无法理解用户的真实语义,检索效率低[33]。知识图谱本质上是实体之间关系的语义网络,可以改变现有的信息检索方式,通过推理实现概念检索,以图形化的方式展示结构化知识[26, 30],提高检索准确率,知识图谱中有智能搜索的天然优势。知识图谱可应用于智能导弹的目标跟踪。如图6所示,预警机受到周围各类飞机的保护,预警机的目标打击往往受到周围飞机或飞机发出的信号的干扰,
图 6 基于知识图谱的智能导弹
3.2 军事情报问答
搜索引擎一般可以满足人们的信息获取需求,但随着互联网信息的爆炸式增长,搜索结果过多,用户难以快速准确地获取所需信息。能够更好地满足用户信息需求的问答系统受到青睐[34-35]。对于问题的输入,问答系统的输出是简洁的答案或可能答案的列表。在日益复杂的军事问题上,问答系统能够有效提高军事决策效率,对作战决策具有重要意义。图 7 显示了该问答系统在军用飞机上的应用,可以得到准确、简洁的信息结果。
图 7 军事问答系统
3.3 辅助决策
由于计算能力、海量数据和核心算法的出现,基于知识图谱的辅助决策技术在医疗、金融、智慧城市交通等领域有着广泛的应用。例如,IBM的Watson Health利用海量数据形成的知识库,利用深度学习算法,在肿瘤和癌症领域做出决策判断,供医疗专业人士参考。知识图谱通过对数据、知识等信息的分析统计,发现数据与信息的关联性并挖掘规律,根据历史知识库的相关经验进行预测,实现智能辅助决策,并能可用于未来的军事应用。
4。结论
本文引入知识图谱的概念知识,对无人系统海量数据进行知识抽取、知识融合和知识处理,形成高质量的三元知识,为无人系统领域的故障知识图谱构建提供了一种可行的方法。 . 方法。利用海量数据构建的知识图谱具有智能搜索、系统问答、辅助决策等功能,具有重要的军事应用前景。
参考:
[1] 李磊,徐越,姜奇,等。2018年国外军用无人机装备与技术发展概况[J]. 战术导弹技术,2019(2):1-11。
[2] 何道靖,杜晓,乔银荣,等.无人机信息安全研究综述[J].计算机学报, 2019, 42(5): 1076-1094.
[3] 景波,焦晓轩,黄一峰。飞机PHM大数据分析与人工智能应用[J]. 空军工程大学学报(自然科学版), 2019, 20(1): 46-54.
[4] Dugan JB, Sullivan KJ, Coppit D. 开发用于动态故障树分析的低成本高质量软件工具[J]. IEEE Transactions on Reliability, 2000, 49(1): 49-59。
[5] Enno R,Marielle S. 故障树分析:建模、分析和工具方面最新技术的调查[J]。计算机科学评论,2015(15/16):29-62。
[6] 王进新,王忠伟,马秀珍,等。基于贝叶斯网络的柴油机润滑系统多重故障诊断[J]. 控制与决策, 2019, 34(6): 1187-1194。
[7] Chu Jingchun, Wang Fei, Wang Yang, et al. Wind turbine fault diagnosis method based on fault tree and probabilistic neural network [J]. Chinese Journal of Solar Energy, 2018, 39(10): 2901-2907.
[8] Ahmed O, et al. Big data technologies: a survey[J]. Journal of King Saud University-Computer and Information Sciences, 2018, 30(4): 431-448.
[9] Gema BO, Jung JJ, David C. Social big data: recent achievements and new challenges[J]. Information Fusion, 2016, 28: 45-59.
[10] Martin H. Big data for development: a review of promises and challenges[J]. Development Policy Review, 2016, 34(1): 135-174.
[11] Wen Yanan. Visual analysis of international UAV research based on knowledge graph [J]. Journal of Zhengzhou Institute of Aviation Industry Management, 2018, 36(6): 16-25.
[12] Roberto N, Paolo P S. BabelNet: the automatic construction, evaluation and application of a wide-coverage multilingual semantic network[J]. Artificial Intelligence, 2012, 193: 217-250.
[13] Ruan T, Huang YQ, Liu XL, et al. QAnalysis: a question-answer driven analytic tool on knowledge graphs for leveraging electronic medical records for clinical research[J]. BMC Medical Informatics and Decision Making, 2019, 19( 1): 798-811.
[14] Cao ZY, Qiao XH, Jiang S, et al. An efficient knowledge-graph-based web service recommendation algorithm[J]. Symmetry, 2019, 11(3): 392.
[15] He M, Wang B, Du X K. HI2Rec: exploring knowledge in heterogeneous information for movie recommendation[J]. IEEE Access, 2019, 7: 30276-30284.
[16] Hou Mengwei, Wei Rong, Lu Liang, et al. A review of knowledge graph research and its application in the medical field [J]. Computer Research and Development, 2018, 55(12): 2587-2599.
[17] Xu Pu. Research and Implementation of Knowledge Graph Construction Method in Tourism [D]. Beijing: Beijing Institute of Technology, 2016.
[18] 程文亮. 中文企业知识图谱构建与分析[D]. 上海:华东师范大学, 2016.
[19] 郭剑毅,李 真,余正涛,等. 领域本体概念实例、属性和属性值的抽取及关系预测[J]. 南京大学学报(自然科学版),2012, 48(4): 383-389.
[20] 王 辉,郁 波,洪 宇,等. 基于知识图谱的Web信息抽取系统[J]. 计算机工程,2017, 43(6): 118-124.
[21] Luo L,Yang Z H,Yang P,et al. An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition[J]. Bioinformatics, 2018, 34(8): 1381-1388.
[22] 林海伦,王元卓,贾岩涛,等. 面向网络大数据的知识融合方法综述[J]. 计算机学报. 2017, 40(1): 1-27.
[23] Luna D X, Evgeniy G, Geremy H,et al. From data fusion to knowledge fusion[J]. The VLDB Endowment,2014, 7(10): 881-892.
[24] 赵 军,刘 康,周光有,等. 开放式文本信息抽取[J]. 中文信息学报,2011, 25(6): 98-110.
[25] 李广一,王厚峰. 基于多步聚类的汉语命名实体识别和歧义消解[J]. 中文信息学报, 2013, 27(5): 29-34.
[26] 徐增林,盛泳潘,贺丽荣,等. 知识图谱技术综述[J]. 电子科技大学学报,2016, 45(4): 589-606.
[27] 庄 严,李国良,冯建华. 知识库实体对齐技术综述[J]. 计算机研究与发展, 2016, 53(1): 165-192.
[28] Gruber T R. A translation approach to portable ontology specifications[J]. Knowledge Acquisition,1993, 5(2): 199-220.
[29] 史树明. 自动和半自动知识提取[J]. 中国计算机学会通讯, 2013, 9(8): 65-73.
[30] 刘 峤,李 杨,段 宏,等. 知识图谱构建技术综述[J]. 计算机研究与发展,2016, 53(3): 582-600.
[31] 袁凯琦,邓 扬,陈道源,等. 医学知识图谱构建技术与研究进展[J]. 计算机应用研究,2018, 35(7): 1929-1936.
[32] 李 涛,王次臣,李华康. 知识图谱的发展与构建[J]. 南京理工大学学报, 2017, 41(1): 22-34.
[33] 张 骞. 传统搜索引擎与智能搜索引擎比较研究[D]. 郑州:郑州大学, 2012.
[34] 毛先领,李晓明. 问答系统研究综述[J]. 计算机科学与探索, 2012, 6(3): 193-207.
[35] 岳世峰,林 政,王伟平,等. 智能回复系统研究综述[J]. 信息安全学报, 2020, 5(1): 20-34.
Construction and Application of Unmanned System Fault Knowledge Graph
Yu Fankun1,2 , Hu Chaofang1, Luo Xiaoliang2, Liang Xiubing2
(1.School of Electrical and Information Engineering, Tianjin University, Tianjin 300072, China;2.National Innovation Institute of Defense Technology, Academy of Military Sciences PLA China, Beijing 100071, China)
Abstract: The massive data generated by unmanned systems is scattered and lacks in connection, and information sharing is difficult。 It is difficult to meet the maintenance support requirements of unmanned systems with increasing complexity and integration。 Knowledge graph technology can extract complex data information into structured knowledge, establish connections between data, and enhance semantic information between knowledge。 Taking the fault data as the research object, knowledge extraction, knowledge fusion and knowledge processing are carried out by using knowledge graph technology to form a series of interrelated knowledge, which provides a feasible way to construct fault knowledge graph in unmanned system domain。
The knowledge base, which is established by the knowledge graph technology using tremendous data, is capable of integrating scattered data and information。 It can improve the utilization rate and usage value of knowledges in special fields。 Consequently, it has significant prospect in military。
Keywords:knowledge graph; unmanned systems; maintenance support; natural language processing
收稿日期:2020-02-23;修回日期:2020-04-10。
基金项目:国家自然科学基金(61773279);天津市科技计划项目(19YFHBQY00040)。
作者简介:喻凡坤(1995-),男,湖北鄂州人,硕士研究生,主要从事知识图谱构建方向的研究。
解决方案:[seo网站排名优化软件]想要做网络优化就必须要学会这几种工具
【SEO网站排名优化软件】要做网络优化,这些工具你一定要学会
众所周知,目前做任何事情都离不开工具。即使是最简单的进食动作也需要筷子或手辅助。同样的,对于像做网站优化这样的事情,那么各种工具的辅助也是必不可少的。目前网络优化必须了解的SEO网站排名优化软件有以下几种。
一、网站期刊分析工具
这里主要推荐的是新年日记分析工具。可以通过这个工具清楚的了解自己的网站蜘蛛爬取情况,比如蜘蛛是否经常爬到一些无用的页面,使用这个工具,还可以看到蜘蛛返回的HTTP状态码,时间这些蜘蛛停留在这个页面,它们爬过的页面等等,通过这个页面,你也可以清楚的了解网站站点是否有异常。
二、网站的流量统计工具
在使用seo网站排名优化软件的过程中,网站的流量统计工具也是必不可少的,因为这个工具可以清楚的知道其网站流量的来源,也可以知道用户的战略防御行为等,通过这些分析,我们可以更好地提出优化排名的解决方案。
三、百度站长工具
目前百度站长工具越来越完善,增加了各种功能,如网站的索引量、服务器情况、精准外链、关键词的展示与展示点击量等,都可以在百度站长工具中体现出来,站长可以通过这个工具直接向百度提交各种数据,比如死链接、网站的修改等,是百度站长工具中不可或缺的工具。使用seo网站排名优化软件。
以上就是seo网站排名优化软件中必不可少的三个辅助工具,一般网站,日常优化使用以上工具基本够用了,虽然其他一些工具不常用,但是也可以用,甚至可能在某个方面有更好的效果,大家可以多了解,多用,尽量找到适合自己的seo网站 网站排名优化软件。 查看全部
解决方案:无人系统故障知识图谱的构建方法及应用
于凡坤1、2、胡超芳1、罗晓亮2、梁秀冰2
(1. 天津大学电气自动化与信息工程学院, 天津 300072; 2. 中国人民解放军军事科学院国防科技创新研究院, 北京 100071)
摘要:无人系统产生的海量数据存储分散、缺乏联系,信息共享困难,难以满足无人系统日益复杂和集成化的维护保障需求;知识图谱技术可以将复杂的数据信息提取成结构知识,建立数据之间的联系,增强知识之间的语义信息;以无人系统的故障数据为研究对象,利用知识图谱技术进行知识抽取、知识融合和知识处理,形成一系列相互关联的知识,为构建无人系统领域的故障知识图谱提供了一种可行的方法;知识图谱技术利用海量数据建立的知识库,能有效整合分散的数据信息,提高专业领域知识的利用率和使用价值,具有重要的军事意义。应用前景。
关键词:知识图谱;无人系统;维护支持;自然语言处理
0 前言
近年来,各军事强国高度重视并积极推进无人系统及相关领域的研究,产生了颠覆性的应用技术[1]。我国民用无人机在全球的市场占有率高达70%。以大疆无人机为代表的民用无人机技术一直走在世界前列[2]。差距很大,军用无人机是我国未来武器装备发展的重点方向。
随着信息化、智能化的深入融合发展,无人系统在执行任务的过程中积累了大量数据,国产某型飞机每小时产生的数据量可高达20国标 [3]。无人系统产生的海量数据大多采用故障树分析法来定性分析故障原因。故障树逻辑性强,能有效避免初始故障[4-5]。王进新[6]等。通过贝叶斯网络变换,提出了一种基于贝叶斯的故障诊断方法,有效解决了柴油机润滑系统多故障的解耦诊断问题;楚景春[7]等。概率神经网络构建故障诊断模型,能有效提高风电机组转速故障检测的准确性。故障树分析方法可以有效理解系统故障的原因,但故障树模型中的知识元素缺乏语义联系,无法穷尽所有故障原因,难以满足无人系统的维护保障需求。
人工智能已经渗透到各行各业,迅速而深刻地改变着我们的日常生活。2017年7月,《新一代人工智能发展规划》发布,人工智能逐渐成为国家发展的新兴战略需求,大数据、人机协同、群体智能成为人工智能发展的重点。随着大数据时代的到来,数据量呈指数级增长,海量数据的出现将引发数据处理、数据存储、数据查询、数据集成等方面的技术变革[8-10],将导致无人系统的维护和保障模式。新的挑战和机遇已经到来。现在,无人系统产生的数据采用故障树模型分析故障原因,可以在一定程度上缓解维修保障问题。随着数据量的爆炸式增长,使用故障树模型来分析无人系统的故障原因将导致海量数据的巨大浪费和知识的低利用率。如何有效利用无人系统的海量数据亟待解决。
针对上述情况,为有效利用无人系统产生的海量数据,满足现代无人系统的维护保障需求。考虑到数据的海量、复杂性和语义,本文利用知识图谱技术对无人系统的故障数据进行提取、融合和处理,形成一系列相互关联的知识。人类系统领域的故障知识图谱提供了一种可行的方法。
1 知识图谱概述与架构 1.1 知识图谱定义
知识图谱(Knowledge graph)是 Google 于 2012 年 5 月 17 日正式提出的,作为提高其搜索质量的知识库。知识图谱的本质是一个语义网络,其节点代表实体或概念,边代表实体或概念之间的各种语义关系。知识图谱以结构化三元组的形式存储现实世界中的实体(概念)以及它们之间的关系,即 G = ,Head 表示头部实体,Relation 表示关系集,Tail 表示尾部实体,其中,一些“关系”。”也称为“属性”,相应地,尾部实体称为属性值[11]。例如,在无人系统中,要感知无人机的方向,
图1 无人系统知识图谱示意图
1.2 知识图谱的发展
知识图谱已成为学术界和工业界的研究热点。它最初用于提高搜索引擎的准确率,已广泛应用于机器翻译[12]、智能问答[13]、推荐系统[14-15]等。我国知识图谱虽然起步较晚,但研究成果比较丰富。在学术界,中文知识图谱研究平台zhishi.me、开放知识图谱OpenKG、复旦大学知识工厂等,不仅知识来源广泛,还具备文本理解和智能等功能。搜索,有利于促进知识图谱的普及和应用。. 在工业界,为了提高搜索质量,搜狗、百度先后建立了自己的知识库“知识立方”和“知心”,并引入语义理解技术,将搜索结果精准传递给用户。随着通用知识图谱的快速发展,很多公司都建立了自己的知识库,比如IBM的Watson Health、阿里的健康百科“一智录”等,可见知识图谱在特殊领域也发挥着重要作用。
目前国内外利用无人系统故障数据构建知识图谱的研究较少,但在医疗、旅游、社交网络等垂直领域的知识图谱研究较多。侯梦伟[16]等深入分析了医学知识表示、医学知识抽取、医学知识融合、医学知识推理,总结了构建医学知识图谱的关键技术和挑战;徐璞[17]改进了属性知识扩展和属性值。融合方法提高了知识图谱构建的质量;程文亮[18]使用最大熵模型,使得关系抽取的准确率平均高达85%,构建了企业间的高质量知识图谱。
图2 无人系统数据采集及维护保障示意图
1.3 知识图谱架构
知识图谱一般包括逻辑结构和技术(系统)框架。本文从无人系统领域故障知识图谱的构建入手,详细介绍了技术框架。
1.3.1 知识图谱的逻辑结构
知识图谱在逻辑上可以分为数据层和模式层。模式层通常由本体库管理。本体是结构化知识库的概念模板,如“无人系统故障”、“飞控系统故障”等概念实体。本体库形成的知识库不仅具有很强的层次结构。,且冗余度较小,可见schema层是知识图谱的核心。数据层存储具体的数据信息,由一系列事实组成,如无人系统的常见故障信息,知识以事实为单位存储。在业界,Neo4j 图数据库主要用于存储数据。
1.3.2 知识图谱的系统(技术)架构
随着无人系统智能化的快速发展,传统的数据处理技术难以理解数据之间的隐含关系和规则,信息共享困难,无人系统产生的海量数据无法得到有效利用[3]。知识图谱技术利用自然语言处理、数据挖掘和机器学习技术的方法和原理,使计算机能够更好地理解数据。无人系统在飞行任务和停机维护过程中积累了大量结构化数据(状态监控数据)、半结构化数据(日志文件)和非结构化数据(图片、文档、视频),知识图谱技术可以有效利用这些数据构建了一个高质量的知识库。
图3 无人系统知识图谱架构
从图3可以看出,无人系统知识图谱主要由知识抽取、知识融合和知识处理三部分组成。无人系统知识抽取,通过无人系统在飞行过程中状态参数和运动参数的结构化、半结构化或非结构化信息提取实体、属性及其关系,并将这些信息以三元组的形式存储到知识库中。无人系统知识融合通过实体消歧、实体对齐等方法对无人系统知识库的冗余和错误信息进行整合和消歧,从而提高无人系统知识库的质量。无人系统知识处理,借助知识推理,推断缺失的事实,
2 无人系统故障知识图谱关键技术
构建无人系统知识图谱的方式主要有两种:自下而上和自上而下。自底向上是通过知识抽取获取实体、属性及其关系,通过数据驱动自动化构建本体,进而构建知识图谱;自上而下是先构建顶层本体和数据模式,然后通过实体来丰富它们。形成知识库。目前知识图谱的构建大多采用自下而上的方法,但无人系统故障的知识图谱是领域知识图谱,涉及的知识范围较窄。本文采用自下而上和自上而下相结合的方法构建无人系统。知识图谱。
2.1 知识抽取
知识抽取是从开放的无人系统数据(半结构化数据、非结构化数据)中自动或手动抽取知识单元。知识单元包括实体、关系及其属性。显然,知识抽取由实体抽取组成,它由关系抽取和属性抽取三部分组成。实体提取可以识别专有名词和特殊词并对其进行分类。关系抽取是在网络化知识结构中的许多离散实体之间建立语义联系。实体的属性是实体之间的一种特殊关系。郭建义[19]等利用条件随机场和支持向量机的方法提取景区实体属性相当于实体关系提取,所以属性抽取的问题可以转化为关系抽取。问题。无人系统数据资源包括结构化数据、半结构化数据和非结构化数据。对于不同类型的数据,采用不同的方法将其转换为三元组结构。知识抽取过程如图4所示。
图4 无人系统知识抽取过程
对于无人系统的结构化数据(状态监测数据),由于存储在数据库中的数据结构强,可以直接通过D2R映射自动提取,转化为三元知识单元。对于半结构化数据(百科知识等),可以设计专门的包装器进行针对性的提取。例如,王辉[20]等CN-DBpedia构建的特殊包装器可以实现高质量的网络知识提取。非结构化数据是以文本、图像、视频等文档形式存在的数据,是知识提取的难点。从非结构化数据中提取信息主要有三种方法。基于规则的方法需要领域专家制定具体的规则,不仅耗费大量人力,但也具有较差的鲁棒性。基于机器学习的方法需要对语料库信息进行标注来训练模型,存在标注的语料库质量参差不齐、需要人工提取特征等缺点。目前,半监督学习方法主要用于从小样本中学习,在减少人力资源的同时改进信息。萃取质量。近年来,深度学习的兴起为高质量的信息提取提供了更多途径。BILSTM-CRF是信息提取中的主流深度学习模型。L. Luo [21] 在生物医学领域使用了 BILSTM-CRF 模型。信息抽取使得实体识别和实体关系识别的准确率分别高达91.14%和92.57%,模型在其他领域也取得了不错的效果。
2.2 知识融合
通过知识抽取得到的三元知识单元具有多样性、冗余性、歧义性甚至错误的特点[22]。例如,“无人机系统”和“无人机系统”可能都指向同一个实体。知识融合融合来自不同数据源的多源异构、语义多样的无人系统知识,将异构数据、冲突检测、消歧、处理等集成在同一个框架规范下,从而对知识进行正确的判断,去除粗糙和提炼精华,构建优质知识库[23]。
2.2.1 实体消歧

实体消歧旨在解决实体引用与现实世界实体之间的歧义,实体消歧的难点主要体现在两个方面[24]:
1)实体引用的多样性:同一个实体在文中会有不同的引用;例如,不同的实体指的是“飞行控制”、“飞行控制系统”、“飞行控制系统”等,它们可能都对应于知识库中的“飞行控制系统”。无人机飞控”同一实体。
2)实体引用的歧义:同一个实体引用可以在不同的上下文中引用不同的实体;例如,同一实体引用“大疆”可能对应知识库中的“大疆无人机”和“深圳大疆创新科技”。有限公司”和其他实体。
实体消歧主要包括基于聚类的实体消歧方法和基于实体链接的实体消歧方法。流程示意图如图 5 所示。
图5 实体消歧示意图
从图5可以看出,在没有目标实体的情况下,大部分实体消歧方法都是基于聚类的。聚类方法是根据实体引用的特征(上下文中的词、实体属性等)计算实体引用之间的相似度,并通过聚类算法对实体引用进行聚类。李光义[25]等基于向量空间的相似性,利用层次聚合聚类(HAC)算法对未链接到知识库的文档进行聚类,实现歧义消解,F值高达88.35 %。基于实体链接的实体消歧通过计算实体引用与目标实体之间的相似度,将实体引用链接到与知识库中的实体引用相似度最高的目标实体。但是,当知识库中没有实体引用对应的目标实体时,实体引用会链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。
2.2.2 实体对齐
实体对齐,也称为实体匹配,旨在解决相同或不同知识库中的两个或多个实体在现实世界中是否为同一实体的问题。实体冲突、指向不明确等不一致性问题,高质量链接多个现有知识库,从顶层创建大规模统一知识库[26-27]。
无人系统产生的海量数据和通过知识抽取得到的实体也需要进行实体对齐,以提高无人系统知识库的质量。实体对齐算法是实体对齐技术的核心,主要包括成对实体对齐和协同(集体)实体对齐。Pairwise entity alignment主要通过提取实体及其属性特征并计算其相似度来实现实体对齐。相似度计算方法主要基于传统的概率模型和机器学习方法;协作实体对齐是基于实体对齐的。在计算相似度时,会考虑与实体相关的其他实体属性并赋予权重 [16, 26]。
2.3 知识处理
通过知识抽取、知识融合等技术,可以从无人系统的原创数据中得到基本的事实表达,通过特殊的知识处理,事实可以形成高质量的知识。知识处理主要包括以下四个方面:本体构建、知识推理、质量评估和知识更新。
1)本体构建:无人系统故障知识图谱涉及的知识范围较窄,知识图谱采用自下而上和自上而下相结合的方法构建。本体是标准化共享概念并正式描述对象、属性及其关系[28]。首先确定无人系统故障知识图谱的核心概念(“无人系统故障”、“飞控系统故障”、“动力系统故障”等),并以数据驱动的方式自动构建提取实体的本体方法。步骤:并行关系相似度计算、实体从属关系提取和本体生成[29]。
2)知识推理:知识推理是从现有无人系统知识库中已有的实体关系出发,在实体之间建立新的联系,扩展和丰富知识库的知识网络[30]。知识推理主要包括基于逻辑的推理和基于图的推理,可以从已有的知识中发现新的知识。如果在无人系统知识库中已知(陀螺仪,测量,飞行器方向),(飞行器方向,安全壳,偏航角)和(偏航角,异常,角度),则可以推断陀螺仪有故障。
3)质量评估:无人系统领域通过知识抽取获得的知识元素可能存在误差,无法充分保证通过知识推理获得的新知识的质量。因此,在将其添加到知识库之前,需要进行质量评估过程。,质量评估是保证数据的重要手段,并贯穿知识图谱的整个生命周期[30-31]。通过高置信度的数据筛选,可以进一步保证无人系统知识库中的数据。
4)知识更新:信息随时间的积累是一个动态的过程,无人系统的知识图谱也需要迭代更新。知识库的更新包括模式层的更新和数据层的更新;模式层的更新是指概念层的更新。知识库的概念层增加一个新概念后,需要更新概念的属性和关系;更新主要是添加或更新实体、关系和属性值[30, 32]。
3 知识图谱的军事应用
知识图谱可以提供管理和利用海量异构数据的有效途径,使海量数据能够被普遍链接和良好表达,具有广泛的军事应用。
3.1 智能搜索
传统搜索基于关键词匹配索引,搜索引擎无法理解用户的真实语义,检索效率低[33]。知识图谱本质上是实体之间关系的语义网络,可以改变现有的信息检索方式,通过推理实现概念检索,以图形化的方式展示结构化知识[26, 30],提高检索准确率,知识图谱中有智能搜索的天然优势。知识图谱可应用于智能导弹的目标跟踪。如图6所示,预警机受到周围各类飞机的保护,预警机的目标打击往往受到周围飞机或飞机发出的信号的干扰,
图 6 基于知识图谱的智能导弹
3.2 军事情报问答
搜索引擎一般可以满足人们的信息获取需求,但随着互联网信息的爆炸式增长,搜索结果过多,用户难以快速准确地获取所需信息。能够更好地满足用户信息需求的问答系统受到青睐[34-35]。对于问题的输入,问答系统的输出是简洁的答案或可能答案的列表。在日益复杂的军事问题上,问答系统能够有效提高军事决策效率,对作战决策具有重要意义。图 7 显示了该问答系统在军用飞机上的应用,可以得到准确、简洁的信息结果。
图 7 军事问答系统
3.3 辅助决策
由于计算能力、海量数据和核心算法的出现,基于知识图谱的辅助决策技术在医疗、金融、智慧城市交通等领域有着广泛的应用。例如,IBM的Watson Health利用海量数据形成的知识库,利用深度学习算法,在肿瘤和癌症领域做出决策判断,供医疗专业人士参考。知识图谱通过对数据、知识等信息的分析统计,发现数据与信息的关联性并挖掘规律,根据历史知识库的相关经验进行预测,实现智能辅助决策,并能可用于未来的军事应用。
4。结论
本文引入知识图谱的概念知识,对无人系统海量数据进行知识抽取、知识融合和知识处理,形成高质量的三元知识,为无人系统领域的故障知识图谱构建提供了一种可行的方法。 . 方法。利用海量数据构建的知识图谱具有智能搜索、系统问答、辅助决策等功能,具有重要的军事应用前景。
参考:
[1] 李磊,徐越,姜奇,等。2018年国外军用无人机装备与技术发展概况[J]. 战术导弹技术,2019(2):1-11。
[2] 何道靖,杜晓,乔银荣,等.无人机信息安全研究综述[J].计算机学报, 2019, 42(5): 1076-1094.
[3] 景波,焦晓轩,黄一峰。飞机PHM大数据分析与人工智能应用[J]. 空军工程大学学报(自然科学版), 2019, 20(1): 46-54.
[4] Dugan JB, Sullivan KJ, Coppit D. 开发用于动态故障树分析的低成本高质量软件工具[J]. IEEE Transactions on Reliability, 2000, 49(1): 49-59。
[5] Enno R,Marielle S. 故障树分析:建模、分析和工具方面最新技术的调查[J]。计算机科学评论,2015(15/16):29-62。
[6] 王进新,王忠伟,马秀珍,等。基于贝叶斯网络的柴油机润滑系统多重故障诊断[J]. 控制与决策, 2019, 34(6): 1187-1194。
[7] Chu Jingchun, Wang Fei, Wang Yang, et al. Wind turbine fault diagnosis method based on fault tree and probabilistic neural network [J]. Chinese Journal of Solar Energy, 2018, 39(10): 2901-2907.

[8] Ahmed O, et al. Big data technologies: a survey[J]. Journal of King Saud University-Computer and Information Sciences, 2018, 30(4): 431-448.
[9] Gema BO, Jung JJ, David C. Social big data: recent achievements and new challenges[J]. Information Fusion, 2016, 28: 45-59.
[10] Martin H. Big data for development: a review of promises and challenges[J]. Development Policy Review, 2016, 34(1): 135-174.
[11] Wen Yanan. Visual analysis of international UAV research based on knowledge graph [J]. Journal of Zhengzhou Institute of Aviation Industry Management, 2018, 36(6): 16-25.
[12] Roberto N, Paolo P S. BabelNet: the automatic construction, evaluation and application of a wide-coverage multilingual semantic network[J]. Artificial Intelligence, 2012, 193: 217-250.
[13] Ruan T, Huang YQ, Liu XL, et al. QAnalysis: a question-answer driven analytic tool on knowledge graphs for leveraging electronic medical records for clinical research[J]. BMC Medical Informatics and Decision Making, 2019, 19( 1): 798-811.
[14] Cao ZY, Qiao XH, Jiang S, et al. An efficient knowledge-graph-based web service recommendation algorithm[J]. Symmetry, 2019, 11(3): 392.
[15] He M, Wang B, Du X K. HI2Rec: exploring knowledge in heterogeneous information for movie recommendation[J]. IEEE Access, 2019, 7: 30276-30284.
[16] Hou Mengwei, Wei Rong, Lu Liang, et al. A review of knowledge graph research and its application in the medical field [J]. Computer Research and Development, 2018, 55(12): 2587-2599.
[17] Xu Pu. Research and Implementation of Knowledge Graph Construction Method in Tourism [D]. Beijing: Beijing Institute of Technology, 2016.
[18] 程文亮. 中文企业知识图谱构建与分析[D]. 上海:华东师范大学, 2016.
[19] 郭剑毅,李 真,余正涛,等. 领域本体概念实例、属性和属性值的抽取及关系预测[J]. 南京大学学报(自然科学版),2012, 48(4): 383-389.
[20] 王 辉,郁 波,洪 宇,等. 基于知识图谱的Web信息抽取系统[J]. 计算机工程,2017, 43(6): 118-124.
[21] Luo L,Yang Z H,Yang P,et al. An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition[J]. Bioinformatics, 2018, 34(8): 1381-1388.
[22] 林海伦,王元卓,贾岩涛,等. 面向网络大数据的知识融合方法综述[J]. 计算机学报. 2017, 40(1): 1-27.
[23] Luna D X, Evgeniy G, Geremy H,et al. From data fusion to knowledge fusion[J]. The VLDB Endowment,2014, 7(10): 881-892.
[24] 赵 军,刘 康,周光有,等. 开放式文本信息抽取[J]. 中文信息学报,2011, 25(6): 98-110.
[25] 李广一,王厚峰. 基于多步聚类的汉语命名实体识别和歧义消解[J]. 中文信息学报, 2013, 27(5): 29-34.
[26] 徐增林,盛泳潘,贺丽荣,等. 知识图谱技术综述[J]. 电子科技大学学报,2016, 45(4): 589-606.
[27] 庄 严,李国良,冯建华. 知识库实体对齐技术综述[J]. 计算机研究与发展, 2016, 53(1): 165-192.
[28] Gruber T R. A translation approach to portable ontology specifications[J]. Knowledge Acquisition,1993, 5(2): 199-220.
[29] 史树明. 自动和半自动知识提取[J]. 中国计算机学会通讯, 2013, 9(8): 65-73.
[30] 刘 峤,李 杨,段 宏,等. 知识图谱构建技术综述[J]. 计算机研究与发展,2016, 53(3): 582-600.
[31] 袁凯琦,邓 扬,陈道源,等. 医学知识图谱构建技术与研究进展[J]. 计算机应用研究,2018, 35(7): 1929-1936.
[32] 李 涛,王次臣,李华康. 知识图谱的发展与构建[J]. 南京理工大学学报, 2017, 41(1): 22-34.
[33] 张 骞. 传统搜索引擎与智能搜索引擎比较研究[D]. 郑州:郑州大学, 2012.
[34] 毛先领,李晓明. 问答系统研究综述[J]. 计算机科学与探索, 2012, 6(3): 193-207.
[35] 岳世峰,林 政,王伟平,等. 智能回复系统研究综述[J]. 信息安全学报, 2020, 5(1): 20-34.
Construction and Application of Unmanned System Fault Knowledge Graph
Yu Fankun1,2 , Hu Chaofang1, Luo Xiaoliang2, Liang Xiubing2
(1.School of Electrical and Information Engineering, Tianjin University, Tianjin 300072, China;2.National Innovation Institute of Defense Technology, Academy of Military Sciences PLA China, Beijing 100071, China)
Abstract: The massive data generated by unmanned systems is scattered and lacks in connection, and information sharing is difficult。 It is difficult to meet the maintenance support requirements of unmanned systems with increasing complexity and integration。 Knowledge graph technology can extract complex data information into structured knowledge, establish connections between data, and enhance semantic information between knowledge。 Taking the fault data as the research object, knowledge extraction, knowledge fusion and knowledge processing are carried out by using knowledge graph technology to form a series of interrelated knowledge, which provides a feasible way to construct fault knowledge graph in unmanned system domain。
The knowledge base, which is established by the knowledge graph technology using tremendous data, is capable of integrating scattered data and information。 It can improve the utilization rate and usage value of knowledges in special fields。 Consequently, it has significant prospect in military。
Keywords:knowledge graph; unmanned systems; maintenance support; natural language processing
收稿日期:2020-02-23;修回日期:2020-04-10。
基金项目:国家自然科学基金(61773279);天津市科技计划项目(19YFHBQY00040)。
作者简介:喻凡坤(1995-),男,湖北鄂州人,硕士研究生,主要从事知识图谱构建方向的研究。
解决方案:[seo网站排名优化软件]想要做网络优化就必须要学会这几种工具
【SEO网站排名优化软件】要做网络优化,这些工具你一定要学会
众所周知,目前做任何事情都离不开工具。即使是最简单的进食动作也需要筷子或手辅助。同样的,对于像做网站优化这样的事情,那么各种工具的辅助也是必不可少的。目前网络优化必须了解的SEO网站排名优化软件有以下几种。
一、网站期刊分析工具

这里主要推荐的是新年日记分析工具。可以通过这个工具清楚的了解自己的网站蜘蛛爬取情况,比如蜘蛛是否经常爬到一些无用的页面,使用这个工具,还可以看到蜘蛛返回的HTTP状态码,时间这些蜘蛛停留在这个页面,它们爬过的页面等等,通过这个页面,你也可以清楚的了解网站站点是否有异常。
二、网站的流量统计工具
在使用seo网站排名优化软件的过程中,网站的流量统计工具也是必不可少的,因为这个工具可以清楚的知道其网站流量的来源,也可以知道用户的战略防御行为等,通过这些分析,我们可以更好地提出优化排名的解决方案。

三、百度站长工具
目前百度站长工具越来越完善,增加了各种功能,如网站的索引量、服务器情况、精准外链、关键词的展示与展示点击量等,都可以在百度站长工具中体现出来,站长可以通过这个工具直接向百度提交各种数据,比如死链接、网站的修改等,是百度站长工具中不可或缺的工具。使用seo网站排名优化软件。
以上就是seo网站排名优化软件中必不可少的三个辅助工具,一般网站,日常优化使用以上工具基本够用了,虽然其他一些工具不常用,但是也可以用,甚至可能在某个方面有更好的效果,大家可以多了解,多用,尽量找到适合自己的seo网站 网站排名优化软件。
超值资料:【百度云链接】爬虫.python语言及框架的选择
采集交流 • 优采云 发表了文章 • 0 个评论 • 51 次浏览 • 2022-10-14 03:11
无规则采集器列表算法总结·github,获取请看:github,可从我的github主页进行star、commit和repo:任何qq群、微信群、qq工作群转载和分享请联系群主本公众号,未经授权不得转载,违者死全家!新手和笔者聊一聊爬虫的基础知识,以及各种爬虫工具的推荐。欢迎关注公众号:老婆孩子热炕头。
这个有很多,比如他们认为可以用python3来爬取微博。利用之后,接口就会被篡改过,利用上两个爬虫框架。
从0开始从100级到160级。
1.爬虫的基础安全问题2.爬虫的api3.python语言及框架的选择-编写稳定爬虫:-index.html4.python爬虫定制化研究
python爬虫的入门建议,
python语言,选择numpy,pandas,pyspider等专门库,
推荐一个视频教程:python高级爬虫框架pyspider全面开发与实战_网易云课堂这两个课程应该会对python爬虫有一个初步的认识。
python爬虫代码库big_python_python爬虫代码库【百度云链接】
1、爬虫系统thomas_weathersoft
2、urllib/urllib2
3、selenium
4、beautifulsoup
5、基于beautifulsoup的提取爬虫框架
crawle安全分析系统,可以针对爬虫和钓鱼进行安全分析。 查看全部
超值资料:【百度云链接】爬虫.python语言及框架的选择
无规则采集器列表算法总结·github,获取请看:github,可从我的github主页进行star、commit和repo:任何qq群、微信群、qq工作群转载和分享请联系群主本公众号,未经授权不得转载,违者死全家!新手和笔者聊一聊爬虫的基础知识,以及各种爬虫工具的推荐。欢迎关注公众号:老婆孩子热炕头。
这个有很多,比如他们认为可以用python3来爬取微博。利用之后,接口就会被篡改过,利用上两个爬虫框架。
从0开始从100级到160级。
1.爬虫的基础安全问题2.爬虫的api3.python语言及框架的选择-编写稳定爬虫:-index.html4.python爬虫定制化研究

python爬虫的入门建议,
python语言,选择numpy,pandas,pyspider等专门库,
推荐一个视频教程:python高级爬虫框架pyspider全面开发与实战_网易云课堂这两个课程应该会对python爬虫有一个初步的认识。
python爬虫代码库big_python_python爬虫代码库【百度云链接】
1、爬虫系统thomas_weathersoft

2、urllib/urllib2
3、selenium
4、beautifulsoup
5、基于beautifulsoup的提取爬虫框架
crawle安全分析系统,可以针对爬虫和钓鱼进行安全分析。
完美:职场人必备!这些工具神器能让你的工作高效又省事
采集交流 • 优采云 发表了文章 • 0 个评论 • 50 次浏览 • 2022-10-12 22:18
提高效率和专注力可以帮助我们在更短的时间内获得更大的时间收益,并且可以用更少的时间带来更大的提升。要想早点下班,就必须提高工作效率。为了工作效率,拥有一个满意的工具也很重要。现在有许多效率工具可以帮助我们更好地生活和工作。接下来,我将向您介绍五个最推荐的效率工具。看完后记得采集。
1
与代码
Visual Studio Code(VS Code)是微软2015年推出的一款轻量级但功能强大的源码编辑器,大部分开发者基本都在使用。它基于 Electron 开发,支持 Windows、Linux 和 macOS 操作系统。内置对 JavaScript、TypeScript 和 Node.js 的支持以及对其他语言和扩展的丰富支持,超级强大。它具有插件丰富、跨平台、易用、开源的特点,甚至有人说它是无所不能的。
VSCode 支持语法高亮、智能代码补全、自定义快捷键、括号匹配和颜色区分、代码片段、代码比较 Diff、GIT 命令等几乎所有主流开发语言的功能。云应用开发得到优化。
2
大数据导航
大数据导航,以大数据行业为基础,以大数据工具为补充,为用户提供了一个平台,可以更快地找到大数据相关的工具。
大数据导航是一个超级数据导航网站,聚合了互联网趋势分析、全球互联网数据、网站排名查询工具、实时数据工具、问卷调查工具、BI商业智能、短期视频数据平台、机器学习数据源、城市开放数据、移动应用监控工具等。
3
图栏工具箱
Tuba Toolbox是一款非常全面的开源、免费、绿色、纯硬件检测工具合集,专为所有电脑硬件极客、DIY爱好者、各类大神、小白打造。拥有多种常用硬件检测评分工具,一键下载,使用方便。重点采集各种硬件检测、评分、测试工具,常用工具采集,可以帮助用户解决各种电脑问题。没有捆绑和强制安装行为,一键查看,无需写入注册表,无需任何敏感目录和文件操作。
还有内存工具,包括memtest,它是Windows系统中可以下载并自动检测内存的工具。这是非常容易使用。还有硬盘工具和显卡工具,可以帮你检测硬盘、数据恢复等,总之功能非常丰富,让用户满意。各种需求,界面清爽大方。
4
优采云采集器
优采云采集器是前谷歌技术团队打造的一款桌面应用软件。基于人工智能技术,只需输入网址即可自动识别采集的内容。它支持三种主要操作系统。:Linux、Windows 和 Mac。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图像、价格等。所有免费采集,导出数据无限数据可以导出到本地文件,发布到网站和数据库等。
5
王营
网影是一款可以打字制作视频的视频制作神器,支持一键替换图文生成视频。视频制作不需要AE和PR基础,轻松制作个人创意视频。PC端和移动端都支持下载和制作。整个操作方法也很简单。只要你会打字,你就可以自己制作视频。只需输入网站,找到合适的模板,然后添加你需要的图片和替换文字内容,就可以在线渲染合成我们想要的视频了。
- 关于我们 -
·广州易云信息科技有限公司是国内最早成立的云计算企业,云计算产业联盟核心企业。2016年成功登陆新三板。
· 易云信息推出的智慧云系列产品,以办公云系统为核心,链接企业与云服务技术,助力企业上云;超低价私有化部署,为企业提供全方位的数据保护壁垒;使用一系列协同办公工具,解决企业工作效率低下的问题。
- 客户案例 -
完美:伪原创文章变高质量原创文章-5招解决您的烦恼!
优化网站,需要每天更新网站内的文章,增加网站的活跃度,吸引蜘蛛爬行。很多站长在写文章的时候,一般都会关注伪原创,很少写原创文章,虽然说伪原创做的不错,搜索引擎也会同意,但是很多站长做的伪原创都是简单的修改文章,没有做任何调整,导致伪原创收录不行,下面是总结伪原创文章收录不好的原因以及如何做好伪原创文章。
1.伪原创文章收录坏的原因
1
伪原创文章质量差
很多站长做的伪原创文章很简单,就是把标题改写,第一段和最后一段用自己的话写,中间改内容的顺序。伪原创文章 出现了。这种做法很容易被搜索引擎识别。对用户来说还是原创内容,停留时间很短。对于这种类型的原创文章,搜索引擎可能会启动收录你的文章,但是不会对这种类型的文章进行排名,更新到后面,而搜索引擎将逐渐撤消这些。
2
伪原创 痕迹太明显
许多网站管理员都在使用 伪原创 工具。伪原创工具的原理是替换同义词和反义词,改变句子的顺序,前后段落颠倒。纵观整个文章,不仅错别字很多,而且每一句我都看不懂,这种伪原创的痕迹很明显,现在搜索引擎也很严厉打击这种做法,不会去收录这么一点价值的文章,对于这种伪原创@文章搜索引擎会判断为垃圾邮件文章。
3
伪原创文章可读性不强
伪原创工具确实伪原创文章根本没有可读性,不仅用户不喜欢它们,搜索引擎也更不喜欢它们。这种方法纯粹是为了完成任务。一点帮助都没有,内容略有改动的伪原创文章的主要内容并没有改变,也没有自己的意见。这样的文章互联网很多,用户不会浪费时间去Look,直接关闭页面,停留时间短,可读性差。
4
网站权重过低
有人看到那些新闻文章,各大平台各种转载,一样的内容,甚至一样的标题,文章还是会有收录,也有好的排名,这就是权重高权重的平台和搜索引擎的影响力很高,采集的任何内容都不会受到影响,新站点或者一般企业站点,如果这样做,权重就低,如果这样做长期以来,对搜索引擎不友好。
2. 高质量伪原创文章的技巧
1
为简化原文,删去多余的废话
有时候看了一篇文章的文章,不知道是讲什么的,也就是说文章没有重点。删除多余的内容,即所谓“去渣取精”,花在文章的内容上,让它们之间的区别更加明显。
2
结合自己的想法,让文章更专业
一篇文章文章不要完全照搬,一定要学会阅读,用自己的话来描述。当然,写之前一定要了解行业,了解自己的产品和同行的区别。区别要明确,原文的不足之处要改进,增加自己对行业的看法。这样的 文章 很有价值。
3
学习选择和重组 文章 结构
有的文章写的很专业,内容也很长。对于这种文章,要写伪原创,记得写这么长,内容太多,用户很难往前看,也比较费力。对于这种文章,要学会重新整理文章的结构,挑一个点来写这个长篇大论,放大,加上自己的看法。这个很专业,可以解决问题。用户问题,也满足搜索引擎需求。
4
营造良好的浏览环境,提升用户体验
在编辑文章时,学会使用图文结合的方式进行排版,方便用户阅读,加深用户对这段文字的理解,满足用户的需求。在整个文章的布局上,肯定比原来的文章还要好。用户体验一上来,搜索引擎自然就喜欢了,图文并茂的网页也受到搜索引擎的喜欢。
5
不要只是抄袭,要有自己的想法
记得简单复制或者修改一些文字,这些做法没有任何价值,真的伪原创文章,保持原文章的中心思想,自己制作文章重新构想,然后根据自己对行业的想法和见解重新安排文章很有价值,我经常建议大家这样做。
综上所述,随着搜索引擎的不断升级,对文章的要求也越来越高,不仅仅是原创,还有真正能帮助用户的优质内容。切记不要复制文章,对搜索引擎和用户没有任何价值,更新这种类型的文章只会增加搜索引擎的负载,浪费用户的时间。引擎不会抓取您的 网站。所以,为了你的网站优化有好的效果,不要使用各种采集文章。
当然,除了写出高质量的文章内容,还需要考虑文章SEO优化。具体文章优化技术请参考《》。
【深网】6年全网营销经验,不仅帮助企业做好全网营销和管理,还免费帮助企业培养全网营销团队,为您的企业网络保驾护航——广泛的营销之路。 查看全部
完美:职场人必备!这些工具神器能让你的工作高效又省事
提高效率和专注力可以帮助我们在更短的时间内获得更大的时间收益,并且可以用更少的时间带来更大的提升。要想早点下班,就必须提高工作效率。为了工作效率,拥有一个满意的工具也很重要。现在有许多效率工具可以帮助我们更好地生活和工作。接下来,我将向您介绍五个最推荐的效率工具。看完后记得采集。
1
与代码
Visual Studio Code(VS Code)是微软2015年推出的一款轻量级但功能强大的源码编辑器,大部分开发者基本都在使用。它基于 Electron 开发,支持 Windows、Linux 和 macOS 操作系统。内置对 JavaScript、TypeScript 和 Node.js 的支持以及对其他语言和扩展的丰富支持,超级强大。它具有插件丰富、跨平台、易用、开源的特点,甚至有人说它是无所不能的。
VSCode 支持语法高亮、智能代码补全、自定义快捷键、括号匹配和颜色区分、代码片段、代码比较 Diff、GIT 命令等几乎所有主流开发语言的功能。云应用开发得到优化。
2
大数据导航

大数据导航,以大数据行业为基础,以大数据工具为补充,为用户提供了一个平台,可以更快地找到大数据相关的工具。
大数据导航是一个超级数据导航网站,聚合了互联网趋势分析、全球互联网数据、网站排名查询工具、实时数据工具、问卷调查工具、BI商业智能、短期视频数据平台、机器学习数据源、城市开放数据、移动应用监控工具等。
3
图栏工具箱
Tuba Toolbox是一款非常全面的开源、免费、绿色、纯硬件检测工具合集,专为所有电脑硬件极客、DIY爱好者、各类大神、小白打造。拥有多种常用硬件检测评分工具,一键下载,使用方便。重点采集各种硬件检测、评分、测试工具,常用工具采集,可以帮助用户解决各种电脑问题。没有捆绑和强制安装行为,一键查看,无需写入注册表,无需任何敏感目录和文件操作。
还有内存工具,包括memtest,它是Windows系统中可以下载并自动检测内存的工具。这是非常容易使用。还有硬盘工具和显卡工具,可以帮你检测硬盘、数据恢复等,总之功能非常丰富,让用户满意。各种需求,界面清爽大方。
4
优采云采集器
优采云采集器是前谷歌技术团队打造的一款桌面应用软件。基于人工智能技术,只需输入网址即可自动识别采集的内容。它支持三种主要操作系统。:Linux、Windows 和 Mac。

它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图像、价格等。所有免费采集,导出数据无限数据可以导出到本地文件,发布到网站和数据库等。
5
王营
网影是一款可以打字制作视频的视频制作神器,支持一键替换图文生成视频。视频制作不需要AE和PR基础,轻松制作个人创意视频。PC端和移动端都支持下载和制作。整个操作方法也很简单。只要你会打字,你就可以自己制作视频。只需输入网站,找到合适的模板,然后添加你需要的图片和替换文字内容,就可以在线渲染合成我们想要的视频了。
- 关于我们 -
·广州易云信息科技有限公司是国内最早成立的云计算企业,云计算产业联盟核心企业。2016年成功登陆新三板。
· 易云信息推出的智慧云系列产品,以办公云系统为核心,链接企业与云服务技术,助力企业上云;超低价私有化部署,为企业提供全方位的数据保护壁垒;使用一系列协同办公工具,解决企业工作效率低下的问题。
- 客户案例 -
完美:伪原创文章变高质量原创文章-5招解决您的烦恼!
优化网站,需要每天更新网站内的文章,增加网站的活跃度,吸引蜘蛛爬行。很多站长在写文章的时候,一般都会关注伪原创,很少写原创文章,虽然说伪原创做的不错,搜索引擎也会同意,但是很多站长做的伪原创都是简单的修改文章,没有做任何调整,导致伪原创收录不行,下面是总结伪原创文章收录不好的原因以及如何做好伪原创文章。
1.伪原创文章收录坏的原因
1
伪原创文章质量差
很多站长做的伪原创文章很简单,就是把标题改写,第一段和最后一段用自己的话写,中间改内容的顺序。伪原创文章 出现了。这种做法很容易被搜索引擎识别。对用户来说还是原创内容,停留时间很短。对于这种类型的原创文章,搜索引擎可能会启动收录你的文章,但是不会对这种类型的文章进行排名,更新到后面,而搜索引擎将逐渐撤消这些。
2
伪原创 痕迹太明显
许多网站管理员都在使用 伪原创 工具。伪原创工具的原理是替换同义词和反义词,改变句子的顺序,前后段落颠倒。纵观整个文章,不仅错别字很多,而且每一句我都看不懂,这种伪原创的痕迹很明显,现在搜索引擎也很严厉打击这种做法,不会去收录这么一点价值的文章,对于这种伪原创@文章搜索引擎会判断为垃圾邮件文章。
3
伪原创文章可读性不强
伪原创工具确实伪原创文章根本没有可读性,不仅用户不喜欢它们,搜索引擎也更不喜欢它们。这种方法纯粹是为了完成任务。一点帮助都没有,内容略有改动的伪原创文章的主要内容并没有改变,也没有自己的意见。这样的文章互联网很多,用户不会浪费时间去Look,直接关闭页面,停留时间短,可读性差。

4
网站权重过低
有人看到那些新闻文章,各大平台各种转载,一样的内容,甚至一样的标题,文章还是会有收录,也有好的排名,这就是权重高权重的平台和搜索引擎的影响力很高,采集的任何内容都不会受到影响,新站点或者一般企业站点,如果这样做,权重就低,如果这样做长期以来,对搜索引擎不友好。
2. 高质量伪原创文章的技巧
1
为简化原文,删去多余的废话
有时候看了一篇文章的文章,不知道是讲什么的,也就是说文章没有重点。删除多余的内容,即所谓“去渣取精”,花在文章的内容上,让它们之间的区别更加明显。
2
结合自己的想法,让文章更专业
一篇文章文章不要完全照搬,一定要学会阅读,用自己的话来描述。当然,写之前一定要了解行业,了解自己的产品和同行的区别。区别要明确,原文的不足之处要改进,增加自己对行业的看法。这样的 文章 很有价值。
3
学习选择和重组 文章 结构

有的文章写的很专业,内容也很长。对于这种文章,要写伪原创,记得写这么长,内容太多,用户很难往前看,也比较费力。对于这种文章,要学会重新整理文章的结构,挑一个点来写这个长篇大论,放大,加上自己的看法。这个很专业,可以解决问题。用户问题,也满足搜索引擎需求。
4
营造良好的浏览环境,提升用户体验
在编辑文章时,学会使用图文结合的方式进行排版,方便用户阅读,加深用户对这段文字的理解,满足用户的需求。在整个文章的布局上,肯定比原来的文章还要好。用户体验一上来,搜索引擎自然就喜欢了,图文并茂的网页也受到搜索引擎的喜欢。
5
不要只是抄袭,要有自己的想法
记得简单复制或者修改一些文字,这些做法没有任何价值,真的伪原创文章,保持原文章的中心思想,自己制作文章重新构想,然后根据自己对行业的想法和见解重新安排文章很有价值,我经常建议大家这样做。
综上所述,随着搜索引擎的不断升级,对文章的要求也越来越高,不仅仅是原创,还有真正能帮助用户的优质内容。切记不要复制文章,对搜索引擎和用户没有任何价值,更新这种类型的文章只会增加搜索引擎的负载,浪费用户的时间。引擎不会抓取您的 网站。所以,为了你的网站优化有好的效果,不要使用各种采集文章。
当然,除了写出高质量的文章内容,还需要考虑文章SEO优化。具体文章优化技术请参考《》。
【深网】6年全网营销经验,不仅帮助企业做好全网营销和管理,还免费帮助企业培养全网营销团队,为您的企业网络保驾护航——广泛的营销之路。
解决方案:无规则采集器列表算法部分集图算法涉及图分析算法
采集交流 • 优采云 发表了文章 • 0 个评论 • 73 次浏览 • 2022-10-11 14:11
无规则采集器列表算法部分集图算法涉及图分析算法,搜索算法,版面提取算法,网格搜索算法等,不过他们只具备图片搜索和版面提取算法。这些算法需要对图像有基本的熟悉。快搜索算法:大图:排序算法:大图集图,查询算法:交集主集一组类别等排序函数:热图(快搜索只提供主图和查询两种类型排序函数)全图去重加权排序优化:集图去重缩放排序集图匹配排序搜索速度:快如一秒。
其实这个问题应该问@leowchou。@许哲说的不全。他写的那一篇《快搜索的算法是怎么实现的》里提到了三种思路:图类型算法网格搜索算法灰度图匹配算法而在我见过的快搜索算法里,一般只包含了第一种:匹配算法。我列出这三种,是因为每一种我都亲自调过一遍。可能还有需要调整的地方。下面简单说一下用户实现快搜索方法,这个比较好写。
先确定查询或发布位置,然后搜索引擎向服务器发出请求,获取某个区域某个元素出现的概率。概率小于某个阈值的,记录,放在统计树中,放入统计树中(注意,统计树包含多维数据)。分析概率高低,判断哪个元素在区域出现最多。经常会有个种子。其他有没有对应的分词词库或者数据库之类的。未必必须按照人类的语言习惯设计。网络搜索算法(类似seo)。
最基本的是链接查询。你可以针对某个区域在搜索结果页可能搜索出的页面,自己匹配该区域某个元素,提取其中的链接。这种方法用户体验较差。字典匹配。同一个元素被多少个网络服务器搜索到,取多少位。crawlthrough。分词查询(例如:partbypart),或者采用常用的trigram检索算法。灰度图匹配。
google官方的,ab树匹配,在uc浏览器、google一次搜索的结果,我都见过。这个我没调出来,具体调出来了再说。pagevaluefinding。就是图像的查询。经常会以每帧查询最多次数为概率分数,来确定每一帧查询的集合。具体可以调出来。然后所有的标签页都做这个功能。优化是必须的。这个和快搜索类似,自己分析某个元素的具体值,以及分布,最后计算灰度值,或者灰度值计算时哪些项比较重要。
这种方法肯定会出现图片的数量级较大。其实,这里说的都是大概思路。可能作者不希望你在真正用到算法的时候,才去想这些。手机码字,写的不太严谨。供参考。 查看全部
解决方案:无规则采集器列表算法部分集图算法涉及图分析算法
无规则采集器列表算法部分集图算法涉及图分析算法,搜索算法,版面提取算法,网格搜索算法等,不过他们只具备图片搜索和版面提取算法。这些算法需要对图像有基本的熟悉。快搜索算法:大图:排序算法:大图集图,查询算法:交集主集一组类别等排序函数:热图(快搜索只提供主图和查询两种类型排序函数)全图去重加权排序优化:集图去重缩放排序集图匹配排序搜索速度:快如一秒。

其实这个问题应该问@leowchou。@许哲说的不全。他写的那一篇《快搜索的算法是怎么实现的》里提到了三种思路:图类型算法网格搜索算法灰度图匹配算法而在我见过的快搜索算法里,一般只包含了第一种:匹配算法。我列出这三种,是因为每一种我都亲自调过一遍。可能还有需要调整的地方。下面简单说一下用户实现快搜索方法,这个比较好写。
先确定查询或发布位置,然后搜索引擎向服务器发出请求,获取某个区域某个元素出现的概率。概率小于某个阈值的,记录,放在统计树中,放入统计树中(注意,统计树包含多维数据)。分析概率高低,判断哪个元素在区域出现最多。经常会有个种子。其他有没有对应的分词词库或者数据库之类的。未必必须按照人类的语言习惯设计。网络搜索算法(类似seo)。

最基本的是链接查询。你可以针对某个区域在搜索结果页可能搜索出的页面,自己匹配该区域某个元素,提取其中的链接。这种方法用户体验较差。字典匹配。同一个元素被多少个网络服务器搜索到,取多少位。crawlthrough。分词查询(例如:partbypart),或者采用常用的trigram检索算法。灰度图匹配。
google官方的,ab树匹配,在uc浏览器、google一次搜索的结果,我都见过。这个我没调出来,具体调出来了再说。pagevaluefinding。就是图像的查询。经常会以每帧查询最多次数为概率分数,来确定每一帧查询的集合。具体可以调出来。然后所有的标签页都做这个功能。优化是必须的。这个和快搜索类似,自己分析某个元素的具体值,以及分布,最后计算灰度值,或者灰度值计算时哪些项比较重要。
这种方法肯定会出现图片的数量级较大。其实,这里说的都是大概思路。可能作者不希望你在真正用到算法的时候,才去想这些。手机码字,写的不太严谨。供参考。
解决方案:一种物联网数据采集器动态分发方法及系统与流程
采集交流 • 优采云 发表了文章 • 0 个评论 • 103 次浏览 • 2022-11-09 07:26
1、本发明涉及数据采集技术领域,具体涉及一种物联网数据采集器动态分发方法及系统。
背景技术:
2、随着物联网技术的发展,数据采集终端的种类和规模不断增加,对数据采集系统的部署和采集效率提出了更高的要求. 对于大型采集系统,负载均衡和动态部署是保证采集终端数据高效的基础。
3、传统的data采集部署方式,通常以中间件的形式实现。比如data采集模块用于完成业务调度和执行,从上层调用data采集逻辑。控制数据采集终端实现数据采集。当这种方法配置为最小粒度(指标)时,每个指标被视为一个采集任务,每个采集任务需要单独配置,采集的效率为低的。而data采集器负载均衡依赖中间件,运维难度大,没有动态部署机制。当系统需要增加对其他数据源的支持时,需要扩展新的data采集协议,需要重新部署,维护工作量大,可扩展性差。对于大规模数据采集 任务,它有明显的局限性。
技术实施要素:
4、为了克服现有技术的不足,本发明提供了一种物联网数据动态分发采集器的方法和系统,首先将需要采集的终端指标重组为采集按照一定的规则。>任务列表发送到对应的物联网网关,然后初始化采集执行器的执行环境,最后根据采集任务实例化采集执行器完成数据采集 工作。本发明不仅可以降低数据采集系统的部署和维护难度,而且在系统增加新的数据源时不需要重新部署,保证了系统的稳定性和可靠性。系统数据采集和改进<
5、一种物联网数据动态分布采集器的方法,主要包括:
6.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
7.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关采集需要执行的任务列表,并将任务发送给对应的网关;
8.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果没有,转步骤s4,如果有,转步骤s7;
9.s4:查找是否有本地缓存的采集执行器文件,如果没有,转步骤s5,如果有,转步骤s6;
10.s5:平台向物联网平台请求采集执行器文件后,将文件发送给物联网网关,网关接收到文件后,执行步骤s6;
11.s6:加载并初始化采集执行器的执行环境,然后进行步骤s7;
12.s7:根据采集任务实例化采集器并启动,执行数据采集,通过
网关上传到物联网平台。
13、进一步,在步骤s1中,终端指标为数据采集的最小单位,如压力、流量、温度、湿度等。
14、进一步地,在步骤s1中,查找所有终端指示灯的查询条件为:终端状态开启,终端指示灯状态开启,采集状态为等待。终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,以及采集 状态包括:停止、等待、采集和错误。
15、进一步地,当终端的数据和终端索引中与数据采集相关的信息发生变化时,启动终端索引采集的配置重组,则步骤s1为触发。
16、进一步地,在步骤s2中,采集任务列表收录数据源信息和采集指标组列表。
17、进一步的,一个数据源通过其编号与多个网关的网关编号相关联,在数据源指标组中查找与该数据源关联的网关的规则为:网关可以正常运行采集> 数据源。任务; 寻找:与此数据源相关联,状态为启用,运行状态为备用或采集;运行状态包括:standby、采集、stopped。
18、进一步地,在步骤s2中,分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。对于环境相对固定的场景,使用轮询、加权四舍五入。查询和总分配算法,对于环境变化频繁的场景,使用资源负载和动态负载算法。
19、进一步,在步骤s3中,当采集任务在当前网关中出现数据采集通道故障时,将重新分配当前采集任务,并将对应的数据源当前网关将被标记为发生故障,在故障修复后状态重置为备用之前,它不会参与后续分配中的分配。
20、进一步地,步骤s4中,采集执行器文件包括:采集执行器相关代码和类库。
21.一种物联网数据采集器动态分发系统,用于上述数据采集器动态分发方法,包括:
22、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
23、采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
24、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
25、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
26、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送到物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
27、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
28、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并转换成统一结构上传它通过网关连接到物联网平台。
29、本发明提供的技术方案带来的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关即可。 ,而当系统需要添加对其他数据源的支持时,不需要重新部署,只需要实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式,
目前的负载均衡和动态部署降低了data采集系统的整体部署和维护难度,提高了系统的可扩展性,保证了系统data采集的稳定性和可靠性,完善了系统表现。采集故障转移的效率。
图纸说明
30、下面结合附图和实施例对本发明作进一步说明,其中:
31. 图。图1为本发明实施例的物联网数据采集器动态分发方法流程图。
32. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
详细方法
33、为了更清楚地理解本发明的技术特征、目的和效果,现结合附图对本发明的具体实施方式进行详细说明。
34、本发明实施例提供了一种物联网数据采集器的动态分发方法和系统。
35. 请参考图。请参阅图1,为本发明实施例的物联网数据采集器动态分发方法的流程图,具体包括:
36.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表。
37、终端指标是数据采集的最小单位,如压力、流量、温度、湿度等。
38、查找终端指示灯的查询条件为:所属终端状态为:启用,终端指示灯状态为:启用,采集状态为:等待。
39、终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,采集状态包括:停止、等待、采集和错误。
40、当终端数据和终端索引中的数据采集相关信息发生变化时,将发起终端索引采集的配置重新合并,执行步骤1被触发。
41.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组。根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关要执行的采集任务列表,并将任务下发给对应的物联网网关网关。
42. 采集 任务收录数据源信息和采集 指标组列表。
43、一个数据源可以通过数据源编号关联多个网关的网关编号。在数据源指标组中查找与数据源关联的网关的规则是:网关可以正常运行数据源的采集任务;查找:与此数据源关联,状态已启用,运行状态为备用或采集。
44. 运行状态包括:待机、采集 和已停止。
45. 分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。各个算法的具体定义如下:
46、轮询算法是指将指标组平均分配到各个网关的算法;
47、加权轮询算法是指根据每个网关的权重分配指标组的算法;
48、总分配算法是指分配每个网关当前任务数的算法,使网关上的任务总数相近;
49、资源负载算法是指分配各个网关当前的硬件负载(cpu、内存、网络)的算法,使网关的负载相对均衡;
50、动态负载算法是指第一次使用资源分配策略进行分配,然后结合资源负载变化动态调整的算法。
51.对于采集环境比较固定的场景,可以使用round-robin、weighted round-robin、total allocation算法。对于环境变化频繁的采集场景,使用资源加载和动态加载算法。
52、当数据源或其绑定网关的数据中与数据采集相关的信息发生变化时,将重新分配指标组触发步骤2。
53.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果有,转步骤s7,否则转步骤s4。采集executor 是运行 采集 任务的相关代码。
54、当采集任务在当前网关出现数据采集通道故障时,将重新分配当前采集任务,并将当前网关对应的数据源标记为失败,将执行后续分配。中间不参与分配,直到故障修复后状态重置为待机。
55.s4:根据采集执行器的id查找本地是否有缓存的采集执行器文件,如果有,转步骤s6,否则转步骤s5。采集executor文件收录:采集executor相关的代码和类库。
56.s5:向物联网平台请求采集执行器文件,平台将文件发送给物联网网关,网关收到文件后执行步骤s6。
57.s6:加载并初始化采集执行器的执行环境,加载后执行第7步。
58.s7:根据采集任务实例化并启动采集执行器,对数据采集进行处理,转换成统一的结构,通过网关上传到物联网平台. 一种实现上述数据采集器动态分发方法的物联网数据采集器动态分发系统,具体包括:
59、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
60.采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
61、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
62、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
63、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送至物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
64、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
65、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并将其转换成统一结构并上传它通过网关连接到物联网平台。
66. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
67. 具体实施方式:
68、如图2所示,添加终端指标后,分发服务在平台监测到新终端指标后,触发与指标关联的数据源重新分发采集任务。任务重新分配后,发送到网关服务,网关服务将任务发送到物联网网关,网关实例化任务,为data采集工作创建采集器连接数据源,采集器采集>接收到的数据通过物联网网关上传到网关服务。
69、当有新的物联网网关连接时,状态服务会通知分发服务
与网关关联的数据源重新分配采集的任务,重新分配后将任务发送给网关服务。网关服务向物联网网关发送任务,网关实例化任务并创建一个采集器连接数据源为data采集工作,采集器接收的数据采集会通过物联网网关上传到网关服务。
70、本发明的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关,系统需要新增数据到其他数据源支持的情况下,无需重新部署,只需实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式来实现负载均衡和动态部署,降低了数据的整体部署和维护难度采集> 系统和改进它提高了系统的可扩展性,
71、以上所述仅为本发明的较佳实施例而已,并不用于限制本发明。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应收录在本发明之内。保护范围内。
免费的:SEO自动推广工具,免费SEO有用吗?
当你运行一个SEO项目时,你经常会想,如果你能自动优化SEO,那该有多好,如果你能免费做,那就完美了。因此,大量的SEO在
进入行业时,往往习惯走捷径,愿意寻找那些SEO自动推广工具,创造方便的优化条件。
所以,搜索引擎优化
自动推广工具,免费SEO有用吗?
根据之前对SEO工具的研究,冠联认为这个问题应该分为两个来看待,比如:
1. 提交 PBN
所谓PBN反向链接是进口产品,近两年国内外贸SEO朋友经常讨论这个问题,这和国内博客反向链接类似,主要是指自建网站采集。
但唯一不同的是,它强调所有PBN网站的独立操作,国外一些SEO自动推广工具收录了一键提交到这些PBN网站的功能。
有时,您无法合理评估这种免费的SEO贡献行为是否无效。
2. 自动插件
如果您使用的是像WordPress这样的博客系统,您会发现那里有大量相关的插件,并且许多免费插件提供SEO自动使用功能,例如
:
(1) 根据实际字数设置自动提取网页描述标签。
(2) 生成页面时自动添加锚文本网站。
(3) 更新网站时,自动生成网站地图。
事实上,这些免费的SEO功能有一定的积极作用。
3. 分组发送外部链接
在众多的SEO推广中
软件中,最流行的SEO自动推广工具之一是群组反向链接,通常主要分为以下内容:
(1)超级反向链接
所谓超级反向链接,主要是在短时间内,在相应网站中做出具有一定权重的相关搜索查询,从而瞬间产生大量的外部查询链接。
(2) 站群分组发送
对于站群组反向链接,通常是
价格低,只需要花一小笔费用,就可以在网站发布上千个反向链接,通常这类网站,基本上不会被百度收录,同时,网站运营的时间段也比较短。
链接到这两个使用免费SEO的策略显然对SEO没有用,偶尔会适得其反。
4. 快速排名
搜索引擎优化
Quick Ranking,相关软件,是常见的SEO自动推广工具,但它并不是完全免费的SEO,而是需要你充值一定量来模拟真实用户行为刷点击。
显然,这不是真正的用户搜索点击,理论上短期内可能对SEO有用,但从长远来看,它不会有任何用处。
总结:免费SEO的相关自动推广工具对SEO结果是否有用,有时候需要具体问题,具体分析,以上内容仅供参考! 查看全部
解决方案:一种物联网数据采集器动态分发方法及系统与流程
1、本发明涉及数据采集技术领域,具体涉及一种物联网数据采集器动态分发方法及系统。
背景技术:
2、随着物联网技术的发展,数据采集终端的种类和规模不断增加,对数据采集系统的部署和采集效率提出了更高的要求. 对于大型采集系统,负载均衡和动态部署是保证采集终端数据高效的基础。
3、传统的data采集部署方式,通常以中间件的形式实现。比如data采集模块用于完成业务调度和执行,从上层调用data采集逻辑。控制数据采集终端实现数据采集。当这种方法配置为最小粒度(指标)时,每个指标被视为一个采集任务,每个采集任务需要单独配置,采集的效率为低的。而data采集器负载均衡依赖中间件,运维难度大,没有动态部署机制。当系统需要增加对其他数据源的支持时,需要扩展新的data采集协议,需要重新部署,维护工作量大,可扩展性差。对于大规模数据采集 任务,它有明显的局限性。
技术实施要素:
4、为了克服现有技术的不足,本发明提供了一种物联网数据动态分发采集器的方法和系统,首先将需要采集的终端指标重组为采集按照一定的规则。>任务列表发送到对应的物联网网关,然后初始化采集执行器的执行环境,最后根据采集任务实例化采集执行器完成数据采集 工作。本发明不仅可以降低数据采集系统的部署和维护难度,而且在系统增加新的数据源时不需要重新部署,保证了系统的稳定性和可靠性。系统数据采集和改进<
5、一种物联网数据动态分布采集器的方法,主要包括:
6.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
7.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关采集需要执行的任务列表,并将任务发送给对应的网关;
8.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果没有,转步骤s4,如果有,转步骤s7;
9.s4:查找是否有本地缓存的采集执行器文件,如果没有,转步骤s5,如果有,转步骤s6;
10.s5:平台向物联网平台请求采集执行器文件后,将文件发送给物联网网关,网关接收到文件后,执行步骤s6;
11.s6:加载并初始化采集执行器的执行环境,然后进行步骤s7;
12.s7:根据采集任务实例化采集器并启动,执行数据采集,通过
网关上传到物联网平台。
13、进一步,在步骤s1中,终端指标为数据采集的最小单位,如压力、流量、温度、湿度等。
14、进一步地,在步骤s1中,查找所有终端指示灯的查询条件为:终端状态开启,终端指示灯状态开启,采集状态为等待。终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,以及采集 状态包括:停止、等待、采集和错误。
15、进一步地,当终端的数据和终端索引中与数据采集相关的信息发生变化时,启动终端索引采集的配置重组,则步骤s1为触发。
16、进一步地,在步骤s2中,采集任务列表收录数据源信息和采集指标组列表。
17、进一步的,一个数据源通过其编号与多个网关的网关编号相关联,在数据源指标组中查找与该数据源关联的网关的规则为:网关可以正常运行采集> 数据源。任务; 寻找:与此数据源相关联,状态为启用,运行状态为备用或采集;运行状态包括:standby、采集、stopped。
18、进一步地,在步骤s2中,分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。对于环境相对固定的场景,使用轮询、加权四舍五入。查询和总分配算法,对于环境变化频繁的场景,使用资源负载和动态负载算法。
19、进一步,在步骤s3中,当采集任务在当前网关中出现数据采集通道故障时,将重新分配当前采集任务,并将对应的数据源当前网关将被标记为发生故障,在故障修复后状态重置为备用之前,它不会参与后续分配中的分配。
20、进一步地,步骤s4中,采集执行器文件包括:采集执行器相关代码和类库。
21.一种物联网数据采集器动态分发系统,用于上述数据采集器动态分发方法,包括:
22、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;

23、采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
24、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
25、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
26、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送到物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
27、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
28、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并转换成统一结构上传它通过网关连接到物联网平台。
29、本发明提供的技术方案带来的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关即可。 ,而当系统需要添加对其他数据源的支持时,不需要重新部署,只需要实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式,
目前的负载均衡和动态部署降低了data采集系统的整体部署和维护难度,提高了系统的可扩展性,保证了系统data采集的稳定性和可靠性,完善了系统表现。采集故障转移的效率。
图纸说明
30、下面结合附图和实施例对本发明作进一步说明,其中:
31. 图。图1为本发明实施例的物联网数据采集器动态分发方法流程图。
32. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
详细方法
33、为了更清楚地理解本发明的技术特征、目的和效果,现结合附图对本发明的具体实施方式进行详细说明。
34、本发明实施例提供了一种物联网数据采集器的动态分发方法和系统。
35. 请参考图。请参阅图1,为本发明实施例的物联网数据采集器动态分发方法的流程图,具体包括:
36.s1:查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表。
37、终端指标是数据采集的最小单位,如压力、流量、温度、湿度等。
38、查找终端指示灯的查询条件为:所属终端状态为:启用,终端指示灯状态为:启用,采集状态为:等待。
39、终端状态包括:启用、禁用和删除,指示灯状态包括:启用、禁用和删除,采集状态包括:停止、等待、采集和错误。
40、当终端数据和终端索引中的数据采集相关信息发生变化时,将发起终端索引采集的配置重新合并,执行步骤1被触发。
41.s2:根据不同的数据源对指标组列表进行分组,得到数据源指标组。根据数据源指定的分配算法,将数据源指标组列表中的指标分配给搜索到的物联网网关,获取每个网关要执行的采集任务列表,并将任务下发给对应的物联网网关网关。
42. 采集 任务收录数据源信息和采集 指标组列表。
43、一个数据源可以通过数据源编号关联多个网关的网关编号。在数据源指标组中查找与数据源关联的网关的规则是:网关可以正常运行数据源的采集任务;查找:与此数据源关联,状态已启用,运行状态为备用或采集。
44. 运行状态包括:待机、采集 和已停止。
45. 分配算法包括轮询、加权轮询、总分配、资源负载和动态负载算法。各个算法的具体定义如下:
46、轮询算法是指将指标组平均分配到各个网关的算法;

47、加权轮询算法是指根据每个网关的权重分配指标组的算法;
48、总分配算法是指分配每个网关当前任务数的算法,使网关上的任务总数相近;
49、资源负载算法是指分配各个网关当前的硬件负载(cpu、内存、网络)的算法,使网关的负载相对均衡;
50、动态负载算法是指第一次使用资源分配策略进行分配,然后结合资源负载变化动态调整的算法。
51.对于采集环境比较固定的场景,可以使用round-robin、weighted round-robin、total allocation算法。对于环境变化频繁的采集场景,使用资源加载和动态加载算法。
52、当数据源或其绑定网关的数据中与数据采集相关的信息发生变化时,将重新分配指标组触发步骤2。
53.s3:根据采集任务查找是否有初始化的采集executor执行环境,如果有,转步骤s7,否则转步骤s4。采集executor 是运行 采集 任务的相关代码。
54、当采集任务在当前网关出现数据采集通道故障时,将重新分配当前采集任务,并将当前网关对应的数据源标记为失败,将执行后续分配。中间不参与分配,直到故障修复后状态重置为待机。
55.s4:根据采集执行器的id查找本地是否有缓存的采集执行器文件,如果有,转步骤s6,否则转步骤s5。采集executor文件收录:采集executor相关的代码和类库。
56.s5:向物联网平台请求采集执行器文件,平台将文件发送给物联网网关,网关收到文件后执行步骤s6。
57.s6:加载并初始化采集执行器的执行环境,加载后执行第7步。
58.s7:根据采集任务实例化并启动采集执行器,对数据采集进行处理,转换成统一的结构,通过网关上传到物联网平台. 一种实现上述数据采集器动态分发方法的物联网数据采集器动态分发系统,具体包括:
59、指标组列表获取模块,用于查找所有终端指标,根据终端和数据源对终端指标进行分组,得到指标组列表;
60.采集任务列表获取模块,用于根据不同的数据源对指标组列表进行分组,得到数据源指标组;根据数据源指定的分配算法,将数据源指标组列表中的指标分配给数据源。找到物联网网关,获取每个网关要执行的采集任务列表,并将任务发送到对应的网关;
61、执行环境判断模块,用于根据采集任务判断是否存在初始化的采集执行器执行环境;
62、采集执行器文件判断模块,用于查找本地是否有缓存的采集执行器文件;
63、文件传输模块用于向物联网平台请求采集执行器文件,平台将文件发送至物联网网关。网关接收到文件后,执行加载和初始化模块的功能;
64、加载和初始化模块,用于加载和初始化采集执行器的执行环境;
65、data采集模块用于实例化采集器并根据采集任务启动,执行data采集,并将其转换成统一结构并上传它通过网关连接到物联网平台。
66. 图。图2为本发明实施例的物联网数据采集器动态分布原理示意图。
67. 具体实施方式:
68、如图2所示,添加终端指标后,分发服务在平台监测到新终端指标后,触发与指标关联的数据源重新分发采集任务。任务重新分配后,发送到网关服务,网关服务将任务发送到物联网网关,网关实例化任务,为data采集工作创建采集器连接数据源,采集器采集>接收到的数据通过物联网网关上传到网关服务。
69、当有新的物联网网关连接时,状态服务会通知分发服务
与网关关联的数据源重新分配采集的任务,重新分配后将任务发送给网关服务。网关服务向物联网网关发送任务,网关实例化任务并创建一个采集器连接数据源为data采集工作,采集器接收的数据采集会通过物联网网关上传到网关服务。
70、本发明的有益效果是:本发明可以实现系统内系统任务的负载均衡和动态部署,只需要在系统数据采集时部署网关,系统需要新增数据到其他数据源支持的情况下,无需重新部署,只需实现数据源对应的采集执行器并打包上传到物联网平台即可。由于网关的变化相对于采集执行器来说是相对固定的,相对于传统的基于中间件的方式来实现负载均衡和动态部署,降低了数据的整体部署和维护难度采集> 系统和改进它提高了系统的可扩展性,
71、以上所述仅为本发明的较佳实施例而已,并不用于限制本发明。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应收录在本发明之内。保护范围内。
免费的:SEO自动推广工具,免费SEO有用吗?
当你运行一个SEO项目时,你经常会想,如果你能自动优化SEO,那该有多好,如果你能免费做,那就完美了。因此,大量的SEO在
进入行业时,往往习惯走捷径,愿意寻找那些SEO自动推广工具,创造方便的优化条件。
所以,搜索引擎优化
自动推广工具,免费SEO有用吗?
根据之前对SEO工具的研究,冠联认为这个问题应该分为两个来看待,比如:
1. 提交 PBN
所谓PBN反向链接是进口产品,近两年国内外贸SEO朋友经常讨论这个问题,这和国内博客反向链接类似,主要是指自建网站采集。
但唯一不同的是,它强调所有PBN网站的独立操作,国外一些SEO自动推广工具收录了一键提交到这些PBN网站的功能。
有时,您无法合理评估这种免费的SEO贡献行为是否无效。

2. 自动插件
如果您使用的是像WordPress这样的博客系统,您会发现那里有大量相关的插件,并且许多免费插件提供SEO自动使用功能,例如
:
(1) 根据实际字数设置自动提取网页描述标签。
(2) 生成页面时自动添加锚文本网站。
(3) 更新网站时,自动生成网站地图。
事实上,这些免费的SEO功能有一定的积极作用。
3. 分组发送外部链接
在众多的SEO推广中
软件中,最流行的SEO自动推广工具之一是群组反向链接,通常主要分为以下内容:
(1)超级反向链接

所谓超级反向链接,主要是在短时间内,在相应网站中做出具有一定权重的相关搜索查询,从而瞬间产生大量的外部查询链接。
(2) 站群分组发送
对于站群组反向链接,通常是
价格低,只需要花一小笔费用,就可以在网站发布上千个反向链接,通常这类网站,基本上不会被百度收录,同时,网站运营的时间段也比较短。
链接到这两个使用免费SEO的策略显然对SEO没有用,偶尔会适得其反。
4. 快速排名
搜索引擎优化
Quick Ranking,相关软件,是常见的SEO自动推广工具,但它并不是完全免费的SEO,而是需要你充值一定量来模拟真实用户行为刷点击。
显然,这不是真正的用户搜索点击,理论上短期内可能对SEO有用,但从长远来看,它不会有任何用处。
总结:免费SEO的相关自动推广工具对SEO结果是否有用,有时候需要具体问题,具体分析,以上内容仅供参考!
解决方案:神经网络爬虫框架人脸与行人检测+卡通表情采集器
采集交流 • 优采云 发表了文章 • 0 个评论 • 89 次浏览 • 2022-11-08 07:13
无规则采集器列表算法有误
2017.2.6特别修改。数据来源:开源深度学习神经网络爬虫框架人脸与行人检测+卡通表情采集器及report,目前开源3个,欢迎大家使用。-_-原回答:好几年前了,有这种神器。
现在找到的可用爬虫网站很多了。先列出来我常用的几个。0.综合性的:识图,百度识图,谷歌识图,搜狗识图,必应识图,(题主只说图片,将百度识图和谷歌识图未计),搜狗识图,必应识图,会有一些区别,比如必应识图应该是图片和文字一起;谷歌识图应该是单图/单文字0.非综合性的:豆瓣图书,知乎电影0.3d地图:不知道,知乎有一个地图还不错0.考虑到重复性:淘宝,京东0.文字的:灵魂画手:在线灵魂画手-速写:速写地图链接在此:,将熟悉个把速写精灵还有这些网站:-of-intelligence-inspired-in-python-2015/#topic-of-intelligence-inspired-in-python-2015-2015-is-your-end-to-extension-version-2015.htmlheadergo&blogginggo–automaticartificialintelligenceservicesblogginggo,archiveimagesearch&reportswithautomaticartificialintelligencearchiveimagesearch&reportswithautomaticartificialintelligence-visualizing-places-for-artificial-intelligence/pages/37476.htmlartificialintelligence_where_web_drives-artificial-intelligence/#effective_artificial-intelligence/html'''-artificial-intelligence/hugo-artificial-intelligence.htmldevsecops.htmldevsecops.html-the-intelligence-for-methods-in-everyday-on-a-local-browser-qh9m-on-everyday-on-a-local-browser-qh9m.htmldockingoshe-iot-security/。 查看全部
解决方案:神经网络爬虫框架人脸与行人检测+卡通表情采集器

无规则采集器列表算法有误

2017.2.6特别修改。数据来源:开源深度学习神经网络爬虫框架人脸与行人检测+卡通表情采集器及report,目前开源3个,欢迎大家使用。-_-原回答:好几年前了,有这种神器。
现在找到的可用爬虫网站很多了。先列出来我常用的几个。0.综合性的:识图,百度识图,谷歌识图,搜狗识图,必应识图,(题主只说图片,将百度识图和谷歌识图未计),搜狗识图,必应识图,会有一些区别,比如必应识图应该是图片和文字一起;谷歌识图应该是单图/单文字0.非综合性的:豆瓣图书,知乎电影0.3d地图:不知道,知乎有一个地图还不错0.考虑到重复性:淘宝,京东0.文字的:灵魂画手:在线灵魂画手-速写:速写地图链接在此:,将熟悉个把速写精灵还有这些网站:-of-intelligence-inspired-in-python-2015/#topic-of-intelligence-inspired-in-python-2015-2015-is-your-end-to-extension-version-2015.htmlheadergo&blogginggo–automaticartificialintelligenceservicesblogginggo,archiveimagesearch&reportswithautomaticartificialintelligencearchiveimagesearch&reportswithautomaticartificialintelligence-visualizing-places-for-artificial-intelligence/pages/37476.htmlartificialintelligence_where_web_drives-artificial-intelligence/#effective_artificial-intelligence/html'''-artificial-intelligence/hugo-artificial-intelligence.htmldevsecops.htmldevsecops.html-the-intelligence-for-methods-in-everyday-on-a-local-browser-qh9m-on-everyday-on-a-local-browser-qh9m.htmldockingoshe-iot-security/。
工作经验:hm博学谷-JavaEE在线就业班2022年+中级进修课+精英进阶
采集交流 • 优采云 发表了文章 • 0 个评论 • 48 次浏览 • 2022-11-07 05:25
hm博学谷-JavaEE在线就业班2022+中级进阶课程+精英进阶课程介绍:
课程内容收录大量技术难点,如Dubbo+Zookeeper企业服务架构、SpringBoot+SpringCloud微服务架构、MQ消息队列、Elasticsearch全文搜索、OAuth协议第三方认证、JWT令牌验证用户权限、SpringDataMongoDB框架、Docker等。课程收录多个行业项目,均定位于真正的企业级,让学员快速掌握核心技术,并在工作中有效运用。
章节目录:
2022 年职业课程:
中级培训:
课程目录:
博学谷- 2022年JavaEE在线就业班2.0
├──01、阶段一 Java基础
| ├──01、第一章 Java基础导学
| | └──1-1 导学
| ├──02、第二章 Java基础语法
| | ├──2-1 环境搭建+入门
| | ├──2-10 二维数组
| | ├──2-2 数据类型及转换
| | ├──2-3 运算符
| | ├──2-4 条件控制语句
| | ├──2-5 循环
| | ├──2-6 随机数+开发工具
| | ├──2-7 数组
| | ├──2-8 方法与debug
| | └──2-9 进制
| ├──03、第三章 面向对象基础
| | ├──3-1 面向对象基础-上
| | └──3-2 面向对象基础-下
| ├──04、第四章 API基础
| | ├──4-1 String类
| | └──4-2 StringBuilder
| ├──05、第五章 集合基础
| | ├──5-1 集合-ArrayList
| | └──5-2 学生管理系统
| ├──06、第六章 Git
| | ├──6-1 Git的安装
| | ├──6-2 Git的基本操作
| | └──6-3 IDEA集成Git
| ├──07、第七章 面向对象进阶
| | ├──7-1 分类和static
| | ├──7-2 老师管理系统
| | ├──7-3 继承-上
| | ├──7-4 继承-下
| | ├──7-5 接口
| | ├──7-6 多态与内部类
| | └──7-7 Lambda表达式
| ├──08、第八章 常用API&异常
| | ├──8-1 API的基本使用与Object类
| | ├──8-2 BigDecimal类与Integer类
| | ├──8-3 数组的高级操作与递归
| | ├──8-4 时间日期类
| | └──8-5 异常
| ├──09、第九章 集合
| | ├──9-1 Collection
| | ├──9-2 List与LinkedList
| | ├──9-3 泛型
| | ├──9-4 数据结构&平衡二叉树
| | ├──9-5 红黑树&HashSet
| | ├──9-6 HashMap&TreeMap
| | └──9-7 Stream流
| ├──10、第十章 IO流
| | ├──10-1 File
| | ├──10-2 字节流
| | ├──10-3 缓冲流
| | ├──10-4 字符流&字符缓冲流
| | └──10-5 转换流&对象操作流&Properties
| ├──11、第十一章 多线程
| | ├──11-1 多线程
| | ├──11-2 线程安全问题
| | ├──11-3 生产者和消费者
| | ├──11-4 线程池&volatile
| | └──11-5 原子性&并发工具类
| ├──12、第十二章 网络编程
| | ├──12-1 网络编程&UDP
| | └──12-2 TCP通讯程序
| └──13、第十三章 基础加强
| | ├──13-1 类加载器&反射
| | ├──13-2 xml
| | ├──13-3 DTD&schema
| | ├──13-4 枚举
| | └──13-5 单元测试&日志技术
├──02、阶段二 JavaWeb
| ├──01、第一章 MySQL基础操作
| | ├──1-1 MySql简介
| | ├──1-2 DDL&DML
| | └──1-3 DQL操作MySql
| ├──02、第二章 MySQL数据库设计和多表操作
| | ├──2-1 数据库设计
| | └──2-2 多表查询&事务
| ├──03、第三章 JDBC
| | ├──3-1 JDBC-快速入门
| | ├──3-2 JDBC-API详解
| | └──3-3 JDBC练习
| ├──04、第四章 Maven基础
| | ├──01-Maven概述.mp4 36.93M
| | ├──02-Maven简介.mp4 42.48M
| | ├──03-Maven安装和配置.mp4 27.02M
| | ├──04-Maven基本使用.mp4 68.82M
| | ├──05-IDEA 创建Maven项目.mp4 24.10M
| | ├──06- IDEA导入Maven项目.mp4 18.92M
| | ├──07-依赖管理.mp4 41.57M
| | └──08-依赖范围.mp4 35.83M
| ├──05、第五章 MyBatis
| | ├──5-1 MyBatis快速入门
| | ├──5-2 MyBatis查询
| | └──5-3 MyBatis添加&修改&删除
| ├──06、第六章 HTML & CSS
| | ├──6-1 HTML快速入门
| | ├──6-2 HTML常用标签
| | └──6-3 css快速入门
| ├──07、第七章 JavaScript
| | ├──7-1 JavaScript快速入门
| | ├──7-2 JavaScript常用对象
| | └──7-3 JavaScript事件
| ├──08、第八章 HTTP & Tomcat & Servlet
| | ├──8-1 HTTP协议
| | ├──8-2 Tomcat
| | └──8-3 Servlet快速入门
| ├──09、第九章 请求和响应
| | ├──9-1 Request
| | ├──9-2 Response
| | └──9-3 综合案例
| ├──10、第十章 JSP & 会话技术
| | ├──10-1 JSP快速入门
| | ├──10-2 三层架构
| | ├──10-3 Cookie&Session
| | └──10-4 登陆案例
| ├──11、第十一章 过滤器 & 监听器 & AJAX
| | ├──11-1 Filter&Listener
| | └──11-2 AJAX
| └──12、第十二章 Vue & ElementUI
| | ├──12-1 Vue-快速入门
| | ├──12-2 Element-快速入门
| | ├──12-3 环境搭建
| | └──12-4 综合案例
├──03、阶段三 热门框架
| ├──01、第一章 spring框架
| | ├──1-1 初识Spring
| | ├──1-2 bean实例化
| | ├──1-3 注入
| | ├──1-4 注解开发&整合Mybatis
| | ├──1-5 Spring整合Junit&AOP入门
| | ├──1-6 AOP切入点表达式&通知类型
| | └──1-7 Spring事务
| ├──02、第二章 SpringMVC
| | ├──2-1 SpringMVC&postman工具
| | ├──2-2 请求方式&参数传递
| | ├──2-3 RESTful
| | ├──2-4 表现层与前端数据传输
| | ├──2-5 异常处理&前后台协议联调
| | └──2-6 拦截器
| ├──03、第三章 springboot
| | ├──3-1 SpringBoot工程
| | ├──3-2 配置文件&多环境开发
| | └──3-3 springboot整合
| ├──04、第四章 Maven高级
| | ├──4-1 分模块开发与设计
| | └──4-2 多环境开发&私服
| └──05、第五章 MyBatis-Plus
| | ├──5-1 Mybatis入门&条件查询
| | └──5-2 多数据操作&代码生成器
├──04、阶段四 项目实战-瑞吉外卖
| ├──01、第一章 瑞吉外卖项目
| | ├──1-1 项目介绍&环境搭建
| | ├──1-10 分页查询&修改菜品
| | ├──1-11 新增套餐功能
| | ├──1-12 分页查询&删除套餐
| | ├──1-13 短信&验证码
| | ├──1-14 导入地址簿&菜品展示
| | ├──1-15 购物车
| | ├──1-16 用户下单
| | ├──1-2 后台功能
| | ├──1-3 完善登录&新增员工
| | ├──1-4 分页查询
| | ├──1-5 启用&禁用账号&编辑员工信息
| | ├──1-6 自动填充
| | ├──1-7 新增&删除&修改分类
| | ├──1-8 上传&下载
| | └──1-9 新增菜品
| ├──02、第二章 Git
| | ├──2-1 Git
| | └──2-2 IDEA中使用Git
| ├──03、第三章 Linux
| | ├──01-Linux课程介绍.mp4 13.22M
| | ├──02-Linux简介_不同应用领域的主流操作系统.mp4 8.99M
| | ├──03-Linux简介_Linux历史.mp4 4.36M
| | ├──04-Linux简介_Linux系统版本(内核版、发行版).mp4 6.65M
| | ├──05-Linux安装_本章内容介绍.mp4 1.18M
| | ├──06-Linux安装_Linux系统的安装方式.mp4 5.80M
| | ├──07-Linux安装_通过虚拟机软件安装Linux系统.mp4 25.80M
| | ├──08-Linux安装_网卡设置.mp4 13.58M
| | ├──09-Linux安装_使用FinalShell连接到Linux服务器.mp4 15.62M
| | ├──10-Linux安装_Linux系统目录结构.mp4 19.70M
| | ├──11-Linux常用命令_本章内容介绍.mp4 3.34M
| | ├──12-Linux常用命令_Linux命令初体验-几个常用命令.mp4 27.87M
| | ├──13-Linux常用命令_Linux命令初体验-Linux命令使用技巧.mp4 23.27M
| | ├──14-Linux常用命令_Linux命令初体验-Linux命令格式.mp4 26.85M
| | ├──15-Linux常用命令_文件目录操作命令-ls命令.mp4 22.72M
| | ├──16-Linux常用命令_文件目录操作命令-cd命令.mp4 10.66M
| | ├──17-Linux常用命令_文件目录操作命令-cat命令.mp4 13.91M
| | ├──18-Linux常用命令_文件目录操作命令-more命令.mp4 16.79M
| | ├──19-Linux常用命令_文件目录操作命令-tail命令.mp4 24.48M
| | ├──20-Linux常用命令_文件目录操作命令-mkdir命令.mp4 8.61M
| | ├──21-Linux常用命令_文件目录操作命令-rmdir命令.mp4 14.48M
| | ├──22-Linux常用命令_文件目录操作命令-rm命令.mp4 19.02M
| | ├──23-Linux常用命令_拷贝移动命令-cp命令.mp4 30.32M
| | ├──24-Linux常用命令_拷贝移动命令-mv命令.mp4 39.32M
| | ├──25-Linux常用命令_打包压缩命令-tar命令.mp4 60.33M
| | ├──26-Linux常用命令_文本编辑命令-vim命令安装.mp4 14.18M
| | ├──27-Linux常用命令_文本编辑命令-vim命令.mp4 32.12M
| | ├──28-Linux常用命令_查找命令-find命令.mp4 10.83M
| | ├──29-Linux常用命令_查找命令-grep命令.mp4 19.34M
| | ├──30-软件安装_本章内容介绍.mp4 2.58M
| | ├──31-软件安装_Linux中软件安装方式介绍.mp4 6.36M
| | ├──32-软件安装_安装jdk.mp4 25.51M
| | ├──33-软件安装_安装Tomcat.mp4 15.24M
| | ├──34-软件安装_安装Tomcat-确认服务启动是否成功.mp4 43.41M
| | ├──35-软件安装_安装Tomcat-防火墙操作.mp4 52.16M
| | ├──36-软件安装_安装Tomcat-停止Tomcat服务.mp4 20.47M
| | ├──37-软件安装_安装MySQL.mp4 98.94M
| | ├──38-软件安装_安装MySQL-启动服务、连接MySQL.mp4 54.23M
| | ├──39-软件安装_安装lrzsz.mp4 19.34M
| | ├──40-项目部署_本章内容介绍.mp4 4.44M
| | ├──41-项目部署_手工部署项目_操作过程.mp4 33.29M
| | ├──42-项目部署_手工部署项目_后台运行程序.mp4 32.49M
| | ├──43-项目部署_通过Shell脚本自动部署项目_操作步骤说明.mp4 10.76M
| | ├──44-项目部署_通过Shell脚本自动部署项目_在Linux中安装git、maven.mp4 39.24M
| | ├──45-项目部署_通过Shell脚本自动部署项目_Shell脚本说明.mp4 27.04M
| | ├──46-项目部署_通过Shell脚本自动部署项目_Linux中权限说明.mp4 16.62M
| | ├──47-项目部署_通过Shell脚本自动部署项目_授权并执行脚本.mp4 41.16M
| | └──48-项目部署_通过Shell脚本自动部署项目_设置静态ip.mp4 35.58M
| ├──04、第四章 Redis
| | ├──4-1 Redis
| | └──4-2 Jedis
| └──05、第五章 瑞吉外卖-项目优化
| | ├──5-1 缓存短信验证码
| | ├──5-2 Spring Cache
| | ├──5-3 缓存套餐数据
| | ├──5-4 Mysql主从复制
| | ├──5-5 Mysql读写分离
| | ├──5-6 Nginx命令
| | ├──5-7 Nginx具体应用
| | ├──5-8 前后端分离开发
| | └──5-9 项目部署
├──05、阶段五 服务端框架基础+探花交友项目
| ├──01、第一章 SpringCloud
| | ├──1-1 微服务&服务拆分
| | ├──1-2 Eureka&Ribbon
| | ├──1-3 Nacos
| | ├──1-4 Nacos配置
| | ├──1-5 Feign
| | └──1-6 网关&路由
| ├──02、第二章 Docker
| | ├──2-1 初识Docker&镜像命令
| | ├──2-2 容器命令&数据卷命令
| | └──2-3 Docker
| ├──03、第三章 MQ
| | ├──3-1 初识MQ&RabbitMQ
| | └──3-2 SpringAMQP
| └──04、第四章 探花交友项目
| | ├──4-1 Dubbo入门
| | ├──4-10 好友推荐&MongoDB集群
| | ├──4-11 圈子动态&个人动态
| | ├──4-12 查询动态
| | ├──4-13 圈子互动&发布评论
| | ├──4-14 点赞&取消点赞
| | ├──4-15 即时通信&用户体系
| | ├──4-16 联系人管理&好友申请
| | ├──4-17 左滑右划功能
| | ├──4-18 地理位置&搜附近
| | ├──4-19 访客&FastDFS
| | ├──4-2 Dubbo高级特性&整合SpringCloud
| | ├──4-20 发布视频&查询视频列表
| | ├──4-21 SpringCache
| | ├──4-22 后台管理
| | ├──4-23 管理员登录&用户管理
| | ├──4-24 用户冻结&日志数据采集
| | ├──4-25 定时任务&动态审核
| | ├──4-26 理论&用户推荐&动态推荐&视频推荐
| | ├──4-3 模块介绍&阿里云
| | ├──4-4 封装组件&登录验证&JWT
| | ├──4-5 用户登录
| | ├──4-6 阿里云oss&人脸识别&保存用户信息
| | ├──4-7 上传头像&资料管理&代码优化
| | ├──4-8 通用设置&陌生人问题&黑名单
| | └──4-9 MongoDB&SpringData-Mongo&今日佳人
├──06、阶段六 服务端框架高级+黑马头条项目
| ├──01、第一章 Sentinel
| | ├──1-1 Sentinel&限流规则
| | └──1-2 隔离和降级&授权规则&规则持久化
| ├──02、第二章 分布式事务
| | ├──2-1 理论基础&初识Seata
| | ├──2-2 XA模式&AT模式
| | ├──2-3 TCC模式&SAGA模式
| | └──2-4 高可用&ES集群
| ├──03、第三章 分布式缓存Redis
| | ├──3-1 Redis持久化&Redis主从
| | └──3-2 Redis哨兵&分片集群
| ├──04、第四章 Redis多级缓存案例
| | ├──4-1 JVM进程缓存
| | ├──4-2 Lua&OpenResty
| | ├──4-3 多级缓存
| | └──4-4 缓存同步
| ├──05、第五章 RabbitMQ高级
| | ├──5-1 消息可靠性
| | ├──5-2 死信交换机&消息堆积
| | └──5-3 MQ集群
| ├──06、第六章 ElasticSearch
| | ├──6-1 初识ES
| | ├──6-10 es集群
| | ├──6-2 操作索引库
| | ├──6-3 RestClient
| | ├──6-4 DSL查询语法
| | ├──6-5 结果处理&查询
| | ├──6-6 黑马旅游案例
| | ├──6-7 数据聚合
| | ├──6-8 自动补全
| | └──6-9 数据同步
| └──07、第七章 黑马头条项目
| | ├──7-1 初始工程
| | ├──7-10 文章审核
| | ├──7-11 敏感词&图片文字识别
| | ├──7-12 概述&添加任务
| | ├──7-13 取消&拉取任务&定时刷新
| | ├──7-14 kafka
| | ├──7-15 springboot集成kafka
| | ├──7-16 文章搜索
| | ├──7-17 历史记录
| | ├──7-18 平台管理
| | ├──7-19 用户行为
| | ├──7-2 APP登录
| | ├──7-20 xxl-job
| | ├──7-21 定时计算
| | ├──7-22 kafkaStream
| | ├──7-23 实时计算
| | ├──7-24 jenkins概述&集成Dockerfile
| | ├──7-25 jenkins构建微服务
| | ├──7-3 接口测试&网关
| | ├──7-4 APP端文章
| | ├──7-5 freemarker
| | ├──7-6 MinIO
| | ├──7-7 素材管理
| | ├──7-8 文章管理&发布
| | └──7-9 阿里云接口&雪花算法&文章保存
├──07、阶段七 面试专题
| ├──01、第一章 基础篇
| | ├──1-1 二分查找&冒泡排序
| | ├──1-2 排序
| | ├──1-3 快速排序
| | ├──1-4 ArrayList&Iterator&LinkedList
| | ├──1-5 HashMap
| | └──1-6 单例设计模式
| ├──02、第二章 并发篇
| | ├──2-1 线程状态&线程池
| | ├──2-2 wait&lock
| | ├──2-3 volatile
| | ├──2-4 引用&悲观锁&HashTable
| | └──2-5 ConcurrentHashMap&ThreadLocal
| ├──03、第三章 虚拟机篇
| | ├──3-1 jvm内存结构&垃圾回收
| | ├──3-2 内存溢出&类加载
| | ├──3-3 引用&悲观锁&HashTable
| | └──3-4 引用&finalize
| ├──04、第四章 框架篇
| | ├──4-1 spring_refresh
| | ├──4-2 spring_bean
| | ├──4-3 spring_tx_事务&spring_webmvc
| | ├──4-4 spring_annotation
| | └──4-5 自动配置&spring_pattern
| ├──05、第五章 数据库篇
| | ├──5-1 隔离级别
| | ├──5-2 隔离级别&存储引擎&B树
| | ├──5-3 索引生效失效
| | └──5-4 全局锁&表级锁&行锁
| ├──06、第六章 缓存篇
| | ├──6-1 redis数据类型
| | ├──6-2 redis持久化&缓存
| | └──6-3 redis事务&lru
| └──07、第七章 分布式篇
| | ├──7-1 cap&paxos
| | ├──7-2 raft算法&gossip协议
| | └──7-3 通用设计
├──08、阶段八 就业指导课+拓展学习
| ├──01、第一章 工作篇
| | └──工作篇.mp4 120.12M
| ├──02、第二章 Java市场篇
| | └──Java市场篇.mp4 298.38M
| ├──03、第三章 求职篇
| | ├──求职篇1简历制作.mp4 86.54M
| | └──求职篇2简历投递技巧.mp4 49.88M
| ├──04、第四章 面试篇
| | ├──面试篇1.mp4 53.61M
| | └──面试篇2.mp4 156.72M
| └──05、第五章 试用期篇
| | ├──试用期篇1.mp4 45.16M
| | └──试用期篇2.mp4 54.51M
精英进阶【包含六大进阶项目】/
├──01、阶段一 中台战略与组件化开发专题课程
| ├──第二章 文件服务
| | ├──01-文件服务课程-文件服务课程介绍.mp4 4.18M
| | ├──02-文件服务课程-文件服务(需求背景).mp4 17.84M
| | ├──03-文件服务课程-文件服务(核心功能).mp4 7.12M
| | ├──04-文件服务课程-文件服务(存储策略).mp4 10.23M
| | ├──05-文件服务课程-文件服务(技术设计).mp4 15.40M
| | ├──06-文件服务课程-文件服务开发(环境搭建_数据.mp4 28.03M
| | ├──07-文件服务课程-文件服务开发(环境搭建_Naco.mp4 22.75M
| | ├──08-文件服务课程-文件服务开发(环境搭建_Ngin.mp4 8.85M
| | ├──09-文件服务课程-文件服务开发(环境搭建_mav.mp4 15.52M
| | ├──10-文件服务课程-文件服务开发(环境搭建_mave.mp4 44.47M
| | ├──11-文件服务课程-文件服务开发(环境搭建_mav.mp4 56.69M
| | ├──12-文件服务课程-文件服务开发(环境搭建_mave.mp4 55.12M
| | ├──13-文件服务课程-文件服务开发(环境搭建_mave.mp4 30.76M
| | ├──14-文件服务课程-文件服务开发(文件处理策略_F.mp4 19.35M
| | ├──15-文件服务课程-文件服务开发(文件处理策略_.mp4 43.58M
| | ├──16-文件服务课程-文件服务开发(文件处理策略_.mp4 45.03M
| | ├──17-文件服务课程-文件服务开发(文件处理策略_.mp4 14.74M
| | ├──18-文件服务课程-文件服务开发(文件处理策略_.mp4 20.80M
| | ├──19-文件服务课程-文件服务开发(文件处理策略_L.mp4 24.58M
| | ├──20-文件服务课程-文件服务开发(文件处理策略_.mp4 57.59M
| | ├──21-文件服务课程-文件服务开发(文件处理策略_.mp4 30.71M
| | ├──22-文件服务课程-文件服务开发(文件处理策略.mp4 25.38M
| | ├──23-文件服务课程-文件服务开发(文件处理策略.mp4 22.99M
| | ├──24-文件服务课程-文件服务开发(文件处理策略_F.mp4 20.39M
| | ├──25-文件服务课程-文件服务开发(文件处理策略_F.mp4 35.33M
| | ├──26-文件服务课程-文件服务开发(文件处理策略_.mp4 8.99M
| | ├──27-文件服务课程-文件服务开发(文件处理策略_.mp4 13.66M
| | ├──28-文件服务课程-文件服务开发(文件处理策略_.mp4 52.91M
| | ├──29-文件服务课程-文件服务开发(文件处理策略_.mp4 18.61M
| | ├──30-文件服务课程-文件服务开发(接口开发_上传.mp4 14.33M
| | ├──31-文件服务课程-文件服务开发(接口开发_上.mp4 37.11M
| | ├──32-文件服务课程-文件服务开发(接口开发_上传.mp4 26.69M
| | ├──33-文件服务课程-文件服务开发(接口开发_上传.mp4 77.24M
| | ├──34-文件服务课程-文件服务开发(接口开发_上传.mp4 17.84M
| | ├──35-文件服务课程-文件服务开发(接口开发_上传.mp4 19.97M
| | ├──36-文件服务课程-文件服务开发(接口开发_上传.mp4 19.47M
| | ├──38-文件服务课程-文件服务开发(接口开发_上传.mp4 20.18M
| | ├──39-文件服务课程-文件服务开发(接口开发_根据i.mp4 4.41M
| | ├──40-文件服务课程-文件服务开发(接口开发_根据.mp4 21.59M
| | ├──41-文件服务课程-文件服务开发(接口开发_根据i.mp4 36.76M
| | ├──42-文件服务课程-文件服务开发(接口开发_根据i.mp4 8.35M
| | ├──43-文件服务课程-文件服务开发(接口开发_根据i.mp4 25.15M
| | ├──44-文件服务课程-文件服务开发(接口开发_根据.mp4 3.27M
| | ├──45-文件服务课程-文件服务开发(接口开发_根据.mp4 16.86M
| | ├──46-文件服务课程-文件服务开发(接口开发_根据.mp4 12.85M
| | ├──47-文件服务课程-文件服务开发(接口开发_根据.mp4 3.63M
| | ├──48-文件服务课程-文件服务开发(接口开发_根据.mp4 18.81M
| | ├──49-文件服务课程-文件服务开发(接口开发_根据.mp4 42.48M
| | ├──50-文件服务课程-文件服务开发(接口开发_根据.mp4 42.51M
| | ├──51-文件服务课程-文件服务开发(接口开发_根据.mp4 71.43M
| | ├──52-文件服务课程-文件服务开发(接口开发_根据.mp4 29.70M
| | ├──53-文件服务课程-文件服务开发(接口开发_根据.mp4 13.38M
| | ├──54-文件服务课程-文件服务开发(接口开发_根据.mp4 9.67M
| | ├──55-文件服务课程-文件服务开发(接口开发_根据.mp4 5.04M
| | ├──56-文件服务课程-文件服务开发(接口开发_根据.mp4 30.35M
| | ├──57-文件服务课程-文件服务开发(接口开发_根据.mp4 11.18M
| | ├──58-文件服务课程-文件服务开发(接口导入_分页.mp4 27.57M
| | ├──59-文件服务课程-文件服务开发(接口导入_根据.mp4 14.59M
| | ├──60-文件服务课程-文件服务开发(接口导入_导入.mp4 53.27M
| | ├──61-文件服务课程-文件服务开发(接口导入_导入.mp4 16.21M
| | ├──62-文件服务课程-文件服务开发(接口开发_分片.mp4 5.36M
| | ├──63-文件服务课程-文件服务开发(接口开发_分片.mp4 31.25M
| | ├──64-文件服务课程-文件服务开发(接口开发_分片.mp4 9.81M
| | ├──65-文件服务课程-文件服务开发(接口开发_分.mp4 25.04M
| | ├──66-文件服务课程-文件服务开发(接口开发_分.mp4 16.92M
| | ├──67-文件服务课程-文件服务开发(接口开发_分片.mp4 30.16M
| | ├──68-文件服务课程-文件服务开发(接口开发_分片.mp4 7.12M
| | ├──69-文件服务课程-文件服务开发(接口开发_分片.mp4 68.90M
| | ├──70-文件服务课程-文件服务开发(接口开发_分片.mp4 55.73M
| | ├──71-文件服务课程-文件服务开发(接口开发_分片.mp4 10.66M
| | ├──72-文件服务课程-文件服务开发(接口开发_分片.mp4 7.22M
| | ├──73-文件服务课程-文件服务开发(接口开发_分片.mp4 12.10M
| | ├──74-文件服务课程-文件服务开发(接口开发_分片.mp4 18.18M
| | ├──75-文件服务课程-文件服务开发(接口开发_分片.mp4 42.62M
| | ├──76-文件服务课程-文件服务开发(接口开发_分片.mp4 42.69M
| | ├──77-文件服务课程-文件服务开发(接口开发_分片.mp4 12.46M
| | ├──78-文件服务课程-文件服务开发(接口开发_分片.mp4 50.26M
| | ├──79-文件服务课程-文件服务开发(接口开发_分片.mp4 23.91M
| | ├──80-文件服务课程-文件服务开发(接口开发_分片.mp4 40.38M
| | ├──81-文件服务课程-文件服务开发(接口开发_分片.mp4 33.67M
| | ├──82-文件服务课程-文件服务开发(接口开发_分片.mp4 15.60M
| | ├──83-文件服务课程-文件服务开发(接口开发_分片.mp4 9.75M
| | ├──84-文件服务课程-文件服务开发(接口开发_分片.mp4 47.77M
| | ├──85-文件服务课程-文件服务开发(接口开发_分片.mp4 6.47M
| | ├──86-文件服务课程-文件服务开发(接口开发_分片.mp4 40.94M
| | ├──87-文件服务课程-文件服务开发(接口开发_分片.mp4 60.98M
| | └──88-文件服务课程-文件服务开发(接口开发_分片.mp4 23.23M
| ├──第三章 规则引擎Drools
| | ├──01-规则引擎Drools-课程介绍.mp4 6.48M
| | ├──02-规则引擎Drools-规则引擎问题引出(业务规.mp4 25.87M
| | ├──03-规则引擎Drools-规则引擎问题引出(传统实.mp4 42.75M
| | ├──04-规则引擎Drools-规则引擎概述(什么是规则.mp4 29.46M
| | ├──05-规则引擎Drools-规则引擎概述(使用规则引.mp4 10.56M
| | ├──06-规则引擎Drools-规则引擎概述(规则引擎应.mp4 7.31M
| | ├──07-规则引擎Drools-规则引擎概述(Drools介.mp4 14.21M
| | ├──08-规则引擎Drools-Drools入门案例(业务场景.mp4 3.47M
| | ├──09-规则引擎Drools-Drools入门案例(开发实现.mp4 32.58M
| | ├──10-规则引擎Drools-Drools入门案例(开发实现_.mp4 35.01M
| | ├──11-规则引擎Drools-Drools入门案例(开发实现_.mp4 42.07M
| | ├──12-规则引擎Drools-Drools入门案例(开发实现_.mp4 16.77M
| | ├──13-规则引擎Drools-Drools入门案例(小结_规则.mp4 18.80M
| | ├──14-规则引擎Drools-Drools入门案例(小结_相关.mp4 9.65M
| | ├──15-规则引擎Drools-Drools入门案例(小结_规则.mp4 2.81M
| | ├──16-规则引擎Drools-Drools入门案例(小结_KIE.mp4 8.92M
| | ├──17-规则引擎Drools-Drools基础语法(规则文件.mp4 9.64M
| | ├──18-规则引擎Drools-Drools基础语法(规则体语.mp4 9.24M
| | ├──19-规则引擎Drools-Drools基础语法(注释).mp4 3.23M
| | ├──20-规则引擎Drools-Drools基础语法(模式匹.mp4 19.62M
| | ├──21-规则引擎Drools-Drools基础语法(比较操作.mp4 17.20M
| | ├──22-规则引擎Drools-Drools基础语法(比较操作.mp4 47.54M
| | ├──23-规则引擎Drools-Drools基础语法(比较操作.mp4 16.84M
| | ├──24-规则引擎Drools-Drools基础语法(比较操作.mp4 11.10M
| | ├──25-规则引擎Drools-Drools基础语法(执行指定.mp4 26.55M
| | ├──26-规则引擎Drools-Drools基础语法(关键字).mp4 14.43M
| | ├──27-规则引擎Drools-Drools基础语法(内置方法_.mp4 10.05M
| | ├──28-规则引擎Drools-Drools基础语法(内置方.mp4 31.54M
| | ├──29-规则引擎Drools-Drools基础语法(内置方法_i.mp4 16.39M
| | ├──30-规则引擎Drools-Drools基础语法(内置方法.mp4 17.72M
| | ├──31-规则引擎Drools-规则属性(介绍).mp4 15.38M
| | ├──32-规则引擎Drools-规则属性(enabled属性).mp4 10.43M
| | ├──33-规则引擎Drools-规则属性(dialect属性).mp4 4.97M
| | ├──34-规则引擎Drools-规则属性(salience属性).mp4 20.24M
| | ├──35-规则引擎Drools-规则属性(no-loop属性.mp4 19.00M
| | ├──36-规则引擎Drools-规则属性(activation-gro.mp4 19.24M
| | ├──37-规则引擎Drools-规则属性(agenda-grou.mp4 33.70M
| | ├──38-规则引擎Drools-规则属性(auto-focus属.mp4 14.07M
| | ├──39-规则引擎Drools-规则属性(timer属性_第一.mp4 30.04M
| | ├──40-规则引擎Drools-规则属性(timer属性_第二.mp4 16.83M
| | ├──41-规则引擎Drools-规则属性(date-effective.mp4 23.18M
| | ├──42-规则引擎Drools-规则属性(date-expires属.mp4 10.03M
| | ├──43-规则引擎Drools-Drools高级语法(global全.mp4 43.77M
| | ├──44-规则引擎Drools-Drools高级语法(global全.mp4 25.50M
| | ├──45-规则引擎Drools-Drools高级语法(global全.mp4 20.30M
| | ├──46-规则引擎Drools-Drools高级语法(Query查.mp4 50.05M
| | ├──47-规则引擎Drools-Drools高级语法(Query查.mp4 22.70M
| | ├──48-规则引擎Drools-Drools高级语法(function.mp4 24.03M
| | ├──49-规则引擎Drools-Drools高级语法(LHS加强_i.mp4 22.80M
| | ├──50-规则引擎Drools-Drools高级语法(LHS加强_.mp4 7.50M
| | ├──51-规则引擎Drools-Drools高级语法(LHS加强_.mp4 10.77M
| | ├──52-规则引擎Drools-Drools高级语法(LHS加强_.mp4 16.52M
| | ├──53-规则引擎Drools-Drools高级语法(LHS加强_.mp4 14.03M
| | ├──54-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.73M
| | ├──55-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.43M
| | ├──56-规则引擎Drools-Drools高级语法(RHS加强_.mp4 13.29M
| | ├──57-规则引擎Drools-Drools高级语法(RHS加强.mp4 5.93M
| | ├──58-规则引擎Drools-Spring整合Drools(简单整.mp4 50.56M
| | ├──59-规则引擎Drools-Spring整合Drools(Spring.mp4 42.83M
| | ├──60-规则引擎Drools-Spring整合Drools(Spring.mp4 9.61M
| | ├──61-规则引擎Drools-Spring整合Drools(Spring.mp4 58.44M
| | ├──62-规则引擎Drools-Spring整合Drools(Spring.mp4 4.84M
| | ├──63-规则引擎Drools-WorkBench(简介).mp4 8.40M
| | ├──64-规则引擎Drools-WorkBench(安装方式).mp4 31.59M
| | ├──65-规则引擎Drools-WorkBench(使用方式_创.mp4 11.24M
| | ├──66-规则引擎Drools-WorkBench(使用方式_创.mp4 12.10M
| | ├──67-规则引擎Drools-WorkBench(使用方式_创.mp4 11.42M
| | ├──68-规则引擎Drools-WorkBench(使用方式_创.mp4 21.15M
| | ├──69-规则引擎Drools-WorkBench(使用方式_设.mp4 12.09M
| | ├──70-规则引擎Drools-WorkBench(使用方式_编.mp4 7.27M
| | ├──71-规则引擎Drools-WorkBench(使用方式_在.mp4 75.43M
| | ├──72-规则引擎Drools-Drools实战(个人所得税计.mp4 10.56M
| | ├──73-规则引擎Drools-Drools实战(个人所得税计.mp4 19.81M
| | ├──74-规则引擎Drools-Drools实战(个人所得税计.mp4 26.74M
| | ├──75-规则引擎Drools-Drools实战(个人所得税计.mp4 73.21M
| | ├──76-规则引擎Drools-Drools实战(个人所得税计.mp4 21.24M
| | ├──77-规则引擎Drools-Drools实战(个人所得税计.mp4 12.80M
| | ├──78-规则引擎Drools-Drools实战(信用卡申请_规.mp4 13.93M
| | ├──79-规则引擎Drools-Drools实战(信用卡申请_.mp4 26.97M
| | ├──80-规则引擎Drools-Drools实战(信用卡申请_.mp4 38.46M
| | ├──81-规则引擎Drools-Drools实战(信用卡申请_.mp4 36.45M
| | ├──82-规则引擎Drools-Drools实战(信用卡申请_实.mp4 30.79M
| | ├──83-规则引擎Drools-Drools实战(保险产品准入.mp4 34.13M
| | ├──84-规则引擎Drools-Drools实战(保险产品准入.mp4 40.77M
| | ├──85-规则引擎Drools-Drools实战(保险产品准入.mp4 60.56M
| | ├──86-规则引擎Drools-Drools实战(保险产品准入.mp4 7.20M
| | ├──87-规则引擎Drools-Drools实战(保险产品准入.mp4 18.71M
| | ├──88-规则引擎Drools-Drools实战(保险产品准入.mp4 32.22M
| | ├──89-规则引擎Drools-Drools实战(保险产品准入.mp4 36.95M
| | └──90-规则引擎Drools-Drools实战(保险产品准入.mp4 13.75M
| ├──第四章 常见组件与中台化
| | ├──01-常见组件与中台化-本章课程内容介绍.mp4 5.98M
| | ├──02-常见组件与中台化-中台概述(中台概念).mp4 31.12M
| | ├──03-常见组件与中台化-中台概述(中台背景).mp4 35.35M
| | ├──04-常见组件与中台化-中台概述(中台分类).mp4 35.58M
| | ├──05-常见组件与中台化-常用组件服务介绍(通用权.mp4 43.49M
| | ├──06-常见组件与中台化-常用组件服务介绍(通用权.mp4 8.42M
| | ├──07-常见组件与中台化-常用组件服务介绍(通用权.mp4 10.63M
| | ├──08-常见组件与中台化-常用组件服务介绍(通用权.mp4 42.09M
| | ├──09-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.02M
| | ├──10-常见组件与中台化-常用组件服务介绍(通用权.mp4 56.06M
| | ├──11-常见组件与中台化-常用组件服务介绍(通用.mp4 23.63M
| | ├──12-常见组件与中台化-常用组件服务介绍(通用权.mp4 38.96M
| | ├──13-常见组件与中台化-常用组件服务介绍(通用权.mp4 64.49M
| | ├──14-常见组件与中台化-常用组件服务介绍(通用权.mp4 7.24M
| | ├──15-常见组件与中台化-常用组件服务介绍(通用权.mp4 4.11M
| | ├──16-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.67M
| | ├──17-常见组件与中台化-常用组件服务介绍(通用权.mp4 23.71M
| | ├──18-常见组件与中台化-常用组件服务介绍(通用权.mp4 3.69M
| | ├──19-常见组件与中台化-常用组件服务介绍(通用权.mp4 40.60M
| | ├──20-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.43M
| | ├──21-常见组件与中台化-常用组件服务介绍(注册登.mp4 10.85M
| | ├──22-常见组件与中台化-常用组件服务介绍(注册登.mp4 19.98M
| | ├──23-常见组件与中台化-常用组件服务介绍(注册登.mp4 28.09M
| | ├──24-常见组件与中台化-常用组件服务介绍(注册登.mp4 12.15M
| | ├──25-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.82M
| | ├──26-常见组件与中台化-常用组件服务介绍(注册登.mp4 16.28M
| | ├──27-常见组件与中台化-常用组件服务介绍(注册登.mp4 30.75M
| | ├──28-常见组件与中台化-常用组件服务介绍(分布式.mp4 16.97M
| | ├──29-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.02M
| | ├──30-常见组件与中台化-常用组件服务介绍(分布式.mp4 22.30M
| | ├──31-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.74M
| | └──32-常见组件与中台化-常用组件服务介绍(分布.mp4 16.67M
| └──第一章 软件架构与需求分析方法
| | ├──01-软件架构与需求分析方法-课程内容介绍.mp4 11.40M
| | ├──02-软件架构与需求分析方法-软件架构体系(系.mp4 36.91M
| | ├──03-软件架构与需求分析方法-软件架构体系(模.mp4 21.78M
| | ├──04-软件架构与需求分析方法-软件架构体系(服.mp4 11.14M
| | ├──05-软件架构与需求分析方法-软件架构体系(层.mp4 9.52M
| | ├──06-软件架构与需求分析方法-架构原则(解耦).mp4 15.35M
| | ├──07-软件架构与需求分析方法-架构原则(分层).mp4 15.14M
| | ├──08-软件架构与需求分析方法-架构原则(封装).mp4 8.90M
| | ├──09-软件架构与需求分析方法-架构的方法(业务.mp4 16.57M
| | ├──10-软件架构与需求分析方法-架构的方法(功能.mp4 7.64M
| | ├──11-软件架构与需求分析方法-架构的方法(系统.mp4 6.36M
| | ├──12-软件架构与需求分析方法-架构的方法(技术.mp4 16.24M
| | ├──13-软件架构与需求分析方法-架构的方法(数据.mp4 11.69M
| | ├──14-软件架构与需求分析方法-架构的方法(部署.mp4 21.76M
| | ├──15-软件架构与需求分析方法-架构演进之路(单.mp4 26.17M
| | ├──16-软件架构与需求分析方法-架构演进之路(分.mp4 16.09M
| | ├──17-软件架构与需求分析方法-架构演进之路(分.mp4 10.52M
| | ├──18-软件架构与需求分析方法-架构演进之路(分.mp4 17.95M
| | ├──19-软件架构与需求分析方法-架构演进之路(分.mp4 27.39M
| | ├──20-软件架构与需求分析方法-架构演进之路(分.mp4 12.09M
| | ├──21-软件架构与需求分析方法-架构演进之路(分.mp4 7.94M
| | ├──22-软件架构与需求分析方法-架构演进之路(微.mp4 24.48M
| | ├──23-软件架构与需求分析方法-服务化(为什么需.mp4 25.35M
| | ├──24-软件架构与需求分析方法-服务化(服务化的.mp4 6.80M
| | ├──25-软件架构与需求分析方法-服务化(服务化的.mp4 6.65M
| | ├──26-软件架构与需求分析方法-常见的需求问题.mp4 10.95M
| | ├──27-软件架构与需求分析方法-常见的需求问题.mp4 14.77M
| | ├──28-软件架构与需求分析方法-常见的需求问题.mp4 7.26M
| | ├──29-软件架构与需求分析方法-需求获取(需求来.mp4 7.52M
| | ├──30-软件架构与需求分析方法-需求获取(需求分.mp4 43.97M
| | ├──31-软件架构与需求分析方法-需求获取(获取步.mp4 12.14M
| | ├──32-软件架构与需求分析方法-需求要素(角色、.mp4 21.20M
| | ├──33-软件架构与需求分析方法-需求要素(业务流.mp4 32.96M
| | ├──34-软件架构与需求分析方法-需求要素(数据实.mp4 11.02M
| | ├──35-软件架构与需求分析方法-需求要素(功能性.mp4 8.85M
| | ├──36-软件架构与需求分析方法-需求要素(非功能.mp4 8.07M
| | ├──37-软件架构与需求分析方法-案例电商订单系统.mp4 13.32M
| | ├──38-软件架构与需求分析方法-案例电商订单系统.mp4 11.06M
| | ├──39-软件架构与需求分析方法-案例电商订单系统.mp4 7.75M
| | ├──40-软件架构与需求分析方法-案例电商订单系统.mp4 17.27M
| | ├──41-软件架构与需求分析方法-案例电商订单系统.mp4 6.70M
| | └──42-软件架构与需求分析方法-案例电商订单系统.mp4 16.15M
├──02、阶段二 【物流行业】品达物流TMS
| ├──第八章 智能调度服务
| | ├──01-本章内容介绍.mp4 8.94M
| | ├──02-定时任务组件Quartz(Quartz介绍).mp4 5.45M
| | ├──03-定时任务组件Quartz(Quartz核心API介绍).mp4 22.17M
| | ├──04-定时任务组件Quartz(Quartz入门案例_代码.mp4 41.11M
| | ├──05-定时任务组件Quartz(Quartz入门案例_测.mp4 7.13M
| | ├──06-定时任务组件Quartz(Quartz入门案例_问题.mp4 10.73M
| | ├──07-定时任务组件Quartz(Quartz入门案例_问题.mp4 23.71M
| | ├──08-定时任务组件Quartz(Quartz入门案例_问题.mp4 17.65M
| | ├──09-Quartz动态定时任务(数据模型).mp4 30.15M
| | ├──10-Quartz动态定时任务(环境搭建).mp4 82.18M
| | ├──11-Quartz动态定时任务(添加定时任务_代码实.mp4 34.92M
| | ├──12-Quartz动态定时任务(添加定时任务_测试).mp4 38.80M
| | ├──13-Quartz动态定时任务(暂停定时任务).mp4 28.97M
| | ├──14-Quartz动态定时任务(恢复定时任务).mp4 12.09M
| | ├──15-Quartz动态定时任务(删除定时任务).mp4 9.87M
| | ├──16-Quartz动态定时任务(立即执行定时任务).mp4 10.87M
| | ├──17-Quartz动态定时任务(更新定时任务_代码实.mp4 37.76M
| | ├──18-Quartz动态定时任务(更新定时任务_测试).mp4 9.94M
| | ├──19-智能调度服务(业务说明).mp4 46.94M
| | ├──20-智能调度服务(数据模型_1).mp4 51.88M
| | ├──21-智能调度服务(数据模型_2).mp4 38.20M
<p>
| | ├──22-智能调度服务(数据模型_3).mp4 27.61M
| | ├──23-智能调度服务(实现过程_环境搭建).mp4 41.58M
| | ├──24-智能调度服务(实现过程_编写定时任务).mp4 25.66M
| | ├──25-智能调度服务(实现过程_初始化定时任务_.mp4 82.61M
| | ├──26-智能调度服务(实现过程_初始化定时任务_.mp4 45.00M
| | ├──27-智能调度服务(实现过程_初始化定时任务_.mp4 33.85M
| | ├──28-智能调度服务(实现过程_完善定时任务_1).mp4 80.26M
| | ├──29-智能调度服务(实现过程_完善定时任务_2).mp4 36.90M
| | ├──30-智能调度服务(实现过程_编写智能调度组件.mp4 16.29M
| | ├──31-智能调度服务(实现过程_编写智能调度组件_.mp4 33.96M
| | ├──32-智能调度服务(实现过程_订单分类_1).mp4 48.66M
| | ├──33-智能调度服务(实现过程_订单分类_2).mp4 17.09M
| | ├──34-智能调度服务(实现过程_订单分类_3).mp4 71.72M
| | ├──35-智能调度服务(实现过程_订单分类_4).mp4 19.65M
| | ├──36-智能调度服务(实现过程_订单分类_5).mp4 60.78M
| | ├──37-智能调度服务(实现过程_订单分类_6).mp4 29.75M
| | ├──38-智能调度服务(实现过程_订单分类_7).mp4 49.79M
| | ├──39-智能调度服务(实现过程_订单分类_8).mp4 39.90M
| | ├──40-智能调度服务(实现过程_订单分类_9).mp4 32.31M
| | ├──41-智能调度服务(实现过程_订单分类_10).mp4 35.85M
| | ├──42-智能调度服务(实现过程_订单分类_11).mp4 45.82M
| | ├──43-智能调度服务(实现过程_订单分类_12).mp4 23.97M
| | ├──44-智能调度服务(实现过程_订单分类_13).mp4 71.14M
| | ├──45-智能调度服务(实现过程_订单分类_14).mp4 27.79M
| | ├──46-智能调度服务(实现过程_订单分类_15).mp4 20.78M
| | ├──47-智能调度服务(实现过程_订单分类_16).mp4 27.83M
| | ├──48-智能调度服务(实现过程_订单分类_17).mp4 9.02M
| | ├──49-智能调度服务(实现过程_订单分类_18).mp4 49.14M
| | ├──50-智能调度服务(实现过程_订单分类_19).mp4 58.63M
| | ├──51-智能调度服务(实现过程_订单分类_20).mp4 64.96M
| | ├──52-智能调度服务(实现过程_订单分类优化_1).mp4 22.22M
| | ├──53-智能调度服务(实现过程_订单分类优化_2).mp4 22.68M
| | ├──54-智能调度服务(实现过程_订单分类优化_3).mp4 35.73M
| | └──55-智能调度服务(实现过程_导入其他功能代.mp4 31.70M
| ├──第二章 基础数据服务
| | ├──01-第2章内容介绍.mp4 13.90M
| | ├──02-基础数据服务数据模型_1.mp4 39.71M
| | ├──03-基础数据服务数据模型_2.mp4 27.53M
| | ├──04-基础数据微服务开发准备(SpringBoot配置.mp4 36.02M
| | ├──05-基础数据微服务开发准备(启动类、配置类).mp4 35.78M
| | ├──06-基础数据微服务开发准备(Id生成器).mp4 18.79M
| | ├──07-货物类型管理(业务需求和产品原型、数据模.mp4 10.57M
| | ├──08-货物类型管理(实体类).mp4 25.78M
| | ├──09-货物类型管理(服务接口开发_新增货物类型_.mp4 40.36M
| | ├──10-货物类型管理(服务接口开发_新增货物类型_.mp4 74.08M
| | ├──11-货物类型管理(服务接口开发_新增货物类型_.mp4 60.97M
| | ├──12-货物类型管理(服务接口开发_新增货物类型.mp4 34.94M
| | ├──13-货物类型管理(服务接口开发_根据id查询货.mp4 55.60M
| | ├──14-货物类型管理(服务接口开发_根据id查询货.mp4 21.11M
| | ├──15-货物类型管理(服务接口开发_根据id查询货.mp4 8.31M
| | ├──16-货物类型管理(服务接口开发_查询所有货物.mp4 36.27M
| | ├──17-货物类型管理(服务接口开发_查询所有货物.mp4 4.51M
| | ├──18-货物类型管理(服务接口开发_分页查询货物.mp4 82.83M
| | ├──19-货物类型管理(服务接口开发_分页查询货物.mp4 41.95M
| | ├──20-货物类型管理(服务接口开发_分页查询货物.mp4 11.62M
| | ├──21-货物类型管理(服务接口开发_查询货物类型.mp4 36.49M
| | ├──22-货物类型管理(服务接口开发_查询货物类型.mp4 10.19M
| | ├──23-货物类型管理(服务接口开发_查询货物类型.mp4 5.08M
| | ├──24-货物类型管理(服务接口开发_更新货物类.mp4 55.68M
| | ├──25-货物类型管理(服务接口开发_更新货物类型.mp4 17.58M
| | ├──26-货物类型管理(服务接口开发_更新货物类型_.mp4 24.45M
| | ├──27-货物类型管理(服务接口开发_删除货物类.mp4 12.85M
| | ├──28-数据校验(hibernate-validator介绍).mp4 26.72M
| | ├──29-数据校验(hibernate-validator常用注解).mp4 14.93M
| | ├──30-数据校验(使用hibernate-validator进行校.mp4 25.96M
| | ├──31-数据校验(使用hibernate-validator进行校验.mp4 17.76M
| | └──32-导入基础数据服务其他功能代码.mp4 12.36M
| ├──第九章 TMS后台管理端
| | ├──01-本章内容介绍.mp4 5.87M
| | ├──02-分布式锁(什么是分布式锁_1).mp4 20.74M
| | ├──03-分布式锁(什么是分布式锁_2).mp4 38.30M
| | ├──04-分布式锁(为什么要使用分布式锁_1).mp4 36.11M
| | ├──05-分布式锁(为什么要使用分布式锁_2).mp4 21.73M
| | ├──06-分布式锁(为什么要使用分布式锁_3).mp4 18.54M
| | ├──07-分布式锁(为什么要使用分布式锁_4).mp4 24.55M
| | ├──08-分布式锁(分布式锁应具有的特性).mp4 19.25M
| | ├──09-分布式锁实现方案(数据库方式实现分布式.mp4 17.64M
| | ├──10-分布式锁实现方案(数据库方式实现分布式.mp4 72.90M
| | ├──11-分布式锁实现方案(数据库方式实现分布式.mp4 31.88M
| | ├──12-分布式锁实现方案(数据库方式实现分布式.mp4 31.53M
| | ├──13-分布式锁实现方案(Zookeeper方式实现.mp4 14.52M
| | ├──14-分布式锁实现方案(Zookeeper方式实现.mp4 44.72M
| | ├──15-分布式锁实现方案(Zookeeper方式实现.mp4 16.94M
| | ├──16-分布式锁实现方案(Zookeeper方式实现.mp4 16.91M
| | ├──17-分布式锁实现方案(Redis方式实现分布式.mp4 14.16M
| | ├──18-分布式锁实现方案(Redis方式实现分布式.mp4 36.75M
| | ├──19-分布式锁实现方案(Redis方式实现分布式.mp4 16.28M
| | ├──20-分布式锁实现方案(Redis方式实现分布式.mp4 12.11M
| | ├──21-Redisson(Redisson介绍).mp4 21.03M
| | ├──22-Redisson(Redisson实现分布式锁_1).mp4 33.62M
| | ├──23-Redisson(Redisson实现分布式锁_2).mp4 21.77M
| | ├──24-Redisson(Redisson实现分布式锁_3).mp4 18.33M
| | ├──25-Redisson(Lua脚本_使用Lua脚本的好处).mp4 13.96M
| | ├──26-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 35.49M
| | ├──27-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 13.25M
| | └──28-导入功能代码.mp4 28.97M
| ├──第六章 数据聚合服务
| | ├──01-本章内容介绍.mp4 13.66M
| | ├──02-canal概述(背景).mp4 10.35M
| | ├──03-canal概述(工作原理).mp4 23.33M
| | ├──04-canal概述(架构).mp4 10.33M
| | ├──05-canal概述(HA机制).mp4 12.61M
| | ├──06-canal安装(安装配置MySQL).mp4 61.09M
| | ├──07-canal安装(安装配置canal-server).mp4 29.83M
| | ├──08-canal简单使用(编写Java程序).mp4 44.70M
| | ├──09-canal简单使用(测试).mp4 30.10M
| | ├──09-Otter概述(Otter介绍).mp4 17.60M
| | ├──10-Otter概述(Otter架构).mp4 32.71M
| | ├──11-Otter安装配置(依赖环境安装).mp4 8.86M
| | ├──12-Otter安装配置(MySQL安装_创建源数据.mp4 23.55M
| | ├──13-Otter安装配置(MySQL安装_创建目标数据.mp4 12.93M
| | ├──14-Otter安装配置(MySQL安装_创建Otter配置.mp4 40.40M
| | ├──15-Otter安装配置(zookeeper、aria2安装).mp4 15.91M
| | ├──16-Otter安装配置(Ottermanager安装).mp4 36.63M
| | ├──17-Otter安装配置(Ottermanager配置_配置Z.mp4 14.10M
| | ├──18-Otter安装配置(Ottermanager配置_配置n.mp4 10.53M
| | ├──19-Otter安装配置(Ottermanager配置_管理.mp4 6.25M
| | ├──20-Otter安装配置(Otternode安装).mp4 24.87M
| | ├──21-Otter安装配置(设置同步任务_准备工作).mp4 13.10M
| | ├──22-Otter安装配置(设置同步任务_数据源配.mp4 9.19M
| | ├──23-Otter安装配置(设置同步任务_数据表配.mp4 4.88M
| | ├──24-Otter安装配置(设置同步任务_canal配置).mp4 6.77M
| | ├──25-Otter安装配置(设置同步任务_添加chann.mp4 2.19M
| | ├──26-Otter安装配置(设置同步任务_添加pipelin.mp4 13.85M
| | ├──27-Otter安装配置(设置同步任务_添加映射关.mp4 4.83M
| | ├──28-Otter安装配置(设置同步任务_测试).mp4 9.26M
| | └──29-数据聚合服务介绍.mp4 6.79M
| ├──第七章 车辆轨迹服务
| | ├──01-本章内容介绍.mp4 5.30M
| | ├──02-ApacheDruid概述(Druid介绍).mp4 17.61M
| | ├──03-ApacheDruid概述(Druid应用场景).mp4 18.07M
| | ├──04-ApacheDruid概述(Druid特点).mp4 34.80M
| | ├──05-ApacheDruid概述(Druid进程和服务).mp4 33.47M
| | ├──06-ApacheDruid概述(Druid数据结构).mp4 25.30M
| | ├──07-ApacheDruid概述(Druid在本项目的应.mp4 8.93M
| | ├──08-ApacheDruid安装(依赖环境安装_jdk、Z.mp4 9.22M
| | ├──09-ApacheDruid安装(依赖环境安装_kafka).mp4 32.83M
| | ├──10-ApacheDruid安装(依赖环境安装_kafka验.mp4 39.50M
| | ├──11-ApacheDruid安装(Druid安装和配置文件.mp4 65.69M
| | ├──12-ApacheDruid安装(Druid启动).mp4 16.93M
| | ├──13-ApacheDruid摄取数据(从本地文件摄取数.mp4 93.78M
| | ├──14-ApacheDruid摄取数据(从本地文件摄取数.mp4 61.29M
| | ├──15-ApacheDruid摄取数据(从本地文件摄取数.mp4 50.34M
| | ├──16-ApacheDruid摄取数据(从本地文件摄取数.mp4 41.92M
| | ├──17-ApacheDruid摄取数据(从kafka摄取数据.mp4 14.98M
| | ├──18-ApacheDruid摄取数据(从kafka摄取数.mp4 35.33M
| | ├──19-Java客户端操作Druid.mp4 47.79M
| | ├──20-车辆轨迹服务(说明).mp4 5.51M
| | ├──21-车辆轨迹服务(pd-netty开发_HTTP接口方.mp4 43.88M
| | ├──22-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 27.64M
| | ├──23-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 23.25M
| | ├──24-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 21.39M
| | ├──25-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 43.77M
| | ├──26-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 36.30M
| | ├──27-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 34.80M
| | └──28-车辆轨迹服务(pd-druid开发).mp4 15.61M
| ├──第三章 用户服务
| | ├──01-第3章内容介绍.mp4 2.91M
| | ├──02-j2cache多级缓存(j2cache介绍).mp4 28.10M
| | ├──03-j2cache多级缓存(入门案例_1).mp4 41.74M
| | ├──04-j2cache多级缓存(入门案例_2).mp4 42.91M
| | ├──05-j2cache多级缓存(入门案例_3).mp4 36.93M
| | ├──06-j2cache多级缓存(入门案例_4).mp4 11.83M
| | ├──07-j2cache多级缓存(入门案例_5).mp4 20.56M
| | ├──08-j2cache多级缓存(入门案例_6).mp4 30.76M
| | ├──09-用户服务数据模型.mp4 28.20M
| | ├──10-用户服务开发准备(配置文件).mp4 31.22M
| | ├──11-用户服务开发准备(服务启动类、配置类).mp4 15.94M
| | ├──12-地址簿管理(业务需求和产品原型).mp4 8.04M
| | ├──13-地址簿管理(导入实体类).mp4 10.04M
| | ├──14-地址簿管理(服务接口开发_新增地址簿_1).mp4 35.68M
| | ├──15-地址簿管理(服务接口开发_新增地址簿_2).mp4 28.09M
| | ├──16-地址簿管理(服务接口开发_导入其他接口).mp4 22.60M
| | ├──17-地址簿管理(服务接口开发_接口测试).mp4 30.94M
| | ├──18-用户信息管理(业务需求和产品原型、数据模.mp4 19.19M
| | ├──19-用户信息管理(导入功能代码).mp4 25.94M
| | ├──20-用户信息管理(接口测试).mp4 18.38M
| | ├──21-声明式缓存(原生j2cache问题分析_问题分析.mp4 42.25M
| | ├──22-声明式缓存(原生j2cache问题分析_实现思.mp4 35.77M
| | ├──23-声明式缓存(声明式缓存代码实现_编写缓存.mp4 35.81M
| | ├──24-声明式缓存(声明式缓存代码实现_应用缓存.mp4 28.44M
| | ├──25-声明式缓存(声明式缓存代码实现_编写mod.mp4 24.99M
| | ├──26-声明式缓存(声明式缓存代码实现_导入工具.mp4 15.63M
| | ├──27-声明式缓存(声明式缓存代码实现_编写拦截.mp4 71.71M
| | ├──28-声明式缓存(声明式缓存代码实现_编写拦.mp4 35.45M
| | ├──29-声明式缓存(声明式缓存代码实现_编写拦截.mp4 62.52M
| | ├──30-声明式缓存(声明式缓存代码实现_编写拦截.mp4 42.76M
| | ├──31-声明式缓存(声明式缓存代码实现_编写抽象.mp4 46.13M
| | ├──32-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.62M
| | ├──33-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.57M
| | ├──34-声明式缓存(声明式缓存代码实现_编写抽象.mp4 13.32M
| | ├──35-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.17M
| | ├──36-声明式缓存(声明式缓存代码实现_编写缓存.mp4 37.60M
| | ├──37-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.18M
| | ├──38-声明式缓存(声明式缓存代码实现_编写缓存.mp4 45.01M
| | ├──39-声明式缓存(声明式缓存代码实现_编写清理.mp4 20.23M
| | ├──40-声明式缓存(声明式缓存代码实现_编写清理.mp4 15.82M
| | ├──41-声明式缓存(声明式缓存代码实现_编写清理.mp4 33.82M
| | ├──42-声明式缓存(项目改造).mp4 16.60M
| | └──43-声明式缓存(项目改造_测试).mp4 24.24M
| ├──第十二章 总结
| | ├──12-1 微服务架构
| | ├──12-2 软件架构体系
| | ├──12-3 系统架构
| | ├──12-4 技术架构
| | ├──12-5 业务流程
| | ├──12-6 数据库设计
| | └──12-7 服务列表
| ├──第十一章 TMS司机端、快递员端
| | ├──11-1 导入功能代码
| | ├──11-2 分布式事务概述
| | └──11-3 分布式事务解决方案Seata
| ├──第十章 TMS客户端
| | ├──01-本章内容介绍.mp4 6.25M
| | ├──02-导入功能代码.mp4 37.22M
| | ├──03-RabbitMQ(介绍).mp4 11.42M
| | ├──04-RabbitMQ(工作原理).mp4 14.60M
| | ├──05-RabbitMQ(安装和启动).mp4 38.34M
| | ├──06-RabbitMQ(入门案例_生产者开发_1).mp4 63.07M
| | ├──07-RabbitMQ(入门案例_生产者开发_2).mp4 8.50M
| | ├──08-RabbitMQ(入门案例_消费者开发).mp4 24.47M
| | ├──09-RabbitMQ(工作模式_1).mp4 21.26M
| | ├──10-RabbitMQ(工作模式_2).mp4 20.52M
| | ├──11-RabbitMQ(工作模式_3).mp4 11.10M
| | ├──12-分布式链路追踪(介绍).mp4 17.86M
| | ├──13-分布式链路追踪(SpringCloudSleuth介.mp4 24.16M
| | ├──14-分布式链路追踪(入门案例_启动zipkin).mp4 9.42M
| | ├──15-分布式链路追踪(入门案例_导入maven工.mp4 24.57M
| | ├──16-分布式链路追踪(入门案例_操作过程).mp4 25.03M
| | ├──17-分布式链路追踪(入门案例_概念说明).mp4 29.98M
| | ├──18-分布式链路追踪(使用MySql存储链路追踪数.mp4 38.45M
| | └──19-分布式链路追踪(通过RabbitMQ发送数据).mp4 38.43M
| ├──第四章 订单服务
| | ├──01-第4章内容介绍.mp4 11.11M
| | ├──02-订单中心服务数据模型.mp4 26.54M
| | ├──03-订单中心服务业务需求和产品原型.mp4 11.92M
| | ├──04-订单中心服务代码.mp4 13.60M
| | ├──05-百度地图开放平台(介绍).mp4 20.62M
| | ├──06-百度地图开放平台(注册账号、申请AK).mp4 13.51M
| | ├──07-百度地图开放平台(入门案例_案例一).mp4 61.66M
| | ├──08-百度地图开放平台(入门案例_案例二).mp4 36.30M
| | ├──09-百度地图开放平台(入门案例_案例三).mp4 21.26M
| | ├──10-百度地图开放平台(入门案例_案例四).mp4 26.27M
| | ├──11-百度地图开放平台(入门案例_案例五).mp4 56.94M
| | ├──12-百度地图开放平台(入门案例_案例六_1).mp4 28.34M
| | ├──13-百度地图开放平台(入门案例_案例六_2).mp4 44.09M
| | ├──14-百度地图开放平台(入门案例_案例六_3).mp4 49.63M
| | ├──15-百度地图开放平台(入门案例_案例七_1).mp4 98.16M
| | ├──16-百度地图开放平台(入门案例_案例七_2).mp4 24.45M
| | ├──17-基于百度地图计算订单距离(实现思路).mp4 14.98M
| | ├──18-基于百度地图计算订单距离(封装工具类_1).mp4 37.71M
| | ├──19-基于百度地图计算订单距离(封装工具类_2).mp4 50.09M
| | ├──20-基于百度地图计算订单距离(封装工具类_3).mp4 21.56M
| | ├──21-规则引擎内容介绍.mp4 15.87M
| | ├──22-规则引擎问题引出(业务规则说明).mp4 27.42M
| | ├──23-规则引擎问题引出(传统实现方式).mp4 277.26M
| | ├──24-规则引擎概述(什么是规则引擎).mp4 131.81M
| | ├──25-规则引擎概述(使用规则引擎的优势).mp4 28.70M
| | ├──26-规则引擎概述(规则引擎应用场景).mp4 18.11M
| | ├──27-规则引擎概述(drools介绍).mp4 48.59M
| | ├──28-drools入门案例(业务场景说明).mp4 8.86M
| | ├──29-drools入门案例(开发实现_1).mp4 143.05M
| | ├──30-drools入门案例(开发实现_2).mp4 130.64M
| | ├──31-drools入门案例(开发实现_3).mp4 176.05M
| | ├──32-drools入门案例(开发实现_4).mp4 61.67M
| | ├──33-drools入门案例(小结_规则引擎构成).mp4 66.91M
| | ├──34-drools入门案例(小结_相关概念说明).mp4 26.62M
| | ├──35-drools入门案例(小结_规则引擎执行过程).mp4 6.50M
| | ├──36-drools入门案例(小结_kie介绍).mp4 27.17M
| | ├──37-drools基础语法(规则文件构成).mp4 35.36M
| | ├──38-drools基础语法(规则体语法结构).mp4 34.87M
| | ├──39-drools基础语法(注释).mp4 12.89M
| | ├──40-drools基础语法(模式匹配).mp4 66.73M
| | ├──41-drools基础语法(比较操作符_语法).mp4 63.49M
| | ├──42-drools基础语法(比较操作符_contains和no.mp4 193.12M
| | ├──43-drools基础语法(比较操作符_memberof和.mp4 65.08M
| | ├──44-drools基础语法(比较操作符_matches和no.mp4 42.40M
| | ├──45-drools基础语法(执行指定规则).mp4 109.84M
| | ├──46-drools基础语法(关键字).mp4 48.06M
| | ├──47-drools基础语法(内置方法_介绍).mp4 37.53M
| | ├──48-drools基础语法(内置方法_update方法).mp4 116.61M
| | ├──49-drools基础语法(内置方法_insert方法).mp4 72.85M
| | ├──50-drools基础语法(内置方法_retract方法).mp4 71.50M
| | ├──51-Drools规则属性.mp4 37.35M
| | ├──52-SpringBoot整合Drools_1.mp4 40.16M
| | ├──53-SpringBoot整合Drools_2.mp4 6.12M
| | ├──54-根据规则计算订单价格(规则).mp4 16.07M
| | ├──55-根据规则计算订单价格(实现步骤_1).mp4 34.93M
| | ├──56-根据规则计算订单价格(实现步骤_2).mp4 45.12M
| | ├──57-根据规则计算订单价格(实现步骤_3).mp4 70.10M
| | ├──58-根据规则计算订单价格(实现步骤_4).mp4 23.95M
| | ├──59-根据规则计算订单价格(实现步骤_5).mp4 25.00M
| | ├──60-根据规则计算订单价格(实现步骤_6).mp4 30.98M
| | ├──61-根据规则计算订单价格(实现步骤_7).mp4 64.83M
| | ├──62-根据规则计算订单价格(实现步骤_8).mp4 18.60M
| | ├──63-根据规则计算订单价格(实现步骤_9).mp4 29.28M
| | ├──64-实现动态规则(实现思路).mp4 9.62M
| | ├──65-实现动态规则(实现步骤_1).mp4 22.92M
| | ├──66-实现动态规则(实现步骤_2).mp4 43.83M
| | ├──67-实现动态规则(实现步骤_3).mp4 21.27M
| | ├──68-实现动态规则(实现步骤_4).mp4 28.52M
| | └──69-实现动态规则(实现步骤_5).mp4 27.52M
| ├──第五章 作业中心服务
| | ├──01-作业中心服务业务梳理.mp4 23.31M
| | ├──02-作业中心服务数据模型(快递员取件、派件任.mp4 9.52M
| | ├──03-作业中心服务数据模型(运单表).mp4 7.09M
| | ├──04-作业中心服务数据模型(运输任务表).mp4 26.95M
| | ├──05-作业中心服务数据模型(运单与运输任务关联.mp4 4.86M
| | └──06-作业中心服务数据模型(司机作业单表).mp4 16.95M
| └──第一章 项目概述和环境搭建
| | ├──01-第1章内容介绍.mp4 5.16M
| | ├──02-项目概述(项目介绍).mp4 31.39M
| | ├──03-项目概述(物流行业介绍).mp4 13.50M
| | ├──04-项目概述(系统架构).mp4 20.92M
| | ├──05-项目概述(技术架构).mp4 7.05M
| | ├──06-业务需求说明(产品需求和原型设计_1).mp4 63.80M
| | ├──07-业务需求说明(产品需求和原型设计_2).mp4 59.17M
| | ├──08-业务需求说明(整体业务流程).mp4 18.05M
| | ├──09-开发方式介绍(软件架构介绍).mp4 14.11M
| | ├──10-开发方式介绍(各个服务介绍).mp4 30.77M
| | ├──11-基础数据配置(配置组织基础数据).mp4 25.26M
| | ├──12-基础数据配置(配置菜单、权限基础数据).mp4 27.13M
| | ├──13-基础数据配置(配置岗位基础数据).mp4 11.45M
| | ├──14-基础数据配置(配置角色基础数据).mp4 21.16M
| | ├──15-基础数据配置(配置用户基础数据).mp4 27.77M
| | ├──16-搭建TMS项目开发环境(数据库环境搭建).mp4 64.06M
| | ├──17-搭建TMS项目开发环境(配置中心Nacos).mp4 15.41M
| | ├──18-搭建TMS项目开发环境(导入maven初始工.mp4 38.74M
| | ├──19-搭建TMS项目开发环境(修改Nacos命名空间.mp4 27.90M
| | ├──20-搭建TMS项目开发环境(配置maven配置文.mp4 38.51M
| | └──21-测试初始工程.mp4 64.12M
├──03、阶段三 智牛股
| ├──1 第一章 智牛股-1.项目概述
| | ├──02-项目介绍-目标与学习路径.mp4 4.14M
| | ├──03-项目介绍-整体简要介绍.mp4 16.53M
| | ├──04-项目介绍-操作演示.mp4 14.13M
| | ├──05-项目介绍-股票与K线.mp4 9.42M
| | ├──06-项目介绍-基本交易规则.mp4 10.42M
| | ├──07-项目介绍-如何交易.mp4 15.75M
| | ├──08-项目介绍-需求介绍.mp4 13.45M
| | ├──09-项目介绍-架构设计.mp4 12.33M
| | ├──10-项目介绍-功能设计.mp4 17.64M
| | ├──11-项目介绍-技术架构.mp4 14.78M
| | ├──12-项目介绍-架构设计说明.mp4 24.14M
| | ├──13-项目介绍-整体技术说明.mp4 33.32M
| | ├──14-项目介绍-项目技术特色.mp4 14.61M
| | ├──15-项目介绍-技术解决方案.mp4 8.92M
| | ├──16-项目介绍-如何技术选型.mp4 28.43M
| | ├──17-项目介绍-技术选型案例RocketMQ.mp4 28.16M
| | ├──18-项目介绍-技术选型案例Sentinel.mp4 7.47M
| | ├──19-项目介绍-回顾与小结.mp4 19.98M
| | ├──20-环境搭建-目标与学习步骤.mp4 2.66M
| | ├──21-环境搭建-工程结构规范.mp4 37.95M
| | ├──22-环境搭建-准备.mp4 12.08M
| | ├──23-环境搭建-Nacos配置与启动.mp4 13.68M
| | ├──24-环境搭建-父级工程创建与POM配置.mp4 18.57M
| | ├──25-环境搭建-网关服务搭建配置.mp4 18.68M
| | ├──26-环境搭建-用户服务搭建配置.mp4 21.70M
| | ├──27-环境搭建-网关路由配置与测试.mp4 13.48M
| | └──28-环境搭建-小结.mp4 12.72M
| ├──10 查看全部
工作经验:hm博学谷-JavaEE在线就业班2022年+中级进修课+精英进阶
hm博学谷-JavaEE在线就业班2022+中级进阶课程+精英进阶课程介绍:
课程内容收录大量技术难点,如Dubbo+Zookeeper企业服务架构、SpringBoot+SpringCloud微服务架构、MQ消息队列、Elasticsearch全文搜索、OAuth协议第三方认证、JWT令牌验证用户权限、SpringDataMongoDB框架、Docker等。课程收录多个行业项目,均定位于真正的企业级,让学员快速掌握核心技术,并在工作中有效运用。
章节目录:
2022 年职业课程:
中级培训:
课程目录:
博学谷- 2022年JavaEE在线就业班2.0
├──01、阶段一 Java基础
| ├──01、第一章 Java基础导学
| | └──1-1 导学
| ├──02、第二章 Java基础语法
| | ├──2-1 环境搭建+入门
| | ├──2-10 二维数组
| | ├──2-2 数据类型及转换
| | ├──2-3 运算符
| | ├──2-4 条件控制语句
| | ├──2-5 循环
| | ├──2-6 随机数+开发工具
| | ├──2-7 数组
| | ├──2-8 方法与debug
| | └──2-9 进制
| ├──03、第三章 面向对象基础
| | ├──3-1 面向对象基础-上
| | └──3-2 面向对象基础-下
| ├──04、第四章 API基础
| | ├──4-1 String类
| | └──4-2 StringBuilder
| ├──05、第五章 集合基础
| | ├──5-1 集合-ArrayList
| | └──5-2 学生管理系统
| ├──06、第六章 Git
| | ├──6-1 Git的安装
| | ├──6-2 Git的基本操作
| | └──6-3 IDEA集成Git
| ├──07、第七章 面向对象进阶
| | ├──7-1 分类和static
| | ├──7-2 老师管理系统
| | ├──7-3 继承-上
| | ├──7-4 继承-下
| | ├──7-5 接口
| | ├──7-6 多态与内部类
| | └──7-7 Lambda表达式
| ├──08、第八章 常用API&异常
| | ├──8-1 API的基本使用与Object类
| | ├──8-2 BigDecimal类与Integer类
| | ├──8-3 数组的高级操作与递归
| | ├──8-4 时间日期类
| | └──8-5 异常
| ├──09、第九章 集合
| | ├──9-1 Collection
| | ├──9-2 List与LinkedList
| | ├──9-3 泛型
| | ├──9-4 数据结构&平衡二叉树
| | ├──9-5 红黑树&HashSet
| | ├──9-6 HashMap&TreeMap
| | └──9-7 Stream流
| ├──10、第十章 IO流
| | ├──10-1 File
| | ├──10-2 字节流
| | ├──10-3 缓冲流
| | ├──10-4 字符流&字符缓冲流
| | └──10-5 转换流&对象操作流&Properties
| ├──11、第十一章 多线程
| | ├──11-1 多线程
| | ├──11-2 线程安全问题
| | ├──11-3 生产者和消费者
| | ├──11-4 线程池&volatile
| | └──11-5 原子性&并发工具类
| ├──12、第十二章 网络编程
| | ├──12-1 网络编程&UDP
| | └──12-2 TCP通讯程序
| └──13、第十三章 基础加强
| | ├──13-1 类加载器&反射
| | ├──13-2 xml
| | ├──13-3 DTD&schema
| | ├──13-4 枚举
| | └──13-5 单元测试&日志技术
├──02、阶段二 JavaWeb
| ├──01、第一章 MySQL基础操作
| | ├──1-1 MySql简介
| | ├──1-2 DDL&DML
| | └──1-3 DQL操作MySql
| ├──02、第二章 MySQL数据库设计和多表操作
| | ├──2-1 数据库设计
| | └──2-2 多表查询&事务
| ├──03、第三章 JDBC
| | ├──3-1 JDBC-快速入门
| | ├──3-2 JDBC-API详解
| | └──3-3 JDBC练习
| ├──04、第四章 Maven基础
| | ├──01-Maven概述.mp4 36.93M
| | ├──02-Maven简介.mp4 42.48M
| | ├──03-Maven安装和配置.mp4 27.02M
| | ├──04-Maven基本使用.mp4 68.82M
| | ├──05-IDEA 创建Maven项目.mp4 24.10M
| | ├──06- IDEA导入Maven项目.mp4 18.92M
| | ├──07-依赖管理.mp4 41.57M
| | └──08-依赖范围.mp4 35.83M
| ├──05、第五章 MyBatis
| | ├──5-1 MyBatis快速入门
| | ├──5-2 MyBatis查询
| | └──5-3 MyBatis添加&修改&删除
| ├──06、第六章 HTML & CSS
| | ├──6-1 HTML快速入门
| | ├──6-2 HTML常用标签
| | └──6-3 css快速入门
| ├──07、第七章 JavaScript
| | ├──7-1 JavaScript快速入门
| | ├──7-2 JavaScript常用对象
| | └──7-3 JavaScript事件
| ├──08、第八章 HTTP & Tomcat & Servlet
| | ├──8-1 HTTP协议
| | ├──8-2 Tomcat
| | └──8-3 Servlet快速入门
| ├──09、第九章 请求和响应
| | ├──9-1 Request
| | ├──9-2 Response
| | └──9-3 综合案例
| ├──10、第十章 JSP & 会话技术
| | ├──10-1 JSP快速入门
| | ├──10-2 三层架构
| | ├──10-3 Cookie&Session
| | └──10-4 登陆案例
| ├──11、第十一章 过滤器 & 监听器 & AJAX
| | ├──11-1 Filter&Listener
| | └──11-2 AJAX
| └──12、第十二章 Vue & ElementUI
| | ├──12-1 Vue-快速入门
| | ├──12-2 Element-快速入门
| | ├──12-3 环境搭建
| | └──12-4 综合案例
├──03、阶段三 热门框架
| ├──01、第一章 spring框架
| | ├──1-1 初识Spring
| | ├──1-2 bean实例化
| | ├──1-3 注入
| | ├──1-4 注解开发&整合Mybatis
| | ├──1-5 Spring整合Junit&AOP入门
| | ├──1-6 AOP切入点表达式&通知类型
| | └──1-7 Spring事务
| ├──02、第二章 SpringMVC
| | ├──2-1 SpringMVC&postman工具
| | ├──2-2 请求方式&参数传递
| | ├──2-3 RESTful
| | ├──2-4 表现层与前端数据传输
| | ├──2-5 异常处理&前后台协议联调
| | └──2-6 拦截器
| ├──03、第三章 springboot
| | ├──3-1 SpringBoot工程
| | ├──3-2 配置文件&多环境开发
| | └──3-3 springboot整合
| ├──04、第四章 Maven高级
| | ├──4-1 分模块开发与设计
| | └──4-2 多环境开发&私服
| └──05、第五章 MyBatis-Plus
| | ├──5-1 Mybatis入门&条件查询
| | └──5-2 多数据操作&代码生成器
├──04、阶段四 项目实战-瑞吉外卖
| ├──01、第一章 瑞吉外卖项目
| | ├──1-1 项目介绍&环境搭建
| | ├──1-10 分页查询&修改菜品
| | ├──1-11 新增套餐功能
| | ├──1-12 分页查询&删除套餐
| | ├──1-13 短信&验证码
| | ├──1-14 导入地址簿&菜品展示
| | ├──1-15 购物车
| | ├──1-16 用户下单
| | ├──1-2 后台功能
| | ├──1-3 完善登录&新增员工
| | ├──1-4 分页查询
| | ├──1-5 启用&禁用账号&编辑员工信息
| | ├──1-6 自动填充
| | ├──1-7 新增&删除&修改分类
| | ├──1-8 上传&下载
| | └──1-9 新增菜品
| ├──02、第二章 Git
| | ├──2-1 Git
| | └──2-2 IDEA中使用Git
| ├──03、第三章 Linux
| | ├──01-Linux课程介绍.mp4 13.22M
| | ├──02-Linux简介_不同应用领域的主流操作系统.mp4 8.99M
| | ├──03-Linux简介_Linux历史.mp4 4.36M
| | ├──04-Linux简介_Linux系统版本(内核版、发行版).mp4 6.65M
| | ├──05-Linux安装_本章内容介绍.mp4 1.18M
| | ├──06-Linux安装_Linux系统的安装方式.mp4 5.80M
| | ├──07-Linux安装_通过虚拟机软件安装Linux系统.mp4 25.80M
| | ├──08-Linux安装_网卡设置.mp4 13.58M
| | ├──09-Linux安装_使用FinalShell连接到Linux服务器.mp4 15.62M
| | ├──10-Linux安装_Linux系统目录结构.mp4 19.70M
| | ├──11-Linux常用命令_本章内容介绍.mp4 3.34M
| | ├──12-Linux常用命令_Linux命令初体验-几个常用命令.mp4 27.87M
| | ├──13-Linux常用命令_Linux命令初体验-Linux命令使用技巧.mp4 23.27M
| | ├──14-Linux常用命令_Linux命令初体验-Linux命令格式.mp4 26.85M
| | ├──15-Linux常用命令_文件目录操作命令-ls命令.mp4 22.72M
| | ├──16-Linux常用命令_文件目录操作命令-cd命令.mp4 10.66M
| | ├──17-Linux常用命令_文件目录操作命令-cat命令.mp4 13.91M
| | ├──18-Linux常用命令_文件目录操作命令-more命令.mp4 16.79M
| | ├──19-Linux常用命令_文件目录操作命令-tail命令.mp4 24.48M
| | ├──20-Linux常用命令_文件目录操作命令-mkdir命令.mp4 8.61M
| | ├──21-Linux常用命令_文件目录操作命令-rmdir命令.mp4 14.48M
| | ├──22-Linux常用命令_文件目录操作命令-rm命令.mp4 19.02M
| | ├──23-Linux常用命令_拷贝移动命令-cp命令.mp4 30.32M
| | ├──24-Linux常用命令_拷贝移动命令-mv命令.mp4 39.32M
| | ├──25-Linux常用命令_打包压缩命令-tar命令.mp4 60.33M
| | ├──26-Linux常用命令_文本编辑命令-vim命令安装.mp4 14.18M
| | ├──27-Linux常用命令_文本编辑命令-vim命令.mp4 32.12M
| | ├──28-Linux常用命令_查找命令-find命令.mp4 10.83M
| | ├──29-Linux常用命令_查找命令-grep命令.mp4 19.34M
| | ├──30-软件安装_本章内容介绍.mp4 2.58M
| | ├──31-软件安装_Linux中软件安装方式介绍.mp4 6.36M
| | ├──32-软件安装_安装jdk.mp4 25.51M
| | ├──33-软件安装_安装Tomcat.mp4 15.24M
| | ├──34-软件安装_安装Tomcat-确认服务启动是否成功.mp4 43.41M
| | ├──35-软件安装_安装Tomcat-防火墙操作.mp4 52.16M
| | ├──36-软件安装_安装Tomcat-停止Tomcat服务.mp4 20.47M
| | ├──37-软件安装_安装MySQL.mp4 98.94M
| | ├──38-软件安装_安装MySQL-启动服务、连接MySQL.mp4 54.23M
| | ├──39-软件安装_安装lrzsz.mp4 19.34M
| | ├──40-项目部署_本章内容介绍.mp4 4.44M
| | ├──41-项目部署_手工部署项目_操作过程.mp4 33.29M
| | ├──42-项目部署_手工部署项目_后台运行程序.mp4 32.49M
| | ├──43-项目部署_通过Shell脚本自动部署项目_操作步骤说明.mp4 10.76M
| | ├──44-项目部署_通过Shell脚本自动部署项目_在Linux中安装git、maven.mp4 39.24M
| | ├──45-项目部署_通过Shell脚本自动部署项目_Shell脚本说明.mp4 27.04M
| | ├──46-项目部署_通过Shell脚本自动部署项目_Linux中权限说明.mp4 16.62M
| | ├──47-项目部署_通过Shell脚本自动部署项目_授权并执行脚本.mp4 41.16M
| | └──48-项目部署_通过Shell脚本自动部署项目_设置静态ip.mp4 35.58M
| ├──04、第四章 Redis
| | ├──4-1 Redis
| | └──4-2 Jedis
| └──05、第五章 瑞吉外卖-项目优化
| | ├──5-1 缓存短信验证码
| | ├──5-2 Spring Cache
| | ├──5-3 缓存套餐数据
| | ├──5-4 Mysql主从复制
| | ├──5-5 Mysql读写分离
| | ├──5-6 Nginx命令
| | ├──5-7 Nginx具体应用
| | ├──5-8 前后端分离开发
| | └──5-9 项目部署
├──05、阶段五 服务端框架基础+探花交友项目
| ├──01、第一章 SpringCloud
| | ├──1-1 微服务&服务拆分
| | ├──1-2 Eureka&Ribbon
| | ├──1-3 Nacos
| | ├──1-4 Nacos配置
| | ├──1-5 Feign
| | └──1-6 网关&路由
| ├──02、第二章 Docker
| | ├──2-1 初识Docker&镜像命令
| | ├──2-2 容器命令&数据卷命令
| | └──2-3 Docker
| ├──03、第三章 MQ
| | ├──3-1 初识MQ&RabbitMQ
| | └──3-2 SpringAMQP
| └──04、第四章 探花交友项目
| | ├──4-1 Dubbo入门
| | ├──4-10 好友推荐&MongoDB集群
| | ├──4-11 圈子动态&个人动态
| | ├──4-12 查询动态
| | ├──4-13 圈子互动&发布评论
| | ├──4-14 点赞&取消点赞
| | ├──4-15 即时通信&用户体系
| | ├──4-16 联系人管理&好友申请
| | ├──4-17 左滑右划功能
| | ├──4-18 地理位置&搜附近
| | ├──4-19 访客&FastDFS
| | ├──4-2 Dubbo高级特性&整合SpringCloud
| | ├──4-20 发布视频&查询视频列表
| | ├──4-21 SpringCache
| | ├──4-22 后台管理
| | ├──4-23 管理员登录&用户管理
| | ├──4-24 用户冻结&日志数据采集
| | ├──4-25 定时任务&动态审核
| | ├──4-26 理论&用户推荐&动态推荐&视频推荐
| | ├──4-3 模块介绍&阿里云
| | ├──4-4 封装组件&登录验证&JWT
| | ├──4-5 用户登录
| | ├──4-6 阿里云oss&人脸识别&保存用户信息
| | ├──4-7 上传头像&资料管理&代码优化
| | ├──4-8 通用设置&陌生人问题&黑名单
| | └──4-9 MongoDB&SpringData-Mongo&今日佳人
├──06、阶段六 服务端框架高级+黑马头条项目
| ├──01、第一章 Sentinel
| | ├──1-1 Sentinel&限流规则
| | └──1-2 隔离和降级&授权规则&规则持久化
| ├──02、第二章 分布式事务
| | ├──2-1 理论基础&初识Seata
| | ├──2-2 XA模式&AT模式
| | ├──2-3 TCC模式&SAGA模式
| | └──2-4 高可用&ES集群
| ├──03、第三章 分布式缓存Redis
| | ├──3-1 Redis持久化&Redis主从
| | └──3-2 Redis哨兵&分片集群
| ├──04、第四章 Redis多级缓存案例
| | ├──4-1 JVM进程缓存
| | ├──4-2 Lua&OpenResty
| | ├──4-3 多级缓存
| | └──4-4 缓存同步
| ├──05、第五章 RabbitMQ高级
| | ├──5-1 消息可靠性
| | ├──5-2 死信交换机&消息堆积
| | └──5-3 MQ集群
| ├──06、第六章 ElasticSearch
| | ├──6-1 初识ES
| | ├──6-10 es集群
| | ├──6-2 操作索引库
| | ├──6-3 RestClient
| | ├──6-4 DSL查询语法
| | ├──6-5 结果处理&查询
| | ├──6-6 黑马旅游案例
| | ├──6-7 数据聚合
| | ├──6-8 自动补全
| | └──6-9 数据同步
| └──07、第七章 黑马头条项目
| | ├──7-1 初始工程
| | ├──7-10 文章审核
| | ├──7-11 敏感词&图片文字识别
| | ├──7-12 概述&添加任务
| | ├──7-13 取消&拉取任务&定时刷新
| | ├──7-14 kafka
| | ├──7-15 springboot集成kafka
| | ├──7-16 文章搜索
| | ├──7-17 历史记录
| | ├──7-18 平台管理
| | ├──7-19 用户行为
| | ├──7-2 APP登录
| | ├──7-20 xxl-job
| | ├──7-21 定时计算
| | ├──7-22 kafkaStream
| | ├──7-23 实时计算
| | ├──7-24 jenkins概述&集成Dockerfile
| | ├──7-25 jenkins构建微服务
| | ├──7-3 接口测试&网关
| | ├──7-4 APP端文章
| | ├──7-5 freemarker
| | ├──7-6 MinIO
| | ├──7-7 素材管理
| | ├──7-8 文章管理&发布
| | └──7-9 阿里云接口&雪花算法&文章保存
├──07、阶段七 面试专题
| ├──01、第一章 基础篇
| | ├──1-1 二分查找&冒泡排序
| | ├──1-2 排序
| | ├──1-3 快速排序
| | ├──1-4 ArrayList&Iterator&LinkedList
| | ├──1-5 HashMap
| | └──1-6 单例设计模式
| ├──02、第二章 并发篇
| | ├──2-1 线程状态&线程池
| | ├──2-2 wait&lock
| | ├──2-3 volatile
| | ├──2-4 引用&悲观锁&HashTable
| | └──2-5 ConcurrentHashMap&ThreadLocal
| ├──03、第三章 虚拟机篇
| | ├──3-1 jvm内存结构&垃圾回收
| | ├──3-2 内存溢出&类加载
| | ├──3-3 引用&悲观锁&HashTable
| | └──3-4 引用&finalize
| ├──04、第四章 框架篇
| | ├──4-1 spring_refresh
| | ├──4-2 spring_bean
| | ├──4-3 spring_tx_事务&spring_webmvc
| | ├──4-4 spring_annotation
| | └──4-5 自动配置&spring_pattern
| ├──05、第五章 数据库篇
| | ├──5-1 隔离级别
| | ├──5-2 隔离级别&存储引擎&B树
| | ├──5-3 索引生效失效
| | └──5-4 全局锁&表级锁&行锁
| ├──06、第六章 缓存篇
| | ├──6-1 redis数据类型
| | ├──6-2 redis持久化&缓存
| | └──6-3 redis事务&lru
| └──07、第七章 分布式篇
| | ├──7-1 cap&paxos
| | ├──7-2 raft算法&gossip协议
| | └──7-3 通用设计
├──08、阶段八 就业指导课+拓展学习
| ├──01、第一章 工作篇
| | └──工作篇.mp4 120.12M
| ├──02、第二章 Java市场篇
| | └──Java市场篇.mp4 298.38M
| ├──03、第三章 求职篇
| | ├──求职篇1简历制作.mp4 86.54M
| | └──求职篇2简历投递技巧.mp4 49.88M
| ├──04、第四章 面试篇
| | ├──面试篇1.mp4 53.61M
| | └──面试篇2.mp4 156.72M
| └──05、第五章 试用期篇
| | ├──试用期篇1.mp4 45.16M
| | └──试用期篇2.mp4 54.51M
精英进阶【包含六大进阶项目】/
├──01、阶段一 中台战略与组件化开发专题课程
| ├──第二章 文件服务
| | ├──01-文件服务课程-文件服务课程介绍.mp4 4.18M
| | ├──02-文件服务课程-文件服务(需求背景).mp4 17.84M
| | ├──03-文件服务课程-文件服务(核心功能).mp4 7.12M
| | ├──04-文件服务课程-文件服务(存储策略).mp4 10.23M
| | ├──05-文件服务课程-文件服务(技术设计).mp4 15.40M
| | ├──06-文件服务课程-文件服务开发(环境搭建_数据.mp4 28.03M
| | ├──07-文件服务课程-文件服务开发(环境搭建_Naco.mp4 22.75M
| | ├──08-文件服务课程-文件服务开发(环境搭建_Ngin.mp4 8.85M
| | ├──09-文件服务课程-文件服务开发(环境搭建_mav.mp4 15.52M
| | ├──10-文件服务课程-文件服务开发(环境搭建_mave.mp4 44.47M
| | ├──11-文件服务课程-文件服务开发(环境搭建_mav.mp4 56.69M
| | ├──12-文件服务课程-文件服务开发(环境搭建_mave.mp4 55.12M
| | ├──13-文件服务课程-文件服务开发(环境搭建_mave.mp4 30.76M
| | ├──14-文件服务课程-文件服务开发(文件处理策略_F.mp4 19.35M
| | ├──15-文件服务课程-文件服务开发(文件处理策略_.mp4 43.58M
| | ├──16-文件服务课程-文件服务开发(文件处理策略_.mp4 45.03M
| | ├──17-文件服务课程-文件服务开发(文件处理策略_.mp4 14.74M
| | ├──18-文件服务课程-文件服务开发(文件处理策略_.mp4 20.80M
| | ├──19-文件服务课程-文件服务开发(文件处理策略_L.mp4 24.58M
| | ├──20-文件服务课程-文件服务开发(文件处理策略_.mp4 57.59M
| | ├──21-文件服务课程-文件服务开发(文件处理策略_.mp4 30.71M
| | ├──22-文件服务课程-文件服务开发(文件处理策略.mp4 25.38M
| | ├──23-文件服务课程-文件服务开发(文件处理策略.mp4 22.99M
| | ├──24-文件服务课程-文件服务开发(文件处理策略_F.mp4 20.39M
| | ├──25-文件服务课程-文件服务开发(文件处理策略_F.mp4 35.33M
| | ├──26-文件服务课程-文件服务开发(文件处理策略_.mp4 8.99M
| | ├──27-文件服务课程-文件服务开发(文件处理策略_.mp4 13.66M
| | ├──28-文件服务课程-文件服务开发(文件处理策略_.mp4 52.91M
| | ├──29-文件服务课程-文件服务开发(文件处理策略_.mp4 18.61M
| | ├──30-文件服务课程-文件服务开发(接口开发_上传.mp4 14.33M
| | ├──31-文件服务课程-文件服务开发(接口开发_上.mp4 37.11M
| | ├──32-文件服务课程-文件服务开发(接口开发_上传.mp4 26.69M
| | ├──33-文件服务课程-文件服务开发(接口开发_上传.mp4 77.24M
| | ├──34-文件服务课程-文件服务开发(接口开发_上传.mp4 17.84M
| | ├──35-文件服务课程-文件服务开发(接口开发_上传.mp4 19.97M
| | ├──36-文件服务课程-文件服务开发(接口开发_上传.mp4 19.47M
| | ├──38-文件服务课程-文件服务开发(接口开发_上传.mp4 20.18M
| | ├──39-文件服务课程-文件服务开发(接口开发_根据i.mp4 4.41M
| | ├──40-文件服务课程-文件服务开发(接口开发_根据.mp4 21.59M
| | ├──41-文件服务课程-文件服务开发(接口开发_根据i.mp4 36.76M
| | ├──42-文件服务课程-文件服务开发(接口开发_根据i.mp4 8.35M
| | ├──43-文件服务课程-文件服务开发(接口开发_根据i.mp4 25.15M
| | ├──44-文件服务课程-文件服务开发(接口开发_根据.mp4 3.27M
| | ├──45-文件服务课程-文件服务开发(接口开发_根据.mp4 16.86M
| | ├──46-文件服务课程-文件服务开发(接口开发_根据.mp4 12.85M
| | ├──47-文件服务课程-文件服务开发(接口开发_根据.mp4 3.63M
| | ├──48-文件服务课程-文件服务开发(接口开发_根据.mp4 18.81M
| | ├──49-文件服务课程-文件服务开发(接口开发_根据.mp4 42.48M
| | ├──50-文件服务课程-文件服务开发(接口开发_根据.mp4 42.51M
| | ├──51-文件服务课程-文件服务开发(接口开发_根据.mp4 71.43M
| | ├──52-文件服务课程-文件服务开发(接口开发_根据.mp4 29.70M
| | ├──53-文件服务课程-文件服务开发(接口开发_根据.mp4 13.38M
| | ├──54-文件服务课程-文件服务开发(接口开发_根据.mp4 9.67M
| | ├──55-文件服务课程-文件服务开发(接口开发_根据.mp4 5.04M
| | ├──56-文件服务课程-文件服务开发(接口开发_根据.mp4 30.35M
| | ├──57-文件服务课程-文件服务开发(接口开发_根据.mp4 11.18M
| | ├──58-文件服务课程-文件服务开发(接口导入_分页.mp4 27.57M
| | ├──59-文件服务课程-文件服务开发(接口导入_根据.mp4 14.59M
| | ├──60-文件服务课程-文件服务开发(接口导入_导入.mp4 53.27M
| | ├──61-文件服务课程-文件服务开发(接口导入_导入.mp4 16.21M
| | ├──62-文件服务课程-文件服务开发(接口开发_分片.mp4 5.36M
| | ├──63-文件服务课程-文件服务开发(接口开发_分片.mp4 31.25M
| | ├──64-文件服务课程-文件服务开发(接口开发_分片.mp4 9.81M
| | ├──65-文件服务课程-文件服务开发(接口开发_分.mp4 25.04M
| | ├──66-文件服务课程-文件服务开发(接口开发_分.mp4 16.92M
| | ├──67-文件服务课程-文件服务开发(接口开发_分片.mp4 30.16M
| | ├──68-文件服务课程-文件服务开发(接口开发_分片.mp4 7.12M
| | ├──69-文件服务课程-文件服务开发(接口开发_分片.mp4 68.90M
| | ├──70-文件服务课程-文件服务开发(接口开发_分片.mp4 55.73M
| | ├──71-文件服务课程-文件服务开发(接口开发_分片.mp4 10.66M
| | ├──72-文件服务课程-文件服务开发(接口开发_分片.mp4 7.22M
| | ├──73-文件服务课程-文件服务开发(接口开发_分片.mp4 12.10M
| | ├──74-文件服务课程-文件服务开发(接口开发_分片.mp4 18.18M
| | ├──75-文件服务课程-文件服务开发(接口开发_分片.mp4 42.62M
| | ├──76-文件服务课程-文件服务开发(接口开发_分片.mp4 42.69M
| | ├──77-文件服务课程-文件服务开发(接口开发_分片.mp4 12.46M
| | ├──78-文件服务课程-文件服务开发(接口开发_分片.mp4 50.26M
| | ├──79-文件服务课程-文件服务开发(接口开发_分片.mp4 23.91M
| | ├──80-文件服务课程-文件服务开发(接口开发_分片.mp4 40.38M
| | ├──81-文件服务课程-文件服务开发(接口开发_分片.mp4 33.67M
| | ├──82-文件服务课程-文件服务开发(接口开发_分片.mp4 15.60M
| | ├──83-文件服务课程-文件服务开发(接口开发_分片.mp4 9.75M
| | ├──84-文件服务课程-文件服务开发(接口开发_分片.mp4 47.77M
| | ├──85-文件服务课程-文件服务开发(接口开发_分片.mp4 6.47M
| | ├──86-文件服务课程-文件服务开发(接口开发_分片.mp4 40.94M
| | ├──87-文件服务课程-文件服务开发(接口开发_分片.mp4 60.98M
| | └──88-文件服务课程-文件服务开发(接口开发_分片.mp4 23.23M
| ├──第三章 规则引擎Drools
| | ├──01-规则引擎Drools-课程介绍.mp4 6.48M
| | ├──02-规则引擎Drools-规则引擎问题引出(业务规.mp4 25.87M
| | ├──03-规则引擎Drools-规则引擎问题引出(传统实.mp4 42.75M
| | ├──04-规则引擎Drools-规则引擎概述(什么是规则.mp4 29.46M
| | ├──05-规则引擎Drools-规则引擎概述(使用规则引.mp4 10.56M
| | ├──06-规则引擎Drools-规则引擎概述(规则引擎应.mp4 7.31M
| | ├──07-规则引擎Drools-规则引擎概述(Drools介.mp4 14.21M
| | ├──08-规则引擎Drools-Drools入门案例(业务场景.mp4 3.47M
| | ├──09-规则引擎Drools-Drools入门案例(开发实现.mp4 32.58M
| | ├──10-规则引擎Drools-Drools入门案例(开发实现_.mp4 35.01M
| | ├──11-规则引擎Drools-Drools入门案例(开发实现_.mp4 42.07M
| | ├──12-规则引擎Drools-Drools入门案例(开发实现_.mp4 16.77M
| | ├──13-规则引擎Drools-Drools入门案例(小结_规则.mp4 18.80M
| | ├──14-规则引擎Drools-Drools入门案例(小结_相关.mp4 9.65M
| | ├──15-规则引擎Drools-Drools入门案例(小结_规则.mp4 2.81M
| | ├──16-规则引擎Drools-Drools入门案例(小结_KIE.mp4 8.92M
| | ├──17-规则引擎Drools-Drools基础语法(规则文件.mp4 9.64M
| | ├──18-规则引擎Drools-Drools基础语法(规则体语.mp4 9.24M
| | ├──19-规则引擎Drools-Drools基础语法(注释).mp4 3.23M
| | ├──20-规则引擎Drools-Drools基础语法(模式匹.mp4 19.62M
| | ├──21-规则引擎Drools-Drools基础语法(比较操作.mp4 17.20M
| | ├──22-规则引擎Drools-Drools基础语法(比较操作.mp4 47.54M
| | ├──23-规则引擎Drools-Drools基础语法(比较操作.mp4 16.84M
| | ├──24-规则引擎Drools-Drools基础语法(比较操作.mp4 11.10M
| | ├──25-规则引擎Drools-Drools基础语法(执行指定.mp4 26.55M
| | ├──26-规则引擎Drools-Drools基础语法(关键字).mp4 14.43M
| | ├──27-规则引擎Drools-Drools基础语法(内置方法_.mp4 10.05M
| | ├──28-规则引擎Drools-Drools基础语法(内置方.mp4 31.54M
| | ├──29-规则引擎Drools-Drools基础语法(内置方法_i.mp4 16.39M
| | ├──30-规则引擎Drools-Drools基础语法(内置方法.mp4 17.72M
| | ├──31-规则引擎Drools-规则属性(介绍).mp4 15.38M
| | ├──32-规则引擎Drools-规则属性(enabled属性).mp4 10.43M
| | ├──33-规则引擎Drools-规则属性(dialect属性).mp4 4.97M
| | ├──34-规则引擎Drools-规则属性(salience属性).mp4 20.24M
| | ├──35-规则引擎Drools-规则属性(no-loop属性.mp4 19.00M
| | ├──36-规则引擎Drools-规则属性(activation-gro.mp4 19.24M
| | ├──37-规则引擎Drools-规则属性(agenda-grou.mp4 33.70M
| | ├──38-规则引擎Drools-规则属性(auto-focus属.mp4 14.07M
| | ├──39-规则引擎Drools-规则属性(timer属性_第一.mp4 30.04M
| | ├──40-规则引擎Drools-规则属性(timer属性_第二.mp4 16.83M
| | ├──41-规则引擎Drools-规则属性(date-effective.mp4 23.18M
| | ├──42-规则引擎Drools-规则属性(date-expires属.mp4 10.03M
| | ├──43-规则引擎Drools-Drools高级语法(global全.mp4 43.77M
| | ├──44-规则引擎Drools-Drools高级语法(global全.mp4 25.50M
| | ├──45-规则引擎Drools-Drools高级语法(global全.mp4 20.30M
| | ├──46-规则引擎Drools-Drools高级语法(Query查.mp4 50.05M
| | ├──47-规则引擎Drools-Drools高级语法(Query查.mp4 22.70M
| | ├──48-规则引擎Drools-Drools高级语法(function.mp4 24.03M
| | ├──49-规则引擎Drools-Drools高级语法(LHS加强_i.mp4 22.80M
| | ├──50-规则引擎Drools-Drools高级语法(LHS加强_.mp4 7.50M
| | ├──51-规则引擎Drools-Drools高级语法(LHS加强_.mp4 10.77M
| | ├──52-规则引擎Drools-Drools高级语法(LHS加强_.mp4 16.52M
| | ├──53-规则引擎Drools-Drools高级语法(LHS加强_.mp4 14.03M
| | ├──54-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.73M
| | ├──55-规则引擎Drools-Drools高级语法(RHS加强.mp4 14.43M
| | ├──56-规则引擎Drools-Drools高级语法(RHS加强_.mp4 13.29M
| | ├──57-规则引擎Drools-Drools高级语法(RHS加强.mp4 5.93M
| | ├──58-规则引擎Drools-Spring整合Drools(简单整.mp4 50.56M
| | ├──59-规则引擎Drools-Spring整合Drools(Spring.mp4 42.83M
| | ├──60-规则引擎Drools-Spring整合Drools(Spring.mp4 9.61M
| | ├──61-规则引擎Drools-Spring整合Drools(Spring.mp4 58.44M
| | ├──62-规则引擎Drools-Spring整合Drools(Spring.mp4 4.84M
| | ├──63-规则引擎Drools-WorkBench(简介).mp4 8.40M
| | ├──64-规则引擎Drools-WorkBench(安装方式).mp4 31.59M
| | ├──65-规则引擎Drools-WorkBench(使用方式_创.mp4 11.24M
| | ├──66-规则引擎Drools-WorkBench(使用方式_创.mp4 12.10M
| | ├──67-规则引擎Drools-WorkBench(使用方式_创.mp4 11.42M
| | ├──68-规则引擎Drools-WorkBench(使用方式_创.mp4 21.15M
| | ├──69-规则引擎Drools-WorkBench(使用方式_设.mp4 12.09M
| | ├──70-规则引擎Drools-WorkBench(使用方式_编.mp4 7.27M
| | ├──71-规则引擎Drools-WorkBench(使用方式_在.mp4 75.43M
| | ├──72-规则引擎Drools-Drools实战(个人所得税计.mp4 10.56M
| | ├──73-规则引擎Drools-Drools实战(个人所得税计.mp4 19.81M
| | ├──74-规则引擎Drools-Drools实战(个人所得税计.mp4 26.74M
| | ├──75-规则引擎Drools-Drools实战(个人所得税计.mp4 73.21M
| | ├──76-规则引擎Drools-Drools实战(个人所得税计.mp4 21.24M
| | ├──77-规则引擎Drools-Drools实战(个人所得税计.mp4 12.80M
| | ├──78-规则引擎Drools-Drools实战(信用卡申请_规.mp4 13.93M
| | ├──79-规则引擎Drools-Drools实战(信用卡申请_.mp4 26.97M
| | ├──80-规则引擎Drools-Drools实战(信用卡申请_.mp4 38.46M
| | ├──81-规则引擎Drools-Drools实战(信用卡申请_.mp4 36.45M
| | ├──82-规则引擎Drools-Drools实战(信用卡申请_实.mp4 30.79M
| | ├──83-规则引擎Drools-Drools实战(保险产品准入.mp4 34.13M
| | ├──84-规则引擎Drools-Drools实战(保险产品准入.mp4 40.77M
| | ├──85-规则引擎Drools-Drools实战(保险产品准入.mp4 60.56M
| | ├──86-规则引擎Drools-Drools实战(保险产品准入.mp4 7.20M
| | ├──87-规则引擎Drools-Drools实战(保险产品准入.mp4 18.71M
| | ├──88-规则引擎Drools-Drools实战(保险产品准入.mp4 32.22M
| | ├──89-规则引擎Drools-Drools实战(保险产品准入.mp4 36.95M
| | └──90-规则引擎Drools-Drools实战(保险产品准入.mp4 13.75M
| ├──第四章 常见组件与中台化
| | ├──01-常见组件与中台化-本章课程内容介绍.mp4 5.98M
| | ├──02-常见组件与中台化-中台概述(中台概念).mp4 31.12M
| | ├──03-常见组件与中台化-中台概述(中台背景).mp4 35.35M
| | ├──04-常见组件与中台化-中台概述(中台分类).mp4 35.58M
| | ├──05-常见组件与中台化-常用组件服务介绍(通用权.mp4 43.49M
| | ├──06-常见组件与中台化-常用组件服务介绍(通用权.mp4 8.42M
| | ├──07-常见组件与中台化-常用组件服务介绍(通用权.mp4 10.63M
| | ├──08-常见组件与中台化-常用组件服务介绍(通用权.mp4 42.09M
| | ├──09-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.02M
| | ├──10-常见组件与中台化-常用组件服务介绍(通用权.mp4 56.06M
| | ├──11-常见组件与中台化-常用组件服务介绍(通用.mp4 23.63M
| | ├──12-常见组件与中台化-常用组件服务介绍(通用权.mp4 38.96M
| | ├──13-常见组件与中台化-常用组件服务介绍(通用权.mp4 64.49M
| | ├──14-常见组件与中台化-常用组件服务介绍(通用权.mp4 7.24M
| | ├──15-常见组件与中台化-常用组件服务介绍(通用权.mp4 4.11M
| | ├──16-常见组件与中台化-常用组件服务介绍(通用权.mp4 35.67M
| | ├──17-常见组件与中台化-常用组件服务介绍(通用权.mp4 23.71M
| | ├──18-常见组件与中台化-常用组件服务介绍(通用权.mp4 3.69M
| | ├──19-常见组件与中台化-常用组件服务介绍(通用权.mp4 40.60M
| | ├──20-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.43M
| | ├──21-常见组件与中台化-常用组件服务介绍(注册登.mp4 10.85M
| | ├──22-常见组件与中台化-常用组件服务介绍(注册登.mp4 19.98M
| | ├──23-常见组件与中台化-常用组件服务介绍(注册登.mp4 28.09M
| | ├──24-常见组件与中台化-常用组件服务介绍(注册登.mp4 12.15M
| | ├──25-常见组件与中台化-常用组件服务介绍(注册登.mp4 15.82M
| | ├──26-常见组件与中台化-常用组件服务介绍(注册登.mp4 16.28M
| | ├──27-常见组件与中台化-常用组件服务介绍(注册登.mp4 30.75M
| | ├──28-常见组件与中台化-常用组件服务介绍(分布式.mp4 16.97M
| | ├──29-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.02M
| | ├──30-常见组件与中台化-常用组件服务介绍(分布式.mp4 22.30M
| | ├──31-常见组件与中台化-常用组件服务介绍(分布式.mp4 13.74M
| | └──32-常见组件与中台化-常用组件服务介绍(分布.mp4 16.67M
| └──第一章 软件架构与需求分析方法
| | ├──01-软件架构与需求分析方法-课程内容介绍.mp4 11.40M
| | ├──02-软件架构与需求分析方法-软件架构体系(系.mp4 36.91M
| | ├──03-软件架构与需求分析方法-软件架构体系(模.mp4 21.78M
| | ├──04-软件架构与需求分析方法-软件架构体系(服.mp4 11.14M
| | ├──05-软件架构与需求分析方法-软件架构体系(层.mp4 9.52M
| | ├──06-软件架构与需求分析方法-架构原则(解耦).mp4 15.35M
| | ├──07-软件架构与需求分析方法-架构原则(分层).mp4 15.14M
| | ├──08-软件架构与需求分析方法-架构原则(封装).mp4 8.90M
| | ├──09-软件架构与需求分析方法-架构的方法(业务.mp4 16.57M
| | ├──10-软件架构与需求分析方法-架构的方法(功能.mp4 7.64M
| | ├──11-软件架构与需求分析方法-架构的方法(系统.mp4 6.36M
| | ├──12-软件架构与需求分析方法-架构的方法(技术.mp4 16.24M
| | ├──13-软件架构与需求分析方法-架构的方法(数据.mp4 11.69M
| | ├──14-软件架构与需求分析方法-架构的方法(部署.mp4 21.76M
| | ├──15-软件架构与需求分析方法-架构演进之路(单.mp4 26.17M
| | ├──16-软件架构与需求分析方法-架构演进之路(分.mp4 16.09M
| | ├──17-软件架构与需求分析方法-架构演进之路(分.mp4 10.52M
| | ├──18-软件架构与需求分析方法-架构演进之路(分.mp4 17.95M
| | ├──19-软件架构与需求分析方法-架构演进之路(分.mp4 27.39M
| | ├──20-软件架构与需求分析方法-架构演进之路(分.mp4 12.09M
| | ├──21-软件架构与需求分析方法-架构演进之路(分.mp4 7.94M
| | ├──22-软件架构与需求分析方法-架构演进之路(微.mp4 24.48M
| | ├──23-软件架构与需求分析方法-服务化(为什么需.mp4 25.35M
| | ├──24-软件架构与需求分析方法-服务化(服务化的.mp4 6.80M
| | ├──25-软件架构与需求分析方法-服务化(服务化的.mp4 6.65M
| | ├──26-软件架构与需求分析方法-常见的需求问题.mp4 10.95M
| | ├──27-软件架构与需求分析方法-常见的需求问题.mp4 14.77M
| | ├──28-软件架构与需求分析方法-常见的需求问题.mp4 7.26M
| | ├──29-软件架构与需求分析方法-需求获取(需求来.mp4 7.52M
| | ├──30-软件架构与需求分析方法-需求获取(需求分.mp4 43.97M
| | ├──31-软件架构与需求分析方法-需求获取(获取步.mp4 12.14M
| | ├──32-软件架构与需求分析方法-需求要素(角色、.mp4 21.20M
| | ├──33-软件架构与需求分析方法-需求要素(业务流.mp4 32.96M
| | ├──34-软件架构与需求分析方法-需求要素(数据实.mp4 11.02M
| | ├──35-软件架构与需求分析方法-需求要素(功能性.mp4 8.85M
| | ├──36-软件架构与需求分析方法-需求要素(非功能.mp4 8.07M
| | ├──37-软件架构与需求分析方法-案例电商订单系统.mp4 13.32M
| | ├──38-软件架构与需求分析方法-案例电商订单系统.mp4 11.06M
| | ├──39-软件架构与需求分析方法-案例电商订单系统.mp4 7.75M
| | ├──40-软件架构与需求分析方法-案例电商订单系统.mp4 17.27M
| | ├──41-软件架构与需求分析方法-案例电商订单系统.mp4 6.70M
| | └──42-软件架构与需求分析方法-案例电商订单系统.mp4 16.15M
├──02、阶段二 【物流行业】品达物流TMS
| ├──第八章 智能调度服务
| | ├──01-本章内容介绍.mp4 8.94M
| | ├──02-定时任务组件Quartz(Quartz介绍).mp4 5.45M
| | ├──03-定时任务组件Quartz(Quartz核心API介绍).mp4 22.17M
| | ├──04-定时任务组件Quartz(Quartz入门案例_代码.mp4 41.11M
| | ├──05-定时任务组件Quartz(Quartz入门案例_测.mp4 7.13M
| | ├──06-定时任务组件Quartz(Quartz入门案例_问题.mp4 10.73M
| | ├──07-定时任务组件Quartz(Quartz入门案例_问题.mp4 23.71M
| | ├──08-定时任务组件Quartz(Quartz入门案例_问题.mp4 17.65M
| | ├──09-Quartz动态定时任务(数据模型).mp4 30.15M
| | ├──10-Quartz动态定时任务(环境搭建).mp4 82.18M
| | ├──11-Quartz动态定时任务(添加定时任务_代码实.mp4 34.92M
| | ├──12-Quartz动态定时任务(添加定时任务_测试).mp4 38.80M
| | ├──13-Quartz动态定时任务(暂停定时任务).mp4 28.97M
| | ├──14-Quartz动态定时任务(恢复定时任务).mp4 12.09M
| | ├──15-Quartz动态定时任务(删除定时任务).mp4 9.87M
| | ├──16-Quartz动态定时任务(立即执行定时任务).mp4 10.87M
| | ├──17-Quartz动态定时任务(更新定时任务_代码实.mp4 37.76M
| | ├──18-Quartz动态定时任务(更新定时任务_测试).mp4 9.94M
| | ├──19-智能调度服务(业务说明).mp4 46.94M
| | ├──20-智能调度服务(数据模型_1).mp4 51.88M
| | ├──21-智能调度服务(数据模型_2).mp4 38.20M
<p>

| | ├──22-智能调度服务(数据模型_3).mp4 27.61M
| | ├──23-智能调度服务(实现过程_环境搭建).mp4 41.58M
| | ├──24-智能调度服务(实现过程_编写定时任务).mp4 25.66M
| | ├──25-智能调度服务(实现过程_初始化定时任务_.mp4 82.61M
| | ├──26-智能调度服务(实现过程_初始化定时任务_.mp4 45.00M
| | ├──27-智能调度服务(实现过程_初始化定时任务_.mp4 33.85M
| | ├──28-智能调度服务(实现过程_完善定时任务_1).mp4 80.26M
| | ├──29-智能调度服务(实现过程_完善定时任务_2).mp4 36.90M
| | ├──30-智能调度服务(实现过程_编写智能调度组件.mp4 16.29M
| | ├──31-智能调度服务(实现过程_编写智能调度组件_.mp4 33.96M
| | ├──32-智能调度服务(实现过程_订单分类_1).mp4 48.66M
| | ├──33-智能调度服务(实现过程_订单分类_2).mp4 17.09M
| | ├──34-智能调度服务(实现过程_订单分类_3).mp4 71.72M
| | ├──35-智能调度服务(实现过程_订单分类_4).mp4 19.65M
| | ├──36-智能调度服务(实现过程_订单分类_5).mp4 60.78M
| | ├──37-智能调度服务(实现过程_订单分类_6).mp4 29.75M
| | ├──38-智能调度服务(实现过程_订单分类_7).mp4 49.79M
| | ├──39-智能调度服务(实现过程_订单分类_8).mp4 39.90M
| | ├──40-智能调度服务(实现过程_订单分类_9).mp4 32.31M
| | ├──41-智能调度服务(实现过程_订单分类_10).mp4 35.85M
| | ├──42-智能调度服务(实现过程_订单分类_11).mp4 45.82M
| | ├──43-智能调度服务(实现过程_订单分类_12).mp4 23.97M
| | ├──44-智能调度服务(实现过程_订单分类_13).mp4 71.14M
| | ├──45-智能调度服务(实现过程_订单分类_14).mp4 27.79M
| | ├──46-智能调度服务(实现过程_订单分类_15).mp4 20.78M
| | ├──47-智能调度服务(实现过程_订单分类_16).mp4 27.83M
| | ├──48-智能调度服务(实现过程_订单分类_17).mp4 9.02M
| | ├──49-智能调度服务(实现过程_订单分类_18).mp4 49.14M
| | ├──50-智能调度服务(实现过程_订单分类_19).mp4 58.63M
| | ├──51-智能调度服务(实现过程_订单分类_20).mp4 64.96M
| | ├──52-智能调度服务(实现过程_订单分类优化_1).mp4 22.22M
| | ├──53-智能调度服务(实现过程_订单分类优化_2).mp4 22.68M
| | ├──54-智能调度服务(实现过程_订单分类优化_3).mp4 35.73M
| | └──55-智能调度服务(实现过程_导入其他功能代.mp4 31.70M
| ├──第二章 基础数据服务
| | ├──01-第2章内容介绍.mp4 13.90M
| | ├──02-基础数据服务数据模型_1.mp4 39.71M
| | ├──03-基础数据服务数据模型_2.mp4 27.53M
| | ├──04-基础数据微服务开发准备(SpringBoot配置.mp4 36.02M
| | ├──05-基础数据微服务开发准备(启动类、配置类).mp4 35.78M
| | ├──06-基础数据微服务开发准备(Id生成器).mp4 18.79M
| | ├──07-货物类型管理(业务需求和产品原型、数据模.mp4 10.57M
| | ├──08-货物类型管理(实体类).mp4 25.78M
| | ├──09-货物类型管理(服务接口开发_新增货物类型_.mp4 40.36M
| | ├──10-货物类型管理(服务接口开发_新增货物类型_.mp4 74.08M
| | ├──11-货物类型管理(服务接口开发_新增货物类型_.mp4 60.97M
| | ├──12-货物类型管理(服务接口开发_新增货物类型.mp4 34.94M
| | ├──13-货物类型管理(服务接口开发_根据id查询货.mp4 55.60M
| | ├──14-货物类型管理(服务接口开发_根据id查询货.mp4 21.11M
| | ├──15-货物类型管理(服务接口开发_根据id查询货.mp4 8.31M
| | ├──16-货物类型管理(服务接口开发_查询所有货物.mp4 36.27M
| | ├──17-货物类型管理(服务接口开发_查询所有货物.mp4 4.51M
| | ├──18-货物类型管理(服务接口开发_分页查询货物.mp4 82.83M
| | ├──19-货物类型管理(服务接口开发_分页查询货物.mp4 41.95M
| | ├──20-货物类型管理(服务接口开发_分页查询货物.mp4 11.62M
| | ├──21-货物类型管理(服务接口开发_查询货物类型.mp4 36.49M
| | ├──22-货物类型管理(服务接口开发_查询货物类型.mp4 10.19M
| | ├──23-货物类型管理(服务接口开发_查询货物类型.mp4 5.08M
| | ├──24-货物类型管理(服务接口开发_更新货物类.mp4 55.68M
| | ├──25-货物类型管理(服务接口开发_更新货物类型.mp4 17.58M
| | ├──26-货物类型管理(服务接口开发_更新货物类型_.mp4 24.45M
| | ├──27-货物类型管理(服务接口开发_删除货物类.mp4 12.85M
| | ├──28-数据校验(hibernate-validator介绍).mp4 26.72M
| | ├──29-数据校验(hibernate-validator常用注解).mp4 14.93M
| | ├──30-数据校验(使用hibernate-validator进行校.mp4 25.96M
| | ├──31-数据校验(使用hibernate-validator进行校验.mp4 17.76M
| | └──32-导入基础数据服务其他功能代码.mp4 12.36M
| ├──第九章 TMS后台管理端
| | ├──01-本章内容介绍.mp4 5.87M
| | ├──02-分布式锁(什么是分布式锁_1).mp4 20.74M
| | ├──03-分布式锁(什么是分布式锁_2).mp4 38.30M
| | ├──04-分布式锁(为什么要使用分布式锁_1).mp4 36.11M
| | ├──05-分布式锁(为什么要使用分布式锁_2).mp4 21.73M
| | ├──06-分布式锁(为什么要使用分布式锁_3).mp4 18.54M
| | ├──07-分布式锁(为什么要使用分布式锁_4).mp4 24.55M
| | ├──08-分布式锁(分布式锁应具有的特性).mp4 19.25M
| | ├──09-分布式锁实现方案(数据库方式实现分布式.mp4 17.64M
| | ├──10-分布式锁实现方案(数据库方式实现分布式.mp4 72.90M
| | ├──11-分布式锁实现方案(数据库方式实现分布式.mp4 31.88M
| | ├──12-分布式锁实现方案(数据库方式实现分布式.mp4 31.53M
| | ├──13-分布式锁实现方案(Zookeeper方式实现.mp4 14.52M
| | ├──14-分布式锁实现方案(Zookeeper方式实现.mp4 44.72M
| | ├──15-分布式锁实现方案(Zookeeper方式实现.mp4 16.94M
| | ├──16-分布式锁实现方案(Zookeeper方式实现.mp4 16.91M
| | ├──17-分布式锁实现方案(Redis方式实现分布式.mp4 14.16M
| | ├──18-分布式锁实现方案(Redis方式实现分布式.mp4 36.75M
| | ├──19-分布式锁实现方案(Redis方式实现分布式.mp4 16.28M
| | ├──20-分布式锁实现方案(Redis方式实现分布式.mp4 12.11M
| | ├──21-Redisson(Redisson介绍).mp4 21.03M
| | ├──22-Redisson(Redisson实现分布式锁_1).mp4 33.62M
| | ├──23-Redisson(Redisson实现分布式锁_2).mp4 21.77M
| | ├──24-Redisson(Redisson实现分布式锁_3).mp4 18.33M
| | ├──25-Redisson(Lua脚本_使用Lua脚本的好处).mp4 13.96M
| | ├──26-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 35.49M
| | ├──27-Redisson(Lua脚本_在Redis中使用Lua_eval.mp4 13.25M
| | └──28-导入功能代码.mp4 28.97M
| ├──第六章 数据聚合服务
| | ├──01-本章内容介绍.mp4 13.66M
| | ├──02-canal概述(背景).mp4 10.35M
| | ├──03-canal概述(工作原理).mp4 23.33M
| | ├──04-canal概述(架构).mp4 10.33M
| | ├──05-canal概述(HA机制).mp4 12.61M
| | ├──06-canal安装(安装配置MySQL).mp4 61.09M
| | ├──07-canal安装(安装配置canal-server).mp4 29.83M
| | ├──08-canal简单使用(编写Java程序).mp4 44.70M
| | ├──09-canal简单使用(测试).mp4 30.10M
| | ├──09-Otter概述(Otter介绍).mp4 17.60M
| | ├──10-Otter概述(Otter架构).mp4 32.71M
| | ├──11-Otter安装配置(依赖环境安装).mp4 8.86M
| | ├──12-Otter安装配置(MySQL安装_创建源数据.mp4 23.55M
| | ├──13-Otter安装配置(MySQL安装_创建目标数据.mp4 12.93M
| | ├──14-Otter安装配置(MySQL安装_创建Otter配置.mp4 40.40M
| | ├──15-Otter安装配置(zookeeper、aria2安装).mp4 15.91M
| | ├──16-Otter安装配置(Ottermanager安装).mp4 36.63M
| | ├──17-Otter安装配置(Ottermanager配置_配置Z.mp4 14.10M
| | ├──18-Otter安装配置(Ottermanager配置_配置n.mp4 10.53M
| | ├──19-Otter安装配置(Ottermanager配置_管理.mp4 6.25M
| | ├──20-Otter安装配置(Otternode安装).mp4 24.87M
| | ├──21-Otter安装配置(设置同步任务_准备工作).mp4 13.10M
| | ├──22-Otter安装配置(设置同步任务_数据源配.mp4 9.19M
| | ├──23-Otter安装配置(设置同步任务_数据表配.mp4 4.88M
| | ├──24-Otter安装配置(设置同步任务_canal配置).mp4 6.77M
| | ├──25-Otter安装配置(设置同步任务_添加chann.mp4 2.19M
| | ├──26-Otter安装配置(设置同步任务_添加pipelin.mp4 13.85M
| | ├──27-Otter安装配置(设置同步任务_添加映射关.mp4 4.83M
| | ├──28-Otter安装配置(设置同步任务_测试).mp4 9.26M
| | └──29-数据聚合服务介绍.mp4 6.79M
| ├──第七章 车辆轨迹服务
| | ├──01-本章内容介绍.mp4 5.30M
| | ├──02-ApacheDruid概述(Druid介绍).mp4 17.61M
| | ├──03-ApacheDruid概述(Druid应用场景).mp4 18.07M
| | ├──04-ApacheDruid概述(Druid特点).mp4 34.80M
| | ├──05-ApacheDruid概述(Druid进程和服务).mp4 33.47M
| | ├──06-ApacheDruid概述(Druid数据结构).mp4 25.30M
| | ├──07-ApacheDruid概述(Druid在本项目的应.mp4 8.93M
| | ├──08-ApacheDruid安装(依赖环境安装_jdk、Z.mp4 9.22M
| | ├──09-ApacheDruid安装(依赖环境安装_kafka).mp4 32.83M
| | ├──10-ApacheDruid安装(依赖环境安装_kafka验.mp4 39.50M
| | ├──11-ApacheDruid安装(Druid安装和配置文件.mp4 65.69M
| | ├──12-ApacheDruid安装(Druid启动).mp4 16.93M
| | ├──13-ApacheDruid摄取数据(从本地文件摄取数.mp4 93.78M
| | ├──14-ApacheDruid摄取数据(从本地文件摄取数.mp4 61.29M
| | ├──15-ApacheDruid摄取数据(从本地文件摄取数.mp4 50.34M
| | ├──16-ApacheDruid摄取数据(从本地文件摄取数.mp4 41.92M
| | ├──17-ApacheDruid摄取数据(从kafka摄取数据.mp4 14.98M
| | ├──18-ApacheDruid摄取数据(从kafka摄取数.mp4 35.33M
| | ├──19-Java客户端操作Druid.mp4 47.79M
| | ├──20-车辆轨迹服务(说明).mp4 5.51M
| | ├──21-车辆轨迹服务(pd-netty开发_HTTP接口方.mp4 43.88M
| | ├──22-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 27.64M
| | ├──23-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 23.25M
| | ├──24-车辆轨迹服务(pd-netty开发_HTTP接口方式.mp4 21.39M
| | ├──25-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 43.77M
| | ├──26-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 36.30M
| | ├──27-车辆轨迹服务(pd-netty开发_TCP接口方式_.mp4 34.80M
| | └──28-车辆轨迹服务(pd-druid开发).mp4 15.61M
| ├──第三章 用户服务
| | ├──01-第3章内容介绍.mp4 2.91M
| | ├──02-j2cache多级缓存(j2cache介绍).mp4 28.10M
| | ├──03-j2cache多级缓存(入门案例_1).mp4 41.74M
| | ├──04-j2cache多级缓存(入门案例_2).mp4 42.91M
| | ├──05-j2cache多级缓存(入门案例_3).mp4 36.93M
| | ├──06-j2cache多级缓存(入门案例_4).mp4 11.83M
| | ├──07-j2cache多级缓存(入门案例_5).mp4 20.56M
| | ├──08-j2cache多级缓存(入门案例_6).mp4 30.76M
| | ├──09-用户服务数据模型.mp4 28.20M
| | ├──10-用户服务开发准备(配置文件).mp4 31.22M
| | ├──11-用户服务开发准备(服务启动类、配置类).mp4 15.94M
| | ├──12-地址簿管理(业务需求和产品原型).mp4 8.04M
| | ├──13-地址簿管理(导入实体类).mp4 10.04M
| | ├──14-地址簿管理(服务接口开发_新增地址簿_1).mp4 35.68M
| | ├──15-地址簿管理(服务接口开发_新增地址簿_2).mp4 28.09M
| | ├──16-地址簿管理(服务接口开发_导入其他接口).mp4 22.60M
| | ├──17-地址簿管理(服务接口开发_接口测试).mp4 30.94M
| | ├──18-用户信息管理(业务需求和产品原型、数据模.mp4 19.19M
| | ├──19-用户信息管理(导入功能代码).mp4 25.94M
| | ├──20-用户信息管理(接口测试).mp4 18.38M
| | ├──21-声明式缓存(原生j2cache问题分析_问题分析.mp4 42.25M
| | ├──22-声明式缓存(原生j2cache问题分析_实现思.mp4 35.77M
| | ├──23-声明式缓存(声明式缓存代码实现_编写缓存.mp4 35.81M
| | ├──24-声明式缓存(声明式缓存代码实现_应用缓存.mp4 28.44M
| | ├──25-声明式缓存(声明式缓存代码实现_编写mod.mp4 24.99M
| | ├──26-声明式缓存(声明式缓存代码实现_导入工具.mp4 15.63M
| | ├──27-声明式缓存(声明式缓存代码实现_编写拦截.mp4 71.71M
| | ├──28-声明式缓存(声明式缓存代码实现_编写拦.mp4 35.45M
| | ├──29-声明式缓存(声明式缓存代码实现_编写拦截.mp4 62.52M
| | ├──30-声明式缓存(声明式缓存代码实现_编写拦截.mp4 42.76M
| | ├──31-声明式缓存(声明式缓存代码实现_编写抽象.mp4 46.13M
| | ├──32-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.62M
| | ├──33-声明式缓存(声明式缓存代码实现_编写抽象.mp4 27.57M
| | ├──34-声明式缓存(声明式缓存代码实现_编写抽象.mp4 13.32M
| | ├──35-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.17M
| | ├──36-声明式缓存(声明式缓存代码实现_编写缓存.mp4 37.60M
| | ├──37-声明式缓存(声明式缓存代码实现_编写缓存.mp4 27.18M
| | ├──38-声明式缓存(声明式缓存代码实现_编写缓存.mp4 45.01M
| | ├──39-声明式缓存(声明式缓存代码实现_编写清理.mp4 20.23M
| | ├──40-声明式缓存(声明式缓存代码实现_编写清理.mp4 15.82M
| | ├──41-声明式缓存(声明式缓存代码实现_编写清理.mp4 33.82M
| | ├──42-声明式缓存(项目改造).mp4 16.60M
| | └──43-声明式缓存(项目改造_测试).mp4 24.24M
| ├──第十二章 总结
| | ├──12-1 微服务架构
| | ├──12-2 软件架构体系
| | ├──12-3 系统架构
| | ├──12-4 技术架构
| | ├──12-5 业务流程
| | ├──12-6 数据库设计
| | └──12-7 服务列表
| ├──第十一章 TMS司机端、快递员端
| | ├──11-1 导入功能代码
| | ├──11-2 分布式事务概述
| | └──11-3 分布式事务解决方案Seata
| ├──第十章 TMS客户端
| | ├──01-本章内容介绍.mp4 6.25M
| | ├──02-导入功能代码.mp4 37.22M
| | ├──03-RabbitMQ(介绍).mp4 11.42M
| | ├──04-RabbitMQ(工作原理).mp4 14.60M
| | ├──05-RabbitMQ(安装和启动).mp4 38.34M
| | ├──06-RabbitMQ(入门案例_生产者开发_1).mp4 63.07M
| | ├──07-RabbitMQ(入门案例_生产者开发_2).mp4 8.50M
| | ├──08-RabbitMQ(入门案例_消费者开发).mp4 24.47M
| | ├──09-RabbitMQ(工作模式_1).mp4 21.26M
| | ├──10-RabbitMQ(工作模式_2).mp4 20.52M
| | ├──11-RabbitMQ(工作模式_3).mp4 11.10M
| | ├──12-分布式链路追踪(介绍).mp4 17.86M
| | ├──13-分布式链路追踪(SpringCloudSleuth介.mp4 24.16M
| | ├──14-分布式链路追踪(入门案例_启动zipkin).mp4 9.42M
| | ├──15-分布式链路追踪(入门案例_导入maven工.mp4 24.57M
| | ├──16-分布式链路追踪(入门案例_操作过程).mp4 25.03M
| | ├──17-分布式链路追踪(入门案例_概念说明).mp4 29.98M
| | ├──18-分布式链路追踪(使用MySql存储链路追踪数.mp4 38.45M
| | └──19-分布式链路追踪(通过RabbitMQ发送数据).mp4 38.43M
| ├──第四章 订单服务
| | ├──01-第4章内容介绍.mp4 11.11M
| | ├──02-订单中心服务数据模型.mp4 26.54M
| | ├──03-订单中心服务业务需求和产品原型.mp4 11.92M
| | ├──04-订单中心服务代码.mp4 13.60M
| | ├──05-百度地图开放平台(介绍).mp4 20.62M
| | ├──06-百度地图开放平台(注册账号、申请AK).mp4 13.51M
| | ├──07-百度地图开放平台(入门案例_案例一).mp4 61.66M
| | ├──08-百度地图开放平台(入门案例_案例二).mp4 36.30M
| | ├──09-百度地图开放平台(入门案例_案例三).mp4 21.26M
| | ├──10-百度地图开放平台(入门案例_案例四).mp4 26.27M
| | ├──11-百度地图开放平台(入门案例_案例五).mp4 56.94M
| | ├──12-百度地图开放平台(入门案例_案例六_1).mp4 28.34M
| | ├──13-百度地图开放平台(入门案例_案例六_2).mp4 44.09M
| | ├──14-百度地图开放平台(入门案例_案例六_3).mp4 49.63M
| | ├──15-百度地图开放平台(入门案例_案例七_1).mp4 98.16M
| | ├──16-百度地图开放平台(入门案例_案例七_2).mp4 24.45M
| | ├──17-基于百度地图计算订单距离(实现思路).mp4 14.98M
| | ├──18-基于百度地图计算订单距离(封装工具类_1).mp4 37.71M
| | ├──19-基于百度地图计算订单距离(封装工具类_2).mp4 50.09M
| | ├──20-基于百度地图计算订单距离(封装工具类_3).mp4 21.56M
| | ├──21-规则引擎内容介绍.mp4 15.87M
| | ├──22-规则引擎问题引出(业务规则说明).mp4 27.42M
| | ├──23-规则引擎问题引出(传统实现方式).mp4 277.26M
| | ├──24-规则引擎概述(什么是规则引擎).mp4 131.81M
| | ├──25-规则引擎概述(使用规则引擎的优势).mp4 28.70M
| | ├──26-规则引擎概述(规则引擎应用场景).mp4 18.11M
| | ├──27-规则引擎概述(drools介绍).mp4 48.59M
| | ├──28-drools入门案例(业务场景说明).mp4 8.86M
| | ├──29-drools入门案例(开发实现_1).mp4 143.05M
| | ├──30-drools入门案例(开发实现_2).mp4 130.64M
| | ├──31-drools入门案例(开发实现_3).mp4 176.05M
| | ├──32-drools入门案例(开发实现_4).mp4 61.67M
| | ├──33-drools入门案例(小结_规则引擎构成).mp4 66.91M
| | ├──34-drools入门案例(小结_相关概念说明).mp4 26.62M
| | ├──35-drools入门案例(小结_规则引擎执行过程).mp4 6.50M
| | ├──36-drools入门案例(小结_kie介绍).mp4 27.17M
| | ├──37-drools基础语法(规则文件构成).mp4 35.36M
| | ├──38-drools基础语法(规则体语法结构).mp4 34.87M
| | ├──39-drools基础语法(注释).mp4 12.89M
| | ├──40-drools基础语法(模式匹配).mp4 66.73M
| | ├──41-drools基础语法(比较操作符_语法).mp4 63.49M
| | ├──42-drools基础语法(比较操作符_contains和no.mp4 193.12M
| | ├──43-drools基础语法(比较操作符_memberof和.mp4 65.08M
| | ├──44-drools基础语法(比较操作符_matches和no.mp4 42.40M
| | ├──45-drools基础语法(执行指定规则).mp4 109.84M
| | ├──46-drools基础语法(关键字).mp4 48.06M
| | ├──47-drools基础语法(内置方法_介绍).mp4 37.53M
| | ├──48-drools基础语法(内置方法_update方法).mp4 116.61M
| | ├──49-drools基础语法(内置方法_insert方法).mp4 72.85M
| | ├──50-drools基础语法(内置方法_retract方法).mp4 71.50M
| | ├──51-Drools规则属性.mp4 37.35M
| | ├──52-SpringBoot整合Drools_1.mp4 40.16M
| | ├──53-SpringBoot整合Drools_2.mp4 6.12M
| | ├──54-根据规则计算订单价格(规则).mp4 16.07M
| | ├──55-根据规则计算订单价格(实现步骤_1).mp4 34.93M
| | ├──56-根据规则计算订单价格(实现步骤_2).mp4 45.12M
| | ├──57-根据规则计算订单价格(实现步骤_3).mp4 70.10M
| | ├──58-根据规则计算订单价格(实现步骤_4).mp4 23.95M
| | ├──59-根据规则计算订单价格(实现步骤_5).mp4 25.00M
| | ├──60-根据规则计算订单价格(实现步骤_6).mp4 30.98M
| | ├──61-根据规则计算订单价格(实现步骤_7).mp4 64.83M
| | ├──62-根据规则计算订单价格(实现步骤_8).mp4 18.60M
| | ├──63-根据规则计算订单价格(实现步骤_9).mp4 29.28M
| | ├──64-实现动态规则(实现思路).mp4 9.62M
| | ├──65-实现动态规则(实现步骤_1).mp4 22.92M
| | ├──66-实现动态规则(实现步骤_2).mp4 43.83M
| | ├──67-实现动态规则(实现步骤_3).mp4 21.27M
| | ├──68-实现动态规则(实现步骤_4).mp4 28.52M
| | └──69-实现动态规则(实现步骤_5).mp4 27.52M
| ├──第五章 作业中心服务
| | ├──01-作业中心服务业务梳理.mp4 23.31M
| | ├──02-作业中心服务数据模型(快递员取件、派件任.mp4 9.52M
| | ├──03-作业中心服务数据模型(运单表).mp4 7.09M
| | ├──04-作业中心服务数据模型(运输任务表).mp4 26.95M
| | ├──05-作业中心服务数据模型(运单与运输任务关联.mp4 4.86M
| | └──06-作业中心服务数据模型(司机作业单表).mp4 16.95M
| └──第一章 项目概述和环境搭建
| | ├──01-第1章内容介绍.mp4 5.16M
| | ├──02-项目概述(项目介绍).mp4 31.39M
| | ├──03-项目概述(物流行业介绍).mp4 13.50M
| | ├──04-项目概述(系统架构).mp4 20.92M
| | ├──05-项目概述(技术架构).mp4 7.05M
| | ├──06-业务需求说明(产品需求和原型设计_1).mp4 63.80M
| | ├──07-业务需求说明(产品需求和原型设计_2).mp4 59.17M
| | ├──08-业务需求说明(整体业务流程).mp4 18.05M
| | ├──09-开发方式介绍(软件架构介绍).mp4 14.11M
| | ├──10-开发方式介绍(各个服务介绍).mp4 30.77M
| | ├──11-基础数据配置(配置组织基础数据).mp4 25.26M
| | ├──12-基础数据配置(配置菜单、权限基础数据).mp4 27.13M
| | ├──13-基础数据配置(配置岗位基础数据).mp4 11.45M
| | ├──14-基础数据配置(配置角色基础数据).mp4 21.16M
| | ├──15-基础数据配置(配置用户基础数据).mp4 27.77M
| | ├──16-搭建TMS项目开发环境(数据库环境搭建).mp4 64.06M
| | ├──17-搭建TMS项目开发环境(配置中心Nacos).mp4 15.41M
| | ├──18-搭建TMS项目开发环境(导入maven初始工.mp4 38.74M
| | ├──19-搭建TMS项目开发环境(修改Nacos命名空间.mp4 27.90M
| | ├──20-搭建TMS项目开发环境(配置maven配置文.mp4 38.51M
| | └──21-测试初始工程.mp4 64.12M
├──03、阶段三 智牛股
| ├──1 第一章 智牛股-1.项目概述
| | ├──02-项目介绍-目标与学习路径.mp4 4.14M
| | ├──03-项目介绍-整体简要介绍.mp4 16.53M
| | ├──04-项目介绍-操作演示.mp4 14.13M
| | ├──05-项目介绍-股票与K线.mp4 9.42M
| | ├──06-项目介绍-基本交易规则.mp4 10.42M
| | ├──07-项目介绍-如何交易.mp4 15.75M
| | ├──08-项目介绍-需求介绍.mp4 13.45M
| | ├──09-项目介绍-架构设计.mp4 12.33M
| | ├──10-项目介绍-功能设计.mp4 17.64M
| | ├──11-项目介绍-技术架构.mp4 14.78M
| | ├──12-项目介绍-架构设计说明.mp4 24.14M
| | ├──13-项目介绍-整体技术说明.mp4 33.32M
| | ├──14-项目介绍-项目技术特色.mp4 14.61M
| | ├──15-项目介绍-技术解决方案.mp4 8.92M
| | ├──16-项目介绍-如何技术选型.mp4 28.43M
| | ├──17-项目介绍-技术选型案例RocketMQ.mp4 28.16M
| | ├──18-项目介绍-技术选型案例Sentinel.mp4 7.47M
| | ├──19-项目介绍-回顾与小结.mp4 19.98M
| | ├──20-环境搭建-目标与学习步骤.mp4 2.66M
| | ├──21-环境搭建-工程结构规范.mp4 37.95M
| | ├──22-环境搭建-准备.mp4 12.08M
| | ├──23-环境搭建-Nacos配置与启动.mp4 13.68M
| | ├──24-环境搭建-父级工程创建与POM配置.mp4 18.57M
| | ├──25-环境搭建-网关服务搭建配置.mp4 18.68M
| | ├──26-环境搭建-用户服务搭建配置.mp4 21.70M
| | ├──27-环境搭建-网关路由配置与测试.mp4 13.48M
| | └──28-环境搭建-小结.mp4 12.72M
| ├──10
教程:优采云采集器不用配规则采集数据的方法样稿.docx
采集交流 • 优采云 发表了文章 • 0 个评论 • 109 次浏览 • 2022-11-06 14:15
优采云采集器可以采集网页数据图形无需配置规则
对于刚注册优采云采集器的小伙伴来说,学习掌握配置规则是新手和高手必备的阶段。优采云除了自己配置规则外,还提供了专门的规则市场供朋友们下载学习。这也是初学者快速学习****优采云规则的配置路径之一。
接下来,我们以新浪微博上的话题采集为例,图文并茂地介绍一下市场的相关操作!
第一步,登录优采云客户端,找到规则市场
第二步,找到你想要的规则,直接下载。在这里,优采云提醒朋友们,VIP用户可以免费下载所有规则,免费用户需要消耗积分才能下载。
第三步,将下载的规则导入到任务中
第四步,直接开始运行任务
如果不需要修改规则,直接点击“下一步”,直到页面完成,点击“巡检任务”
运行任务,推荐使用cloud采集数据服务,可以多任务,通过shutdown实现。
最后,数据实现完成后,就可以导出数据了。
优采云规则市场马上深度开放。以后小伙伴可以独立上传和配置规则,供其他小伙伴下载使用。请关注相关开放规则优采云采集器网站消息。
免费的:免费PbootCMS采集发布告别PbootCMS采集不到内容
SEO优化规则上千条,要想排名网站,需要网站才有收录。网站收录 的重要性不言而喻。对于SEO优化来说,能够实现稳定的收录增长是基础的优化。但是往往对于新站点来说,很多站点遇到的问题不是收录,可能网站上线几个月没有收录,或者只是收录几个。那么当我们遇到新站不是收录的问题时,我们应该如何处理呢?网站没有收录的原因有很多。如果新站还没有收录,我们可以看以下几点。
网站设计合理性
很多网站不是收录,很大程度上是网站本身在上线前就存在严重问题。首先,确认网站的链接结构是否合理对我们来说非常重要。对于很多公司来说,网站公司都是外包的,这也导致网站的质量参差不齐。
网站层级
网站高低与搜索引擎的爬取效率有一定的关系。级别越浅,越容易爬行。一般来说,网站级别在3-5级之间,网站保持在3级。
很多网站为了所谓的网站结构清晰,层次分明,把网站的URL层级都做好了。通过URL,可以清楚的知道当前页面在哪个目录下属于哪个类别。
这种方法的起点是好的。对于网站的层次关系明确,应该通过前端页面而不是URL来表达给用户,这样有点浪费钱。
伪静态处理
纯粹为了收录,不需要做伪静态处理。动态页面也可以很好收录,但是动态页面肯定会比静态页面慢,同时动态页面在一定程度上更容易出现重复页面。
另外,综合来看,静态页面的收录速度和效果要好于动态页面,所以网站前期需要做伪静态处理。
网站TDK 合理化
TDK对SEO优化很重要,尤其是网站的标题很重要,不仅对SEO优化,页面标题对用户也是不可见的。一个好的标题对于 网站 的点击转化很重要。
同时,网站的TDK中不要堆叠关键词,如果你不是很擅长网站title关键词布局。然后我们可以只写一个标题并将 关键词 和描述留空。
目前,搜索引擎基本上都是全文检索,TDK已经不像以前那么重要了。不是你写了一个关键词,这个页面会被认为和这个关键词相关,TDK对于搜索引擎的参考价值已经降低了很多,但是如果你堆积了很多关键词 或者有大量的页面具有高度重复的 TDK,那么 网站 的 收录 是一个大热门。
网站 稳定性
对于网站的前期,要保证网站的可访问性和稳定性,网站的带宽要足够。现在我们更注重用户体验,所以基本上我们需要保证网站首屏资源在3秒内加载,1.5秒内控制。
所以我们需要关键词的搜索引擎的抓取时间,我们需要控制网站的抓取时间在1500毫秒以内,抓取时间越低越好。
这个爬取时间在一定程度上决定了网站的爬取频率。网站抓取时间短网站不一定抓取频率高;但是如果抓取时间比较长,那么抓取频率一定要低。对于百度,站长后台提供完整的数据监控。如下图所示,截取了本站抓取时间的数据。
如果你的爬取时间超过1500毫秒,那么你必须优化网站的代码,否则搜索引擎会因为网站服务器的压力自动调整以减少爬取。检索频率会大大降低网站页面发现和收录的速度。
链接重复问题
对于网站想做SEO优化的,一定要做好网站的页面关系跳转。比如我们解析域名的时候,一般会解析有www和不带www的域名。需要做一个301跳转。
确保不要被搜索引擎抓取到两个相同的页面。如果您不进行 301 重定向,它将被视为两个高度相似的不同页面。重复页面不适合新站点收录。
内容问题
新站点 网站 的内容非常重要。很多新站不是收录的问题是网站的内容质量很差,新站的内容也很少。网上都是无意义的东西。今天教大家一个快速采集高质量文章Pbootcms采集方法。
这个Pbootcms采集不需要学习更多的专业技能,只需几个简单的步骤就可以轻松采集内容数据,用户只需要在Pbootcms采集在>上进行简单的设置,完成后Pbootcms采集会根据用户设置的关键词匹配内容和图片的准确率,可以选择保存在本地或者选择伪原创发布后,提供方便快捷的内容采集伪原创发布服务!!
相比其他Pbootcms采集这个Pbootcms采集基本没有什么门槛,也不需要花很多时间去学习正则表达式或者html标签,一分钟上手,只需要输入关键词即可实现采集(pbootcms采集也自带关键词采集 功能)。一路挂断!设置任务自动执行采集伪原创发布和推送任务。
几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。这类Pbootcms采集工具也配备了很多SEO功能,通过采集伪原创软件发布后还可以提升很多SEO方面。
例如:设置自动下载图片保存在本地或第三方(使内容不再有对方的外链)。自动内链(让搜索引擎更深入地抓取你的链接)、前后插入内容或标题,以及网站内容插入或随机作者、随机阅读等,形成“高原创 ”。
这些SEO小功能不仅提高了网站页面原创的度数,还间接提升了网站的收录排名。您可以通过软件工具上的监控管理直接查看文章采集的发布状态,不再需要每天登录网站后台查看。目前博主亲测软件是免费的,可以直接下载使用!
所以新网站不能急着上线,开发过程中需要保证搜索引擎的不可访问性。网站正式上线前,需要将网站初期填写的内容修改为比较优质的内容。
没有完成内容的优化,不要轻易上线。一旦在搜索引擎上留下低质量网站的印象,网站的初始优化就会带来很多麻烦。
网站前期,因为网站质量很低,所以要保证每天有足够的内容,不断更新优化原创的内容,这也是很关键的。 查看全部
教程:优采云采集器不用配规则采集数据的方法样稿.docx
优采云采集器可以采集网页数据图形无需配置规则
对于刚注册优采云采集器的小伙伴来说,学习掌握配置规则是新手和高手必备的阶段。优采云除了自己配置规则外,还提供了专门的规则市场供朋友们下载学习。这也是初学者快速学习****优采云规则的配置路径之一。
接下来,我们以新浪微博上的话题采集为例,图文并茂地介绍一下市场的相关操作!

第一步,登录优采云客户端,找到规则市场
第二步,找到你想要的规则,直接下载。在这里,优采云提醒朋友们,VIP用户可以免费下载所有规则,免费用户需要消耗积分才能下载。
第三步,将下载的规则导入到任务中
第四步,直接开始运行任务

如果不需要修改规则,直接点击“下一步”,直到页面完成,点击“巡检任务”
运行任务,推荐使用cloud采集数据服务,可以多任务,通过shutdown实现。
最后,数据实现完成后,就可以导出数据了。
优采云规则市场马上深度开放。以后小伙伴可以独立上传和配置规则,供其他小伙伴下载使用。请关注相关开放规则优采云采集器网站消息。
免费的:免费PbootCMS采集发布告别PbootCMS采集不到内容
SEO优化规则上千条,要想排名网站,需要网站才有收录。网站收录 的重要性不言而喻。对于SEO优化来说,能够实现稳定的收录增长是基础的优化。但是往往对于新站点来说,很多站点遇到的问题不是收录,可能网站上线几个月没有收录,或者只是收录几个。那么当我们遇到新站不是收录的问题时,我们应该如何处理呢?网站没有收录的原因有很多。如果新站还没有收录,我们可以看以下几点。
网站设计合理性
很多网站不是收录,很大程度上是网站本身在上线前就存在严重问题。首先,确认网站的链接结构是否合理对我们来说非常重要。对于很多公司来说,网站公司都是外包的,这也导致网站的质量参差不齐。
网站层级
网站高低与搜索引擎的爬取效率有一定的关系。级别越浅,越容易爬行。一般来说,网站级别在3-5级之间,网站保持在3级。
很多网站为了所谓的网站结构清晰,层次分明,把网站的URL层级都做好了。通过URL,可以清楚的知道当前页面在哪个目录下属于哪个类别。
这种方法的起点是好的。对于网站的层次关系明确,应该通过前端页面而不是URL来表达给用户,这样有点浪费钱。
伪静态处理
纯粹为了收录,不需要做伪静态处理。动态页面也可以很好收录,但是动态页面肯定会比静态页面慢,同时动态页面在一定程度上更容易出现重复页面。
另外,综合来看,静态页面的收录速度和效果要好于动态页面,所以网站前期需要做伪静态处理。
网站TDK 合理化
TDK对SEO优化很重要,尤其是网站的标题很重要,不仅对SEO优化,页面标题对用户也是不可见的。一个好的标题对于 网站 的点击转化很重要。

同时,网站的TDK中不要堆叠关键词,如果你不是很擅长网站title关键词布局。然后我们可以只写一个标题并将 关键词 和描述留空。
目前,搜索引擎基本上都是全文检索,TDK已经不像以前那么重要了。不是你写了一个关键词,这个页面会被认为和这个关键词相关,TDK对于搜索引擎的参考价值已经降低了很多,但是如果你堆积了很多关键词 或者有大量的页面具有高度重复的 TDK,那么 网站 的 收录 是一个大热门。
网站 稳定性
对于网站的前期,要保证网站的可访问性和稳定性,网站的带宽要足够。现在我们更注重用户体验,所以基本上我们需要保证网站首屏资源在3秒内加载,1.5秒内控制。
所以我们需要关键词的搜索引擎的抓取时间,我们需要控制网站的抓取时间在1500毫秒以内,抓取时间越低越好。
这个爬取时间在一定程度上决定了网站的爬取频率。网站抓取时间短网站不一定抓取频率高;但是如果抓取时间比较长,那么抓取频率一定要低。对于百度,站长后台提供完整的数据监控。如下图所示,截取了本站抓取时间的数据。
如果你的爬取时间超过1500毫秒,那么你必须优化网站的代码,否则搜索引擎会因为网站服务器的压力自动调整以减少爬取。检索频率会大大降低网站页面发现和收录的速度。
链接重复问题
对于网站想做SEO优化的,一定要做好网站的页面关系跳转。比如我们解析域名的时候,一般会解析有www和不带www的域名。需要做一个301跳转。
确保不要被搜索引擎抓取到两个相同的页面。如果您不进行 301 重定向,它将被视为两个高度相似的不同页面。重复页面不适合新站点收录。
内容问题
新站点 网站 的内容非常重要。很多新站不是收录的问题是网站的内容质量很差,新站的内容也很少。网上都是无意义的东西。今天教大家一个快速采集高质量文章Pbootcms采集方法。

这个Pbootcms采集不需要学习更多的专业技能,只需几个简单的步骤就可以轻松采集内容数据,用户只需要在Pbootcms采集在>上进行简单的设置,完成后Pbootcms采集会根据用户设置的关键词匹配内容和图片的准确率,可以选择保存在本地或者选择伪原创发布后,提供方便快捷的内容采集伪原创发布服务!!
相比其他Pbootcms采集这个Pbootcms采集基本没有什么门槛,也不需要花很多时间去学习正则表达式或者html标签,一分钟上手,只需要输入关键词即可实现采集(pbootcms采集也自带关键词采集 功能)。一路挂断!设置任务自动执行采集伪原创发布和推送任务。
几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。这类Pbootcms采集工具也配备了很多SEO功能,通过采集伪原创软件发布后还可以提升很多SEO方面。
例如:设置自动下载图片保存在本地或第三方(使内容不再有对方的外链)。自动内链(让搜索引擎更深入地抓取你的链接)、前后插入内容或标题,以及网站内容插入或随机作者、随机阅读等,形成“高原创 ”。
这些SEO小功能不仅提高了网站页面原创的度数,还间接提升了网站的收录排名。您可以通过软件工具上的监控管理直接查看文章采集的发布状态,不再需要每天登录网站后台查看。目前博主亲测软件是免费的,可以直接下载使用!
所以新网站不能急着上线,开发过程中需要保证搜索引擎的不可访问性。网站正式上线前,需要将网站初期填写的内容修改为比较优质的内容。
没有完成内容的优化,不要轻易上线。一旦在搜索引擎上留下低质量网站的印象,网站的初始优化就会带来很多麻烦。
网站前期,因为网站质量很低,所以要保证每天有足够的内容,不断更新优化原创的内容,这也是很关键的。
技巧:机器学习入门系列:关于机器学习算法你需要了解的东西、如何开发机器学习模型?
采集交流 • 优采云 发表了文章 • 0 个评论 • 81 次浏览 • 2022-11-05 08:32
1.你需要了解的机器学习算法
摘要:分类学习算法基于构建模型所需的数据:数据是否需要收录输入和输出或仅收录输入、需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
上次我们讨论了机器学习可以影响的业务类型。另请参阅:机器学习可以为您的企业做什么?(机器学习入门系列的第 1 部分)
现在,让我们回顾一下您需要了解的技术术语,以便您可以有效地与您的数据科学团队协作并协助您的数据科学团队,以便他们的工作可以对您的业务产生最大的影响(或者至少让您知道他们在说什么) .
算法、模型和数据
从概念上讲,我们正在构建一台机器,给定一组输入数据,它可以通过在数据中找到模式并从中学习来产生一些期望的输出。
一个很常见的情况是要求机器查找一组输入数据并产生相应的输出数据。机器识别输入数据中的模式并创建一组复杂的规则,然后将其应用于从未见过的输入并产生所需的输出。例如,给定房屋的大小、地址和房间数量(输入),让我们预测房屋的售价(输出)。假设我们有 10,000 组这样的数据,包括房子的大小、地址、房间数量和售价。然后机器会根据这些数据“训练”自己,即识别出影响房价的房间大小、地址、房间数量的模式,这样只要我们给一个房子的 3 个输入我们以前从未见过,我们可以预测房价。
数据科学家的角色是找到能够在给定输入的情况下获得预期输出的最佳机器。她有多个模板,对于机器来说,这些模板被称为**算法**。解决从这些模板生成的特定问题的机器称为**模型**。模板具有各种选项和设置,可以进行调整以从同一模板生成不同的模型。您还可以使用不同的模板生成多个模型或调整同一模板的设置以测试哪个模型提供最佳结果。
请注意,模型输出仅对具有一定概率的决策是正确或有用的。该模型并非 100% 正确,它是基于模型所看到的大量数据的“最佳猜测”。模型看到的数据越多,就越有可能提供有用的输出。
数据科学家用来“训练”机器(即让模型识别数据中的模式并创建规则)的一组已知输入和输出称为“**训练集**”。该数据与一个或多个“模板”结合使用,以创建一个或多个模型来解决问题。请记住,即使只使用一个“模板”(算法),也可以通过调整一些选项从同一个模板生成多个模型。
在获得一些“训练有素”的模型后,您必须检查它们是否有效,以及哪一个效果最好。要检查的新数据集称为“**验证集**”。将验证集作为输入,然后运行模型以查看哪个模型输出最接近验证集输出的结果。在我们上面的例子中,就是看哪个模型预测的房子价格最接近实际售价。在这个阶段,需要一组新的数据作为验证集,并且由于这些模型是从训练集创建的,它们将在训练集上运行良好,并且不会给出真实的结果。
一旦我们验证了哪个模型表现最好并选择了最好的,我们的数据科学家需要确定该模型的实际性能,即这个最佳模型在解决问题方面的表现如何。同样,我们需要另一个新数据集,因为该模型在训练集和验证集上都表现良好!最后一个数据集称为“**测试集**”。在我们的例子中,系统检查测试集预测的房价与测试集实际价格的接近程度。
“学习”的类型
您用于解决机器学习问题的算法类型取决于您拥有的数据。学习算法的分类基于构建模型所需的数据:数据是需要包括输入和输出还是只包括输入,需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
1. 监督学习
我们在上一节中详细讨论的案例描述了我们所说的“监督学习”。这种类型的学习需要大量的**标记数据**示例,即由输入和相应输出组成的数据。在我们的房价示例中,“标记”是指用模型预测的结果标记输入。
标记数据(也称为“ground-truth”数据)可以在监督学习算法中看到,从这些数据中学习并根据这些实例进行预测。它们需要大量标记数据:虽然数据量取决于用例,但最少需要几百个数据点。
使用监督学习解决的两个经典问题是:
2. 无监督学习
在无监督学习中,算法尝试识别数据中的模式,而不用预期结果标记数据集。数据是“未标记的”,即没有附加任何有意义的标记。一些经典问题可以通过无监督学习方法解决:
3. 半监督学习
这是监督学习和非监督学习混合的结果,其中算法需要一些训练数据,但比监督学习少得多(可能差一个数量级)。它的算法可以是监督和非监督学习中使用的方法的扩展:分类、回归、聚类、异常检测等。
4. 强化学习
该算法从有限的数据集开始,在学习的同时,可以获得更多关于其预测的反馈,以进一步改进学习。
如您所见,除了要解决的问题类型之外,您拥有的数据量也会影响您可以使用的学习方法。这也适用于另一种方式:您需要使用的学习方法可能需要比您目前拥有的更多的数据才能有效地解决您的问题。我们稍后会讨论这个。
其他常见的“流行语”
在您的工作中,您会遇到其他几个术语。了解它们与我们今天讨论的类别之间的关系非常重要。
深度学习与上述定义无关。它只是将特定类型的系统应用于学习问题,其解决方案可以是有监督的或无监督的等。
人工神经网络 (ANN) 是一种学习系统,它试图模拟我们的大脑通过不同层的“神经”网络工作的方式。神经网络至少有一个输入层(即一组将数据输入网络的神经元)、一个输出层(将结果传递出去的神经元),以及介于两者之间的一个或多个层,称为“隐藏层” . ”(实际进行计算工作的层)。深度学习只是使用具有多个隐藏层的神经网络来完成学习任务。如果你曾经使用过这样的网络,那么恭喜你,你也可以合理地抛弃流行语!
集成方法或**集成学习**使用多个模型来获得比使用单个模型更好的结果。这些模型可以使用不同的算法,也可以使用具有不同参数的相同算法。例如,对于某种类型的预测,你有一组模型,每个模型都可以产生一个预测,并且有处理方法来平衡不同的预测结果并决定应该输出什么组合。集成方法通常用于监督学习(它们在预测问题中非常有用),但也可以用于无监督学习。您的数据科学团队可能会测试这些方法并在适当的时候使用它们。
自然语言处理 (NLP) 是计算机科学的一门学科,研究机器对语言的理解。并非所有类型的 NLP 都使用机器学习。例如,如果我们生成一个“标签云”(一个单词在文本中出现的次数的视觉表示),则不涉及学习。对语言和文本进行更复杂的分析和理解通常需要机器学习。这里有些例子:
NLP 不仅用于机器学习领域中面向语言的应用程序,例如聊天机器人,还广泛用于准备和预处理数据,以便这些数据可以成为许多机器学习模型的有用输入。我们稍后会讨论这个。
请注意:以上定义是为了表达其主要思想,方便大家理解;有关详细的科学定义,请参阅其他来源。
问题如何影响解决方案(以及一些关键的机器学习概念)
通过机器学习实现的战略目标将决定许多下游决策。为了确保您的数据科学团队能够为业务生成正确的解决方案,了解一些基本的机器学习概念及其对业务目标的影响非常重要。
算法的选择
问题定义的微小变化可能需要完全不同的算法来解决,或者至少需要使用不同的数据输入来构建不同的模型。可以为用户识别照片类型的约会网站 可以使用无监督学习技术(例如聚类)来识别常见主题。如果你想向特定的人推荐一个潜在的约会对象,网站可能希望使用基于特定于该人的输入数据的监督学习,例如他们已经看过的照片。
特征选择
机器学习模型识别数据中的模式。输入模型的数据被组织成特征(也称为变量或属性):这些特征是相关的,主要是描述您想要预测或识别的现象的某些方面的独立数据片段。
以前面提到的希望优先考虑贷款申请人外展的公司为例。如果我们将问题定义为“根据转化的可能性对客户进行优先排序”,我们将获得包括对公司各种外展活动的相似客户响应率在内的特征。如果我们将问题定义为“优先考虑最有可能偿还贷款的客户”,我们将不会获得这些功能,因为它们与评估客户的可能性无关。
目标函数的选择
目标函数是您要优化的内容,或者模型试图预测的内容。例如,如果您向用户推荐他们可能感兴趣的商品,则模型的输出可能是用户在看到商品时点击该商品的概率,或者用户购买该商品的概率。目标函数的选择主要取决于业务目标,在这个例子中,您是对用户参与度(目标函数可能是点击或停留时间)还是业务收入(目标函数是购买)感兴趣?另一个需要考虑的关键因素是数据的可用性:要让算法学习,您必须提供大量“标记”的正面(用户看到并点击的产品)或负面(用户看到但没有点击的产品)上)数据点。
文章原标题《你需要了解的机器学习算法以及为什么要关心》,作者:Yael Gavish,译者:Summer,审稿人:主题曲哥。
-------------------------------------------------- ----------------------------------
2. 如何开发机器学习模型?
摘要:创建一个好的机器学习模型与创建任何其他产品一样:从一个想法开始,考虑要解决的问题以及一些潜在的解决方案。一旦你有了明确的方向,你就可以对解决方案进行原型设计,然后对其进行测试,看看它是否满足你的需求,看看这篇文章是如何一步一步做到的。
建模步骤一目了然
在高层次上,创建一个出色的机器学习模型与创建任何其他产品一样:从一个想法开始,然后考虑要解决的问题以及一些潜在的解决方案。一旦有了明确的方向,就可以对解决方案进行原型设计,然后对其进行测试,看看它是否符合要求。您需要在构思、原型设计和测试之间进行迭代,直到您的解决方案足以投放市场,此时您可以将其产品化并发布。现在,让我们看看每个阶段的细节。
由于数据是机器学习的重要组成部分,我们需要在产品开发过程之上进行数据分层,所以我们的过程如下所示:
主意
此阶段的目标是将模型解决的关键问题、目标函数和潜在输入与整个模型保持一致。
数据准备
此阶段的目标是采集原创数据并将其用作原型模型的输入。您可能需要对原创数据执行复杂的转换以使其成为输入数据。例如,假设您的一个特征是消费者对品牌的看法:您首先需要找到消费者谈论您品牌的相关来源。如果品牌名称中收录常用词(如“苹果”),则需要将品牌名称与其一般含义(与水果相关)区分开来,然后通过一个意见分析模型,在构建原型之前完成。并非所有功能都难以构建,但有些功能可能是劳动密集型的。
让我们仔细看看在这个阶段需要做什么:
原型和测试
此阶段的目标是获得模型的原型,对其进行测试并对其进行迭代,直到获得足以用于生产的模型。
商品化
当原型模型很好地解决了业务问题并可以投入生产时,您就进入了这个阶段。请注意,如果您还没有准备好进行全面生产,您需要首先确定模型的缩放比例。比如一个电影推荐工具:一开始可能会为少数几个用户提供推荐服务,但是为了给每个用户提供完整的用户体验,这种情况下,模型会根据每个用户与数据库的相关性来进行. 对每部电影进行排序。这是与仅推荐动作电影不同的扩展要求。
现在,让我们探讨一些有关使模型高效的技术细节:
到目前为止,我所描述的是一个概念过程。在现实中,线一般是模糊的,你经常需要在阶段之间来回走动。您可能对数据供应不满意,考虑重新开始,或者模型商业化后,您可能会发现模型效果不太好,您必须回去重新构建原型。
文章原标题《Developing a Machine Learning Model from Start to Finish》,作者:Yael Gavish,译者:夏夏,审稿人:主题曲哥。
文章 是一个简化的翻译。更多详情请查看原文(需要梯子)。您也可以下载下方的PDF文档查看原文。
附件下载:/m/29087/
更多技术干货请关注云栖社区知乎组织编号:阿里云云栖社区-知乎
优化的解决方案:苹果CMS虚拟主机设置自动采集
苹果cms,管理功能强大,管理后台界面大方,操作简单,功能齐全,模块多,双端管理。苹果cms加上丰富的系统标签,系统内置丰富的cms标签,支持thinkphp框架标签的完美集成,可以检索系统中的所有数据,只要站长有一些前端知识 快速开发自己的模板功能。Applecms部署安装简单,任何操作系统(Windows、Mac、Linux)都可以在PHP+MYSQL环境下快速安装部署。
苹果cms是一个成熟稳定的资源管理系统,可以用来搭建自己的影视网站。苹果cms很大一部分影视网站都是用苹果cms搭建的。苹果cms有很多优点,包括一键建站、配置简单、资源方便采集等。
以下是如何构建 Apple cms 系统以及如何配置它。要申请自己的VPS主机,首先要拥有自己的VPS。我们的 Apple cms 系统将安装在此 VPS 上。目前主流的VPS有很多,而且大部分都非常稳定。一键配置服务器环境非常方便。二、搭建LAMP环境 在安装苹果cms之前,首先要在你的VPS上搭建一个LAMP环境。
所谓LAMP就是指Linux+Apache+Mysql+PHP。其中,苹果cms的操作系统ubuntu是Linux。Apache是一个服务器,浏览器可以通过Apache在服务器(也就是你的VPS)上提供的服务获取网页资源,并显示在你的电脑屏幕上。Mysql 是一个数据库,在您的 网站(这里是 Apple cms)动态运行时访问的数据由数据库管理。
PHP 和 Apache 相互配合,为用户提供动态网页。我们要安装的苹果cms是用PHP语言编写的,必须依赖苹果cms的运行。数据库的信息可以根据网站的MySQL中的实际配置填写。目的是让 Apple cms 通过这些参数登录你的 MySQL。只有这样,Apple cms 才能使用数据库读写所需的数据。
Apple cms采集 可能会报错类别未绑定。这是因为站长站点的电影类别与资源站点的电影类别之间没有一一对应的关系。因此,Apple cms 不知道资源站上的哪个A类对应你网站上的哪个类别。此时,只需要绑定分类即可。这些操作并不难,稍微探索一下就可以上手。
Applecms 已成为易用性和功能性的领导者。程序体积小,程序代码优化,运行速度快,缓存处理效率高,只要能完美搭建普通虚拟主机,建站成本很低。类MVC模板分离,内置标签,自定义功能标签界面,强大的自定义采集功能,只要站长懂HTML,就可以轻松制作个性化网站。
苹果cms一直积极采纳广大站长在易用性和功能方面提出的各种好的建议,对各种紧迫问题做出快速响应,确保每一位站长都能从容应对每一个环节。. v10采用tp5.x内核开发,扩展了模板处理引擎,简单地将后台程序与html模板分离。Apple cms 允许设计师和程序员在不互相干扰的情况下最大限度地发挥自己的优势。大大加快了项目的有序、快速完成。即使站长是第一次接触,他也会在最短的时间内掌握苹果cms的使用方法。后台管理模块一目了然,操作简单,绝不会让站长眼花缭乱。 查看全部
技巧:机器学习入门系列:关于机器学习算法你需要了解的东西、如何开发机器学习模型?
1.你需要了解的机器学习算法
摘要:分类学习算法基于构建模型所需的数据:数据是否需要收录输入和输出或仅收录输入、需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
上次我们讨论了机器学习可以影响的业务类型。另请参阅:机器学习可以为您的企业做什么?(机器学习入门系列的第 1 部分)
现在,让我们回顾一下您需要了解的技术术语,以便您可以有效地与您的数据科学团队协作并协助您的数据科学团队,以便他们的工作可以对您的业务产生最大的影响(或者至少让您知道他们在说什么) .
算法、模型和数据
从概念上讲,我们正在构建一台机器,给定一组输入数据,它可以通过在数据中找到模式并从中学习来产生一些期望的输出。
一个很常见的情况是要求机器查找一组输入数据并产生相应的输出数据。机器识别输入数据中的模式并创建一组复杂的规则,然后将其应用于从未见过的输入并产生所需的输出。例如,给定房屋的大小、地址和房间数量(输入),让我们预测房屋的售价(输出)。假设我们有 10,000 组这样的数据,包括房子的大小、地址、房间数量和售价。然后机器会根据这些数据“训练”自己,即识别出影响房价的房间大小、地址、房间数量的模式,这样只要我们给一个房子的 3 个输入我们以前从未见过,我们可以预测房价。
数据科学家的角色是找到能够在给定输入的情况下获得预期输出的最佳机器。她有多个模板,对于机器来说,这些模板被称为**算法**。解决从这些模板生成的特定问题的机器称为**模型**。模板具有各种选项和设置,可以进行调整以从同一模板生成不同的模型。您还可以使用不同的模板生成多个模型或调整同一模板的设置以测试哪个模型提供最佳结果。
请注意,模型输出仅对具有一定概率的决策是正确或有用的。该模型并非 100% 正确,它是基于模型所看到的大量数据的“最佳猜测”。模型看到的数据越多,就越有可能提供有用的输出。
数据科学家用来“训练”机器(即让模型识别数据中的模式并创建规则)的一组已知输入和输出称为“**训练集**”。该数据与一个或多个“模板”结合使用,以创建一个或多个模型来解决问题。请记住,即使只使用一个“模板”(算法),也可以通过调整一些选项从同一个模板生成多个模型。
在获得一些“训练有素”的模型后,您必须检查它们是否有效,以及哪一个效果最好。要检查的新数据集称为“**验证集**”。将验证集作为输入,然后运行模型以查看哪个模型输出最接近验证集输出的结果。在我们上面的例子中,就是看哪个模型预测的房子价格最接近实际售价。在这个阶段,需要一组新的数据作为验证集,并且由于这些模型是从训练集创建的,它们将在训练集上运行良好,并且不会给出真实的结果。
一旦我们验证了哪个模型表现最好并选择了最好的,我们的数据科学家需要确定该模型的实际性能,即这个最佳模型在解决问题方面的表现如何。同样,我们需要另一个新数据集,因为该模型在训练集和验证集上都表现良好!最后一个数据集称为“**测试集**”。在我们的例子中,系统检查测试集预测的房价与测试集实际价格的接近程度。
“学习”的类型
您用于解决机器学习问题的算法类型取决于您拥有的数据。学习算法的分类基于构建模型所需的数据:数据是需要包括输入和输出还是只包括输入,需要多少数据点以及何时采集数据。根据上述分类原则,可以分为4大类:监督学习、无监督学习、半监督学习和强化学习。
1. 监督学习
我们在上一节中详细讨论的案例描述了我们所说的“监督学习”。这种类型的学习需要大量的**标记数据**示例,即由输入和相应输出组成的数据。在我们的房价示例中,“标记”是指用模型预测的结果标记输入。
标记数据(也称为“ground-truth”数据)可以在监督学习算法中看到,从这些数据中学习并根据这些实例进行预测。它们需要大量标记数据:虽然数据量取决于用例,但最少需要几百个数据点。
使用监督学习解决的两个经典问题是:
2. 无监督学习
在无监督学习中,算法尝试识别数据中的模式,而不用预期结果标记数据集。数据是“未标记的”,即没有附加任何有意义的标记。一些经典问题可以通过无监督学习方法解决:
3. 半监督学习

这是监督学习和非监督学习混合的结果,其中算法需要一些训练数据,但比监督学习少得多(可能差一个数量级)。它的算法可以是监督和非监督学习中使用的方法的扩展:分类、回归、聚类、异常检测等。
4. 强化学习
该算法从有限的数据集开始,在学习的同时,可以获得更多关于其预测的反馈,以进一步改进学习。
如您所见,除了要解决的问题类型之外,您拥有的数据量也会影响您可以使用的学习方法。这也适用于另一种方式:您需要使用的学习方法可能需要比您目前拥有的更多的数据才能有效地解决您的问题。我们稍后会讨论这个。
其他常见的“流行语”
在您的工作中,您会遇到其他几个术语。了解它们与我们今天讨论的类别之间的关系非常重要。
深度学习与上述定义无关。它只是将特定类型的系统应用于学习问题,其解决方案可以是有监督的或无监督的等。
人工神经网络 (ANN) 是一种学习系统,它试图模拟我们的大脑通过不同层的“神经”网络工作的方式。神经网络至少有一个输入层(即一组将数据输入网络的神经元)、一个输出层(将结果传递出去的神经元),以及介于两者之间的一个或多个层,称为“隐藏层” . ”(实际进行计算工作的层)。深度学习只是使用具有多个隐藏层的神经网络来完成学习任务。如果你曾经使用过这样的网络,那么恭喜你,你也可以合理地抛弃流行语!
集成方法或**集成学习**使用多个模型来获得比使用单个模型更好的结果。这些模型可以使用不同的算法,也可以使用具有不同参数的相同算法。例如,对于某种类型的预测,你有一组模型,每个模型都可以产生一个预测,并且有处理方法来平衡不同的预测结果并决定应该输出什么组合。集成方法通常用于监督学习(它们在预测问题中非常有用),但也可以用于无监督学习。您的数据科学团队可能会测试这些方法并在适当的时候使用它们。
自然语言处理 (NLP) 是计算机科学的一门学科,研究机器对语言的理解。并非所有类型的 NLP 都使用机器学习。例如,如果我们生成一个“标签云”(一个单词在文本中出现的次数的视觉表示),则不涉及学习。对语言和文本进行更复杂的分析和理解通常需要机器学习。这里有些例子:
NLP 不仅用于机器学习领域中面向语言的应用程序,例如聊天机器人,还广泛用于准备和预处理数据,以便这些数据可以成为许多机器学习模型的有用输入。我们稍后会讨论这个。
请注意:以上定义是为了表达其主要思想,方便大家理解;有关详细的科学定义,请参阅其他来源。
问题如何影响解决方案(以及一些关键的机器学习概念)
通过机器学习实现的战略目标将决定许多下游决策。为了确保您的数据科学团队能够为业务生成正确的解决方案,了解一些基本的机器学习概念及其对业务目标的影响非常重要。
算法的选择
问题定义的微小变化可能需要完全不同的算法来解决,或者至少需要使用不同的数据输入来构建不同的模型。可以为用户识别照片类型的约会网站 可以使用无监督学习技术(例如聚类)来识别常见主题。如果你想向特定的人推荐一个潜在的约会对象,网站可能希望使用基于特定于该人的输入数据的监督学习,例如他们已经看过的照片。
特征选择
机器学习模型识别数据中的模式。输入模型的数据被组织成特征(也称为变量或属性):这些特征是相关的,主要是描述您想要预测或识别的现象的某些方面的独立数据片段。
以前面提到的希望优先考虑贷款申请人外展的公司为例。如果我们将问题定义为“根据转化的可能性对客户进行优先排序”,我们将获得包括对公司各种外展活动的相似客户响应率在内的特征。如果我们将问题定义为“优先考虑最有可能偿还贷款的客户”,我们将不会获得这些功能,因为它们与评估客户的可能性无关。
目标函数的选择
目标函数是您要优化的内容,或者模型试图预测的内容。例如,如果您向用户推荐他们可能感兴趣的商品,则模型的输出可能是用户在看到商品时点击该商品的概率,或者用户购买该商品的概率。目标函数的选择主要取决于业务目标,在这个例子中,您是对用户参与度(目标函数可能是点击或停留时间)还是业务收入(目标函数是购买)感兴趣?另一个需要考虑的关键因素是数据的可用性:要让算法学习,您必须提供大量“标记”的正面(用户看到并点击的产品)或负面(用户看到但没有点击的产品)上)数据点。
文章原标题《你需要了解的机器学习算法以及为什么要关心》,作者:Yael Gavish,译者:Summer,审稿人:主题曲哥。

-------------------------------------------------- ----------------------------------
2. 如何开发机器学习模型?
摘要:创建一个好的机器学习模型与创建任何其他产品一样:从一个想法开始,考虑要解决的问题以及一些潜在的解决方案。一旦你有了明确的方向,你就可以对解决方案进行原型设计,然后对其进行测试,看看它是否满足你的需求,看看这篇文章是如何一步一步做到的。
建模步骤一目了然
在高层次上,创建一个出色的机器学习模型与创建任何其他产品一样:从一个想法开始,然后考虑要解决的问题以及一些潜在的解决方案。一旦有了明确的方向,就可以对解决方案进行原型设计,然后对其进行测试,看看它是否符合要求。您需要在构思、原型设计和测试之间进行迭代,直到您的解决方案足以投放市场,此时您可以将其产品化并发布。现在,让我们看看每个阶段的细节。
由于数据是机器学习的重要组成部分,我们需要在产品开发过程之上进行数据分层,所以我们的过程如下所示:
主意
此阶段的目标是将模型解决的关键问题、目标函数和潜在输入与整个模型保持一致。
数据准备
此阶段的目标是采集原创数据并将其用作原型模型的输入。您可能需要对原创数据执行复杂的转换以使其成为输入数据。例如,假设您的一个特征是消费者对品牌的看法:您首先需要找到消费者谈论您品牌的相关来源。如果品牌名称中收录常用词(如“苹果”),则需要将品牌名称与其一般含义(与水果相关)区分开来,然后通过一个意见分析模型,在构建原型之前完成。并非所有功能都难以构建,但有些功能可能是劳动密集型的。
让我们仔细看看在这个阶段需要做什么:
原型和测试
此阶段的目标是获得模型的原型,对其进行测试并对其进行迭代,直到获得足以用于生产的模型。
商品化
当原型模型很好地解决了业务问题并可以投入生产时,您就进入了这个阶段。请注意,如果您还没有准备好进行全面生产,您需要首先确定模型的缩放比例。比如一个电影推荐工具:一开始可能会为少数几个用户提供推荐服务,但是为了给每个用户提供完整的用户体验,这种情况下,模型会根据每个用户与数据库的相关性来进行. 对每部电影进行排序。这是与仅推荐动作电影不同的扩展要求。
现在,让我们探讨一些有关使模型高效的技术细节:
到目前为止,我所描述的是一个概念过程。在现实中,线一般是模糊的,你经常需要在阶段之间来回走动。您可能对数据供应不满意,考虑重新开始,或者模型商业化后,您可能会发现模型效果不太好,您必须回去重新构建原型。
文章原标题《Developing a Machine Learning Model from Start to Finish》,作者:Yael Gavish,译者:夏夏,审稿人:主题曲哥。
文章 是一个简化的翻译。更多详情请查看原文(需要梯子)。您也可以下载下方的PDF文档查看原文。
附件下载:/m/29087/
更多技术干货请关注云栖社区知乎组织编号:阿里云云栖社区-知乎
优化的解决方案:苹果CMS虚拟主机设置自动采集
苹果cms,管理功能强大,管理后台界面大方,操作简单,功能齐全,模块多,双端管理。苹果cms加上丰富的系统标签,系统内置丰富的cms标签,支持thinkphp框架标签的完美集成,可以检索系统中的所有数据,只要站长有一些前端知识 快速开发自己的模板功能。Applecms部署安装简单,任何操作系统(Windows、Mac、Linux)都可以在PHP+MYSQL环境下快速安装部署。
苹果cms是一个成熟稳定的资源管理系统,可以用来搭建自己的影视网站。苹果cms很大一部分影视网站都是用苹果cms搭建的。苹果cms有很多优点,包括一键建站、配置简单、资源方便采集等。
以下是如何构建 Apple cms 系统以及如何配置它。要申请自己的VPS主机,首先要拥有自己的VPS。我们的 Apple cms 系统将安装在此 VPS 上。目前主流的VPS有很多,而且大部分都非常稳定。一键配置服务器环境非常方便。二、搭建LAMP环境 在安装苹果cms之前,首先要在你的VPS上搭建一个LAMP环境。

所谓LAMP就是指Linux+Apache+Mysql+PHP。其中,苹果cms的操作系统ubuntu是Linux。Apache是一个服务器,浏览器可以通过Apache在服务器(也就是你的VPS)上提供的服务获取网页资源,并显示在你的电脑屏幕上。Mysql 是一个数据库,在您的 网站(这里是 Apple cms)动态运行时访问的数据由数据库管理。
PHP 和 Apache 相互配合,为用户提供动态网页。我们要安装的苹果cms是用PHP语言编写的,必须依赖苹果cms的运行。数据库的信息可以根据网站的MySQL中的实际配置填写。目的是让 Apple cms 通过这些参数登录你的 MySQL。只有这样,Apple cms 才能使用数据库读写所需的数据。

Apple cms采集 可能会报错类别未绑定。这是因为站长站点的电影类别与资源站点的电影类别之间没有一一对应的关系。因此,Apple cms 不知道资源站上的哪个A类对应你网站上的哪个类别。此时,只需要绑定分类即可。这些操作并不难,稍微探索一下就可以上手。
Applecms 已成为易用性和功能性的领导者。程序体积小,程序代码优化,运行速度快,缓存处理效率高,只要能完美搭建普通虚拟主机,建站成本很低。类MVC模板分离,内置标签,自定义功能标签界面,强大的自定义采集功能,只要站长懂HTML,就可以轻松制作个性化网站。
苹果cms一直积极采纳广大站长在易用性和功能方面提出的各种好的建议,对各种紧迫问题做出快速响应,确保每一位站长都能从容应对每一个环节。. v10采用tp5.x内核开发,扩展了模板处理引擎,简单地将后台程序与html模板分离。Apple cms 允许设计师和程序员在不互相干扰的情况下最大限度地发挥自己的优势。大大加快了项目的有序、快速完成。即使站长是第一次接触,他也会在最短的时间内掌握苹果cms的使用方法。后台管理模块一目了然,操作简单,绝不会让站长眼花缭乱。
核心方法:用js来实现那些数据结构及算法—目录
采集交流 • 优采云 发表了文章 • 0 个评论 • 68 次浏览 • 2022-11-04 19:21
让我告诉你我个人对这本书的看法。数据结构的介绍不够深入细致,对于那些主修计算机专业的前端从业者来说非常鸡肋。对于那些不是计算机专业并且从未接触过数据结构的前端编码人员。解释很不具体,很多内容只是几笔而已,完全没有代表性。思路的解释不是很清楚,但是每一步都列出来了,但其实每一步都是单独列出来的。它没有任何帮助,我可以自己查看代码并使用您所说的。当然,我在网上也找到了很多类似这个系列的文章,大部分都是基于本书的代码,但是要么代码完全复制,
所以,想写下自己的理解,自己对这个数据结构的想法,每一行代码在上下文中的作用以及学习过程中彼此的影响。希望大家在学习数据结构的时候能走的轻松一点。学习的过程中,有没有看懂的地方,书里不好理解的地方都是自己画的,自己找资料,再回来结合代码给个“自己-thinking”的解释还不错。
终于完成了所有关于使用js实现数据结构的内容,耗时一个多月近40个小时,共16篇文章。里面有最基础的js数组的详细讲解。还有非线性哈希表、树和图。其实对于使用js实现数据结构,个人觉得需要学习的是数据结构的思想。一旦你理解了这个数据结构的思想,那么,当然,实现代码只是时间问题。这个系列的所有内容都是我一个字一个字打出来的,包括书中的代码和我自己的评论。当然,一些概念性的问题来自这本书。文中附有信息链接。
那么,如果你有不明白的地方,或者在阅读的时候感觉不清楚,希望你能留言。互相学习。
哦,是的,让我们谈谈我认为这个系列的重点。重点是最后 6 篇文章和前 3 篇文章(Array、hashMap、Tree 和 Graph)。而对于前面的栈、队列等是你学习后面的基础,因为前面的数据结构都是在树、图等数据结构的实现中用到的。
所以,如果你想学习数据结构。所以我个人认为这个系列 文章 是一个好的开始。你可能会问,看完这个系列文章我会学到什么?我真的了解数据结构吗?当然不是。一张照片就足以写一本厚厚的书。所以,看完这个系列,最多只是打开数据结构的门,迈出右脚(或左脚)去探索门内的世界,甚至没有走进这扇门。
最后说一下这个系列的使用和大概的阅读时间。
使用方法:首先将代码复制到本地,去掉所有注释,然后用文章阅读代码。然后自己敲代码,有什么不懂的就去评论区。以下是参加本系列的说明。
花费时间:每天一小时,大约一个月。当然,不仅仅是阅读,而是按照 文章 中的代码和注释来完整地过一遍我的脑海。
好吧,让我们停止罗嗦。就去这里吧。可以算是给自己的6分答题卡。
这是目录:
数据结构部分(已完成):
附:算法部分基本完成,比如搜索和排序算法,比如函数式编程。这些文章文章强烈推荐大家仔细阅读,因为如果你对这方面没有深入研究过,那么在你阅读并研究了下面的文章之后,会有一个很多收据。当然,这里有一篇文章文章我个人的看法是,你可以简单的看一下,不过看不懂也没关系,因为已经是算法比较深入的部分了,这就是js算法05(算法模式02-动态规划与贪心算法)本文的第一眼,如果你有算法基础,那就当我没说吧。
算法部分:
最后,谢谢!
核心方法:网页数据导出excel的方法
如何获取和导出网页数据并保存在本地?
如何将网页数据(文字、图片等)导出并保存在本地,以便我想看的时候可以看或者跟进更深层次的数据处理?导出网页数据一般有几种方法。
1.通过浏览器导出网页数据
具体操作:打开网页后,在网页空白处右击,在下拉列表中选择“另存为”,然后在弹出的保存窗口中选择保存类型为“所有网页”。选择保存位置并确认,保存后会自动保存两个文件,一个是网址,一个是保存网页内容元素。
如何导出网页数据,以赶集网采集为例 图1
2.通过网页数据采集器导出网页数据
先传网页数据采集器,下载网页数据采集,然后导出成需要的格式。本文中使用
它是一个简单而强大的优采云采集器。下面是一个完整的优采云采集和导出网页数据的例子。例子中的采集是赶集线上房地产-店铺-深圳-南山类下所有店铺的信息。
示例网站:
第 1 步:创建一个 采集 任务
1)进入主界面,选择“自定义模式”
如何导出网页数据,以赶集网采集为例 图2
2) 将要为采集的网址的网址复制粘贴到网址输入框中,点击“保存网址”
如何导出网页数据,以赶集网采集为例 图3
第 2 步:创建翻页循环
1) 在页面右上角,打开“流程”,显示“流程设计器”和“自定义当前操作”两个部分。将页面下拉至最下方,点击“下一页”按钮,在右侧的操作提示框中,选择“循环点击下一页”
如何导出网页数据,以赶集网采集为例 图4
第 3 步:创建列表循环
1) 移动鼠标选择页面上的第一个店铺链接。选中后,系统会自动识别页面中其他类似的链接。在右侧的操作提示框中,选择“全选”
如何导出网页数据,以赶集网采集为例 图5
2)选择“循环通过每个链接”创建一个列表循环
如何导出网页数据,以赶集网采集为例 图6
第四步:提取店铺信息
1)创建列表循环后,系统会自动点击第一个店铺链接进入店铺详情页面。点击所需的字段信息,在右侧的操作提示框中,选择“采集该元素的文本”
如何导出网页数据,以赶集网采集为例 图7
2)字段信息选择完成后,选择对应字段,自定义字段名称。完成后点击左上角的“Save and Launch”启动采集任务
如何导出网页数据,以赶集网采集为例 图8
3) 选择“启动本地采集”
如何导出网页数据,以赶集网采集为例
9
第 5 步:数据采集 和导出
1)采集完成后会弹出提示,选择“导出数据”
如何导出网页数据,以赶集网采集为例 图10
2)选择“合适的导出方式”导出采集好店铺信息数据
如何导出网页数据,以赶集网采集为例 图11
3)这里我们选择excel作为导出格式,数据导出如下图
如何导出网页数据,以赶集网采集为例 图12
经过以上操作,我们采集就到了赶集网的南山门店信息数据。网站 上其他公共数据的基本采集 步骤相同。有些网页比较复杂(涉及点击、登录、翻页、识别验证码、瀑布流、Ajax),可以在优采云中设置一些高级选项。
数据采集完成后,我们可以将数据导出,为以后的数据分析和挖掘提供数据支持。如上图所示,优采云目前支持的导出格式包括excel 2007、excel 2003、csv文件、HTML文件和导出到数据库。
3.通过excel导出网页数据
1)打开excel(本文以2010为例),点击“数据”中的“From 网站”,在弹出的窗口中,在地址栏中输入目标URL,点击“Go”,窗口将打开将跳转到目标页面
如何导出网页数据,以赶集网采集为例 图13
2)将鼠标移动到对话框中网页表格的左上角,会出现一个黄底黑色箭头,表示Excel已经识别出该网页上的表格。点击箭头,箭头会变成绿色的对勾,表示选表成功,最后点击下方的“导入”,如下图:
如何导出网页数据,以赶集网采集为例 图14
3)选择放置数据的工作表后,点击“确定”,网页数据就会导出到这个工作表中。
4)这种方法获取的数据需要等待很长时间,容易出错。最好使用 采集器 来高效便捷地导出数据。相关 采集 教程:
美团商业资讯采集
58城市资讯采集
人民网商户采集
优采云——70万用户选择的网页数据采集器。
1.操作简单,任何人都可以使用:不需要技术背景,只要能上网采集即可。完成流程可视化,点击鼠标完成操作,2分钟快速上手。
2、功能强大,任意网站可选:对于点击、登录、翻页、身份验证码、瀑布流、Ajax脚本异步加载数据,所有页面都可以通过简单设置采集。
3.云采集,也可以关机。配置采集任务后,可以将其关闭,并可以在云端执行任务。庞大的云采集集群24*7不间断运行,无需担心IP阻塞和网络中断。
4、免费功能+增值服务,按需选择。免费版具有满足用户基本采集需求的所有功能。同时设置一些增值服务(如私有云),满足高端付费企业用户的需求。 查看全部
核心方法:用js来实现那些数据结构及算法—目录
让我告诉你我个人对这本书的看法。数据结构的介绍不够深入细致,对于那些主修计算机专业的前端从业者来说非常鸡肋。对于那些不是计算机专业并且从未接触过数据结构的前端编码人员。解释很不具体,很多内容只是几笔而已,完全没有代表性。思路的解释不是很清楚,但是每一步都列出来了,但其实每一步都是单独列出来的。它没有任何帮助,我可以自己查看代码并使用您所说的。当然,我在网上也找到了很多类似这个系列的文章,大部分都是基于本书的代码,但是要么代码完全复制,
所以,想写下自己的理解,自己对这个数据结构的想法,每一行代码在上下文中的作用以及学习过程中彼此的影响。希望大家在学习数据结构的时候能走的轻松一点。学习的过程中,有没有看懂的地方,书里不好理解的地方都是自己画的,自己找资料,再回来结合代码给个“自己-thinking”的解释还不错。
终于完成了所有关于使用js实现数据结构的内容,耗时一个多月近40个小时,共16篇文章。里面有最基础的js数组的详细讲解。还有非线性哈希表、树和图。其实对于使用js实现数据结构,个人觉得需要学习的是数据结构的思想。一旦你理解了这个数据结构的思想,那么,当然,实现代码只是时间问题。这个系列的所有内容都是我一个字一个字打出来的,包括书中的代码和我自己的评论。当然,一些概念性的问题来自这本书。文中附有信息链接。
那么,如果你有不明白的地方,或者在阅读的时候感觉不清楚,希望你能留言。互相学习。
哦,是的,让我们谈谈我认为这个系列的重点。重点是最后 6 篇文章和前 3 篇文章(Array、hashMap、Tree 和 Graph)。而对于前面的栈、队列等是你学习后面的基础,因为前面的数据结构都是在树、图等数据结构的实现中用到的。

所以,如果你想学习数据结构。所以我个人认为这个系列 文章 是一个好的开始。你可能会问,看完这个系列文章我会学到什么?我真的了解数据结构吗?当然不是。一张照片就足以写一本厚厚的书。所以,看完这个系列,最多只是打开数据结构的门,迈出右脚(或左脚)去探索门内的世界,甚至没有走进这扇门。
最后说一下这个系列的使用和大概的阅读时间。
使用方法:首先将代码复制到本地,去掉所有注释,然后用文章阅读代码。然后自己敲代码,有什么不懂的就去评论区。以下是参加本系列的说明。
花费时间:每天一小时,大约一个月。当然,不仅仅是阅读,而是按照 文章 中的代码和注释来完整地过一遍我的脑海。
好吧,让我们停止罗嗦。就去这里吧。可以算是给自己的6分答题卡。

这是目录:
数据结构部分(已完成):
附:算法部分基本完成,比如搜索和排序算法,比如函数式编程。这些文章文章强烈推荐大家仔细阅读,因为如果你对这方面没有深入研究过,那么在你阅读并研究了下面的文章之后,会有一个很多收据。当然,这里有一篇文章文章我个人的看法是,你可以简单的看一下,不过看不懂也没关系,因为已经是算法比较深入的部分了,这就是js算法05(算法模式02-动态规划与贪心算法)本文的第一眼,如果你有算法基础,那就当我没说吧。
算法部分:
最后,谢谢!
核心方法:网页数据导出excel的方法
如何获取和导出网页数据并保存在本地?
如何将网页数据(文字、图片等)导出并保存在本地,以便我想看的时候可以看或者跟进更深层次的数据处理?导出网页数据一般有几种方法。
1.通过浏览器导出网页数据
具体操作:打开网页后,在网页空白处右击,在下拉列表中选择“另存为”,然后在弹出的保存窗口中选择保存类型为“所有网页”。选择保存位置并确认,保存后会自动保存两个文件,一个是网址,一个是保存网页内容元素。
如何导出网页数据,以赶集网采集为例 图1
2.通过网页数据采集器导出网页数据
先传网页数据采集器,下载网页数据采集,然后导出成需要的格式。本文中使用
它是一个简单而强大的优采云采集器。下面是一个完整的优采云采集和导出网页数据的例子。例子中的采集是赶集线上房地产-店铺-深圳-南山类下所有店铺的信息。
示例网站:
第 1 步:创建一个 采集 任务
1)进入主界面,选择“自定义模式”
如何导出网页数据,以赶集网采集为例 图2
2) 将要为采集的网址的网址复制粘贴到网址输入框中,点击“保存网址”
如何导出网页数据,以赶集网采集为例 图3
第 2 步:创建翻页循环
1) 在页面右上角,打开“流程”,显示“流程设计器”和“自定义当前操作”两个部分。将页面下拉至最下方,点击“下一页”按钮,在右侧的操作提示框中,选择“循环点击下一页”
如何导出网页数据,以赶集网采集为例 图4

第 3 步:创建列表循环
1) 移动鼠标选择页面上的第一个店铺链接。选中后,系统会自动识别页面中其他类似的链接。在右侧的操作提示框中,选择“全选”
如何导出网页数据,以赶集网采集为例 图5
2)选择“循环通过每个链接”创建一个列表循环
如何导出网页数据,以赶集网采集为例 图6
第四步:提取店铺信息
1)创建列表循环后,系统会自动点击第一个店铺链接进入店铺详情页面。点击所需的字段信息,在右侧的操作提示框中,选择“采集该元素的文本”
如何导出网页数据,以赶集网采集为例 图7
2)字段信息选择完成后,选择对应字段,自定义字段名称。完成后点击左上角的“Save and Launch”启动采集任务
如何导出网页数据,以赶集网采集为例 图8
3) 选择“启动本地采集”
如何导出网页数据,以赶集网采集为例
9
第 5 步:数据采集 和导出
1)采集完成后会弹出提示,选择“导出数据”
如何导出网页数据,以赶集网采集为例 图10
2)选择“合适的导出方式”导出采集好店铺信息数据

如何导出网页数据,以赶集网采集为例 图11
3)这里我们选择excel作为导出格式,数据导出如下图
如何导出网页数据,以赶集网采集为例 图12
经过以上操作,我们采集就到了赶集网的南山门店信息数据。网站 上其他公共数据的基本采集 步骤相同。有些网页比较复杂(涉及点击、登录、翻页、识别验证码、瀑布流、Ajax),可以在优采云中设置一些高级选项。
数据采集完成后,我们可以将数据导出,为以后的数据分析和挖掘提供数据支持。如上图所示,优采云目前支持的导出格式包括excel 2007、excel 2003、csv文件、HTML文件和导出到数据库。
3.通过excel导出网页数据
1)打开excel(本文以2010为例),点击“数据”中的“From 网站”,在弹出的窗口中,在地址栏中输入目标URL,点击“Go”,窗口将打开将跳转到目标页面
如何导出网页数据,以赶集网采集为例 图13
2)将鼠标移动到对话框中网页表格的左上角,会出现一个黄底黑色箭头,表示Excel已经识别出该网页上的表格。点击箭头,箭头会变成绿色的对勾,表示选表成功,最后点击下方的“导入”,如下图:
如何导出网页数据,以赶集网采集为例 图14
3)选择放置数据的工作表后,点击“确定”,网页数据就会导出到这个工作表中。
4)这种方法获取的数据需要等待很长时间,容易出错。最好使用 采集器 来高效便捷地导出数据。相关 采集 教程:
美团商业资讯采集
58城市资讯采集
人民网商户采集
优采云——70万用户选择的网页数据采集器。
1.操作简单,任何人都可以使用:不需要技术背景,只要能上网采集即可。完成流程可视化,点击鼠标完成操作,2分钟快速上手。
2、功能强大,任意网站可选:对于点击、登录、翻页、身份验证码、瀑布流、Ajax脚本异步加载数据,所有页面都可以通过简单设置采集。
3.云采集,也可以关机。配置采集任务后,可以将其关闭,并可以在云端执行任务。庞大的云采集集群24*7不间断运行,无需担心IP阻塞和网络中断。
4、免费功能+增值服务,按需选择。免费版具有满足用户基本采集需求的所有功能。同时设置一些增值服务(如私有云),满足高端付费企业用户的需求。
直观:无规则采集器列表算法的简单变式(上)
采集交流 • 优采云 发表了文章 • 0 个评论 • 95 次浏览 • 2022-11-03 16:16
无规则采集器列表算法的简单变式(-infinite-mistakes-and-powerful-engineering/)可以看看上面那个live。我看那个live时正值自己的ea一周年,很感动,可以入个门。此外,英语好的话,我推荐theartofpowerfultraining这个公众号。我自己也花了半个月在里面每周翻译一点(包括我自己很多想推荐的机器学习/人工智能/深度学习/新机器学习/深度学习库/seo/web方面的好东西)。
写东西速度比较慢,而且翻译水平也比较差。非程序员的推荐/the-art-of-powerful-training/我曾经做过网页抓取的功能项目,用它搭了三个同类网站抓取。对于入门很有帮助。如果经济允许,想接触人工智能的话,建议接触下国外ai领域新近发展的一些学者(计算机,自然语言处理,最好是cs相关专业),要不看论文资料很容易过于纯理论太枯燥。
国内的话,欢迎关注我校的计算机相关专业的计算机系学生的开源项目。毕竟我校名气大,好多信息技术方面的“大牛”和“新奇”需要一些低门槛的开源项目做“中介”,也给了我一些新的想法和见识。(cs289和2895这两个就是网页抓取模拟程序的开源,不知道国内有没有)。国内做机器学习的多,还是学校里的效果好。最后,关于深度学习的语言实现(python、matlab/sylizip、caffe等),我就推荐本人自己写的-learning/caffe的文档吧。
因为还是新人,水平差,和github工程师合作,想偷懒,可以用scikit-learn之类,不过可能需要定制类型。按照例子的业务逻辑拆分自己的list,虽然我还是喜欢有类型,但这种说法有点太赶了。仅作参考。不过通常数据预处理的需求没有像是高级语言那么复杂,解决数据预处理问题再做预处理就好了。--。 查看全部
直观:无规则采集器列表算法的简单变式(上)
无规则采集器列表算法的简单变式(-infinite-mistakes-and-powerful-engineering/)可以看看上面那个live。我看那个live时正值自己的ea一周年,很感动,可以入个门。此外,英语好的话,我推荐theartofpowerfultraining这个公众号。我自己也花了半个月在里面每周翻译一点(包括我自己很多想推荐的机器学习/人工智能/深度学习/新机器学习/深度学习库/seo/web方面的好东西)。

写东西速度比较慢,而且翻译水平也比较差。非程序员的推荐/the-art-of-powerful-training/我曾经做过网页抓取的功能项目,用它搭了三个同类网站抓取。对于入门很有帮助。如果经济允许,想接触人工智能的话,建议接触下国外ai领域新近发展的一些学者(计算机,自然语言处理,最好是cs相关专业),要不看论文资料很容易过于纯理论太枯燥。

国内的话,欢迎关注我校的计算机相关专业的计算机系学生的开源项目。毕竟我校名气大,好多信息技术方面的“大牛”和“新奇”需要一些低门槛的开源项目做“中介”,也给了我一些新的想法和见识。(cs289和2895这两个就是网页抓取模拟程序的开源,不知道国内有没有)。国内做机器学习的多,还是学校里的效果好。最后,关于深度学习的语言实现(python、matlab/sylizip、caffe等),我就推荐本人自己写的-learning/caffe的文档吧。
因为还是新人,水平差,和github工程师合作,想偷懒,可以用scikit-learn之类,不过可能需要定制类型。按照例子的业务逻辑拆分自己的list,虽然我还是喜欢有类型,但这种说法有点太赶了。仅作参考。不过通常数据预处理的需求没有像是高级语言那么复杂,解决数据预处理问题再做预处理就好了。--。
汇总:B站的数据怎么自定义采集,只筛选那些自己想要的数据?
采集交流 • 优采云 发表了文章 • 0 个评论 • 191 次浏览 • 2022-11-03 11:39
很多媒体人可能会遇到这样的问题,需要对某些视频进行综合分析,但目前市面上的大部分工具都可以实现对视频博主的综合分析。那么如果你想分析一些特定的视频呢?
这个问题需要借助专业的数据分析平台来解决。今天给大家推荐的是Pepper Data的【Pepper Aggregation】采集平台。平台的自定义采集有以下几种模式:
一:指定关键词采集视频模式
在采集模式下,勾选【指定关键词采集视频】,输入关键词在B站搜索,采集所有收录关键词的结果。最多可以设置 200 个 关键词。
根据自定义的采集模板,采集收到的数据表如下:
另外,您可以自定义配置栏,可以根据自己的需要进行配置,勾选需要的数据项,过滤掉不必要的选项。
在此数据的基础上,您可以进一步点击表格顶部的【过滤条件】-【添加条件】自定义采集。
2.指定UP主采集模式
在采集模式下,选择【指定UP主采集视频】,输入UP主的用户账号(MID),对本次发布的所有视频进行完整的采集 UP Master,最多 500 UP Master 的用户帐号(MID)。
Pepper 数据与其他平台略有不同。也可以手动输入,也可以下载Excel模板批量导入。
也可以直接在模板中填写UP主页的URL地址,系统会自动解析UP主的用户账号:
3.指定视频链接采集模式
在指定视频链接采集模式下,输入视频URL地址,对指定视频采集进行数据处理,最多可设置500个视频地址,与指定UP主相同采集模式,也可以使用Excel模板批量导入。
由于B站视频地址中有AVID和BVID两种采集模式,系统会自动将AVID转换为BVID,操作过程中也省略了手动转换步骤。
综上所述,Pepper Data【B站数据定制采集】流程清晰,操作简单。只需选择你需要的规则采集并配置对应的采集关键词即可完成数据采集。即使是非技术人员也可以轻松快速地采集获取他们想要的数据。
还可以省去数据采集开发环节,有利于各大主流平台的长期维护,数据接入一键完成,助您快速实现业务需求!
总结:织梦筛选功能怎么弄?详细说明 ,谢谢!
织梦内容过滤(织梦内容页面调用)
软件开发2022-08-22T22:01:12 13
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!织梦如何获取过滤功能?详细指导,谢谢!织梦多条件过滤功能实现我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想修复好它们,因为它们在model Type 是数字类型,而不是其他三个(品牌、平台和显卡)是选项类型。现在前台已经准备好了,我们开始后台功能。
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!
织梦如何获取过滤功能?详细指导,谢谢!
织梦多条件过滤功能实现
我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想很好地修复它们,因为它们在模型中使用的类型是数字类型,而不是其他三(品牌、平台和显卡)是选项类型。
现在前台已经准备好了,我们开始后台功能。
我使用的具体后台是advancedsearch.php的搜索功能来实现的。
我们复制一个advancedsearch.php模板,默认的advancedserach.php模板是/templets/default/advancesearch.htm,我们把这个模板复制到我们自定义的模板文件夹/templets/jingdong,名字叫filter_tmp.htm。
然后进入后台,在“内容模型管理”中选择需要搜索的模型,然后点击模型后面的放大镜图标,在“附件表中自定义搜索的字段”中选择需要搜索的字段,自定义搜索结果模板页面,写上我们刚才复制的模板名称,叫filter_tmp.htm,OK。
这里可以测试一下搜索是否可以正常使用。
不过貌似系统自带织梦。我已经尝试了很多次,但它不起作用。跟踪了一下,好像没有查询到附加表,所以在advancedsearch.php的第218行,原来的代码是
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
在type.*后面加一行addon.*,变成如下代码
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*,addon.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
然后有124行要添加 ${$var}=iconv("utf-8","gb2312",${$var}); 否则会造成中文乱码。
还有一个就是如果使用()英文括号,要小心,因为会被secure sql过滤掉。
下面,我简单制作了filter_tmp.htm,大家可以参考一下。
{dede:数据列表}
div
strongtitle: /strong{dede:field.title/}br /
strongBrand: /strong{dede:field.pinpai/}br /
strongPrice: /strong{dede:field.jiage/}br /
strongSize: /strong{dede:field.chicun/}br /
强平台:/strong{dede:field.pingtai/}br /
strong显卡:/strong{dede:field.xianka/}br /
/div
{/dede:数据列表}
{dede:pagelist listsize='5'/}
但我们最终希望将此页面“嵌入”到 filter.htm 中,即最终列表页面。
现在我们打开过滤器模板文件,在底部添加一个div,并将id设置为result。这是存储最终过滤结果的地方。
然后打开filter.js,这个js里面写了以下关键点。
织梦dede采集方法教程
方法/步骤
1.首先,我们打开织梦背景,点击
采集——采集节点管理——添加新节点
2.这里我们以采集normal文章为例,我们选择normal文章,然后确认
3、我们进入了采集的设置页面,填写节点名,也就是给新节点起个名字,这里随便填。
然后打开你要采集的文章列表页面,打开这个页面的链接,右键-查看源文件
找到目标页面编码,就在字符集之后
4.页面的基本信息一般会被忽略,如图
5.现在我们来填写列表URL获取规则
看列表第一页的地址文章jianzhanxinde/list_49_1.html
对比第二页的地址 jinzhanxinde/list_49_2.html
我们发现除了49_后面的数字之外它们是一样的,所以我们可以写
/建站新德/list_49_(*).html
只需将 1 替换为 (*)
由于这里只有2页,我们从1填到2
每页的增量当然是1,2-1...等于1
到这里我们就完成了
6.可能你的一些采集列表没有规则,只能手动指定列表URL,如图
7. 每行写一个页地址
写完列表规则,我们开始写文章 URL匹配规则,回到文章列表页面
右键查看源文件
找到HTML开头的区域,就是找到列表开头的文章标记。
8.我们可以很容易地找到如图所示的“新闻列表”
. 从这里开始,以下是 文章 列表
让我们在 文章 列表的末尾找到 HTML
9. 这就是它,一个容易找到的标志
如果链接收录图像:
不处理
采集 是缩略图
在这里你可以根据自己的需要选择
再次过滤区域 URL:
(使用正则表达式)
必须收录:
(优先级高于后者)
不能收录:
打开源文件,我们可以清楚的看到文章链接都是以.html结尾的
所以,我们在必须收录之后填写.html
如果遇到一些麻烦的列表,也可以填写以下不能收录的
8.我们点击保存设置进入下一步,可以看到我们得到的文章 URL
看到这些都正确,我们保存信息,进入下一步设置内容字段获取规则
看看文章有没有分页,输入一篇文章文章就可以了。. 我们看到这里的 文章 没有分页
所以这里我们默认
9. 我们现在正在寻找 文章 标题等
随便输入一个文章,右键查看源文件
看看这些
10.根据源码填写
11.我们来填写文章的内容的开头和结尾
如上,找到开始和结束标记
12.开始:
12.结束:
13.如果要过滤文章中的内容,请写过滤规则,例如过滤文章中的图片
选择通用规则
14.再次检查IMG,然后确认
15.这样,我们过滤文本中的图片
设置好后点击保存设置并预览
这样的采集 规则已经写好了。这很简单。有些网站很难写,但需要付出更多的努力。
16.我们点击保存开始采集--开始采集网页
过了一会儿,采集结束了
17 让我们看看 文章 我们 采集 到
18.好像成功了,我们来导出数据
织梦cms如何删除后台等待审核的过滤词文章
在后台的基本设置中,有一个设置让你设置停用词,然后他们就不能发布停用词的内容了。
请求接受
织梦如何过滤消息模板中的重复数据
在diy.php文件中,在插入消息数据库之前,检查提交的标题或电话信息是否重复。如果重复,不要插入,提示相同信息已经存在。
校验是使用提交的title或者phone字段查询消息表单,如果匹配则证明存在
织梦采集字符的功能介绍
1.一键安装,全自动采集
织梦采集安装非常简单方便,只需一分钟即可启动采集,结合简单、健壮、灵活、开源的dedecms程序,新手也可以快速上手,我们有专门的客服为企业客户提供技术支持。
2.一个字采集,不用写采集规则
3.RSS采集,输入RSS地址到采集内容
只要RSS订阅地址由采集的网站提供,就可以通过RSS采集,只需要输入RSS地址就可以方便地采集目标网站内容,无需编写采集规则,方便简单。
4.方向采集,精确采集标题,正文,作者,出处
定位采集只需要提供列表URL和文章URL即可智能采集指定网站或列内容,方便简单,写简单就能准确规则采集 标题、正文、作者、来源。
5.各种伪原创和优化方法来提高收录率和排名
自动标题、段落重排、高级混淆、自动内链、内容过滤、URL过滤、同义词替换、插入seo词、关键词添加链接等方法对采集返回文章进行处理,提升采集文章原创的性能,有利于搜索引擎优化,提高搜索引擎收录、网站和关键词的权重排名.
6.插件全自动采集,无需人工干预
7.手动发布文章也可以伪原创和搜索优化处理
织梦采集Xia不仅仅是一个采集插件,还是一个织梦必备伪原创和搜索优化插件,手工发布文章可以通过伪原创处理和织梦采集xia的搜索优化,可以对文章进行同义词替换,自动内链,随机插入关键词 links 和 文章 收录 关键词 等会自动添加指定链接的功能,是 织梦 的必备插件。
8、定期、定量地进行采集伪原创SEO更新
该插件有两种触发采集方法,一种是在页面中添加代码,通过用户访问触发采集更新,另一种是远程触发我们提供的采集服务商业用户。定量的采集更新可以定期安排,无需人工干预,无需人工干预。
9.定期定量更新待审稿件
即使你的数据库里有上千篇文章文章,织梦采集厦门也可以根据你的需要,在你设定的时间段内,每天定时定量的回顾和更新。
10.绑定织梦采集节点,调度采集伪原创SEO更新
绑定织梦采集节点的函数,这样织梦cms自带的采集函数也可以自动采集更新经常。方便设置了采集规则的用户定期更新采集。
织梦批量删除添加到内容中的图片?
在 dede/article_add.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
在 dede/article_edit.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
如果你不使用它,只需添加 // 并将其注释掉。
这个方法是过滤掉所有的图片,希望对你有帮助。
织梦 内容过滤和织梦 内容页面调用的介绍到此结束。你找到你需要的信息了吗?如果您想了解更多相关信息,请记得采集并关注本站。
织梦内容过滤
乔生170260
织梦内容过滤织梦系统如何替换网站内容 查看全部
汇总:B站的数据怎么自定义采集,只筛选那些自己想要的数据?
很多媒体人可能会遇到这样的问题,需要对某些视频进行综合分析,但目前市面上的大部分工具都可以实现对视频博主的综合分析。那么如果你想分析一些特定的视频呢?
这个问题需要借助专业的数据分析平台来解决。今天给大家推荐的是Pepper Data的【Pepper Aggregation】采集平台。平台的自定义采集有以下几种模式:
一:指定关键词采集视频模式
在采集模式下,勾选【指定关键词采集视频】,输入关键词在B站搜索,采集所有收录关键词的结果。最多可以设置 200 个 关键词。
根据自定义的采集模板,采集收到的数据表如下:
另外,您可以自定义配置栏,可以根据自己的需要进行配置,勾选需要的数据项,过滤掉不必要的选项。

在此数据的基础上,您可以进一步点击表格顶部的【过滤条件】-【添加条件】自定义采集。
2.指定UP主采集模式
在采集模式下,选择【指定UP主采集视频】,输入UP主的用户账号(MID),对本次发布的所有视频进行完整的采集 UP Master,最多 500 UP Master 的用户帐号(MID)。
Pepper 数据与其他平台略有不同。也可以手动输入,也可以下载Excel模板批量导入。

也可以直接在模板中填写UP主页的URL地址,系统会自动解析UP主的用户账号:
3.指定视频链接采集模式
在指定视频链接采集模式下,输入视频URL地址,对指定视频采集进行数据处理,最多可设置500个视频地址,与指定UP主相同采集模式,也可以使用Excel模板批量导入。
由于B站视频地址中有AVID和BVID两种采集模式,系统会自动将AVID转换为BVID,操作过程中也省略了手动转换步骤。
综上所述,Pepper Data【B站数据定制采集】流程清晰,操作简单。只需选择你需要的规则采集并配置对应的采集关键词即可完成数据采集。即使是非技术人员也可以轻松快速地采集获取他们想要的数据。
还可以省去数据采集开发环节,有利于各大主流平台的长期维护,数据接入一键完成,助您快速实现业务需求!
总结:织梦筛选功能怎么弄?详细说明 ,谢谢!
织梦内容过滤(织梦内容页面调用)
软件开发2022-08-22T22:01:12 13
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!织梦如何获取过滤功能?详细指导,谢谢!织梦多条件过滤功能实现我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想修复好它们,因为它们在model Type 是数字类型,而不是其他三个(品牌、平台和显卡)是选项类型。现在前台已经准备好了,我们开始后台功能。
今天给大家分享织梦内容过滤的知识,也会讲解织梦内容页面的调用。如果你碰巧解决了你现在面临的问题,别忘了关注本站,从现在开始!
织梦如何获取过滤功能?详细指导,谢谢!
织梦多条件过滤功能实现
我们在前台实现了过滤功能,虽然没有添加价格和尺寸这两种类型,这是因为我想很好地修复它们,因为它们在模型中使用的类型是数字类型,而不是其他三(品牌、平台和显卡)是选项类型。
现在前台已经准备好了,我们开始后台功能。
我使用的具体后台是advancedsearch.php的搜索功能来实现的。
我们复制一个advancedsearch.php模板,默认的advancedserach.php模板是/templets/default/advancesearch.htm,我们把这个模板复制到我们自定义的模板文件夹/templets/jingdong,名字叫filter_tmp.htm。
然后进入后台,在“内容模型管理”中选择需要搜索的模型,然后点击模型后面的放大镜图标,在“附件表中自定义搜索的字段”中选择需要搜索的字段,自定义搜索结果模板页面,写上我们刚才复制的模板名称,叫filter_tmp.htm,OK。
这里可以测试一下搜索是否可以正常使用。
不过貌似系统自带织梦。我已经尝试了很多次,但它不起作用。跟踪了一下,好像没有查询到附加表,所以在advancedsearch.php的第218行,原来的代码是
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
在type.*后面加一行addon.*,变成如下代码
$query = "SELECT main.id ASaid,main.*,main.description AS description1, type.*,addon.*
FROM $maintable 主要
LEFT JOIN #@__arctype type ON type.id = main.typeid
左连接 $addontable 插件 ON addon.aid = main.id
$where $orderby";
然后有124行要添加 ${$var}=iconv("utf-8","gb2312",${$var}); 否则会造成中文乱码。
还有一个就是如果使用()英文括号,要小心,因为会被secure sql过滤掉。
下面,我简单制作了filter_tmp.htm,大家可以参考一下。
{dede:数据列表}
div
strongtitle: /strong{dede:field.title/}br /
strongBrand: /strong{dede:field.pinpai/}br /
strongPrice: /strong{dede:field.jiage/}br /
strongSize: /strong{dede:field.chicun/}br /
强平台:/strong{dede:field.pingtai/}br /
strong显卡:/strong{dede:field.xianka/}br /
/div
{/dede:数据列表}
{dede:pagelist listsize='5'/}
但我们最终希望将此页面“嵌入”到 filter.htm 中,即最终列表页面。
现在我们打开过滤器模板文件,在底部添加一个div,并将id设置为result。这是存储最终过滤结果的地方。
然后打开filter.js,这个js里面写了以下关键点。
织梦dede采集方法教程
方法/步骤
1.首先,我们打开织梦背景,点击
采集——采集节点管理——添加新节点
2.这里我们以采集normal文章为例,我们选择normal文章,然后确认
3、我们进入了采集的设置页面,填写节点名,也就是给新节点起个名字,这里随便填。

然后打开你要采集的文章列表页面,打开这个页面的链接,右键-查看源文件
找到目标页面编码,就在字符集之后
4.页面的基本信息一般会被忽略,如图
5.现在我们来填写列表URL获取规则
看列表第一页的地址文章jianzhanxinde/list_49_1.html
对比第二页的地址 jinzhanxinde/list_49_2.html
我们发现除了49_后面的数字之外它们是一样的,所以我们可以写
/建站新德/list_49_(*).html
只需将 1 替换为 (*)
由于这里只有2页,我们从1填到2
每页的增量当然是1,2-1...等于1
到这里我们就完成了
6.可能你的一些采集列表没有规则,只能手动指定列表URL,如图
7. 每行写一个页地址
写完列表规则,我们开始写文章 URL匹配规则,回到文章列表页面
右键查看源文件
找到HTML开头的区域,就是找到列表开头的文章标记。
8.我们可以很容易地找到如图所示的“新闻列表”
. 从这里开始,以下是 文章 列表
让我们在 文章 列表的末尾找到 HTML
9. 这就是它,一个容易找到的标志
如果链接收录图像:
不处理
采集 是缩略图
在这里你可以根据自己的需要选择
再次过滤区域 URL:
(使用正则表达式)
必须收录:
(优先级高于后者)
不能收录:
打开源文件,我们可以清楚的看到文章链接都是以.html结尾的
所以,我们在必须收录之后填写.html
如果遇到一些麻烦的列表,也可以填写以下不能收录的
8.我们点击保存设置进入下一步,可以看到我们得到的文章 URL
看到这些都正确,我们保存信息,进入下一步设置内容字段获取规则
看看文章有没有分页,输入一篇文章文章就可以了。. 我们看到这里的 文章 没有分页
所以这里我们默认
9. 我们现在正在寻找 文章 标题等
随便输入一个文章,右键查看源文件
看看这些
10.根据源码填写
11.我们来填写文章的内容的开头和结尾
如上,找到开始和结束标记
12.开始:
12.结束:
13.如果要过滤文章中的内容,请写过滤规则,例如过滤文章中的图片
选择通用规则
14.再次检查IMG,然后确认

15.这样,我们过滤文本中的图片
设置好后点击保存设置并预览
这样的采集 规则已经写好了。这很简单。有些网站很难写,但需要付出更多的努力。
16.我们点击保存开始采集--开始采集网页
过了一会儿,采集结束了
17 让我们看看 文章 我们 采集 到
18.好像成功了,我们来导出数据
织梦cms如何删除后台等待审核的过滤词文章
在后台的基本设置中,有一个设置让你设置停用词,然后他们就不能发布停用词的内容了。
请求接受
织梦如何过滤消息模板中的重复数据
在diy.php文件中,在插入消息数据库之前,检查提交的标题或电话信息是否重复。如果重复,不要插入,提示相同信息已经存在。
校验是使用提交的title或者phone字段查询消息表单,如果匹配则证明存在
织梦采集字符的功能介绍
1.一键安装,全自动采集
织梦采集安装非常简单方便,只需一分钟即可启动采集,结合简单、健壮、灵活、开源的dedecms程序,新手也可以快速上手,我们有专门的客服为企业客户提供技术支持。
2.一个字采集,不用写采集规则
3.RSS采集,输入RSS地址到采集内容
只要RSS订阅地址由采集的网站提供,就可以通过RSS采集,只需要输入RSS地址就可以方便地采集目标网站内容,无需编写采集规则,方便简单。
4.方向采集,精确采集标题,正文,作者,出处
定位采集只需要提供列表URL和文章URL即可智能采集指定网站或列内容,方便简单,写简单就能准确规则采集 标题、正文、作者、来源。
5.各种伪原创和优化方法来提高收录率和排名
自动标题、段落重排、高级混淆、自动内链、内容过滤、URL过滤、同义词替换、插入seo词、关键词添加链接等方法对采集返回文章进行处理,提升采集文章原创的性能,有利于搜索引擎优化,提高搜索引擎收录、网站和关键词的权重排名.
6.插件全自动采集,无需人工干预
7.手动发布文章也可以伪原创和搜索优化处理
织梦采集Xia不仅仅是一个采集插件,还是一个织梦必备伪原创和搜索优化插件,手工发布文章可以通过伪原创处理和织梦采集xia的搜索优化,可以对文章进行同义词替换,自动内链,随机插入关键词 links 和 文章 收录 关键词 等会自动添加指定链接的功能,是 织梦 的必备插件。
8、定期、定量地进行采集伪原创SEO更新
该插件有两种触发采集方法,一种是在页面中添加代码,通过用户访问触发采集更新,另一种是远程触发我们提供的采集服务商业用户。定量的采集更新可以定期安排,无需人工干预,无需人工干预。
9.定期定量更新待审稿件
即使你的数据库里有上千篇文章文章,织梦采集厦门也可以根据你的需要,在你设定的时间段内,每天定时定量的回顾和更新。
10.绑定织梦采集节点,调度采集伪原创SEO更新
绑定织梦采集节点的函数,这样织梦cms自带的采集函数也可以自动采集更新经常。方便设置了采集规则的用户定期更新采集。
织梦批量删除添加到内容中的图片?
在 dede/article_add.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
在 dede/article_edit.php 中找到它
//跳转URL的文档强制为动态
增加高于它
$body=preg_replace("/img.*?/si","",$body);
如果你不使用它,只需添加 // 并将其注释掉。
这个方法是过滤掉所有的图片,希望对你有帮助。
织梦 内容过滤和织梦 内容页面调用的介绍到此结束。你找到你需要的信息了吗?如果您想了解更多相关信息,请记得采集并关注本站。
织梦内容过滤
乔生170260
织梦内容过滤织梦系统如何替换网站内容
解决方法:优采云采集器使用方法
采集交流 • 优采云 发表了文章 • 0 个评论 • 95 次浏览 • 2022-11-01 08:20
优采云采集器() 作为采集行业老手采集器是一款功能强大且不易上手的专业采集软件,优采云采集器捕获数据的过程取决于用户编写的规则。用户必须分析来自目标站的html代码中的唯一代码标识符,并遵守优采云规则。该模块是向服务器提交采集数据,服务器程序自动将数据正确写入数据库。这里的服务端程序可以是网站程序,也可以是自己编写的接口,只要数据能正确写入数据库即可。这里提交数据需要大家具备post抓包的基础技术。简单说一下post数据传输的过程。通过HTTP传输数据的方式主要有两种,一种是get,一种是post。get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!
对于小白和只懂基本编程的人来说,一定是一头雾水。完全掌握优采云采集器大约需要一个月的时间。这里涉及到什么更多,更多的知识!
详细数据:数据分析(一)数据采集(优采云采集器)
这是一个免费的在线词云生成网站,并且支持图片下载,非常方便
3、采集资料网站联家二手房官网:
这是我过滤后的网址,直接打开即可
三进正题~~~微词云操作
1.打开微词云,点击“开始创建”
2.选择形状、内容
步骤1。点击形状,选择你想要的形状;
第2步。点击内容,打开导入下拉框,选择大文本分词导入
三进正题~~~优采云采集器采集资料
说说微词云上的内容是从哪里来的,又是怎么来的。(PS:再提醒一下我们今天的目标:采集上海徐汇区二手房各区单价及房子的特色信息。然后根据做一个词云图用于视觉显示的区域信息。)
1.打开优采云采集器,启动采集
2.输入链家二手房地址,搜索“徐汇区”网站,点击立即创建
(上图中红框内的按钮可以过滤字段,清除内容,添加任何你想要的字段到采集,这里就不赘述了,大家可以自己研究)
3. 开始采集
这里我们有采集150条数据,点击停止,然后导出数据
以下是导出数据的截图:
至此,优采云采集器采集的数据基本完成。
顺便补充一下,自动采集时可能出现广告、红包等,可以采取以下方法:
4.采集结果数据处理
步骤1。接下来,我们将处理要在微词云中显示的字段。我们选择 positionInfo 列并将其复制到另一个工作表页面
第2步。选择数据”列,下一步
第三步。根据内容选择分隔符来分隔数据
第4步。选择C列并复制到word中,然后从word复制到微词云的文章输入。去完成。这是我制作的一张图片:
你可以试试,今天就到这里。这是最基本的数据采集和显示。如果想采集更多数据,需要用到python,学完python后再更新。 查看全部
解决方法:优采云采集器使用方法

优采云采集器() 作为采集行业老手采集器是一款功能强大且不易上手的专业采集软件,优采云采集器捕获数据的过程取决于用户编写的规则。用户必须分析来自目标站的html代码中的唯一代码标识符,并遵守优采云规则。该模块是向服务器提交采集数据,服务器程序自动将数据正确写入数据库。这里的服务端程序可以是网站程序,也可以是自己编写的接口,只要数据能正确写入数据库即可。这里提交数据需要大家具备post抓包的基础技术。简单说一下post数据传输的过程。通过HTTP传输数据的方式主要有两种,一种是get,一种是post。get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!get 一般用于获取数据,可以携带少量参数数据。在此基础上,post 可以承载大量的数据。采集的发布规则是模拟向网站程序提交post请求,让网站程序认为我们是人。如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!如果您没有权限,主要的 网站 程序不会让您发布 文章,所以!我们只能解密各大网站s的登录算法,只有获得用户登录凭证后才能正常发布文章。明白了原理,我们就可以开始写界面了!

对于小白和只懂基本编程的人来说,一定是一头雾水。完全掌握优采云采集器大约需要一个月的时间。这里涉及到什么更多,更多的知识!
详细数据:数据分析(一)数据采集(优采云采集器)
这是一个免费的在线词云生成网站,并且支持图片下载,非常方便
3、采集资料网站联家二手房官网:
这是我过滤后的网址,直接打开即可
三进正题~~~微词云操作
1.打开微词云,点击“开始创建”
2.选择形状、内容
步骤1。点击形状,选择你想要的形状;
第2步。点击内容,打开导入下拉框,选择大文本分词导入
三进正题~~~优采云采集器采集资料
说说微词云上的内容是从哪里来的,又是怎么来的。(PS:再提醒一下我们今天的目标:采集上海徐汇区二手房各区单价及房子的特色信息。然后根据做一个词云图用于视觉显示的区域信息。)
1.打开优采云采集器,启动采集

2.输入链家二手房地址,搜索“徐汇区”网站,点击立即创建
(上图中红框内的按钮可以过滤字段,清除内容,添加任何你想要的字段到采集,这里就不赘述了,大家可以自己研究)
3. 开始采集
这里我们有采集150条数据,点击停止,然后导出数据
以下是导出数据的截图:
至此,优采云采集器采集的数据基本完成。

顺便补充一下,自动采集时可能出现广告、红包等,可以采取以下方法:
4.采集结果数据处理
步骤1。接下来,我们将处理要在微词云中显示的字段。我们选择 positionInfo 列并将其复制到另一个工作表页面
第2步。选择数据”列,下一步
第三步。根据内容选择分隔符来分隔数据
第4步。选择C列并复制到word中,然后从word复制到微词云的文章输入。去完成。这是我制作的一张图片:
你可以试试,今天就到这里。这是最基本的数据采集和显示。如果想采集更多数据,需要用到python,学完python后再更新。
心得:【马克拉伯每日分享】机器视觉三种目标识别方法——深度学习法
采集交流 • 优采云 发表了文章 • 0 个评论 • 106 次浏览 • 2022-11-01 01:28
深度学习的概念对于机器视觉来说相对较新,但对于机器学习来说绝对不是新的。深度学习是机器学习的一种特殊类型,是人工智能的一种。在短短几年内,深度学习已经能够在许多领域比任何传统算法更好地对图像进行分类,并可能很快超越人类的检测能力。
深度学习软件使用多层神经网络根据人工检查员标记的图像识别好坏图像。这些数据集通常收录至少 100 个每种缺陷类型的图像,并且网络经过训练以创建一个模型,该模型对每个输入图像中的对象进行分类并确保高水平的可预测性。
不得不说,深度学习对传统的机器视觉技术很有希望,因为它不同于使用基于规则的方法的传统图像处理算法。在传统的机器视觉中,需要手动设计特征。
随着工业自动化水平的不断提高,传统机器视觉逻辑局限简单,无法应用于随机性强、特征复杂的任务。
当图像模板不足以覆盖所有可能的样本时,通过预先设置很难实现缺陷特征。
当图像不规则和不规则时,很难根据经验手动设计特征并直接输出映射关系。
然而,在深度学习中,我们的训练输入不再是常规数据,它可能是语言、对话语料库、图像或视频。因此,深度学习的核心任务是找到一个能够将我们的输入转化为正确输出的模型。
目前,机器视觉用户已经可以在市场上找到深度学习系统软件。例如,首个深度学习工业图像分析平台——时刻视觉智能低码平台,以人工智能技术为核心,为开发者提供图像采集、图像标注、算法开发、算法封装和应用集成。一站式完整工具链。深度学习的另一个优势是,与传统的机器视觉解决方案相比,它可以减少开发机器视觉程序所需的时间。一般来说,大多数机器视觉应用需要60天以上的软件开发和可行性测试,而使用Matrix Smart低代码平台可以在10分钟内完成开发。
什么是马克拉伯?
MookLab 是一个机器视觉应用的开放社区。MookLab 致力于帮助用户以最低的成本和门槛构建视觉系统。具体来说:
1)提供免费软件:平台提供免费可视化软件,专业团队提供免费软件服务支持。
2)筛选整合优质视觉硬件品牌:如整合优质视觉硬件(如相机、镜头、光源)等品牌,为用户提供低成本的视觉配件匹配平台。
3)提供项目应用支持:提供技术服务交易平台,吸纳平台各区域的集成商用户作为视觉应用服务商,为部分视觉应用能力较弱的用户提供就近和行业针对性的应用支持服务。
4)提供专业的人才培养机制:面向行业初学者和大专院校教育的机器视觉实验平台+软件包,以及相应的教育支持服务。
SGVision 是什么以及它与 MookLab 的关系?
SGVision 是一款无需编程即可使用的机器视觉应用软件。SGVision软件的无限永久免费许可是Mooklab平台为平台会员提供的权利,所以该权利以用户为会员用户为前提。
如何获得免费的机器视觉检测软件SGvision?
下载链接:
直观:优化+选品,这些亚马逊关键词分析工具很实用
在亚马逊店铺运营的过程中,很多时候我们需要借助工具来达到事半功倍的效果。而关键词作为seo优化的最小单位也是非常重要的。
今天老李就讲几个特别好用的亚马逊关键词分析工具。
为什么要使用这些分析工具?
亚马逊本身不对外开放内部数据,所以我们需要自力更生。其实在海外营销中,分析工具是很常见的,但是因为比较广泛,对卖家的针对性不是很强。今天,我们将开出正确的药方。
关键词分析工具有什么用?
帮助卖家分析产品的关键词是否有效,一些工具还提供很多相关词条的搜索曲线。在大数据时代,这些数据可以说是第一手信息,帮助卖家发现新的蓝海,这个过程就是数据的选择。
1
自由的
谷歌广告关键词
(老浣熊用力推)
Google Ads 下的附加功能是非常常用的 关键词 工具,包括以下两个:
关键词关键字规划师
谷歌趋势 谷歌趋势
这两个工具需要翻墙才能使用,并且需要注册自己的google邮箱才能开通adwords账号(具体操作流程见)。
卖家可以使用关键词规划器来优化亚马逊的搜索内容,但需要注意的一点是,纯电商网站中消费者的搜索方式与万能搜索引擎并不一致。有时候关键词planne分析出的高频关键词并不代表消费者想购买这个产品,或者他们可能只是想了解与关键词相关的其他方面。
以iphone 7机箱关键词为例,在红框标注的部分输入关键词
弹窗如下,在这个页面,你可以看到最相关的高频关键词,并且会告诉你搜索量(这个功能需要谷歌广告账号)
然后,可以在google趋势中查看这些词的搜索趋势对比,也可以看到相关的搜索词,如下图1和图2所示
图1
图 2
Amazon Autosuggest(即下拉列表)
这也是一个非常简单常用的关键词工具。在亚马逊搜索框中输入关键词,下拉列表中会出现几个相关的关键词,如下图所示。你可以为这些关键词建立一个列表,然后一一统计对应的搜索结果。
几乎每个亚马逊关键词工具都从自动建议中获取一个 关键词 列表,并将这些词转换为更直观的图表和目标。
搜索引擎优化聊天关键字建议工具
(老浣熊用力推)
即 SEO Chat 关键词 建议工具。这个由 SEOChat 开发的 关键词 建议工具会主动爬取 Google、Bing、YouTube 和亚马逊的 关键词 自动建议数据。卖家可以选择一次获取四个网站数据来比较人们在传统搜索、产品搜索和视频搜索方面的差异,也可以选择亚马逊平台,专注于产品搜索。
使用 SEO Chat关键词 工具需要三个步骤:
(1)先输入关键词或关键词的一部分,工具会抓取亚马逊的自动提示关键词,下图是第一步搜索“蘑菇套装”。
这个工具的独特之处在于它还会自动关联后续关键词s的首字母,并在卖家每次输入一个完整的单词时显示相关的关键词s。
比如上图中,在SEO Chat工具中输入“mushroom kit”后,它会自动在末尾添加字母“i”,这提示亚马逊显示短语“mushroom kit interior”,即前10个条目 关键词 不在建议的结果中。
(2) 选择所有结果后,点击“Run Part 2: Bulk Suggest”按钮,该工具会运行亚马逊搜索框中的所有关键词建议,然后卖家可以获得更具体的自动建议关键词 组。第一步产生了 13 个结果,而第二步产生了 6 个结果,总共 19 个关键词。
(3) 最后,点击“Run Part 3: Useful Suggest”按钮,卖家每月可以通过SEMRush API获取100条Google Keyword Tool搜索数据。但是,100 个 关键词 组太有限了,所以卖家也可以跳过第 3 步,导出数据并在 Google Keyword Tool 上运行。
SEO Chat 的 关键词 工具非常简单。虽然只需单击一两次按钮即可获得结果,但它可以随时导出数据、扩大或缩小数据,而且该工具是 100% 免费的。
关键字工具支配者
价格:免费试用仅限每天 3 个关键词,终身订阅基本计划 16 美元,以及其他选项可供选择。
Keyword Tool Dominator 提供独特的数据:排名 1-10 关键词 基于亚马逊的自动建议 关键词 表。#1 最受欢迎的 关键词 建议短语,第 10 受欢迎的不太受欢迎。
但是,Keyword Tool Dominator 生成的亚马逊自动提示 关键词 不如 SEO Chat 全面。同样输入“mushroom kit”只会产生 4 个结果,如下图所示。相比之下,SEO Chat 是 19 岁。
但是,数据排名很有趣,卖家可以将 Keyword Tool Dominator 和 SEO Chat 与 Google Keyword Tool 的月度搜索数据结合起来。卖家需要至少支付 16 美元才能获得 3+ 每天 关键词。
科学卖家
(老浣熊用力推)
价格:免费,可升级
科学卖家的免费亚马逊关键词工具关键词优化工具,基本功能免费,主要通过后续升级盈利,比其他工具更深入。用了一个小时,发现了58个关键词,几乎是SEO Chat的三倍,而且关键词里面有SEO Chat做的“食用菌套装”和“小蘑菇套装”找不到。成套工具”。
免费版只能查美国站,要查其他站就得充值了。查询速度比较慢,需要一段时间才能得到更多的结果。
该应用仅向亚马逊买家显示 关键词。如果您在亚马逊的搜索框中输入关键词,系统会自动显示完整的关键词(因为这些关键词亚马逊客户使用频率很高)帮助您完成搜索。
这个免费工具从各种来源采集关键词,包括潜在语义索引 (LSI),但如果不是 Amazon关键词,则会自动过滤掉。允许卖家删除条款,增加 关键词 的相关性。
2
收费
商家词
价格:每月 30 美元
MerchantWords 是唯一可以将您的搜索范围缩小到特定亚马逊类别的 关键词 工具,为您提供与您的搜索相匹配的产品类别,如下所示:
MerchantWords 还通过算法确定与输入的词 关键词 相关的每月搜索次数。不过,也有卖家对这一数据的结果表示怀疑。例如,一个月内,有 73,500 人在亚马逊上搜索“蘑菇包”,但在 Google 上搜索相同词的只有 1,300 人。这个数据不可信。
如果卖家想要获得超过 5 个搜索结果,那么他们需要以每月 30 美元的价格订阅完整版。
Merchantwords有一个强项,就是同义词可以出现在搜索结果中:比如你搜索pest repeler,pest repelant也会出来。
SEOBook关键字工具
收费
这个工具可以看到搜索量
关键字工具支配者
收费
这个工具直接有亚马逊的关键词搜索(图3),也可以根据不同站点调整关键词(图4)。
图 3
图 4
还有一点是,虽然这个工具说一天只有3个机会,但实际上,如果你关闭页面再重新打开,你又可以有3个搜索机会。当然,如果觉得麻烦,可以付费购买,16美元可以永久使用。
列出的关键字列表 1~10 按受欢迎程度降序排列。1 表示此关键字最受欢迎。事实上,这个工具也是基于处理亚马逊下拉列表得到的数据。
Semrush关键词竞争力工具
(老浣熊用力推)
目前没有中文版。免费使用,但有限制。付费,一共有三个级别,$69.95, $79.95, $149.95 可以正常使用第一个级别。
SEMRush 是一个搜索引擎优化和搜索引擎营销服务网站。SEMRush 通常会采集一些 Google SERP 相关信息,包括:
AdWords 广告文案、域名在 8000 万次关键词 搜索中的排名、域名统计和 关键词 统计、搜索量统计、搜索结果数、按点击付费广告等相关信息。
3
一些利基但很好
AMZ 追踪器
使用此工具,您可以更好地了解 关键词 排名并产生新的想法来优化列表和促进销售。
这种销售跟踪监控工具允许卖家及时了解竞争对手的信息,包括单日销售额、总收入、库存等。
当您输入 关键词 或 关键词 的一部分时,排名靠前的结果通常是由最高的搜索量生成的——之后大多是按字母顺序排列的。
等级追踪器
Race Tracer 在亚马逊上查找任何产品的销售排名和销售图表,并生成虚拟实时销售数据(即一小时内),这意味着您可以快速抓住新的机会。
该工具还可以找出在亚马逊上销售的书籍或产品,找出您的竞争对手正在使用的营销策略和促销活动,并相应地添加到您的营销计划中。
最后,老李要提醒大家,如果想要一个准确而强大的关键词,当然可以使用一些工具。为什么不?同时,每个人都要善于分析。为什么有些畅销的产品可以多下单?对当时使用的关键词做更多的研究,你是怎么找到的。但是好的关键词还是需要在亚马逊页面上试验,当然你也可以使用一些关键词的工具来提高准确率。
联系我们
地址:上海市新华路365弄6号东华大学科技园8号楼1层
邮件:
客户服务热线:
联系人:魏经理
综合咨询:陈先生
美好的过去文章:
1.""
2.""
》
》
》
》
》
》
》 查看全部
心得:【马克拉伯每日分享】机器视觉三种目标识别方法——深度学习法
深度学习的概念对于机器视觉来说相对较新,但对于机器学习来说绝对不是新的。深度学习是机器学习的一种特殊类型,是人工智能的一种。在短短几年内,深度学习已经能够在许多领域比任何传统算法更好地对图像进行分类,并可能很快超越人类的检测能力。
深度学习软件使用多层神经网络根据人工检查员标记的图像识别好坏图像。这些数据集通常收录至少 100 个每种缺陷类型的图像,并且网络经过训练以创建一个模型,该模型对每个输入图像中的对象进行分类并确保高水平的可预测性。
不得不说,深度学习对传统的机器视觉技术很有希望,因为它不同于使用基于规则的方法的传统图像处理算法。在传统的机器视觉中,需要手动设计特征。
随着工业自动化水平的不断提高,传统机器视觉逻辑局限简单,无法应用于随机性强、特征复杂的任务。
当图像模板不足以覆盖所有可能的样本时,通过预先设置很难实现缺陷特征。
当图像不规则和不规则时,很难根据经验手动设计特征并直接输出映射关系。

然而,在深度学习中,我们的训练输入不再是常规数据,它可能是语言、对话语料库、图像或视频。因此,深度学习的核心任务是找到一个能够将我们的输入转化为正确输出的模型。
目前,机器视觉用户已经可以在市场上找到深度学习系统软件。例如,首个深度学习工业图像分析平台——时刻视觉智能低码平台,以人工智能技术为核心,为开发者提供图像采集、图像标注、算法开发、算法封装和应用集成。一站式完整工具链。深度学习的另一个优势是,与传统的机器视觉解决方案相比,它可以减少开发机器视觉程序所需的时间。一般来说,大多数机器视觉应用需要60天以上的软件开发和可行性测试,而使用Matrix Smart低代码平台可以在10分钟内完成开发。
什么是马克拉伯?
MookLab 是一个机器视觉应用的开放社区。MookLab 致力于帮助用户以最低的成本和门槛构建视觉系统。具体来说:
1)提供免费软件:平台提供免费可视化软件,专业团队提供免费软件服务支持。
2)筛选整合优质视觉硬件品牌:如整合优质视觉硬件(如相机、镜头、光源)等品牌,为用户提供低成本的视觉配件匹配平台。

3)提供项目应用支持:提供技术服务交易平台,吸纳平台各区域的集成商用户作为视觉应用服务商,为部分视觉应用能力较弱的用户提供就近和行业针对性的应用支持服务。
4)提供专业的人才培养机制:面向行业初学者和大专院校教育的机器视觉实验平台+软件包,以及相应的教育支持服务。
SGVision 是什么以及它与 MookLab 的关系?
SGVision 是一款无需编程即可使用的机器视觉应用软件。SGVision软件的无限永久免费许可是Mooklab平台为平台会员提供的权利,所以该权利以用户为会员用户为前提。
如何获得免费的机器视觉检测软件SGvision?
下载链接:
直观:优化+选品,这些亚马逊关键词分析工具很实用
在亚马逊店铺运营的过程中,很多时候我们需要借助工具来达到事半功倍的效果。而关键词作为seo优化的最小单位也是非常重要的。
今天老李就讲几个特别好用的亚马逊关键词分析工具。
为什么要使用这些分析工具?
亚马逊本身不对外开放内部数据,所以我们需要自力更生。其实在海外营销中,分析工具是很常见的,但是因为比较广泛,对卖家的针对性不是很强。今天,我们将开出正确的药方。
关键词分析工具有什么用?
帮助卖家分析产品的关键词是否有效,一些工具还提供很多相关词条的搜索曲线。在大数据时代,这些数据可以说是第一手信息,帮助卖家发现新的蓝海,这个过程就是数据的选择。
1
自由的
谷歌广告关键词
(老浣熊用力推)
Google Ads 下的附加功能是非常常用的 关键词 工具,包括以下两个:
关键词关键字规划师
谷歌趋势 谷歌趋势
这两个工具需要翻墙才能使用,并且需要注册自己的google邮箱才能开通adwords账号(具体操作流程见)。
卖家可以使用关键词规划器来优化亚马逊的搜索内容,但需要注意的一点是,纯电商网站中消费者的搜索方式与万能搜索引擎并不一致。有时候关键词planne分析出的高频关键词并不代表消费者想购买这个产品,或者他们可能只是想了解与关键词相关的其他方面。
以iphone 7机箱关键词为例,在红框标注的部分输入关键词
弹窗如下,在这个页面,你可以看到最相关的高频关键词,并且会告诉你搜索量(这个功能需要谷歌广告账号)
然后,可以在google趋势中查看这些词的搜索趋势对比,也可以看到相关的搜索词,如下图1和图2所示
图1
图 2
Amazon Autosuggest(即下拉列表)
这也是一个非常简单常用的关键词工具。在亚马逊搜索框中输入关键词,下拉列表中会出现几个相关的关键词,如下图所示。你可以为这些关键词建立一个列表,然后一一统计对应的搜索结果。
几乎每个亚马逊关键词工具都从自动建议中获取一个 关键词 列表,并将这些词转换为更直观的图表和目标。
搜索引擎优化聊天关键字建议工具
(老浣熊用力推)
即 SEO Chat 关键词 建议工具。这个由 SEOChat 开发的 关键词 建议工具会主动爬取 Google、Bing、YouTube 和亚马逊的 关键词 自动建议数据。卖家可以选择一次获取四个网站数据来比较人们在传统搜索、产品搜索和视频搜索方面的差异,也可以选择亚马逊平台,专注于产品搜索。
使用 SEO Chat关键词 工具需要三个步骤:
(1)先输入关键词或关键词的一部分,工具会抓取亚马逊的自动提示关键词,下图是第一步搜索“蘑菇套装”。

这个工具的独特之处在于它还会自动关联后续关键词s的首字母,并在卖家每次输入一个完整的单词时显示相关的关键词s。
比如上图中,在SEO Chat工具中输入“mushroom kit”后,它会自动在末尾添加字母“i”,这提示亚马逊显示短语“mushroom kit interior”,即前10个条目 关键词 不在建议的结果中。
(2) 选择所有结果后,点击“Run Part 2: Bulk Suggest”按钮,该工具会运行亚马逊搜索框中的所有关键词建议,然后卖家可以获得更具体的自动建议关键词 组。第一步产生了 13 个结果,而第二步产生了 6 个结果,总共 19 个关键词。
(3) 最后,点击“Run Part 3: Useful Suggest”按钮,卖家每月可以通过SEMRush API获取100条Google Keyword Tool搜索数据。但是,100 个 关键词 组太有限了,所以卖家也可以跳过第 3 步,导出数据并在 Google Keyword Tool 上运行。
SEO Chat 的 关键词 工具非常简单。虽然只需单击一两次按钮即可获得结果,但它可以随时导出数据、扩大或缩小数据,而且该工具是 100% 免费的。
关键字工具支配者
价格:免费试用仅限每天 3 个关键词,终身订阅基本计划 16 美元,以及其他选项可供选择。
Keyword Tool Dominator 提供独特的数据:排名 1-10 关键词 基于亚马逊的自动建议 关键词 表。#1 最受欢迎的 关键词 建议短语,第 10 受欢迎的不太受欢迎。
但是,Keyword Tool Dominator 生成的亚马逊自动提示 关键词 不如 SEO Chat 全面。同样输入“mushroom kit”只会产生 4 个结果,如下图所示。相比之下,SEO Chat 是 19 岁。
但是,数据排名很有趣,卖家可以将 Keyword Tool Dominator 和 SEO Chat 与 Google Keyword Tool 的月度搜索数据结合起来。卖家需要至少支付 16 美元才能获得 3+ 每天 关键词。
科学卖家
(老浣熊用力推)
价格:免费,可升级
科学卖家的免费亚马逊关键词工具关键词优化工具,基本功能免费,主要通过后续升级盈利,比其他工具更深入。用了一个小时,发现了58个关键词,几乎是SEO Chat的三倍,而且关键词里面有SEO Chat做的“食用菌套装”和“小蘑菇套装”找不到。成套工具”。
免费版只能查美国站,要查其他站就得充值了。查询速度比较慢,需要一段时间才能得到更多的结果。
该应用仅向亚马逊买家显示 关键词。如果您在亚马逊的搜索框中输入关键词,系统会自动显示完整的关键词(因为这些关键词亚马逊客户使用频率很高)帮助您完成搜索。
这个免费工具从各种来源采集关键词,包括潜在语义索引 (LSI),但如果不是 Amazon关键词,则会自动过滤掉。允许卖家删除条款,增加 关键词 的相关性。
2
收费
商家词
价格:每月 30 美元
MerchantWords 是唯一可以将您的搜索范围缩小到特定亚马逊类别的 关键词 工具,为您提供与您的搜索相匹配的产品类别,如下所示:
MerchantWords 还通过算法确定与输入的词 关键词 相关的每月搜索次数。不过,也有卖家对这一数据的结果表示怀疑。例如,一个月内,有 73,500 人在亚马逊上搜索“蘑菇包”,但在 Google 上搜索相同词的只有 1,300 人。这个数据不可信。
如果卖家想要获得超过 5 个搜索结果,那么他们需要以每月 30 美元的价格订阅完整版。
Merchantwords有一个强项,就是同义词可以出现在搜索结果中:比如你搜索pest repeler,pest repelant也会出来。
SEOBook关键字工具
收费
这个工具可以看到搜索量
关键字工具支配者
收费
这个工具直接有亚马逊的关键词搜索(图3),也可以根据不同站点调整关键词(图4)。
图 3

图 4
还有一点是,虽然这个工具说一天只有3个机会,但实际上,如果你关闭页面再重新打开,你又可以有3个搜索机会。当然,如果觉得麻烦,可以付费购买,16美元可以永久使用。
列出的关键字列表 1~10 按受欢迎程度降序排列。1 表示此关键字最受欢迎。事实上,这个工具也是基于处理亚马逊下拉列表得到的数据。
Semrush关键词竞争力工具
(老浣熊用力推)
目前没有中文版。免费使用,但有限制。付费,一共有三个级别,$69.95, $79.95, $149.95 可以正常使用第一个级别。
SEMRush 是一个搜索引擎优化和搜索引擎营销服务网站。SEMRush 通常会采集一些 Google SERP 相关信息,包括:
AdWords 广告文案、域名在 8000 万次关键词 搜索中的排名、域名统计和 关键词 统计、搜索量统计、搜索结果数、按点击付费广告等相关信息。
3
一些利基但很好
AMZ 追踪器
使用此工具,您可以更好地了解 关键词 排名并产生新的想法来优化列表和促进销售。
这种销售跟踪监控工具允许卖家及时了解竞争对手的信息,包括单日销售额、总收入、库存等。
当您输入 关键词 或 关键词 的一部分时,排名靠前的结果通常是由最高的搜索量生成的——之后大多是按字母顺序排列的。
等级追踪器
Race Tracer 在亚马逊上查找任何产品的销售排名和销售图表,并生成虚拟实时销售数据(即一小时内),这意味着您可以快速抓住新的机会。
该工具还可以找出在亚马逊上销售的书籍或产品,找出您的竞争对手正在使用的营销策略和促销活动,并相应地添加到您的营销计划中。
最后,老李要提醒大家,如果想要一个准确而强大的关键词,当然可以使用一些工具。为什么不?同时,每个人都要善于分析。为什么有些畅销的产品可以多下单?对当时使用的关键词做更多的研究,你是怎么找到的。但是好的关键词还是需要在亚马逊页面上试验,当然你也可以使用一些关键词的工具来提高准确率。
联系我们
地址:上海市新华路365弄6号东华大学科技园8号楼1层
邮件:
客户服务热线:
联系人:魏经理
综合咨询:陈先生
美好的过去文章:
1.""
2.""
》
》
》
》
》
》
》
汇总:采集规则如何写?免费任意网页数据采集一款不用写规则的采集器
采集交流 • 优采云 发表了文章 • 0 个评论 • 86 次浏览 • 2022-10-29 19:20
采集规则怎么写?相信很多人都用过很多采集器,基本上每一个采集器都会写采集规则,对很多新手不友好。今天给大家分享一个不需要写采集规则的免费采集器。只需输入域名,或输入关键词即可实现网站批量采集。详情请参阅图片教程。
网站成立的目的是为了更好的服务市场,采集规则是怎么写的但是这个服务有具体的操作意义。比如购物网站的目的是促进消费,促进营业额。不管是什么网站,网站完成后的执行是非常有必要的,常用的执行方式有竞价和优化。网站优化比竞价有什么优势?SEO的方式是网友自己搜索后带来的网站。这是用户有确切需求的搜索。它可以很好地防止广告方法和精确定位活动带来的负面厌恶。
竞价是对点击量的扣减,所以被别人恶意点击的网站会损失不少。采集规则怎么写和网站优化带来的排名真实自然,点击不扣费,所以无论点击属于客户类型还是恶意点击同行,不会给企业带来损失的风险。优化方法需要关注网站的动态,及时更新客户需求的信息和内容,以保持网站的生动性和新颖性。
SEO优化后,除非搜索引擎算法出现严重错误,采集规则怎么写,或者确实有强大的竞争对手,网站的排名总是会比较稳定。其实我们都知道这种搜索引擎出现算法严重错误的概率是很低的,除非你头脑一热,做了一些违法的技术,比如黑帽seo。所以在稳定性方面,只要你的关键词排名上去,基本就很稳定了。
投标是一种非常昂贵的实施方法。在SEO优化一年的排名成本中,采集规则怎么写,可能是一两个月的竞价成本。SEO优化可以说在成本上降低了很多。
很多人在选择SEO的时候,第一次看到SEO的成本并不高。采集规则怎么写?等了一会儿,他们自然会发现,这种优化方式带来的好处是最吸引人的。例如,这种优化方式带来了很强的稳定性,防止恶意点击的发生,实现了精准的流量。
学习任何专业都需要一个周期,不同的朋友会在不同的时间学习这个专业。采集规则怎么写 很多零基础的朋友在学习SEO技巧的时候都会遇到类似的问题。他们从头开始学习搜索引擎优化技术需要多长时间?
一般来说,如果你从零开始去更好的SEO培训机构,你需要三个月到六个月的时间来学习采集规则是如何编写的。这个社会的概念并不意味着成为SEO专家,而是可以说是真正融入了行业,能够匹配行业内的职位。
但如果只能达到与普通seo职位相匹配的人才,很多朋友会不满意。因为在学习搜索引擎优化技术之前,采集如何写规则,我想通过搜索引擎优化专业提高自己的工作能力。我什至能够以这个专业为起点,进入一个非常理想的创业状态。如果你想达到这个水平,需要多长时间?简单来说,根据不同朋友的学习能力、理解能力、执行能力等,结果会大不相同。
虽然我是seo技术专业的,完全没有联系,但是在时不时的学习过程中,采集规则的写法保证了我的学习能力和执行态度。我每天都会抽出一定的时间来分析案例,我会搭建几个网站来积累实践经验。在这样的状态下,如何编写培训课程的采集规则的分离,会使一个人的专业进步迅速,最终达到预期的学习效果。
解决方案:关于织梦采集,你需要知道这些问题?
织梦系统是国内最早使用的cms系统,也是使用最多的cms系统。织梦后台界面虽然不漂亮,但它的逻辑结构还是很清晰的,至少你可以花10分钟时间熟悉整个后台的基本操作,上手速度非常快!因此,织梦也适合初学者开始使用。因为新手太多,很多人不会用织梦采集。今天就和大家聊一聊织梦采集以及如何自动挂机织梦采集发帖推!
1、我们打开织梦后台点击采集——采集节点管理——添加新节点,填写网站列表的相关规则即可采集,查看采集网站的代码和网站源代码,我们右键,点击查看源代码,在源代码的开头,找到一个meta标记带有charset=某个编码,比如charset="gb2312",这就是所谓的网站编码。选择 采集 站点的代码后
2.我们查看采集站点列表页的源码,找到文章列表开始html和结束html标签,复制到添加采集节点->文章 URL 匹配 规则的“范围开始 HTML”和“范围结束 HTML”输入框。您不必右键单击查看源代码找到 文章 列表开始标记,您可以右键单击 文章 开始的位置并检查元素(chrome浏览器,firefox是view element),这样更方便在列表的开头和结尾找到文章标签。设置好后,我们点击“保存信息,进入下一步”
3. URL获取规则测试如果测试结果中发现不相关的URL信息,是URL过滤规则错误或者过滤规则没有填写,如果发现采集错误,可以返回最后修改,如果没有,点击“保存信息并进入下一步”。
4.内容字段获取规则查看采集站点的文章源码,找到相关选项的开始和结束html标签,填写指定位置,开始和结束标签分开通过“[内容]”
5.过滤规则如:网站每篇文章文章都有一个iframe标签,我们要网页的采集文章,采集不可能回来吧,这个广告要一一去掉。但是如何去除呢?删除方法是过滤规则。当我们点击常用规则时,会弹出一个小窗口,列出常用的过滤规则。我们只需要点击我们想要过滤的规则。要在 iframe 标签中过滤网站文章,我们只需点击 iframe。.
四、第三方织梦采集软件兼容性的优势:
1.支持任何PHP版本
2.支持任意版本的Mysql
3.支持任何版本的Nginx
4.支持任何织梦cms版本
采集 将因版本不匹配或服务器环境不支持等其他原因不可用
5.第三方织梦采集软件更易用
门槛低:无需花大量时间学习软件操作,一分钟即可上手,无需配置采集规则,输入关键词到采集即可。
高效:提供一站式网站文章解决方案,无需人工干预,设置任务自动执行采集releases。
零成本:几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。
织梦第三方采集软件很强大,只要输入关键词采集,完全可以实现自动采集和发布文章,为了让搜索引擎收录你的网站,我们还可以设置自动下载图片和替换链接,支持的图片存储方式:阿里云OSS、七牛对象存储、腾讯云,再拍云。同时还配备了自动内链,在内容或标题前后插入一定的内容,形成“伪原创”。软件还有监控功能,可以直接通过软件查看文章采集的发布状态。看完这篇文章,如果你觉得不错,不妨采集起来或发给有需要的朋友和同事!你的一举一动都会成为小编源源不断的动力! 查看全部
汇总:采集规则如何写?免费任意网页数据采集一款不用写规则的采集器
采集规则怎么写?相信很多人都用过很多采集器,基本上每一个采集器都会写采集规则,对很多新手不友好。今天给大家分享一个不需要写采集规则的免费采集器。只需输入域名,或输入关键词即可实现网站批量采集。详情请参阅图片教程。
网站成立的目的是为了更好的服务市场,采集规则是怎么写的但是这个服务有具体的操作意义。比如购物网站的目的是促进消费,促进营业额。不管是什么网站,网站完成后的执行是非常有必要的,常用的执行方式有竞价和优化。网站优化比竞价有什么优势?SEO的方式是网友自己搜索后带来的网站。这是用户有确切需求的搜索。它可以很好地防止广告方法和精确定位活动带来的负面厌恶。
竞价是对点击量的扣减,所以被别人恶意点击的网站会损失不少。采集规则怎么写和网站优化带来的排名真实自然,点击不扣费,所以无论点击属于客户类型还是恶意点击同行,不会给企业带来损失的风险。优化方法需要关注网站的动态,及时更新客户需求的信息和内容,以保持网站的生动性和新颖性。

SEO优化后,除非搜索引擎算法出现严重错误,采集规则怎么写,或者确实有强大的竞争对手,网站的排名总是会比较稳定。其实我们都知道这种搜索引擎出现算法严重错误的概率是很低的,除非你头脑一热,做了一些违法的技术,比如黑帽seo。所以在稳定性方面,只要你的关键词排名上去,基本就很稳定了。
投标是一种非常昂贵的实施方法。在SEO优化一年的排名成本中,采集规则怎么写,可能是一两个月的竞价成本。SEO优化可以说在成本上降低了很多。
很多人在选择SEO的时候,第一次看到SEO的成本并不高。采集规则怎么写?等了一会儿,他们自然会发现,这种优化方式带来的好处是最吸引人的。例如,这种优化方式带来了很强的稳定性,防止恶意点击的发生,实现了精准的流量。
学习任何专业都需要一个周期,不同的朋友会在不同的时间学习这个专业。采集规则怎么写 很多零基础的朋友在学习SEO技巧的时候都会遇到类似的问题。他们从头开始学习搜索引擎优化技术需要多长时间?

一般来说,如果你从零开始去更好的SEO培训机构,你需要三个月到六个月的时间来学习采集规则是如何编写的。这个社会的概念并不意味着成为SEO专家,而是可以说是真正融入了行业,能够匹配行业内的职位。
但如果只能达到与普通seo职位相匹配的人才,很多朋友会不满意。因为在学习搜索引擎优化技术之前,采集如何写规则,我想通过搜索引擎优化专业提高自己的工作能力。我什至能够以这个专业为起点,进入一个非常理想的创业状态。如果你想达到这个水平,需要多长时间?简单来说,根据不同朋友的学习能力、理解能力、执行能力等,结果会大不相同。
虽然我是seo技术专业的,完全没有联系,但是在时不时的学习过程中,采集规则的写法保证了我的学习能力和执行态度。我每天都会抽出一定的时间来分析案例,我会搭建几个网站来积累实践经验。在这样的状态下,如何编写培训课程的采集规则的分离,会使一个人的专业进步迅速,最终达到预期的学习效果。
解决方案:关于织梦采集,你需要知道这些问题?
织梦系统是国内最早使用的cms系统,也是使用最多的cms系统。织梦后台界面虽然不漂亮,但它的逻辑结构还是很清晰的,至少你可以花10分钟时间熟悉整个后台的基本操作,上手速度非常快!因此,织梦也适合初学者开始使用。因为新手太多,很多人不会用织梦采集。今天就和大家聊一聊织梦采集以及如何自动挂机织梦采集发帖推!
1、我们打开织梦后台点击采集——采集节点管理——添加新节点,填写网站列表的相关规则即可采集,查看采集网站的代码和网站源代码,我们右键,点击查看源代码,在源代码的开头,找到一个meta标记带有charset=某个编码,比如charset="gb2312",这就是所谓的网站编码。选择 采集 站点的代码后
2.我们查看采集站点列表页的源码,找到文章列表开始html和结束html标签,复制到添加采集节点->文章 URL 匹配 规则的“范围开始 HTML”和“范围结束 HTML”输入框。您不必右键单击查看源代码找到 文章 列表开始标记,您可以右键单击 文章 开始的位置并检查元素(chrome浏览器,firefox是view element),这样更方便在列表的开头和结尾找到文章标签。设置好后,我们点击“保存信息,进入下一步”
3. URL获取规则测试如果测试结果中发现不相关的URL信息,是URL过滤规则错误或者过滤规则没有填写,如果发现采集错误,可以返回最后修改,如果没有,点击“保存信息并进入下一步”。
4.内容字段获取规则查看采集站点的文章源码,找到相关选项的开始和结束html标签,填写指定位置,开始和结束标签分开通过“[内容]”
5.过滤规则如:网站每篇文章文章都有一个iframe标签,我们要网页的采集文章,采集不可能回来吧,这个广告要一一去掉。但是如何去除呢?删除方法是过滤规则。当我们点击常用规则时,会弹出一个小窗口,列出常用的过滤规则。我们只需要点击我们想要过滤的规则。要在 iframe 标签中过滤网站文章,我们只需点击 iframe。.

四、第三方织梦采集软件兼容性的优势:
1.支持任何PHP版本
2.支持任意版本的Mysql
3.支持任何版本的Nginx
4.支持任何织梦cms版本
采集 将因版本不匹配或服务器环境不支持等其他原因不可用
5.第三方织梦采集软件更易用

门槛低:无需花大量时间学习软件操作,一分钟即可上手,无需配置采集规则,输入关键词到采集即可。
高效:提供一站式网站文章解决方案,无需人工干预,设置任务自动执行采集releases。
零成本:几十万个不同的cms网站可以统一管理。一个人维护数百个 网站文章 更新也不是问题。
织梦第三方采集软件很强大,只要输入关键词采集,完全可以实现自动采集和发布文章,为了让搜索引擎收录你的网站,我们还可以设置自动下载图片和替换链接,支持的图片存储方式:阿里云OSS、七牛对象存储、腾讯云,再拍云。同时还配备了自动内链,在内容或标题前后插入一定的内容,形成“伪原创”。软件还有监控功能,可以直接通过软件查看文章采集的发布状态。看完这篇文章,如果你觉得不错,不妨采集起来或发给有需要的朋友和同事!你的一举一动都会成为小编源源不断的动力!
解决办法:无规则采集器列表设计方法应该注意哪些?
采集交流 • 优采云 发表了文章 • 0 个评论 • 99 次浏览 • 2022-10-25 02:10
无规则采集器列表算法就是最大熵算法(zero-shotadversarialnetwork),其基本思想是:如果模仿其他人的行为则要接受被模仿的概率与模仿被成功的概率相比为0,否则算法惩罚机制则是所产生结果的一个条件概率,如果条件概率与采集的数据量相比为1则算法关闭。多规则采集器列表设计方法应该还有其他如最大熵方法(最大熵原理)、最大边距采集器列表(最大边距法)、随机化采集器列表等不一一列举,可参见geoffreyhinton教授的ml中的原理介绍。
另外一个需要注意的是不同采集器要选择适当算法规则以解决异或(|u1=u2|),多值(k_u2=k_u1|)情况。原因如上所述,选择最优算法规则将会提高采集效率。ml算法相关的论文不多,目前比较出名的算法主要有bayesiangraphicprocessing,multi-valuefunctionalbayesiangraphicprocessing,deepgraphicprocessing,learningtomaximizevideoratio,backgroundviolationmatching,topicsmodelingandonlinelearning.。
开盘秒杀,设定好条件,比如买入前10秒不卖出等等。
使用网络爬虫这种技术。按照你自己的想法,选择一个关键词。当然还可以按照年份,品种等。
没有,资本市场根本没有考虑这些,仅仅是通过各种新闻客户端来看,不过现在很多券商为了提高交易效率,需要交易员在交易前先做交易策略, 查看全部
解决办法:无规则采集器列表设计方法应该注意哪些?
无规则采集器列表算法就是最大熵算法(zero-shotadversarialnetwork),其基本思想是:如果模仿其他人的行为则要接受被模仿的概率与模仿被成功的概率相比为0,否则算法惩罚机制则是所产生结果的一个条件概率,如果条件概率与采集的数据量相比为1则算法关闭。多规则采集器列表设计方法应该还有其他如最大熵方法(最大熵原理)、最大边距采集器列表(最大边距法)、随机化采集器列表等不一一列举,可参见geoffreyhinton教授的ml中的原理介绍。

另外一个需要注意的是不同采集器要选择适当算法规则以解决异或(|u1=u2|),多值(k_u2=k_u1|)情况。原因如上所述,选择最优算法规则将会提高采集效率。ml算法相关的论文不多,目前比较出名的算法主要有bayesiangraphicprocessing,multi-valuefunctionalbayesiangraphicprocessing,deepgraphicprocessing,learningtomaximizevideoratio,backgroundviolationmatching,topicsmodelingandonlinelearning.。
开盘秒杀,设定好条件,比如买入前10秒不卖出等等。

使用网络爬虫这种技术。按照你自己的想法,选择一个关键词。当然还可以按照年份,品种等。
没有,资本市场根本没有考虑这些,仅仅是通过各种新闻客户端来看,不过现在很多券商为了提高交易效率,需要交易员在交易前先做交易策略,
归纳总结:五大机器学习范例:神经网络、遗传算法、规则归纳?
采集交流 • 优采云 发表了文章 • 0 个评论 • 76 次浏览 • 2022-10-22 05:14
假设有一个代理人想在大联盟级别打棒球。要达到这个水平,通常需要 15 年或更长时间的培训。虽然规则极其简单,但学习周期很长:“扔球、接球、击球”。
这句话出自 1988 年由 Ron Shelton 执导的电影 Bull Durham。
在训练的早期,智能体必须了解棒球比赛中的许多可能状态。
(1) 我们的团队领先吗?
(2) 如果我处于防守位置并且球朝我飞来,我必须知道现在在一垒的跑垒员是否跑得快?如果是,那么我必须迅速把球扔出去。
(3) 对方投手是否投掷了一个旋转球(很难击中!)?如果是,那么也许我今天应该假装生病。
这个年轻代理收到的这种反馈是学习过程的核心。在机器学习中,反馈有 3 种类型:监督学习、无监督学习和强化学习。
使用监督学习来学习特征是最直接、最简单的方法。代理执行了一些动作后,它可以立即收到适当的反馈。例如,当一个敏捷的跑垒员给他一个地滚球时,如果他要花一点时间将球传到一垒,那么在这种情况下,在几分钟内,他会被提醒加快速度。第 11 章介绍了神经网络如何使用监督学习来学习布尔函数。我们为网络提供每个可能输入的正确输出列表。
在无监督学习中,训练期间不提供具体的反馈。但是,如果要学习,代理必须收到一些反馈。假设代理人进攻失败,例如他没有击中垒,但他的防守非常不同 - 他设法完成了两次斜线并拦截了本垒打。这是一场势均力敌的比赛,他的球队赢了。赛后,队友们纷纷恭喜他,他总结说,好的防守也是值得赞赏的。
在强化学习期间,没有老师为代理提供正确答案。事实上,代理甚至无法提前知道一个动作的后果。更复杂的是,假设即使代理知道一个动作的影响,它也不知道影响会有多大,所以代理必须通过反复试验来学习。因为奖励延迟了,agent 很难判断这个动作是好是坏。任何尝试使用中指平衡伞(未打开)的人都了解强化学习的基础知识,如图 10.2 所示。
图 10.2 平衡伞,需要在 xy 平面上做一个小的运动来保持伞的平衡
如果伞向左倾斜,那么你必须向左移动很多,很快你就会发现这是大材小用。让我们回到棒球经纪人的例子。假设他是一名投手,当对手击出本垒打时,代理倾向于将棒球扔给对方的击球手。当对方投手将时速 145 公里的快球投进他的腿时,几局之后,他需要将疼痛的膝盖骨与可能过于激进的比赛联系起来。在这里,我们将讨论严格限制在监督学习上。在 Ballard 的著作 [7] 中,您可以找到关于无监督学习和强化学习的精彩讨论。
通过监督学习,您可以看到一组有序的对:
我们将这组有序对称为训练集。在
是输入的n维空间向量,即
这个函数在
at 的值是学习值。函数 f 将每个输入向量映射到正确的输出响应。一般来说,在 m 维空间中
,每个分量 tk(k = 1,…, m) 都来自一个预定的集合,例如整数、实数等的集合(输入和输出集合可能不同)。
10.3 归纳学习
归纳学习的任务是找到最接近真实函数 f() 的函数 h。我们称 h 为 f() 的假设。学习算法将假设空间 H 视为一组逼近正确函数 f() 的函数。在这个学习中,目标是找到训练集中所有点的 h 与 f 一致。人们把这种尝试称为曲线拟合,如图 10.3 所示。
图 10.3 如果 h 在所有点上都与 f 一致,则 h 与 f 一致
在图 10.4 中,有 3 个不同的假设。乍一看,h3 似乎是最好的假设。但是,重要的是要记住,学习的目的不是让智能体在训练集上表现完美,而是让智能体在验证集上表现良好。
图 10. 43 种不同的假设。请注意,由于只有 h3 通过了所有 6 个点,因此只有 h3 与 f 一致
验证集是测试代理程序的示例集。如果代理实际上已经学习了一些概念,它不应该仅仅记住输入和输出之间的对应关系,而是应该获得泛化能力,例如对它尚未遇到的输入做出适当的响应。一般来说,一个在训练集上表现完美的假设是过度训练的,并且不能很好地概括这个概念。实现泛化的一种方法是交替训练和验证,需要注意的是,在验证期间应该关闭代理的学习机制。当验证错误而不是训练错误最小化时,训练终止。在第 11 章中,我们将深入研究这种训练方法。最后,让我们谈谈棒球经纪人。如果他真的学会了打棒球,
再次参考图 10.4(c)。这个函数遍历所有 6 个点。我们可以使用拉格朗日插值来找到具有此属性的许多其他函数,例如 7、8、9 阶多项式等。在学习领域(机器和人类学习),指导原则是当存在多种解释时同样观察到的现象,明智的做法是选择最简单的解释。这个原理就是所谓的奥卡姆剃刀原理。以下是该原则的一些示例。
(1) 在遥远的天空中,看到一道小小的亮光在移动。解释一,一架飞机从附近的机场起飞或准备降落。解释二,一颗恒星离开了它的星系,正准备进入我们的星系。解释一种是更优选的一种。
(2) 你在圣诞节的早晨醒来,看到窗外的街道上有雪——你昨晚睡觉的时候没有雪。解释一,因为你今年过得很好,所以圣诞老人委托精灵们把北极的雪带到你家附近。解释二,你睡觉的时候下雪了。解释二的可能性更大。
(3) 几年前,九月的一个早晨,当你经过曼哈顿的布莱克街和第六大道时,你看到成千上万的纽约人离开这座城市,向北走。解释 1、地铁出现电气故障,列车不运行。解释二,恐怖分子劫持了两架飞机,撞向世贸中心。解释一的可能性更大,但不幸的是,解释二是正确的。
大多数科学家都同意,当有两种理论可以解释同一现象时,越简单的理论相对越好。然而,正如我们所知,这并不总是保证是正确的。在发现新证据之前,这可能只是一个更好的探索起点。
2001 年的一个星期二早上,其中一位作者 (SL) 约会迟到,无法听到早间新闻。
还有一个特性适用于学习方法,要么是懒惰的,要么是急切的。懒惰的学习者被认为是懒惰的,因为它延迟了训练数据之外的泛化,直到出现新的查询。懒惰的学习者从不努力压缩数据,因此,当模型被调用时,所有数据都可用。这与渴望学习者不同,后者已经抽象出可以在出现新查询时应用的一般规则。但是这样一来,训练数据本身就没有保留下来。一般来说,训练惰性学习者的速度更快,但使用它们需要更多的时间。急切的学习者坚持单一的假设,因此比懒惰的学习者更不灵活。
基于案例的推理(见第 9 章)被归类为惰性学习者。在这种情况下的优点是我们有整个案例可用,因此这可能具有更广泛的适用性。相反,神经网络被归类为渴望学习者。在反向传播网络 (BPN) 中,网络学习权重,我们将权重视为训练数据的压缩版本。为了将 BPN 应用于新样本,您只需将新查询用作网络的输入,但不会检索先前用于训练网络的数据。
10.4 用决策树学习
对于概念学习,决策树是广泛使用的归纳方法。决策树中的节点对应于对某些属性进行的查询。从节点发出的分支代表假定的属性值,如图 10.5 所示。
图 10.5 描绘了一位作者(SL)的面食偏好的决策树
任何熟悉意大利餐厅的人都会很快发现意大利面有多种形状和大小。
这棵树可以用来将意大利面条实例分为两类——SL 喜欢的和 SL 不喜欢的。查询总是从树的根节点开始,到我们找到类标签的叶节点结束。考虑以下意大利面食列表。
(1) Spaghetti and Meatballs – 意粉配红酱肉丸。
(2) 意大利面 Arrabbiata——红酱意大利面。
(3) 意大利面平静的红酱 Vongole – 意大利面配红酱蛤蜊。
(4) 意大利面平静的白酱 Vongole – 白酱蛤蜊意大利面。
(5) 伏特加通心粉。
如图 10.5 所示,为了从这个列表中分类意大利面和肉丸,我们从根节点开始。这道菜的酱汁是红色的,所以我们选择了左边的树枝。左子书问:这道菜“含”肉吗?这当然收录肉。那棵树将意大利面和肉丸归类为 SL 最喜欢的意大利面。尝试使用相同的决策树跟踪其他 4 个实例。您会注意到所有 5 种意大利面食谱都分为两个不同的类别。
第一类 - SL 最喜欢的意大利面,收录示例 1、4 和 5。
第二类——SL不喜欢的意大利面,收录例子2和3。
免责声明 - 作者之一 (SL) 选择这些属性值仅用于说明目的。SL 在纽约曼哈顿下城的“小意大利”长大,不幸的是(因为他的腰围)他喜欢各种意大利面!事实上,他品尝了他最喜欢的两家餐厅的大部分菜肴,即《小意大利》中汉斯特街 189 号的普利亚和迈伯里街 164 号的丹尼科。
如图10.5所示,从决策树的根结点到叶结点末端的任意一条路径都表示该路径上属性值的合取(AND)。例如,Spaghetti Arrabbiata 分类的路径是 (sauce = red) ∧ (meat = no)。SL 喜欢的意大利面食的概念对应于所有连词的析取(OR),这些连词沿着通往回答是的节点的路径。在示例中,我们有:[(sauce=red)∧(meat=yes)]∨[(sauce=white)∧(seafood=no)]∨[(sauce=pink)]。
10.5 适用于决策树的问题
使用决策树可以有效学习的一些问题的特征如下。
(1)属性应该只有少数几个值,例如酱=红色、白色或粉红色;实例由一组属性值表示,例如实例 = 意大利面条和肉丸。我们给一些属性赋予一定的值,比如酱汁是否是红色的,其中肉=是。
(2) 一般来说,目标函数只有几个离散值。在面食示例中,值为 Yes 和 No。
(3) 训练数据可能存在错误。当属性值或实例分类出现错误时,决策树表现良好(这与第 11 章中神经网络学习的鲁棒性形成对比)。
这些都是理想的条件。通过参考该领域的文献,您可以了解许多规避这些限制的方法。
在训练数据的过程中,可能会出现属性值缺失的情况。例如,假设决策树的用户知道 Spaghetti Arrabbiata 不含肉,则该属性也缺失。
许多现实世界的问题都满足前一个列表所施加的约束。在医疗应用中,属性对应于患者的可见症状或描述(肤色 = 黄色、鼻子 = 流鼻涕、头痛)或医疗应用中的测试结果(体温升高、高血压或血糖水平、心脏酶异常)。的目标函数可能表明存在疾病或状况:患者患有花粉热、肝炎或最近修复的心脏瓣膜出现问题。
决策树广泛用于医疗行业。
在金融领域,决策树也用于从信用卡价值确定到房地产投资有利条件的方方面面。商业世界的一个基本应用是期权交易。期权是一种合同,赋予个人以给定价格或在特定日期购买或出售某些资产(例如股票)的权利。
10.6 熵
熵量化了样本集中存在的均匀性。为了简化讨论,假设要学习的概念本质上是二元的——例如,一个人是否喜欢意大利面。给定一个集合 S,对于这个二元分类,S 的熵是
{-:-} 熵 = -p(+) log2 p(+) -p(-) log2 p(-)
其中,p(+)代表你喜欢的部分,即喜欢面食;p(-) 代表你不喜欢的部分。在讨论熵时,对数总是以 2 为底,即使分类不是二元的。
图 10.5 中的决策树描述了面食偏好。假设有一组 4 种类型的面食有人喜欢吃——我们将这种情况表示为 [4(+), 0(-)],那么这组中的熵是
熵[4(+), 0(-)] = -4/4×log2(4/4) - 0/4×log2(0/4)
= -1 × log2(1) - 0 × log2(0)
= -1×0 - 0×0
= 0
如果有人喜欢其中两种意大利面而不喜欢另外两种,那么
熵[2(+), 2(-)] = -2/4×log2(2/4)-2/4×log2(2/4)
= -1/2×(-1)-1/2×(-1)
= 1/2 - (-1/2)
= 1
我们观察到,当所有成员属于同一个组时,集合的熵为 0。这个 0 值表示这个集合中没有杂质,并且这个例子中的所有成员都为真。在第二个例子中,一半的成员是正的,一半是负的,在这种情况下,熵的最大值为 1。在二元分类中,集成熵的范围是 0 到 1,如图 10.6 所示。
图 10.6 在二元分类中,熵函数随着正样本的增加而增加
尺度变化在区间 [0,1] 内变化
集合的熵可以被认为是确定所选项目来自哪个类别所需的位数。例如,对于集合 [2(+), 2(-)],需要一位来指定从哪个类别中选择哪个项目,其中 1 表示有人喜欢该项目,0 表示有人不喜欢该项目。反之,当有人喜欢所有项目时,在集合 [4(+), 0(-)] 中,不需要位来标记项目,所以当有人喜欢所有项目时,熵为 0。
10.7 用 ID3 构建决策树
1986 年,Quinlan 开发了 ID3 算法。ID3是决策树学习中应用最广泛的算法之一,它以自顶向下的方式构建决策树。它首先搜索将训练集划分为尽可能相等的子集的那个属性。如果您要成功应用决策树,您必须了解它们是如何构建的。在面食示例中,有三个属性——酱汁颜色、肉类和海鲜——见表 10.1。
表 10.1 用于决策树学习的数据
No. Pasta Sauce Color 含肉 含海鲜 1Spaghetti with Meatballs Red True False Yes 2Spaghetti Arrabbiata Red False False No 3Linguine Vongole Red False True No 4Linguine Vongole White False True or Not 5Rigatoni alla Vodka Pink False Yes 6Lasagne Red True False Yes 7Rigatoni Lucia White假 假 是 8Fettucine Alfredo White Fake Yes 9Fusilli Boscaiola Red Fake No 10Ravioli Florentine Pink Fake Yes
有 3 种不同的属性,因此哪个属性先出现有不同的选择,如图 10.7 所示。
一个属性如果可以根据属性的值将样本分为两个,则认为该属性是好的,例如,某个属性值对应的所有实例都是正的,而其他属性值对应的所有实例都是负的。相反,如果一个属性不收录区分属性值,则该属性被认为是无用的。在示例中,好属性意味着对于每个属性值,意大利面的喜欢和不喜欢的数量是相等的。
ID3 使用信息增益来定位属性。如果该属性达到最大预期熵减少,则该属性位于更靠近根节点的位置。如图 10.7 所示,为了确定三个子树中哪个子树首先被选中,ID3 首先计算其对中显示的每个子树的平均信息,然后选择能够产生最大信息增益的子树。其中,属性A产生的信息增益是指用A来划分集合S,导致熵减少。
其中v是属性A所采用的值。这个公式对v的所有值求和Sv(S与值v的子集)。如图10.8到图10.10所示,了解ID3必须进行的计算。
图 10.7 决策树可以从三个属性中的任何一个开始。在(a)中,酱汁颜色为红色,作者喜欢两种意大利面,不喜欢三种意大利面。其他盒子也可以做类似的解释
仔细观察图10.8~图10.10,很明显,由于“收录海鲜”的属性,其相关信息增益为0.32,是对应的三个属性中的最大值,所以ID3选择属性“收录海鲜”为决策树。的第一个属性。
接下来,ID3 必须在图 10.11 中绘制的两棵树之间进行选择。
一旦选择了第二个属性,则在需要时应用未选择的属性。本书要求你在练习中完成这些计算。
图 10.8 如果先选择酱汁颜色,则信息增益等于 0.29
图 10.9 如果先选择收录肉的属性,则信息增益等于 0.17
图 10.10 如果先选择收录海鲜的属性,则信息增益等于 0.32
图 10.11 ID3 必须选择哪个属性作为第二个属性——是酱汁的颜色,还是含有肉?
本文节选自《人工智能》(第2版)
本书是作者结合多年教学经验精心编写的人工智能教材,堪称“人工智能百科全书”。这本书涵盖了人工智能的简史、搜索方法、知情搜索、游戏中的搜索、人工智能中的逻辑、知识表示、生成系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级电脑游戏、人工智能的历史和未来。
本书提供了丰富的教学配套资源,适合作为高校人工智能相关专业的教材,也适合对人工智能相关领域感兴趣的读者阅读和参考。
技巧:谷歌seo的关键词分析工具 怎么用?
关键词分析工具
对于Google SEO至关重要,使用免费或商业关键词分析工具进行适当的关键字分析。关键词分析非常耗时,请花时间分析您的关键词,不要急于求成。关键词分析实际上是分析用户使用搜索引擎搜索关键词搜索的内容,并发现搜索用户搜索关键词的频率。
通过关键词分析,我们可以找出被忽视的重要关键词,SEO优化器经常发生的事情,经常认为关键词重要的不是我们想要的潜在客户,而是访问我们网站的人正在使用其他关键词。不要以为这个问题不会发生在你身上,你可以试试你认为对的关键词,它会给你带来潜在客户吗?
如何使用谷歌关键词规划器进行关键词分析?关键词分析实际上是分析关键词搜索用户通过搜索引擎搜索的内容,用户搜索每个关键词的频率,并可能向关键词列表中添加一些新关键词。
关键词分析工具对于提高关键词采矿效率至关重要
关键词分析工具:谷歌关键词规划师
Google 关键词调整规划师来投放广告系列以获得准确的搜索,但必应关键字搜索工具无需投放有效的广告即可查看使用必应搜索关键词的确切搜索次数。
关键词调查分析工具的商业版
单词跟踪器
莫兹
关键字发现
关键字
斯皮夫
塞姆拉什
溶盐剂
西莫伊托
免费的第三方关键词调查分析工具
例如,免费关键词调查分析工具,关键词分析通常在初始关键词头脑风暴阶段可能很有用,因此我们需要在多个维度上进行关键词分析,充分利用搜索下拉推荐关键词,对搜索结果进行相关推荐,并进一步挖掘更多高质量的关键词。
关键词分析建议以Google关键词规划师为支柱,辅以必应关键字研究工具。
谷歌关键词规划器相关功能的简要介绍
谷歌关键词规划师
输入您的关键词
想要,建议开始输入单个单词或几个单词,也可以输入您的网站的URL或竞争对手的URL,Google会检查您的页面并为您提供该页面的相关关键词。这并不容易使用,因为没有优化的页面,Google不会给出很好的关键词。让我们以操作关键词产品类别为例:
设置右侧
目标市场,选择合适的语言和国家;
关键词过滤(用于PPC);
您只能打开显示与我的搜索字词密切相关的想法;
关键词包括设置;
告诉谷歌包括我提供关键词;
时间设置;
如果您的企业是季节性的,您可以这样做:
关键字提示
广告组提示
重要的是要记住,关键词挖掘非常耗时且耗精力,请花时间挖掘您的关键词,不要急于求成。 查看全部
归纳总结:五大机器学习范例:神经网络、遗传算法、规则归纳?
假设有一个代理人想在大联盟级别打棒球。要达到这个水平,通常需要 15 年或更长时间的培训。虽然规则极其简单,但学习周期很长:“扔球、接球、击球”。
这句话出自 1988 年由 Ron Shelton 执导的电影 Bull Durham。
在训练的早期,智能体必须了解棒球比赛中的许多可能状态。
(1) 我们的团队领先吗?
(2) 如果我处于防守位置并且球朝我飞来,我必须知道现在在一垒的跑垒员是否跑得快?如果是,那么我必须迅速把球扔出去。
(3) 对方投手是否投掷了一个旋转球(很难击中!)?如果是,那么也许我今天应该假装生病。
这个年轻代理收到的这种反馈是学习过程的核心。在机器学习中,反馈有 3 种类型:监督学习、无监督学习和强化学习。
使用监督学习来学习特征是最直接、最简单的方法。代理执行了一些动作后,它可以立即收到适当的反馈。例如,当一个敏捷的跑垒员给他一个地滚球时,如果他要花一点时间将球传到一垒,那么在这种情况下,在几分钟内,他会被提醒加快速度。第 11 章介绍了神经网络如何使用监督学习来学习布尔函数。我们为网络提供每个可能输入的正确输出列表。
在无监督学习中,训练期间不提供具体的反馈。但是,如果要学习,代理必须收到一些反馈。假设代理人进攻失败,例如他没有击中垒,但他的防守非常不同 - 他设法完成了两次斜线并拦截了本垒打。这是一场势均力敌的比赛,他的球队赢了。赛后,队友们纷纷恭喜他,他总结说,好的防守也是值得赞赏的。
在强化学习期间,没有老师为代理提供正确答案。事实上,代理甚至无法提前知道一个动作的后果。更复杂的是,假设即使代理知道一个动作的影响,它也不知道影响会有多大,所以代理必须通过反复试验来学习。因为奖励延迟了,agent 很难判断这个动作是好是坏。任何尝试使用中指平衡伞(未打开)的人都了解强化学习的基础知识,如图 10.2 所示。
图 10.2 平衡伞,需要在 xy 平面上做一个小的运动来保持伞的平衡
如果伞向左倾斜,那么你必须向左移动很多,很快你就会发现这是大材小用。让我们回到棒球经纪人的例子。假设他是一名投手,当对手击出本垒打时,代理倾向于将棒球扔给对方的击球手。当对方投手将时速 145 公里的快球投进他的腿时,几局之后,他需要将疼痛的膝盖骨与可能过于激进的比赛联系起来。在这里,我们将讨论严格限制在监督学习上。在 Ballard 的著作 [7] 中,您可以找到关于无监督学习和强化学习的精彩讨论。
通过监督学习,您可以看到一组有序的对:
我们将这组有序对称为训练集。在
是输入的n维空间向量,即
这个函数在
at 的值是学习值。函数 f 将每个输入向量映射到正确的输出响应。一般来说,在 m 维空间中
,每个分量 tk(k = 1,…, m) 都来自一个预定的集合,例如整数、实数等的集合(输入和输出集合可能不同)。
10.3 归纳学习
归纳学习的任务是找到最接近真实函数 f() 的函数 h。我们称 h 为 f() 的假设。学习算法将假设空间 H 视为一组逼近正确函数 f() 的函数。在这个学习中,目标是找到训练集中所有点的 h 与 f 一致。人们把这种尝试称为曲线拟合,如图 10.3 所示。
图 10.3 如果 h 在所有点上都与 f 一致,则 h 与 f 一致
在图 10.4 中,有 3 个不同的假设。乍一看,h3 似乎是最好的假设。但是,重要的是要记住,学习的目的不是让智能体在训练集上表现完美,而是让智能体在验证集上表现良好。
图 10. 43 种不同的假设。请注意,由于只有 h3 通过了所有 6 个点,因此只有 h3 与 f 一致
验证集是测试代理程序的示例集。如果代理实际上已经学习了一些概念,它不应该仅仅记住输入和输出之间的对应关系,而是应该获得泛化能力,例如对它尚未遇到的输入做出适当的响应。一般来说,一个在训练集上表现完美的假设是过度训练的,并且不能很好地概括这个概念。实现泛化的一种方法是交替训练和验证,需要注意的是,在验证期间应该关闭代理的学习机制。当验证错误而不是训练错误最小化时,训练终止。在第 11 章中,我们将深入研究这种训练方法。最后,让我们谈谈棒球经纪人。如果他真的学会了打棒球,
再次参考图 10.4(c)。这个函数遍历所有 6 个点。我们可以使用拉格朗日插值来找到具有此属性的许多其他函数,例如 7、8、9 阶多项式等。在学习领域(机器和人类学习),指导原则是当存在多种解释时同样观察到的现象,明智的做法是选择最简单的解释。这个原理就是所谓的奥卡姆剃刀原理。以下是该原则的一些示例。
(1) 在遥远的天空中,看到一道小小的亮光在移动。解释一,一架飞机从附近的机场起飞或准备降落。解释二,一颗恒星离开了它的星系,正准备进入我们的星系。解释一种是更优选的一种。
(2) 你在圣诞节的早晨醒来,看到窗外的街道上有雪——你昨晚睡觉的时候没有雪。解释一,因为你今年过得很好,所以圣诞老人委托精灵们把北极的雪带到你家附近。解释二,你睡觉的时候下雪了。解释二的可能性更大。
(3) 几年前,九月的一个早晨,当你经过曼哈顿的布莱克街和第六大道时,你看到成千上万的纽约人离开这座城市,向北走。解释 1、地铁出现电气故障,列车不运行。解释二,恐怖分子劫持了两架飞机,撞向世贸中心。解释一的可能性更大,但不幸的是,解释二是正确的。
大多数科学家都同意,当有两种理论可以解释同一现象时,越简单的理论相对越好。然而,正如我们所知,这并不总是保证是正确的。在发现新证据之前,这可能只是一个更好的探索起点。

2001 年的一个星期二早上,其中一位作者 (SL) 约会迟到,无法听到早间新闻。
还有一个特性适用于学习方法,要么是懒惰的,要么是急切的。懒惰的学习者被认为是懒惰的,因为它延迟了训练数据之外的泛化,直到出现新的查询。懒惰的学习者从不努力压缩数据,因此,当模型被调用时,所有数据都可用。这与渴望学习者不同,后者已经抽象出可以在出现新查询时应用的一般规则。但是这样一来,训练数据本身就没有保留下来。一般来说,训练惰性学习者的速度更快,但使用它们需要更多的时间。急切的学习者坚持单一的假设,因此比懒惰的学习者更不灵活。
基于案例的推理(见第 9 章)被归类为惰性学习者。在这种情况下的优点是我们有整个案例可用,因此这可能具有更广泛的适用性。相反,神经网络被归类为渴望学习者。在反向传播网络 (BPN) 中,网络学习权重,我们将权重视为训练数据的压缩版本。为了将 BPN 应用于新样本,您只需将新查询用作网络的输入,但不会检索先前用于训练网络的数据。
10.4 用决策树学习
对于概念学习,决策树是广泛使用的归纳方法。决策树中的节点对应于对某些属性进行的查询。从节点发出的分支代表假定的属性值,如图 10.5 所示。
图 10.5 描绘了一位作者(SL)的面食偏好的决策树
任何熟悉意大利餐厅的人都会很快发现意大利面有多种形状和大小。
这棵树可以用来将意大利面条实例分为两类——SL 喜欢的和 SL 不喜欢的。查询总是从树的根节点开始,到我们找到类标签的叶节点结束。考虑以下意大利面食列表。
(1) Spaghetti and Meatballs – 意粉配红酱肉丸。
(2) 意大利面 Arrabbiata——红酱意大利面。
(3) 意大利面平静的红酱 Vongole – 意大利面配红酱蛤蜊。
(4) 意大利面平静的白酱 Vongole – 白酱蛤蜊意大利面。
(5) 伏特加通心粉。
如图 10.5 所示,为了从这个列表中分类意大利面和肉丸,我们从根节点开始。这道菜的酱汁是红色的,所以我们选择了左边的树枝。左子书问:这道菜“含”肉吗?这当然收录肉。那棵树将意大利面和肉丸归类为 SL 最喜欢的意大利面。尝试使用相同的决策树跟踪其他 4 个实例。您会注意到所有 5 种意大利面食谱都分为两个不同的类别。
第一类 - SL 最喜欢的意大利面,收录示例 1、4 和 5。
第二类——SL不喜欢的意大利面,收录例子2和3。
免责声明 - 作者之一 (SL) 选择这些属性值仅用于说明目的。SL 在纽约曼哈顿下城的“小意大利”长大,不幸的是(因为他的腰围)他喜欢各种意大利面!事实上,他品尝了他最喜欢的两家餐厅的大部分菜肴,即《小意大利》中汉斯特街 189 号的普利亚和迈伯里街 164 号的丹尼科。
如图10.5所示,从决策树的根结点到叶结点末端的任意一条路径都表示该路径上属性值的合取(AND)。例如,Spaghetti Arrabbiata 分类的路径是 (sauce = red) ∧ (meat = no)。SL 喜欢的意大利面食的概念对应于所有连词的析取(OR),这些连词沿着通往回答是的节点的路径。在示例中,我们有:[(sauce=red)∧(meat=yes)]∨[(sauce=white)∧(seafood=no)]∨[(sauce=pink)]。
10.5 适用于决策树的问题
使用决策树可以有效学习的一些问题的特征如下。
(1)属性应该只有少数几个值,例如酱=红色、白色或粉红色;实例由一组属性值表示,例如实例 = 意大利面条和肉丸。我们给一些属性赋予一定的值,比如酱汁是否是红色的,其中肉=是。
(2) 一般来说,目标函数只有几个离散值。在面食示例中,值为 Yes 和 No。
(3) 训练数据可能存在错误。当属性值或实例分类出现错误时,决策树表现良好(这与第 11 章中神经网络学习的鲁棒性形成对比)。
这些都是理想的条件。通过参考该领域的文献,您可以了解许多规避这些限制的方法。
在训练数据的过程中,可能会出现属性值缺失的情况。例如,假设决策树的用户知道 Spaghetti Arrabbiata 不含肉,则该属性也缺失。
许多现实世界的问题都满足前一个列表所施加的约束。在医疗应用中,属性对应于患者的可见症状或描述(肤色 = 黄色、鼻子 = 流鼻涕、头痛)或医疗应用中的测试结果(体温升高、高血压或血糖水平、心脏酶异常)。的目标函数可能表明存在疾病或状况:患者患有花粉热、肝炎或最近修复的心脏瓣膜出现问题。
决策树广泛用于医疗行业。
在金融领域,决策树也用于从信用卡价值确定到房地产投资有利条件的方方面面。商业世界的一个基本应用是期权交易。期权是一种合同,赋予个人以给定价格或在特定日期购买或出售某些资产(例如股票)的权利。
10.6 熵
熵量化了样本集中存在的均匀性。为了简化讨论,假设要学习的概念本质上是二元的——例如,一个人是否喜欢意大利面。给定一个集合 S,对于这个二元分类,S 的熵是
{-:-} 熵 = -p(+) log2 p(+) -p(-) log2 p(-)
其中,p(+)代表你喜欢的部分,即喜欢面食;p(-) 代表你不喜欢的部分。在讨论熵时,对数总是以 2 为底,即使分类不是二元的。
图 10.5 中的决策树描述了面食偏好。假设有一组 4 种类型的面食有人喜欢吃——我们将这种情况表示为 [4(+), 0(-)],那么这组中的熵是
熵[4(+), 0(-)] = -4/4×log2(4/4) - 0/4×log2(0/4)
= -1 × log2(1) - 0 × log2(0)
= -1×0 - 0×0

= 0
如果有人喜欢其中两种意大利面而不喜欢另外两种,那么
熵[2(+), 2(-)] = -2/4×log2(2/4)-2/4×log2(2/4)
= -1/2×(-1)-1/2×(-1)
= 1/2 - (-1/2)
= 1
我们观察到,当所有成员属于同一个组时,集合的熵为 0。这个 0 值表示这个集合中没有杂质,并且这个例子中的所有成员都为真。在第二个例子中,一半的成员是正的,一半是负的,在这种情况下,熵的最大值为 1。在二元分类中,集成熵的范围是 0 到 1,如图 10.6 所示。
图 10.6 在二元分类中,熵函数随着正样本的增加而增加
尺度变化在区间 [0,1] 内变化
集合的熵可以被认为是确定所选项目来自哪个类别所需的位数。例如,对于集合 [2(+), 2(-)],需要一位来指定从哪个类别中选择哪个项目,其中 1 表示有人喜欢该项目,0 表示有人不喜欢该项目。反之,当有人喜欢所有项目时,在集合 [4(+), 0(-)] 中,不需要位来标记项目,所以当有人喜欢所有项目时,熵为 0。
10.7 用 ID3 构建决策树
1986 年,Quinlan 开发了 ID3 算法。ID3是决策树学习中应用最广泛的算法之一,它以自顶向下的方式构建决策树。它首先搜索将训练集划分为尽可能相等的子集的那个属性。如果您要成功应用决策树,您必须了解它们是如何构建的。在面食示例中,有三个属性——酱汁颜色、肉类和海鲜——见表 10.1。
表 10.1 用于决策树学习的数据
No. Pasta Sauce Color 含肉 含海鲜 1Spaghetti with Meatballs Red True False Yes 2Spaghetti Arrabbiata Red False False No 3Linguine Vongole Red False True No 4Linguine Vongole White False True or Not 5Rigatoni alla Vodka Pink False Yes 6Lasagne Red True False Yes 7Rigatoni Lucia White假 假 是 8Fettucine Alfredo White Fake Yes 9Fusilli Boscaiola Red Fake No 10Ravioli Florentine Pink Fake Yes
有 3 种不同的属性,因此哪个属性先出现有不同的选择,如图 10.7 所示。
一个属性如果可以根据属性的值将样本分为两个,则认为该属性是好的,例如,某个属性值对应的所有实例都是正的,而其他属性值对应的所有实例都是负的。相反,如果一个属性不收录区分属性值,则该属性被认为是无用的。在示例中,好属性意味着对于每个属性值,意大利面的喜欢和不喜欢的数量是相等的。
ID3 使用信息增益来定位属性。如果该属性达到最大预期熵减少,则该属性位于更靠近根节点的位置。如图 10.7 所示,为了确定三个子树中哪个子树首先被选中,ID3 首先计算其对中显示的每个子树的平均信息,然后选择能够产生最大信息增益的子树。其中,属性A产生的信息增益是指用A来划分集合S,导致熵减少。
其中v是属性A所采用的值。这个公式对v的所有值求和Sv(S与值v的子集)。如图10.8到图10.10所示,了解ID3必须进行的计算。
图 10.7 决策树可以从三个属性中的任何一个开始。在(a)中,酱汁颜色为红色,作者喜欢两种意大利面,不喜欢三种意大利面。其他盒子也可以做类似的解释
仔细观察图10.8~图10.10,很明显,由于“收录海鲜”的属性,其相关信息增益为0.32,是对应的三个属性中的最大值,所以ID3选择属性“收录海鲜”为决策树。的第一个属性。
接下来,ID3 必须在图 10.11 中绘制的两棵树之间进行选择。
一旦选择了第二个属性,则在需要时应用未选择的属性。本书要求你在练习中完成这些计算。
图 10.8 如果先选择酱汁颜色,则信息增益等于 0.29
图 10.9 如果先选择收录肉的属性,则信息增益等于 0.17
图 10.10 如果先选择收录海鲜的属性,则信息增益等于 0.32
图 10.11 ID3 必须选择哪个属性作为第二个属性——是酱汁的颜色,还是含有肉?
本文节选自《人工智能》(第2版)
本书是作者结合多年教学经验精心编写的人工智能教材,堪称“人工智能百科全书”。这本书涵盖了人工智能的简史、搜索方法、知情搜索、游戏中的搜索、人工智能中的逻辑、知识表示、生成系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级电脑游戏、人工智能的历史和未来。
本书提供了丰富的教学配套资源,适合作为高校人工智能相关专业的教材,也适合对人工智能相关领域感兴趣的读者阅读和参考。
技巧:谷歌seo的关键词分析工具 怎么用?
关键词分析工具
对于Google SEO至关重要,使用免费或商业关键词分析工具进行适当的关键字分析。关键词分析非常耗时,请花时间分析您的关键词,不要急于求成。关键词分析实际上是分析用户使用搜索引擎搜索关键词搜索的内容,并发现搜索用户搜索关键词的频率。
通过关键词分析,我们可以找出被忽视的重要关键词,SEO优化器经常发生的事情,经常认为关键词重要的不是我们想要的潜在客户,而是访问我们网站的人正在使用其他关键词。不要以为这个问题不会发生在你身上,你可以试试你认为对的关键词,它会给你带来潜在客户吗?
如何使用谷歌关键词规划器进行关键词分析?关键词分析实际上是分析关键词搜索用户通过搜索引擎搜索的内容,用户搜索每个关键词的频率,并可能向关键词列表中添加一些新关键词。
关键词分析工具对于提高关键词采矿效率至关重要
关键词分析工具:谷歌关键词规划师
Google 关键词调整规划师来投放广告系列以获得准确的搜索,但必应关键字搜索工具无需投放有效的广告即可查看使用必应搜索关键词的确切搜索次数。
关键词调查分析工具的商业版
单词跟踪器
莫兹
关键字发现

关键字
斯皮夫
塞姆拉什
溶盐剂
西莫伊托
免费的第三方关键词调查分析工具
例如,免费关键词调查分析工具,关键词分析通常在初始关键词头脑风暴阶段可能很有用,因此我们需要在多个维度上进行关键词分析,充分利用搜索下拉推荐关键词,对搜索结果进行相关推荐,并进一步挖掘更多高质量的关键词。
关键词分析建议以Google关键词规划师为支柱,辅以必应关键字研究工具。
谷歌关键词规划器相关功能的简要介绍
谷歌关键词规划师
输入您的关键词
想要,建议开始输入单个单词或几个单词,也可以输入您的网站的URL或竞争对手的URL,Google会检查您的页面并为您提供该页面的相关关键词。这并不容易使用,因为没有优化的页面,Google不会给出很好的关键词。让我们以操作关键词产品类别为例:

设置右侧
目标市场,选择合适的语言和国家;
关键词过滤(用于PPC);
您只能打开显示与我的搜索字词密切相关的想法;
关键词包括设置;
告诉谷歌包括我提供关键词;
时间设置;
如果您的企业是季节性的,您可以这样做:
关键字提示
广告组提示
重要的是要记住,关键词挖掘非常耗时且耗精力,请花时间挖掘您的关键词,不要急于求成。
无规则采集器列表算法 推荐文章:论文阅读
采集交流 • 优采云 发表了文章 • 0 个评论 • 92 次浏览 • 2022-10-18 00:39
论文链接:
目录
摘要
虚假关注者是专门为夸大目标账户关注者数量而创建的那些 Twitter 账户。假追随者对社交平台及其他领域来说是危险的,因为他们可能会改变 Twitter 领域的流行度和影响力等概念,从而影响经济、政治和社会。在本文中,我们沿着不同的维度做出贡献。首先,我们回顾了一些最相关的现有功能和规则(由学术界和媒体提出),用于异常 Twitter 帐户检测。其次,我们创建了一个经过验证的人类和虚假追随者帐户的基线数据集。这样的基线数据集对科学界是公开的。然后,我们利用基线数据集来训练一组基于审查的规则和特征构建的机器学习分类器。我们的结果表明,Media 提出的大多数规则在揭示虚假粉丝方面的表现并不令人满意,而 Academia 过去提出的用于垃圾邮件检测的特征提供了良好的结果。基于最有希望的特征,我们在减少过度拟合和采集计算特征所需数据的成本方面修改了分类器。最终结果是一个新颖的 A 类分类器,其通用性足以阻止过度拟合,由于使用了成本较低的特征,因此轻量级,并且仍然能够正确分类原创训练集的 95% 以上的帐户。我们最终执行基于信息融合的敏感性分析,以评估分类器使用的每个特征的全局敏感性。
本文报告的研究结果,除了得到了彻底的实验方法的支持和本身的趣味性外,还为进一步调查假推特追随者的新问题铺平了道路。
1 绪论
Twitter最初是一个个人微博网站,现在已经从普通用户转变为一个信息发布场所。据统计,Twitter 订阅者约为 10 亿,每月活跃用户为 3.02 亿。 Twitter 2014 年的年度广告收入估计约为 4.8 亿美元。流行的公众人物,例如演员和歌手,以及传统的大众媒体(广播、电视和报纸)都使用 Twitter 作为新的媒体渠道。
这样的多功能性和使用范围使 Twitter 成为异常账户扩散的理想场所,这些账户以非常规的方式行事。学术界主要关注垃圾邮件发送者,这些帐户积极致力于传播恶意软件、发送垃圾邮件和宣传合法性可疑的活动 。为了提高其有效性,这些恶意帐户通常配备自动推特程序,就像模仿真实用户一样隐秘,称为机器人。最近,媒体开始报道政客、名人和流行品牌的账户出现了可疑的追随者膨胀。所谓的虚假关注者对应于专门用于增加目标账户关注者数量的 Twitter 账户。例如,在 2012 年美国大选期间,挑战者罗姆尼 (Romney) 的推特账户的关注者数量突然激增。其中绝大多数后来被声称是假的。同样,在上一次意大利大选(2013 年 2 月)之前,在线博客和报纸报道了有关主要候选人假追随者比例的统计数据。乍一看,获得虚假追随者似乎是一种仅限于培养虚荣心的做法——一种可能有问题但无害的做法。但是,人为夸大关注者数量也可以最终确定,以使帐户更值得信赖和有影响力,从而脱颖而出并吸引其他真正的关注者。最近,美国的银行和金融机构在实际发放贷款之前已开始分析贷款申请人的 Twitter 和 Facebook 账户。因此,拥有“受欢迎”的个人资料绝对有助于提高申请人的信誉。同样,如果恶意账户采用购买虚假粉丝的做法,作为垃圾邮件发送者,它可以作为发布更权威消息和发起更有效广告活动的一种方式。对许多博主来说,检测假粉丝似乎是一件容易的事,他们提出了自己的“黄金法则”,并提供了一系列标准,用来对推特账户行为进行分类。然而一些规则通常既不与分析算法配对以聚合它们,也不与验证机制配对。至于学术界,研究人员主要关注垃圾邮件和机器人检测,基于 Twitter 帐户的(非)人类特征,主要是通过在人工注释的帐户集上训练的机器学习分类器,获得了出色的结果。
然而,据我们所知,尽管假追随者构成了一种具有经济和社会影响的普遍现象,但在文献中该主题尚未得到深入研究。
这项工作的目标是阐明假 Twitter 追随者的现象,旨在克服目前在其表征和检测方面的局限性。特别是,我们提供了以下贡献。首先,我们构建了一个 Twitter 账户的基线数据集,其中人类和假粉丝是先验已知的。其次,我们在基线数据集上测试已知的机器人和垃圾邮件检测方法。特别是,我们针对基于以下算法的算法测试参考集中的 Twitter 帐户:(i) 博客作者提出的单一分类规则,以及 (ii) 文献中提出的用于检测垃圾邮件发送者的特征集。分析结果表明,假追随者检测值得专门的机制:具体而言,基于分类规则的算法无法成功检测我们基线数据集中的假追随者。相反,基于特征集的垃圾邮件检测分类器也适用于虚假关注者检测。第三,我们根据采集计算它们所需的数据采集所需的成本,并对所有调查的规则和特征进行分类。在理论计算和经验评估的基础上,我们展示了性能最好的特征也是最昂贵的特征。我们分析的新结果表明,数据获取成本通常严重限制了这些功能的实际适用性。最后,在爬虫成本分析的基础上,我们设计并实现了轻量级分类器,这些分类器利用了成本较低的特征,同时仍然能够正确分类我们训练数据集 95% 以上的帐户。此外,我们还验证了我们的分类器在与原创训练数据集不相交的另外两组人类和虚假追随者帐户上的检测性能。
本文的其余部分的结构如下。第 2 节考虑和比较 Twitter 垃圾邮件和机器人检测领域的相关工作。第 3 节描述了我们的基线数据集。在第 4 节中,我们使用我们的基线数据集评估了社交媒体分析推广的一组虚假 Twitter 关注者检测标准。在第 5 节中,我们检查了以前工作中用于 Twitter 帐户垃圾邮件检测的功能。在第 6 节中,我们计算了提取分类器所基于的特征的成本。还提供了一个轻量级、高效的分类器,在虚假关注者检测能力和爬取成本之间取得了很好的平衡。最后,第 7 节总结了论文。
2 相关工作
引用 [7] 的内容,“虚假的 Twitter 帐户被认为是一种欺骗形式(即,在个人资料的内容和个人信息方面的欺骗,以及让个人资料关注他人而不是因为个人兴趣,而是因为他们这样做是有报酬的)。”虚假的 Twitter 帐户的第二个特征正是我们在论文中要讨论的:我们特别将虚假追随者视为那些适当创建并出售给客户的 Twitter 帐户,这些帐户旨在放大他们在世界眼中的影响力和参与度,并产生大量追随者的错觉。
如此定义的虚假追随者只是在 Twitter 上传播的异常账户的一个例子。文献中确实将异常确定为垃圾邮件发送者(即宣传未经请求且通常有害的内容的帐户,收录指向恶意页面的链接 [8])或机器人(即控制社交帐户的计算机程序,隐秘到模仿真实用户 [9])或 cyborgs(即交织手动和自动行为特征的帐户 [10])。最后,还有虚假的追随者,为追随目标账户而大量创建的账户,可以从在线账户市场购买。
2.1 灰色文学和在线博客
在介绍学术文献之前,我们简要报告了在线文档,该文档提供了一系列直觉的虚假追随者检测标准,尽管并未以科学的方式证明是有效的。我们引用这项工作的原因有两个:一方面,在线文章和帖子证明了对真假 Twitter 追随者的正确区分;另一方面,我们旨在以科学的方式评估这些标准是否真的可以用于检测假粉丝。
例如,[11] 中的一位知名博主指出,机器人帐户可能具有类似机器人的独特信号:1)通常有大量的追随者和少量的追随者; 2) 向所有人发推文;并且,3)玩关注/取消关注游戏,即他们通常在 24 小时内关注然后取消关注帐户。在线博客宣传的标准主要基于常识,作者通常甚至不建议如何验证它们。
数字评估公司[12]发布的一系列报告引起了意大利和欧洲报纸和杂志的注意,引发了人们对政界人士和主要国际公司在Twitter上受欢迎程度的质疑。报告中列出了一些标准,这些标准受到常识的启发,并表示人类行为,用于评估选定账户的追随者样本。对于follower满足的每一个标准,将分配一个人类得分。对于每一个不满足的标准,要么给机器人评分,要么给中立评分。根据总分,Twitter粉丝分为人类、机器人或中立(在后者的情况下,没有足够的信息来评估他们的性质),为被关注账号的有效影响力提供一个质量分数。但是,[12]中的结果缺少验证阶段。
最后,一些专门从事社交媒体分析的公司提供在线服务,以估计 Twitter 帐户在其追随者方面的真实性 [13,14,15]。但是,用于分析的标准并未公开披露,仅可从其网站上可用的信息中部分扣除。此外,正如我们之前的工作 [16] 所证明的,这些分析受到一些偏差的影响,例如小的和统计上不健全的采样策略。
2.2 学术文献
近年来,Twitter 上的垃圾邮件检测已成为许多调查的主题,从多个角度处理该问题。例如,一个研究分支专注于推文的文本内容 [4, 3, 17],研究推文中嵌入 URL 的重定向 [18],并对 URL 登录页面进行分类 [19]。其他作品通过认识论解决了 Twitter 上的欺骗问题。例如,在 [20] 中,作者评估了欺骗检测任务的 4 个认识论特征:权威、合理性和支持、独立确证和呈现。
在[21]中的工作克服了不能正确地标记那些没有 URL 的 tweet 为垃圾 tweet 的限制,通过提出一个复合工具,能够将传入的 tweet 与垃圾邮件发送者通常使用的底层模板匹配。 [7] 中的工作没有考虑推文的内容,而是尝试仅根据源自帐户配置文件的可能不一致的信息来分类帐户是否可以信任。
一系列作品通过多特征的方法调查微博平台上的垃圾邮件发送者,包括个人资料、行为和帐户时间线的特征。在这个研究方向内,我们在此引用 [8]、[2] 和 [22]。 [8] 中的工作分析了垃圾邮件发送者在 Facebook、Twitter 和 MySpace 上的运作方式,报告称可疑帐户在特定功能上具有一些共同特征。这些作为基于机器学习的分类器 [23] 的输入,导致检测到超过 15,000 个垃圾邮件配置文件,Twitter 迅速删除了这些配置文件。在 [2] 中,作者提出了检测 Twitter 垃圾邮件发送者的标准分类法。一系列实验表明,与现有标准相比,新设计的标准具有更高的检测率。在 [22] 中,作者利用行为特征(例如推文和转发活动)、网络特征(例如帐户的关注者和朋友的数量)和基于内容的特征的组合开发了一个混合数学模型来检测微博上的垃圾邮件发送者,微博是类似于 Twitter 的中国微博网站。
[10] 的作者将 Twitter 帐户分为三类:人类、机器人和半机器人。后一类代表机器人辅助人类或人类辅助机器人。作者使用了一个基于三个专门组件的决策者,这些组件考虑了推文的内容和时间以及一些帐户属性。
[24, 4] 中提出的算法旨在尽快发现自动恶意 Twitter 帐户组,以避免帐户所有者利用它们。因此,作者将聚类算法应用于在短时间内创建的帐户组时间,除其他外,考虑基于名称和内容的特征。在 [25] 中,作者列出了检测 Twitter 帐户市场的客户和受害者的几个标准,即 在线服务,为他们的订阅者提供追随者以换取费用,并代表他们传播促销推文。在另一项工作 [26] 中,同一研究团队提供了有关帐户市场的更多详细信息,分析了客户的其他属性和特征(例如,关注者和朋友的动态以及产生参与的能力),并为检测市场和市场客户。 [27] 的作者在 10 个月的时间里监控一组 Twitter 帐户商家的价格、可用性和欺诈行为。这样的研究重点关注账户市场用来创建和注册欺诈账户的技术和方法,从 CAPTCHA 解决服务到欺骗性电子邮件凭据和用于逃避黑名单的各种 IP 地址池。与 Twitter 本身合作,作者开发了一个分类器来检测此类欺诈账户,这些账户因此被暂停。
值得注意的是,学术著作的引用选择并不详尽。但是,它考虑了大量标准,我们进一步利用这些标准来检测虚假 Twitter 关注者。还有其他用于垃圾邮件检测的工作,此处不详述,例如 [1, 28, 29, 30, 31, 32],其结果基于所选相关工作集所考虑标准的子集或略微修改的版本。
2.3 与我们的方法的异同
我们研究的目标是自动检测那些专门为增加某些目标帐户的关注者数量而创建的 Twitter 账户(所谓的虚假 Twitter 关注者)。先验地,垃圾邮件发送者、机器人和真实用户的帐户都可能属于虚假关注者的宏观类别,并且文献中已经证明可以有效发现垃圾邮件发送者和机器人的特定功能也可以在虚假关注者的情况下起作用。确实正是这一观察结果最初驱使本文的作者朝着在真实账户和虚假追随者的参考数据集上测试过去作品中的规则和特征的方向发展。这有助于修剪那些在检测虚假追随者方面表现最差的规则和特征,并留下表现良好的规则和特征。
从技术角度来看,在我们的实验中,我们依赖于基于机器学习的分类器,这些分类器利用 1) 配置文件、2) 活动和 3) 帐户关系的特征,类似于 [8, 2]。相反,我们不依赖推文特定内容固有的特征,例如 URL 的存在和文本的语义 [17, 19]。因为我们修改了我们的分类器以减少过度拟合和数据采集的成本,所以我们不仅仅是应用已经测试过的特性到一个新的数据集,如第5节和第6节所示。
最后,与 [26] 类似,我们从网络上的不同市场购买了虚假的 Twitter 追随者。我们独立于 [26] 进行了这样的训练,此外,这两项工作的目标完全不同,我们的目标是这些市场销售的账户,而另一个则针对他们的客户。至于我们的基线数据集的真实用户,我们招募了自愿加入我们活动的人的账户,并利用一个带有注释的账户数据集,这些账户属于在特定域的特定时间段内活跃在Twitter上的人,其真实性已经过验证。然而,为了在整个 Twitter 人口的代表性样本上测试我们的分类器,我们还通过随机挑选来构建测试集:1)巴拉克奥巴马的追随者样本,以及 2)Twitter 人群的样本。
3 基线数据集
在本节中,我们将介绍用于在整篇论文中进行实证研究的 Twitter 账户数据集。我们详细说明了我们如何采集他们每个人,以及我们如何验证他们是真人还是假追随者。为了进行我们的研究,我们总共抓取了 900 万个 Twitter 帐户和大约 300 万条推文。为了促进对假 Twitter 追随者这一新问题的调查,我们的基线数据集已公开用于研究目的 [33]。
3.1 The Fake Project
The Fake Project 于 2012 年 12 月 12 日开始其活动,并创建了 Twitter 帐户@TheFakeProject。它的简介报告了以下座右铭:“只有当你不是假货时才关注我”,并解释说该倡议与意大利比萨 IIT-CNR 研究人员拥有的一个研究项目有关。在第一阶段,业主联系了更多的研究人员和记者来宣传该倡议,外国记者和博主也在他们的国家支持该倡议。在十二天的时间里(2012 年 12 月 12 日至 24 日),该帐户已被 574 位关注者关注。通过 Twitter API,我们抓取了一系列关于这些关注者的公共信息以及他们的关注者和关注者的信息。对于这个数据集,我们爬取了 574 个账户,最终采集了 616,193 条推文和 971,649 个关系(即关联的 Twitter 账户)。
所有这些追随者都自愿加入了该项目。为了将它们收录在我们的参考人类集中,我们还启动了验证阶段。每个追随者在 Twitter 上收到来自@TheFakeProject 的直接消息,其中收录一个验证码的 URL,每个追随者都是唯一的。我们将成功完成 CAPTCHA 的 574 个关注者中的所有 469 个帐户视为“认证人”。在本节的其余部分,这个数据集被称为 TFP;
3.2. #elezioni2013 dataset
#elezioni2013 数据集(以下简称 E13)的诞生是为了支持一项与佩鲁贾大学和罗马第一大学合作开展的社会学研究计划。该研究侧重于 2013-2015 年 3 年期间意大利政治格局的战略变化。研究人员在 2013 年 1 月 9 日至 2 月 28 日期间确定了 84,033 个在其推文中使用 #elezioni2013 主题标签的唯一 Twitter 帐户。这些帐户的识别是基于对帐户的用户名和传记字段的特定关键字驱动的查询' 个人资料。关键词包括博主、记者、社交媒体策略师/分析师和国会议员。还搜索了政党的具体名称。总之,所有属于政治家和候选人的账户,政党、记者、博客作者、特定的协会和团体,以及任何以某种方式正式参与政治的人,都被抛弃了。其余账户(约 40k)已被归类为公民。最后一组已被抽样(置信度为 95%,置信区间为 2.5),产生了最后一组 1488 个帐户,这些帐户已经过手动验证以确定其个人资料和推文的性质。手动验证过程由意大利佩鲁贾大学的两名社会学家进行。它涉及对被调查账户的个人资料图片、传记和时间表的分析。没有传记或头像的帐户已被丢弃。传记中的 URL 也经过人工检查,以便对主题进行更深入的分析。只有被两位社会学家标记为人类的帐户才收录在 E13 数据集中。总体而言,手动验证阶段持续了大约两个月。结果,1481 个账户成为数据集 E13 的一部分。
3.3人类帐户的基线数据集
上面介绍的数据集形成了我们最终的一组,标记为 HUM,由 1950 个经过验证的人类账户组成。值得注意的是,这两个子集彼此之间有何不同。 TFP 集合由在志愿者基础上招募的帐户组成:参与该计划的人旨在成为在 Twitter 上发现虚假追随者的学术研究的一部分,他们是研究人员、社交媒体专家和记者的混合体,主要来自意大利,但也来自美国和其他欧洲国家。 E13 组由特别活跃的意大利 Twitter 用户组成,具有不同的专业背景,属于不同的社会阶层,对政治有着共同的兴趣,但不属于以下类别:政治家、政党、记者、博主;
3.4 虚假关注者的基线数据集
2013 年 4 月,我们从三个不同的 Twitter 在线市场购买了 3000 个虚假账户。特别是,我们从 购买了 1000 个假账户,从 购买了 1000 个,从 购买了 1000 个假账户,价格分别为 19 美元、14 美元和 13 美元.令人惊讶的是,fastfollowerz 和 intertwitter 给了我们比我们支付的更多的账户,分别是 1169 和 1337 而不是 1000。我们爬取了所有这些账户以构建一个 fastfollowerz 数据集,标记为 FSF,以及一个标记为 INT 的 intertwitter 数据集。相反,我们无法抓取从 twittertechnology 购买的所有 1000 个假粉丝,因为其中 155 个几乎立即被暂停。其余 845 个账户构成 twittertechnology 数据集,标记为 TWT。
我们承认,我们的假追随者数据集只是说明性的,而不是所有可能存在的假追随者集合的详尽说明。然而,值得注意的是,我们通过在最常见的搜索引擎上简单地通过网络搜索找到了 Twitter 帐户市场。因此,我们可以争辩说,我们的数据集代表了在搜索时很容易在 Web 上找到的内容。
3.5 虚假关注者和人类账户的基线数据集
我们实验中使用的最终基线数据集由虚假和人类档案组成。在下文中,我们将简要讨论为此数据集选择的虚假账户和人工账户之间的分布。许多机器学习技术受到少数类和多数类的自然分布不平衡的影响。这就是为什么,例如,文献中的作品研究了基于决策树的技术在改变训练集分布时的表现。特别是,Weiss 和 Provost 在 [34] 中考虑了基于决策树的分类器的性能,以预测 26 个不同数据集的样本,在少数类和多数类之间具有不同的分布。他们的调查结论表明,用于评估不同分类器性能的度量改变了训练集的类的最佳分布。例如,经过他们的经验分析,以准确率作为评价指标,26 个数据集中有 9 个数据集的最优分布与自然的非常不同,而当使用 AUC 作为评价指标时,这个数字增长到 26 个数据集中的 14 个. 而且,最优分布对少数类样本有过采样(也有过采样高达 90% 的少数类样本得到最佳分类器的情况)。
在这里,我们面临另一个基本问题:我们并不准确地知道假粉丝和人工账户的真实(自然)分布。 2013 年,Twitter 工作人员推测“虚假或垃圾账户的数量应占我们 MAU 的不到 5%”(其中 MAU 是指每月活跃用户)[35]。但是,MAU 既不能与 Twitter 帐户的随机样本同化,也不能与给定帐户的追随者同化。此外,如果一个账户购买了虚假关注者,那么它的虚假关注者和人类关注者的分布可能与人们可以找到的自然分布有很大的不同,无论是在 MAU 中,还是在 Twitter 圈中的所有 Twitter 账户中。总之,在整个 Twitter 中,5% 的虚假或垃圾账户估计不能直接扩展到给定账户的虚假粉丝。
尽管 Twitter 从未披露过注册用户总数,但非官方消息称,最新创建的 Twitter 账户数量远远超过 MAU。这就是我们做出保守假设的原因,将假追随者和人类追随者的平衡分布作为我们的基线数据集。
为了验证这个假设,我们在 [34] 中对我们的数据集进行了实验。我们逐渐改变数据集中假追随者和人类追随者的类别分布,从 5%–95% 到 95%–5%(分别为 100 人–1900 假追随者,1900 人–100 假追随者),并使用获得的数据集训练 J48 分类器,考虑它们的交叉验证性能。经过训练的分类器在人类和虚假追随者的平衡分布上获得了最佳结果。为了获得平衡的数据集,我们随机对假账户的总集合(即 3351)进行欠采样,以匹配经过验证的人类账户的 HUM 数据集的大小。因此,我们构建了一个收录 1950 个假粉丝的基线数据集,标记为 FAK。这项工作的最终基线数据集包括 HUM 数据集和 FAK 数据集,共有 3900 个 Twitter 帐户。在本文的其余部分中,这个平衡的数据集被标记为 BAS,并且已被用于本工作中描述的所有实验(未另行指定)。表 1 显示了本节描述的数据集中收录的帐户、推文和关系的数量。
4. 使用基于分类规则的算法进行虚假检测
在本节中,我们详细介绍了最初由博主和社交媒体分析师提出的三个程序,它们明确构思了用于检测假粉丝和机器人帐户。这些提议是在 [12, 11, 14] 中介绍的。我们在本节中关注的工作并不直接归因于学术工作。但是,这是媒体和社交营销公司对虚假 Twitter 追随者现象产生兴趣的一个例子。尽管我们不希望这些提议能够令人满意地执行虚假追随者检测的复杂任务,但我们相信对提议标准的彻底分析仍然可以提供一些有用的见解。巧合的是,所有程序都被提议为依赖于规则列表或标准的算法:每个要分类的帐户都根据所有规则进行检查,并且必须将检查的输出组合在一起以获得最终分类。不幸的是,在许多情况下,有关如何结合标准来获得帐户最终分类的详细信息并不公开。仅在 [12] 中提供了有关如何执行聚合的详细信息。在提供的细节的驱动下,我们实现了 [12] 中描述的完整算法,并在第 4.5 节中介绍了它的检测性能。此外,对于每个程序,我们报告原创来源所指示的标准,并进一步说明我们如何将它们实施为适用于我们数据集的规则。我们还详细说明了我们选择实施的原因。
在本节中,我们主要关注每条规则在我们的数据集上的应用,以评估其在区分虚假追随者方面的优势(或劣势)。在第 6 节中,我们将所有规则与第 5 节中分析的特征结合在一起,以评估它们的集体分类能力。这是因为单个规则(或特征)在分类虚假账户和人工账户方面可能表现不佳,但如果与其他规则结合使用,它可能会改善检测。事实上,值得注意的是,本节中分析的一些标准实际上已被第6节中内置的分类器所利用。
在本文的后续部分中,我们使用术语“朋友”来表示关注帐户的用户(即,如果 A 关注 B,则 B 是 A 的朋友)。
4.1. 政治候选人的追随者
Camisani-Calzolari [12] 对罗姆尼和奥巴马的 Twitter 追随者样本进行了一系列测试,用于上届美国总统选举,以及受欢迎的意大利政客。在 [12] 中,详细介绍了一种基于帐户的一些公共特征来评估帐户的算法。引用的算法有足够的细节可以重现:它分配人类/活跃和机器人/非活跃分数,并考虑两个分数总和之间的差距对帐户进行分类。特别是,该算法为表 2 中的每个标准分配了 1 个(或更多,如果指定)人工点。此外,如果该帐户仅使用 API,则该帐户会收到 2 个机器人点。
最后,对于每个未能验证的标准,帐户都会收到 1 个机器人点,但标准 8、13、14、15、16 和 17 除外:在这种情况下,不会分配机器人点。为了验证这些规则,我们参考了推文的源元数据,其中收录一个不同的值,代表用于发布推文的平台。特别是,关于上述规则,我们分别考虑了具有值 iphone、android、foursquare、instagram 和 web 的源元数据,并且我们为在采集的帐户推文中至少找到一次的每个值分配了 1 个人工点.对于标准 21,如果该帐户的推文没有被其他用户转发,则分配 2 个机器人点。考虑到规则 8,地理定位与推文有关。因此,当帐户的至少一条推文已进行地理本地化时,我们将此规则设置为满足。对于规则 11,已在个人简介和时间线中搜索了标点符号。
4.2.
根据社交媒体网站 [11] 的创始人的说法,在提出识别可疑 Twitter 帐户的黄金法则的几位博主中,我们考虑了“识别 Twitter 机器人的 7 个信号”。表 3 列出了识别 Twitter 机器人的“需要注意的 7 个信号”。
规则 3 已将推文视为一个单元来实施。我们考虑每个时间线的最后 20 条推文。对于规则 4,当数据集中至少 3 个帐户具有相同的头像时,我们认为存在重复的头像。对于规则 5,我们将所有未从网站 发布的推文视为从 API 发布的推文。
对于规则 6 和 7,在查找帐户的朋友或关注者列表时,Twitter 仅提供有关当前列表的信息,而不提供有关过去朋友或关注者的详细信息。此外,Twitter 不会披露与用户关注或被其他用户关注的时刻相关的任何时间数据。这意味着检查用户的关注/取消关注行为(规则 7)的唯一方法是持续监控完整的朋友和关注者的完整列表。这同样适用于测量用户关注(和回复)其他用户时所经历的延迟(规则 6)。正如第 6 节中进一步详述的那样,Twitter 对 API 使用的速率限制使得监控即使是一小群用户的朋友和关注者列表实际上也不可行。因此,我们没有将规则 6 和 7 应用于我们的数据集,因为这需要持续监控这些帐户。这也意味着这些规则不能用于支持自动检测过程,因为它们需要评估交互式过程。
4.3 社交网站的 FakeFollowerCheck
几家公司提供在线工具,根据 Twitter 关注者的虚假程度对其进行分类。在这里,我们考虑由 Socialbakers [14] 开发的“FakeFollowerCheck 工具”。虽然公司网站提供了八个标准来评估某个帐户的关注者的虚假程度,但它省略了如何结合这些标准对帐户进行分类的细节。我们联系了他们的客户服务,但我们得到的回答是“如何衡量各自的标准是内部信息”。 FakeFollowerCheck 工具分析帐户的关注者,并在满足表 4 中列出的标准时认为他们可能是假的。
对于规则2,我们将Socialbakers网站建议的“节食”、“赚钱”或“在家工作”(英语和意大利语都有)视为垃圾短语。
4.4. 评估方法
上面详细描述的所有标准都已应用于2个验证的人类账户数据集(TFP和E13)以及从Twitter账户市场(FSF∪NT∪TWT)购买的所有3351个假追随者账户,如第3节所述。
我们针对每条规则进行了一项实验,考虑了两类账户,即虚假关注者和人类账户。为了总结每个实验的结果,我们考虑了基于四个标准指标的一些评估指标,即:
真阳性(TP):被规则识别为假关注者的假关注者的数量;
• True Negative (TN):被规则识别为人类追随者的人类追随者的数量;
• 误报(FP):被规则识别为假追随者的人类追随者的数量;
• 假阴性 (FN):被规则识别为人类追随者的虚假追随者的数量;
每个指标的含义由表 5 中的矩阵(称为混淆矩阵)以图形方式突出显示,其中每一列代表预测类中的实例,而每一行代表实际类中的实例 [36]:为了评估每一条规则对基线数据集中账户的应用,我们考虑以下标准评估指标:
准确率:预测的真实结果(真阳性和真阴性)在总体中的比例,即
精度:预测的正例中确实是真正正例的比例,即(TP)/(TP + FP);
召回率(或敏感度):真正预测为阳性的真实阳性病例的比例,即(TP)/(TP+FN);
F-Measure:准确率和召回率的调和平均值,即
Matthew Correlation Coefficient(MCC)[37]:预测类与样本真实类之间相关性的估计量,定义为
上述每一项措施都捕获了属于相关类别的样本(我们的数据集中的假追随者)的预测质量的不同方面。准确度衡量有多少样本在两个类中被正确识别,但它不表示相关类是否比另一个类更好地识别。此外,在某些情况下,某些预测模型的性能比其他模型更好,甚至精度较低 [38]。高精确度表明许多被识别为相关的样本被正确识别,但它没有提供有关尚未识别的相关样本的任何信息。该信息由召回指标提供,表示在整个相关样本集中有多少样本被正确识别:低召回意味着许多相关样本未被识别。 F-Measure 和 MCC 试图在一个单一的值中传达预测的质量,并结合其他指标。此外,MCC 被认为是 F-Measure 的无偏版本,因为它使用了混淆矩阵的所有四个元素 。然后,我们将那些应用给出 MCC ≥ 0.6 的标准视为最佳规则,因为这些规则与账户类型具有最强的相关性。为了完整起见,我们还报告了曲线下面积度量 (AUC),即接受者操作特征 (ROC) 曲线下的面积 [39]。后者是描述分类器性能的曲线,考虑了真阳性样本的百分比与假阳性样本的百分比。 AUC 用于将 ROC 曲线总结为单个值:面积越接近 1,分类器越有能力.
最后,我们还报告了信息增益(I gain)和皮尔逊相关系数(Pcc)。虽然 Pearson 相关系数可以检测特征和目标类之间的线性依赖关系,但信息增益考虑了更一般的依赖关系,利用概率密度(或频率,在离散变量的情况下)。更准确地说,信息增益是关于特征相对于预测类的信息量的度量,通常用于训练机器学习分类器。它可以非正式地定义为由给定属性的值的知识引起的熵的预期减少[40]。我们计算两个信息增益:关于规则结果的增益和关于规则使用的属性的增益*。对于 I gain,基于属性 A 的规则只能假设值 0(不满足)和 1(满足),而对于 I gain*,属性 A 可以假设很多异类值。例如,在评估规则“followers ≥ 30”的信息增益时,具有 234 个关注者的样本在计算 I gain 时贡献值为 1,在计算 I gain∗ 时贡献值为 234。相反,皮尔逊相关系数是衡量两个随机变量X和Y之间线性关系的强度。同样,我们计算 Pcc,考虑规则满足的结果(即:true=1 或 false=0)和 Pcc*,基于用于评估规则的属性所假定的值。我们在以下部分中的实验将表明,一般来说,一个规则和相应的属性假定信息增益和皮尔逊相关系数的值非常不同
4.5. Camisani-Calzolari 算法的评估
[12] 中的检测算法汇总了 4.1 节介绍的用于识别人类和机器人行为的 22 条标准。该算法评估正在调查的帐户上的每条规则,并根据规则应用程序的输出分配正面的人工得分或负面的机器人得分。最终结果取决于账户获得的全局分数:如果结果大于0,则将该账户标记为人类;如果介于 0 和 -4 之间,则标记为中性;否则,它被标记为机器人。
表 6 详细说明了在完整数据集上运行算法的结果,包括 FAK 集,即所有购买的假粉丝账户。虽然在检测真实的人类账户方面取得了很好的效果,但该算法实现了较差的虚假关注者账户检测。大多数帐户也被错误地标记为人类,主要是因为我们数据集中的假追随者具有很容易使他们获得比机器人更高的人类分数的特征。
在我们的第二个实验的结果中,上述无法检测到虚假账户的情况很明显。为了评估该算法,我们使用它来预测我们的基线数据集 (BAS) 的账户类别,在表 7 中报告最终预测的评估。正如预期的那样,该算法的准确度很差(非常接近 0.5)并且高精度,这意味着被识别为假的(少数)帐户实际上是假的。然而,它的召回率也非常低,这意味着许多其他虚假账户都未被识别为虚假账户。这种较差的性能也通过接近 0.1 的 F-Measure 和低 MCC 值来表示。
4.6.单一规则评估
在本节中,我们分析了原作者设计的每条规则的有效性,以评估哪个规则可以被视为检测虚假 Twitter 关注者的良好标准。
表 8 总结了将 4.1、4.2 和 4.3 节中介绍的每个规则应用于我们的 BAS 数据集所获得的结果。在表 8 中,我们强调了实现高 MCC 值的规则。如图所示,只有三个规则获得了高于 0.6 的值,即:(1)至少 30 个关注者的阈值,(2)至少 50 条推文的阈值,以及(3)至少一个用户 ID 的使用userID。
正如 MCC 的定义所预期的那样,这些规则还表现出高精度、精确度和召回率的组合。然而,值得观察信息增益和皮尔逊相关系数的值。规则的信息增益(I gain)总是低于对相关属性 I gain* 的评估,而对于 Pearson 相关系数(Pcc 和 Pcc*)则不然。实际上,这是因为Pcc评估两个假设值非常相似的变量(即规则和类的输出)之间的线性依赖关系,而Pcc*则考虑具有更多异类值的变量。实际上,在第一种情况下,变量类和输出都只能假设值 0 和 1:类可以是 0(人)或 1(假),规则可以输出 0(假,例如,帐户没有超过 50 条推文)或 1 条(真实,例如,帐户有超过 50 条推文)。相反,对于 Pcc* ,规则的属性(在示例中为推文的数量)可以采用更高的值(帐户有 234 条推文)。这显然不是线性依赖于类值,导致 Pcc* 相对于 Pcc [41] 的值较低。
因此,对于第 4.1 节(表 8 顶部)中列出的每个规则,比较 Pcc 和 Pcc* 值是没有意义的。相反,我们只需要关注相同类型的指标,即按列,来比较特征与类的线性相关性。然后,将注意力转移到信息增益上,我们注意到许多规则考虑了能够有效区分两个类别的属性。如果我们认为信息增益值高于 0.5 的规则和特征是有用的,我们观察到,即使许多规则表现出非常低的 I 增益,它们的“特征”版本也会变得更有趣:例如,规则 18,当用作特征时,图 20、21 和 22 的信息增益明显增加。因此,我们可以得出该规则是基于正确的假设(例如,使用主题标签),但规则定义过于简单而无法有效:[12] 提出的算法对于复杂的任务来说太天真了Twitter 中的虚假帐户检测。巧合的是,我们发现表现最好的规则也显示出最高的 Pcc 值,即它们的满意度与所属类别更密切相关。关于规则背后的特征,我们发现 Pcc* 大大降低了,因为如上所述,它们可以(并且确实)假设非常高的值,这严重影响了与类的线性相关性。
观察表 8 的其他规则,我们可以注意到在线博客和 Socialbakers 的 FakeFollowerCheck 建议的标准都没有成功地检测到我们数据集中的假粉丝。例如,Van Den Beld 的所有规则的准确率和精度都接近 0.5 或非常低的召回率。此外,我们观察到“来自 API 的推文”的 MCC 为 -0.779,这意味着它与帐户的类别严格相关,但有一个相反的因素:在我们的数据集中,虚假的追随者帐户几乎从不来自 API 的推文(相反,他们使用 发布推文),而人类帐户至少从网站外部发布过一次。这与博主为机器人建议的行为完全相反,后者(应该)几乎完全使用 API 发布推文。 I gain/I gain* 和 Pcc/Pcc* 值也证实了与预测任务的相关性。
另一个有趣的观察是,Socialbakers 提出的许多规则的 MCC 值接近 0,这意味着它们的结果几乎与账户类别无关。事实上,绝大多数账户都被识别为人类,从而导致高精度、0.5 左右的准确度和非常低的召回率。例外是规则 6,“0 条推文”:通常,它的信息增益值为 0.02,但当考虑一个特征(即推文数量)时,它获得 0.621。类似地,规则4和规则5在考虑它们的基本特征(即转发数和带有url的tweet数)时对检测过程更有用。总而言之,独立于帐户的类型,规则几乎总是得到满足,导致在处理虚假关注者检测时出现严重缺陷。
5. 基于特征集的伪造检测算法
在本节中,我们研究了 [8, 2] 中解决 Twitter 上的垃圾邮件帐户检测的工作。他们都提出了要从手动分类的帐户数据集中提取的特征列表。然后使用这些特征集来训练和测试机器学习分类器,以区分人类和垃圾邮件发送者。即使提议的功能最初是为垃圾邮件检测而设计的,但在这里,我们第一次认为它们可以发现另一类 Twitter 帐户,即假粉丝。尽管在关注 Twitter 垃圾邮件检测的文献中存在许多其他著作(参见第 2 节),但其中许多都考虑了可以在某种程度上与本节和前一节中分析的特征相似的特征。
与第 4 节中基于规则的算法不同,此处将特征表示为所考虑样本属性的量化。因此,它们是在没有任何关于将表征所考虑类的特征的值的先验知识的情况下引入的。只有在训练阶段之后,才有可能观察不同类别中特征的最常见值。
对于我们的分析,我们使用了生成“玻璃盒”和“黑盒”模型的分类器。在“玻璃盒”模型中,例如决策树和回归模型,模型的内部结构可以被人类理解,也提供了关于分类器如何识别虚假账户的见解 [39]。相反,在诸如支持向量机之类的“黑盒”模型中,模型的内部结构没有直接的人类可解释的对应关系。
5.1 检测社交网络中的垃圾邮件发送者
[8] 中提出的研究侧重于垃圾邮件检测。作者利用了几个特征,这些特征可以从账户的个人资料和时间线中抓取账户的详细信息。对于每个调查的帐户,在随机森林算法 [23, 43] 中利用这些特征,该算法输出该帐户是否是垃圾邮件机器人。 [8] 中的分析结果描述了正在调查的垃圾邮件帐户的一些有趣特征,如表9所示:
为了评估特征 3,我们通过检查帐户时间线的最后 15 条推文中是否存在至少两条推文来实现消息相似度的概念,其中 4 个连续单词相等。同一作者在后来的作品中给出了这个概念 [25]。
如果没有原创训练集,我们无法重现相同的分类器,但我们选择了五个特征并使用它们用我们的 BAS 数据集训练一组分类器。结果报告在第 5.3 节的表 12 中。
5.2 对抗不断发展的 Twitter 垃圾信息散布者
[2] 的作者观察到 Twitter 垃圾邮件发送者经常修改他们的行为以逃避现有的垃圾邮件检测技术。因此,他们建议考虑一些新功能,使垃圾邮件发送者更难以规避。除了直接从帐户配置文件查找中获得的功能之外,作者还提出了一些基于图形、自动化和时间的功能。在表 10 中,我们详细介绍了其中的九个,以及他们在 [2] 中的分析结果
[2] 的作者将他们的特征结合在四种不同的机器学习分类器中,并将它们的实现与其他现有方法进行比较。我们无法完全重现 [2] 中的机器学习分类器,因为我们有不同的数据集。相反,我们在此评估这些功能在检测虚假 Twitter 追随者方面的表现如何,这些功能被证明对垃圾邮件发送者采用的规避技术非常强大。与 [2] 中一样,以下比率(特征 9)已近似为朋友/年龄的比率,因为精确的评估需要知道一个帐户的朋友数量的演变,但这实际上是公开不可用的.最后,在[2]中,除了上面提到的那些之外,还有其他的特征。然而,正如同一作者所声称的,它们在规避技术方面的鲁棒性较差,因此我们决定不将它们包括在我们的评估中。
5.3 评估
正如第 4 节中的规则集所做的那样,我们在表 11 中报告了 BAS 数据集中所有特征的信息增益和 Pearson 相关系数的评估。同样在这种情况下,由于 Pcc 评估所考虑的特征和类别之间的线性相关性(只能为 0 或 1),因此与信息增益相比,它产生的结果略有不同。观察表 11 中的结果,我们可以确定几个有希望的特征:“推文数量”(已经在第 4 节中注意到)、“朋友和关注者之间的比率^2”、“双向链接比率”和“API 比率”。 5.4.3 节的实验将进一步证实双链路比率的有益效果。
为了评估第 5.1 节和第 5.2 节中描述的特征集在检测虚假追随者帐户方面的综合有效性,我们使用了 8 个分类器,这些分类器来自不同的基于机器学习的算法,即:装饰 (D)、自适应提升 (AB)、随机森林(RF)、决策树 (J48)、贝叶斯网络 (BN)、k-最近邻 (kNN)、多项岭逻辑回归 (LR) 和支持向量机 (SVM)。我们的 SVM 分类器利用径向基函数 (RBF) 内核,并使用 libSVM 作为机器学习算法进行了训练 [44]。在 SVM 的训练阶段,成本和 gamma 参数已通过网格搜索算法进行了优化。类似地,kNN 分类器的 k 参数和 LR 模型的脊惩罚参数已通过交叉验证参数选择算法进行了优化。这项工作中使用的所有分类器和优化算法都是在 Weka 框架内实现的 [43]。
在这些算法中,RF 是 [8] 中唯一使用的一种。相反,[2] 的作者使用了 D、RF、J48 和 BN。我们决定将 AB 纳入我们的工作,因为它被认为是用于分类任务的最有效的机器学习算法之一 [39]。此外,我们还添加了其他著名的和广泛采用的分类器,它们基于不同的分类技术,如支持向量机,kNN和LR,以便对我们的检测系统进行彻底的评估。我们已经建立了 8 个分类器,采用了第 5.1 节和第 5.2 节中的特征,并使用我们的基线(BAS)数据集训练了模型。然后,我们使用 10 倍交叉验证 [23] 来估计每个获得的分类器的性能。至于 4.4 节中基于规则的算法,我们将 MCC 视为评估分类器性能的首选指标。表 12 总结了结果。每个指标的最高值以粗体显示。
我们可以观察到所有的分类器都有很好的预测能力。基于 [2] 的特征集构建的那些获得了稍微好一点的结果。特别是,RF、J48 和 D 分类器的 MCC 大于 0.98。同样,所有这些的准确率和召回率都在 0.99 左右。此外,与使用 [8] 的特征集构建的分类器相比,基于 [2] 的特征集的所有分类器都具有更高的 AUC。无论如何,后者也获得了很高的检测水平:RF、D 和 J48 的准确率、精确度和召回率约为 0.98,MCC 约为 0.96。相对于使用 Yang 等人的集合获得的精度和召回率较低。 [2] 表明 Stringhini 等人的特征。 [8] 表现出将某些人类帐户视为虚假追随者的趋势。对于 [2] 和 [8] 特征集,BN、kNN 和 LR 分类器总体上实现了更差的性能。相反,SVM 分类器取得了显着的结果,尤其是在使用 [2] 的特征集时。事实上,在这个实验中,SVM 的得分只比 RF、D 和 J48 稍差,但比 AB 好。然而,当使用 AUC 指标评估时,AB 实现了极高的性能。最后,在所有考虑的分类器和评估指标中,RF 和 D 是已被证明更一致的那些。
总体而言,即使在评估指标中可以观察到一些小的差异,对于我们的基线 BAS 数据集,所有分类器几乎都可以正确区分人类和虚假追随者帐户。与CC算法相比,基于特征的分类器在假追随者检测方面无疑更准确,但CC算法在我们的数据集中表现不佳,如上文第4.5节所述。
5.4. Discussion
通过检查分类器的内部结构,我们可以深入了解更有助于区分人类和虚假追随者的最佳特征。在决策树的情况下,最好的特征是更接近根的特征,分类器自动找到数字阈值,对于给定的特征,人类和假追随者之间的边界。值得注意的是,装饰、AdaBoost 和随机森林算法最终也利用了简单决策树分类器的组合。尽管它们的性能非常好,但它们的缺点是难以分析,因为它们可以收录数十个相互作用的单独树。然后,我们只关注 J48 分类器(单个决策树)来检查特征在分类过程中是如何应用的。
5.4.1 虚假关注者和垃圾邮件帐户之间的区别
查看树形结构,我们观察到 BAS 数据集中的虚假关注者与 [8] 和 [2] 中的垃圾邮件帐户之间存在一些有趣的差异。例如,已发现特征 URL 比率对垃圾邮件发送者的值高于对合法用户的值,如 [8](第 5.1 节)中强调的那样。相反,观察我们的 J48 分类器的树形结构,该特征的低值表示虚假追随者,而在我们的基线数据集中表示人类账户的较高值。在我们的训练数据集中,超过 72% 的虚假关注者的 URL 比率低于 0.05,与 14% 的人类账户相反。同样,发现垃圾邮件发送者的 API 比率功能高于合法帐户([2],另请参见第 5.2 节)。在我们的数据集中,78% 的假粉丝的 API 比率低于 0.0001。对于普通邻居的推文特征,已经观察到类似的行为,在 [2] 中发现垃圾邮件发送者的行为较低,但对于我们的假追随者而言则较高。
这些初步观察突出了垃圾邮件帐户和虚假追随者之间的行为差异。特别是,与垃圾邮件发送者相比,虚假关注者似乎更被动,并且他们不像垃圾邮件发送者通常那样使用自动机制来发布他们的推文。
5.4.2 减少过度拟合
众所周知,经过训练的分类器可能会受到“过度拟合”的影响,即对训练数据集过于专业化并且无法将分类推广到新的和看不见的数据的问题[45]。
避免过度拟合的一个简单方法是使分类器尽可能简单。例如,在决策树算法的情况下,一种解决方案可能是减少节点的数量,并可能减少树的高度。使用 Stringhini 等人的特征集获得的决策树。 [8] 有 22 个叶子,43 个节点,高度为 7,而最好的特征是放在根的朋友/(followers^2)比率。具有杨等人特征集的决策树。 [2]有17个叶子,33个节点,高度为8,以双向链接比为根。
泛化分类器的一种常见做法是采用更积极的剪枝策略,例如,通过对小测试集使用减少错误剪枝 [23, 43]。采用这种策略,我们能够获得具有较少节点数和非常低高度的更简单的树。这种更简单的树通常使用特征集的子集,在我们的 BAS 数据集上仍然保持非常好的性能。
表 13 报告了我们进行的实验的特征和性能,改变了剪枝策略。值得注意的是,树的复杂性并不总是与检测能力的提高直接相关:例如,对于 Yang 等人的特征集。 [2],将节点数量从 33 个减少到 11 个,只会降低 0.007 的精度和 0.014 的 MCC。
同样,树的修剪和未修剪版本之间的 AUC 值几乎保持不变。此外,我们清楚地观察到 Stringhini 等人的修剪版本。 [8] 减少了 0.017 的召回率,而 Yang 等人的 [2]仅下降 0.004,这意味着后者在修剪后能够比前者漏掉更少的假货。这从 F-Measure 和 MCC 的较高减少也很明显。我们认为这种提高的有效性是所用特征质量的直接结果。总体而言,该实验的结果表明,即使减少特征,检测率也可能高于 0.95(如表 13 的最后一行,分别针对 [8] 和 [2])。例如,在这两个实验中,被修剪的树使用的特征只有双向链接比率、平均邻居的追随者、年龄,以及对中位数邻居追随者的追随者作为杨的原创特征集的子集等。 [2],以及作为 Stringhini 等人的子集的朋友/(追随者^2)、URL 比率和朋友数量。 [8] 原创特征集。
核心方法:PHP文章采集方法及思路
1.采集文章的大致思路: 1.定时抓取文章列表页,提取文章的所有链接地址写入临时表2、从数据库中读取获取文章的所有链接并访问,然后定期匹配文章的标题和内容,写入文章表。2.其中两个需要注意: 1.采集防死:因为程序在采集的过程中需要执行很多操作,如果是一次性全部读取,加上一些网络问题(比如网速慢,网络不稳定),程序在采集的过程中可能会出现页面超时。为此,我想到了用一个一个一个读入的方法,就是在打开页面的时候,read-only每次取一个文章 链接到采集,然后跳转到页面,可以减轻程序运行的负担,增加程序运行的流畅度,从而在一定程度上减少页面超时的问题。2. 采集文章中的图片:在采集...
查看全部
无规则采集器列表算法 推荐文章:论文阅读
论文链接:
目录
摘要
虚假关注者是专门为夸大目标账户关注者数量而创建的那些 Twitter 账户。假追随者对社交平台及其他领域来说是危险的,因为他们可能会改变 Twitter 领域的流行度和影响力等概念,从而影响经济、政治和社会。在本文中,我们沿着不同的维度做出贡献。首先,我们回顾了一些最相关的现有功能和规则(由学术界和媒体提出),用于异常 Twitter 帐户检测。其次,我们创建了一个经过验证的人类和虚假追随者帐户的基线数据集。这样的基线数据集对科学界是公开的。然后,我们利用基线数据集来训练一组基于审查的规则和特征构建的机器学习分类器。我们的结果表明,Media 提出的大多数规则在揭示虚假粉丝方面的表现并不令人满意,而 Academia 过去提出的用于垃圾邮件检测的特征提供了良好的结果。基于最有希望的特征,我们在减少过度拟合和采集计算特征所需数据的成本方面修改了分类器。最终结果是一个新颖的 A 类分类器,其通用性足以阻止过度拟合,由于使用了成本较低的特征,因此轻量级,并且仍然能够正确分类原创训练集的 95% 以上的帐户。我们最终执行基于信息融合的敏感性分析,以评估分类器使用的每个特征的全局敏感性。
本文报告的研究结果,除了得到了彻底的实验方法的支持和本身的趣味性外,还为进一步调查假推特追随者的新问题铺平了道路。
1 绪论
Twitter最初是一个个人微博网站,现在已经从普通用户转变为一个信息发布场所。据统计,Twitter 订阅者约为 10 亿,每月活跃用户为 3.02 亿。 Twitter 2014 年的年度广告收入估计约为 4.8 亿美元。流行的公众人物,例如演员和歌手,以及传统的大众媒体(广播、电视和报纸)都使用 Twitter 作为新的媒体渠道。
这样的多功能性和使用范围使 Twitter 成为异常账户扩散的理想场所,这些账户以非常规的方式行事。学术界主要关注垃圾邮件发送者,这些帐户积极致力于传播恶意软件、发送垃圾邮件和宣传合法性可疑的活动 。为了提高其有效性,这些恶意帐户通常配备自动推特程序,就像模仿真实用户一样隐秘,称为机器人。最近,媒体开始报道政客、名人和流行品牌的账户出现了可疑的追随者膨胀。所谓的虚假关注者对应于专门用于增加目标账户关注者数量的 Twitter 账户。例如,在 2012 年美国大选期间,挑战者罗姆尼 (Romney) 的推特账户的关注者数量突然激增。其中绝大多数后来被声称是假的。同样,在上一次意大利大选(2013 年 2 月)之前,在线博客和报纸报道了有关主要候选人假追随者比例的统计数据。乍一看,获得虚假追随者似乎是一种仅限于培养虚荣心的做法——一种可能有问题但无害的做法。但是,人为夸大关注者数量也可以最终确定,以使帐户更值得信赖和有影响力,从而脱颖而出并吸引其他真正的关注者。最近,美国的银行和金融机构在实际发放贷款之前已开始分析贷款申请人的 Twitter 和 Facebook 账户。因此,拥有“受欢迎”的个人资料绝对有助于提高申请人的信誉。同样,如果恶意账户采用购买虚假粉丝的做法,作为垃圾邮件发送者,它可以作为发布更权威消息和发起更有效广告活动的一种方式。对许多博主来说,检测假粉丝似乎是一件容易的事,他们提出了自己的“黄金法则”,并提供了一系列标准,用来对推特账户行为进行分类。然而一些规则通常既不与分析算法配对以聚合它们,也不与验证机制配对。至于学术界,研究人员主要关注垃圾邮件和机器人检测,基于 Twitter 帐户的(非)人类特征,主要是通过在人工注释的帐户集上训练的机器学习分类器,获得了出色的结果。
然而,据我们所知,尽管假追随者构成了一种具有经济和社会影响的普遍现象,但在文献中该主题尚未得到深入研究。
这项工作的目标是阐明假 Twitter 追随者的现象,旨在克服目前在其表征和检测方面的局限性。特别是,我们提供了以下贡献。首先,我们构建了一个 Twitter 账户的基线数据集,其中人类和假粉丝是先验已知的。其次,我们在基线数据集上测试已知的机器人和垃圾邮件检测方法。特别是,我们针对基于以下算法的算法测试参考集中的 Twitter 帐户:(i) 博客作者提出的单一分类规则,以及 (ii) 文献中提出的用于检测垃圾邮件发送者的特征集。分析结果表明,假追随者检测值得专门的机制:具体而言,基于分类规则的算法无法成功检测我们基线数据集中的假追随者。相反,基于特征集的垃圾邮件检测分类器也适用于虚假关注者检测。第三,我们根据采集计算它们所需的数据采集所需的成本,并对所有调查的规则和特征进行分类。在理论计算和经验评估的基础上,我们展示了性能最好的特征也是最昂贵的特征。我们分析的新结果表明,数据获取成本通常严重限制了这些功能的实际适用性。最后,在爬虫成本分析的基础上,我们设计并实现了轻量级分类器,这些分类器利用了成本较低的特征,同时仍然能够正确分类我们训练数据集 95% 以上的帐户。此外,我们还验证了我们的分类器在与原创训练数据集不相交的另外两组人类和虚假追随者帐户上的检测性能。
本文的其余部分的结构如下。第 2 节考虑和比较 Twitter 垃圾邮件和机器人检测领域的相关工作。第 3 节描述了我们的基线数据集。在第 4 节中,我们使用我们的基线数据集评估了社交媒体分析推广的一组虚假 Twitter 关注者检测标准。在第 5 节中,我们检查了以前工作中用于 Twitter 帐户垃圾邮件检测的功能。在第 6 节中,我们计算了提取分类器所基于的特征的成本。还提供了一个轻量级、高效的分类器,在虚假关注者检测能力和爬取成本之间取得了很好的平衡。最后,第 7 节总结了论文。
2 相关工作
引用 [7] 的内容,“虚假的 Twitter 帐户被认为是一种欺骗形式(即,在个人资料的内容和个人信息方面的欺骗,以及让个人资料关注他人而不是因为个人兴趣,而是因为他们这样做是有报酬的)。”虚假的 Twitter 帐户的第二个特征正是我们在论文中要讨论的:我们特别将虚假追随者视为那些适当创建并出售给客户的 Twitter 帐户,这些帐户旨在放大他们在世界眼中的影响力和参与度,并产生大量追随者的错觉。
如此定义的虚假追随者只是在 Twitter 上传播的异常账户的一个例子。文献中确实将异常确定为垃圾邮件发送者(即宣传未经请求且通常有害的内容的帐户,收录指向恶意页面的链接 [8])或机器人(即控制社交帐户的计算机程序,隐秘到模仿真实用户 [9])或 cyborgs(即交织手动和自动行为特征的帐户 [10])。最后,还有虚假的追随者,为追随目标账户而大量创建的账户,可以从在线账户市场购买。
2.1 灰色文学和在线博客
在介绍学术文献之前,我们简要报告了在线文档,该文档提供了一系列直觉的虚假追随者检测标准,尽管并未以科学的方式证明是有效的。我们引用这项工作的原因有两个:一方面,在线文章和帖子证明了对真假 Twitter 追随者的正确区分;另一方面,我们旨在以科学的方式评估这些标准是否真的可以用于检测假粉丝。
例如,[11] 中的一位知名博主指出,机器人帐户可能具有类似机器人的独特信号:1)通常有大量的追随者和少量的追随者; 2) 向所有人发推文;并且,3)玩关注/取消关注游戏,即他们通常在 24 小时内关注然后取消关注帐户。在线博客宣传的标准主要基于常识,作者通常甚至不建议如何验证它们。
数字评估公司[12]发布的一系列报告引起了意大利和欧洲报纸和杂志的注意,引发了人们对政界人士和主要国际公司在Twitter上受欢迎程度的质疑。报告中列出了一些标准,这些标准受到常识的启发,并表示人类行为,用于评估选定账户的追随者样本。对于follower满足的每一个标准,将分配一个人类得分。对于每一个不满足的标准,要么给机器人评分,要么给中立评分。根据总分,Twitter粉丝分为人类、机器人或中立(在后者的情况下,没有足够的信息来评估他们的性质),为被关注账号的有效影响力提供一个质量分数。但是,[12]中的结果缺少验证阶段。
最后,一些专门从事社交媒体分析的公司提供在线服务,以估计 Twitter 帐户在其追随者方面的真实性 [13,14,15]。但是,用于分析的标准并未公开披露,仅可从其网站上可用的信息中部分扣除。此外,正如我们之前的工作 [16] 所证明的,这些分析受到一些偏差的影响,例如小的和统计上不健全的采样策略。
2.2 学术文献
近年来,Twitter 上的垃圾邮件检测已成为许多调查的主题,从多个角度处理该问题。例如,一个研究分支专注于推文的文本内容 [4, 3, 17],研究推文中嵌入 URL 的重定向 [18],并对 URL 登录页面进行分类 [19]。其他作品通过认识论解决了 Twitter 上的欺骗问题。例如,在 [20] 中,作者评估了欺骗检测任务的 4 个认识论特征:权威、合理性和支持、独立确证和呈现。
在[21]中的工作克服了不能正确地标记那些没有 URL 的 tweet 为垃圾 tweet 的限制,通过提出一个复合工具,能够将传入的 tweet 与垃圾邮件发送者通常使用的底层模板匹配。 [7] 中的工作没有考虑推文的内容,而是尝试仅根据源自帐户配置文件的可能不一致的信息来分类帐户是否可以信任。
一系列作品通过多特征的方法调查微博平台上的垃圾邮件发送者,包括个人资料、行为和帐户时间线的特征。在这个研究方向内,我们在此引用 [8]、[2] 和 [22]。 [8] 中的工作分析了垃圾邮件发送者在 Facebook、Twitter 和 MySpace 上的运作方式,报告称可疑帐户在特定功能上具有一些共同特征。这些作为基于机器学习的分类器 [23] 的输入,导致检测到超过 15,000 个垃圾邮件配置文件,Twitter 迅速删除了这些配置文件。在 [2] 中,作者提出了检测 Twitter 垃圾邮件发送者的标准分类法。一系列实验表明,与现有标准相比,新设计的标准具有更高的检测率。在 [22] 中,作者利用行为特征(例如推文和转发活动)、网络特征(例如帐户的关注者和朋友的数量)和基于内容的特征的组合开发了一个混合数学模型来检测微博上的垃圾邮件发送者,微博是类似于 Twitter 的中国微博网站。
[10] 的作者将 Twitter 帐户分为三类:人类、机器人和半机器人。后一类代表机器人辅助人类或人类辅助机器人。作者使用了一个基于三个专门组件的决策者,这些组件考虑了推文的内容和时间以及一些帐户属性。
[24, 4] 中提出的算法旨在尽快发现自动恶意 Twitter 帐户组,以避免帐户所有者利用它们。因此,作者将聚类算法应用于在短时间内创建的帐户组时间,除其他外,考虑基于名称和内容的特征。在 [25] 中,作者列出了检测 Twitter 帐户市场的客户和受害者的几个标准,即 在线服务,为他们的订阅者提供追随者以换取费用,并代表他们传播促销推文。在另一项工作 [26] 中,同一研究团队提供了有关帐户市场的更多详细信息,分析了客户的其他属性和特征(例如,关注者和朋友的动态以及产生参与的能力),并为检测市场和市场客户。 [27] 的作者在 10 个月的时间里监控一组 Twitter 帐户商家的价格、可用性和欺诈行为。这样的研究重点关注账户市场用来创建和注册欺诈账户的技术和方法,从 CAPTCHA 解决服务到欺骗性电子邮件凭据和用于逃避黑名单的各种 IP 地址池。与 Twitter 本身合作,作者开发了一个分类器来检测此类欺诈账户,这些账户因此被暂停。
值得注意的是,学术著作的引用选择并不详尽。但是,它考虑了大量标准,我们进一步利用这些标准来检测虚假 Twitter 关注者。还有其他用于垃圾邮件检测的工作,此处不详述,例如 [1, 28, 29, 30, 31, 32],其结果基于所选相关工作集所考虑标准的子集或略微修改的版本。
2.3 与我们的方法的异同
我们研究的目标是自动检测那些专门为增加某些目标帐户的关注者数量而创建的 Twitter 账户(所谓的虚假 Twitter 关注者)。先验地,垃圾邮件发送者、机器人和真实用户的帐户都可能属于虚假关注者的宏观类别,并且文献中已经证明可以有效发现垃圾邮件发送者和机器人的特定功能也可以在虚假关注者的情况下起作用。确实正是这一观察结果最初驱使本文的作者朝着在真实账户和虚假追随者的参考数据集上测试过去作品中的规则和特征的方向发展。这有助于修剪那些在检测虚假追随者方面表现最差的规则和特征,并留下表现良好的规则和特征。
从技术角度来看,在我们的实验中,我们依赖于基于机器学习的分类器,这些分类器利用 1) 配置文件、2) 活动和 3) 帐户关系的特征,类似于 [8, 2]。相反,我们不依赖推文特定内容固有的特征,例如 URL 的存在和文本的语义 [17, 19]。因为我们修改了我们的分类器以减少过度拟合和数据采集的成本,所以我们不仅仅是应用已经测试过的特性到一个新的数据集,如第5节和第6节所示。
最后,与 [26] 类似,我们从网络上的不同市场购买了虚假的 Twitter 追随者。我们独立于 [26] 进行了这样的训练,此外,这两项工作的目标完全不同,我们的目标是这些市场销售的账户,而另一个则针对他们的客户。至于我们的基线数据集的真实用户,我们招募了自愿加入我们活动的人的账户,并利用一个带有注释的账户数据集,这些账户属于在特定域的特定时间段内活跃在Twitter上的人,其真实性已经过验证。然而,为了在整个 Twitter 人口的代表性样本上测试我们的分类器,我们还通过随机挑选来构建测试集:1)巴拉克奥巴马的追随者样本,以及 2)Twitter 人群的样本。
3 基线数据集
在本节中,我们将介绍用于在整篇论文中进行实证研究的 Twitter 账户数据集。我们详细说明了我们如何采集他们每个人,以及我们如何验证他们是真人还是假追随者。为了进行我们的研究,我们总共抓取了 900 万个 Twitter 帐户和大约 300 万条推文。为了促进对假 Twitter 追随者这一新问题的调查,我们的基线数据集已公开用于研究目的 [33]。
3.1 The Fake Project
The Fake Project 于 2012 年 12 月 12 日开始其活动,并创建了 Twitter 帐户@TheFakeProject。它的简介报告了以下座右铭:“只有当你不是假货时才关注我”,并解释说该倡议与意大利比萨 IIT-CNR 研究人员拥有的一个研究项目有关。在第一阶段,业主联系了更多的研究人员和记者来宣传该倡议,外国记者和博主也在他们的国家支持该倡议。在十二天的时间里(2012 年 12 月 12 日至 24 日),该帐户已被 574 位关注者关注。通过 Twitter API,我们抓取了一系列关于这些关注者的公共信息以及他们的关注者和关注者的信息。对于这个数据集,我们爬取了 574 个账户,最终采集了 616,193 条推文和 971,649 个关系(即关联的 Twitter 账户)。
所有这些追随者都自愿加入了该项目。为了将它们收录在我们的参考人类集中,我们还启动了验证阶段。每个追随者在 Twitter 上收到来自@TheFakeProject 的直接消息,其中收录一个验证码的 URL,每个追随者都是唯一的。我们将成功完成 CAPTCHA 的 574 个关注者中的所有 469 个帐户视为“认证人”。在本节的其余部分,这个数据集被称为 TFP;
3.2. #elezioni2013 dataset
#elezioni2013 数据集(以下简称 E13)的诞生是为了支持一项与佩鲁贾大学和罗马第一大学合作开展的社会学研究计划。该研究侧重于 2013-2015 年 3 年期间意大利政治格局的战略变化。研究人员在 2013 年 1 月 9 日至 2 月 28 日期间确定了 84,033 个在其推文中使用 #elezioni2013 主题标签的唯一 Twitter 帐户。这些帐户的识别是基于对帐户的用户名和传记字段的特定关键字驱动的查询' 个人资料。关键词包括博主、记者、社交媒体策略师/分析师和国会议员。还搜索了政党的具体名称。总之,所有属于政治家和候选人的账户,政党、记者、博客作者、特定的协会和团体,以及任何以某种方式正式参与政治的人,都被抛弃了。其余账户(约 40k)已被归类为公民。最后一组已被抽样(置信度为 95%,置信区间为 2.5),产生了最后一组 1488 个帐户,这些帐户已经过手动验证以确定其个人资料和推文的性质。手动验证过程由意大利佩鲁贾大学的两名社会学家进行。它涉及对被调查账户的个人资料图片、传记和时间表的分析。没有传记或头像的帐户已被丢弃。传记中的 URL 也经过人工检查,以便对主题进行更深入的分析。只有被两位社会学家标记为人类的帐户才收录在 E13 数据集中。总体而言,手动验证阶段持续了大约两个月。结果,1481 个账户成为数据集 E13 的一部分。
3.3人类帐户的基线数据集
上面介绍的数据集形成了我们最终的一组,标记为 HUM,由 1950 个经过验证的人类账户组成。值得注意的是,这两个子集彼此之间有何不同。 TFP 集合由在志愿者基础上招募的帐户组成:参与该计划的人旨在成为在 Twitter 上发现虚假追随者的学术研究的一部分,他们是研究人员、社交媒体专家和记者的混合体,主要来自意大利,但也来自美国和其他欧洲国家。 E13 组由特别活跃的意大利 Twitter 用户组成,具有不同的专业背景,属于不同的社会阶层,对政治有着共同的兴趣,但不属于以下类别:政治家、政党、记者、博主;
3.4 虚假关注者的基线数据集
2013 年 4 月,我们从三个不同的 Twitter 在线市场购买了 3000 个虚假账户。特别是,我们从 购买了 1000 个假账户,从 购买了 1000 个,从 购买了 1000 个假账户,价格分别为 19 美元、14 美元和 13 美元.令人惊讶的是,fastfollowerz 和 intertwitter 给了我们比我们支付的更多的账户,分别是 1169 和 1337 而不是 1000。我们爬取了所有这些账户以构建一个 fastfollowerz 数据集,标记为 FSF,以及一个标记为 INT 的 intertwitter 数据集。相反,我们无法抓取从 twittertechnology 购买的所有 1000 个假粉丝,因为其中 155 个几乎立即被暂停。其余 845 个账户构成 twittertechnology 数据集,标记为 TWT。
我们承认,我们的假追随者数据集只是说明性的,而不是所有可能存在的假追随者集合的详尽说明。然而,值得注意的是,我们通过在最常见的搜索引擎上简单地通过网络搜索找到了 Twitter 帐户市场。因此,我们可以争辩说,我们的数据集代表了在搜索时很容易在 Web 上找到的内容。
3.5 虚假关注者和人类账户的基线数据集

我们实验中使用的最终基线数据集由虚假和人类档案组成。在下文中,我们将简要讨论为此数据集选择的虚假账户和人工账户之间的分布。许多机器学习技术受到少数类和多数类的自然分布不平衡的影响。这就是为什么,例如,文献中的作品研究了基于决策树的技术在改变训练集分布时的表现。特别是,Weiss 和 Provost 在 [34] 中考虑了基于决策树的分类器的性能,以预测 26 个不同数据集的样本,在少数类和多数类之间具有不同的分布。他们的调查结论表明,用于评估不同分类器性能的度量改变了训练集的类的最佳分布。例如,经过他们的经验分析,以准确率作为评价指标,26 个数据集中有 9 个数据集的最优分布与自然的非常不同,而当使用 AUC 作为评价指标时,这个数字增长到 26 个数据集中的 14 个. 而且,最优分布对少数类样本有过采样(也有过采样高达 90% 的少数类样本得到最佳分类器的情况)。
在这里,我们面临另一个基本问题:我们并不准确地知道假粉丝和人工账户的真实(自然)分布。 2013 年,Twitter 工作人员推测“虚假或垃圾账户的数量应占我们 MAU 的不到 5%”(其中 MAU 是指每月活跃用户)[35]。但是,MAU 既不能与 Twitter 帐户的随机样本同化,也不能与给定帐户的追随者同化。此外,如果一个账户购买了虚假关注者,那么它的虚假关注者和人类关注者的分布可能与人们可以找到的自然分布有很大的不同,无论是在 MAU 中,还是在 Twitter 圈中的所有 Twitter 账户中。总之,在整个 Twitter 中,5% 的虚假或垃圾账户估计不能直接扩展到给定账户的虚假粉丝。
尽管 Twitter 从未披露过注册用户总数,但非官方消息称,最新创建的 Twitter 账户数量远远超过 MAU。这就是我们做出保守假设的原因,将假追随者和人类追随者的平衡分布作为我们的基线数据集。
为了验证这个假设,我们在 [34] 中对我们的数据集进行了实验。我们逐渐改变数据集中假追随者和人类追随者的类别分布,从 5%–95% 到 95%–5%(分别为 100 人–1900 假追随者,1900 人–100 假追随者),并使用获得的数据集训练 J48 分类器,考虑它们的交叉验证性能。经过训练的分类器在人类和虚假追随者的平衡分布上获得了最佳结果。为了获得平衡的数据集,我们随机对假账户的总集合(即 3351)进行欠采样,以匹配经过验证的人类账户的 HUM 数据集的大小。因此,我们构建了一个收录 1950 个假粉丝的基线数据集,标记为 FAK。这项工作的最终基线数据集包括 HUM 数据集和 FAK 数据集,共有 3900 个 Twitter 帐户。在本文的其余部分中,这个平衡的数据集被标记为 BAS,并且已被用于本工作中描述的所有实验(未另行指定)。表 1 显示了本节描述的数据集中收录的帐户、推文和关系的数量。
4. 使用基于分类规则的算法进行虚假检测
在本节中,我们详细介绍了最初由博主和社交媒体分析师提出的三个程序,它们明确构思了用于检测假粉丝和机器人帐户。这些提议是在 [12, 11, 14] 中介绍的。我们在本节中关注的工作并不直接归因于学术工作。但是,这是媒体和社交营销公司对虚假 Twitter 追随者现象产生兴趣的一个例子。尽管我们不希望这些提议能够令人满意地执行虚假追随者检测的复杂任务,但我们相信对提议标准的彻底分析仍然可以提供一些有用的见解。巧合的是,所有程序都被提议为依赖于规则列表或标准的算法:每个要分类的帐户都根据所有规则进行检查,并且必须将检查的输出组合在一起以获得最终分类。不幸的是,在许多情况下,有关如何结合标准来获得帐户最终分类的详细信息并不公开。仅在 [12] 中提供了有关如何执行聚合的详细信息。在提供的细节的驱动下,我们实现了 [12] 中描述的完整算法,并在第 4.5 节中介绍了它的检测性能。此外,对于每个程序,我们报告原创来源所指示的标准,并进一步说明我们如何将它们实施为适用于我们数据集的规则。我们还详细说明了我们选择实施的原因。
在本节中,我们主要关注每条规则在我们的数据集上的应用,以评估其在区分虚假追随者方面的优势(或劣势)。在第 6 节中,我们将所有规则与第 5 节中分析的特征结合在一起,以评估它们的集体分类能力。这是因为单个规则(或特征)在分类虚假账户和人工账户方面可能表现不佳,但如果与其他规则结合使用,它可能会改善检测。事实上,值得注意的是,本节中分析的一些标准实际上已被第6节中内置的分类器所利用。
在本文的后续部分中,我们使用术语“朋友”来表示关注帐户的用户(即,如果 A 关注 B,则 B 是 A 的朋友)。
4.1. 政治候选人的追随者
Camisani-Calzolari [12] 对罗姆尼和奥巴马的 Twitter 追随者样本进行了一系列测试,用于上届美国总统选举,以及受欢迎的意大利政客。在 [12] 中,详细介绍了一种基于帐户的一些公共特征来评估帐户的算法。引用的算法有足够的细节可以重现:它分配人类/活跃和机器人/非活跃分数,并考虑两个分数总和之间的差距对帐户进行分类。特别是,该算法为表 2 中的每个标准分配了 1 个(或更多,如果指定)人工点。此外,如果该帐户仅使用 API,则该帐户会收到 2 个机器人点。
最后,对于每个未能验证的标准,帐户都会收到 1 个机器人点,但标准 8、13、14、15、16 和 17 除外:在这种情况下,不会分配机器人点。为了验证这些规则,我们参考了推文的源元数据,其中收录一个不同的值,代表用于发布推文的平台。特别是,关于上述规则,我们分别考虑了具有值 iphone、android、foursquare、instagram 和 web 的源元数据,并且我们为在采集的帐户推文中至少找到一次的每个值分配了 1 个人工点.对于标准 21,如果该帐户的推文没有被其他用户转发,则分配 2 个机器人点。考虑到规则 8,地理定位与推文有关。因此,当帐户的至少一条推文已进行地理本地化时,我们将此规则设置为满足。对于规则 11,已在个人简介和时间线中搜索了标点符号。
4.2.
根据社交媒体网站 [11] 的创始人的说法,在提出识别可疑 Twitter 帐户的黄金法则的几位博主中,我们考虑了“识别 Twitter 机器人的 7 个信号”。表 3 列出了识别 Twitter 机器人的“需要注意的 7 个信号”。
规则 3 已将推文视为一个单元来实施。我们考虑每个时间线的最后 20 条推文。对于规则 4,当数据集中至少 3 个帐户具有相同的头像时,我们认为存在重复的头像。对于规则 5,我们将所有未从网站 发布的推文视为从 API 发布的推文。
对于规则 6 和 7,在查找帐户的朋友或关注者列表时,Twitter 仅提供有关当前列表的信息,而不提供有关过去朋友或关注者的详细信息。此外,Twitter 不会披露与用户关注或被其他用户关注的时刻相关的任何时间数据。这意味着检查用户的关注/取消关注行为(规则 7)的唯一方法是持续监控完整的朋友和关注者的完整列表。这同样适用于测量用户关注(和回复)其他用户时所经历的延迟(规则 6)。正如第 6 节中进一步详述的那样,Twitter 对 API 使用的速率限制使得监控即使是一小群用户的朋友和关注者列表实际上也不可行。因此,我们没有将规则 6 和 7 应用于我们的数据集,因为这需要持续监控这些帐户。这也意味着这些规则不能用于支持自动检测过程,因为它们需要评估交互式过程。
4.3 社交网站的 FakeFollowerCheck
几家公司提供在线工具,根据 Twitter 关注者的虚假程度对其进行分类。在这里,我们考虑由 Socialbakers [14] 开发的“FakeFollowerCheck 工具”。虽然公司网站提供了八个标准来评估某个帐户的关注者的虚假程度,但它省略了如何结合这些标准对帐户进行分类的细节。我们联系了他们的客户服务,但我们得到的回答是“如何衡量各自的标准是内部信息”。 FakeFollowerCheck 工具分析帐户的关注者,并在满足表 4 中列出的标准时认为他们可能是假的。
对于规则2,我们将Socialbakers网站建议的“节食”、“赚钱”或“在家工作”(英语和意大利语都有)视为垃圾短语。
4.4. 评估方法
上面详细描述的所有标准都已应用于2个验证的人类账户数据集(TFP和E13)以及从Twitter账户市场(FSF∪NT∪TWT)购买的所有3351个假追随者账户,如第3节所述。
我们针对每条规则进行了一项实验,考虑了两类账户,即虚假关注者和人类账户。为了总结每个实验的结果,我们考虑了基于四个标准指标的一些评估指标,即:
真阳性(TP):被规则识别为假关注者的假关注者的数量;
• True Negative (TN):被规则识别为人类追随者的人类追随者的数量;
• 误报(FP):被规则识别为假追随者的人类追随者的数量;
• 假阴性 (FN):被规则识别为人类追随者的虚假追随者的数量;
每个指标的含义由表 5 中的矩阵(称为混淆矩阵)以图形方式突出显示,其中每一列代表预测类中的实例,而每一行代表实际类中的实例 [36]:为了评估每一条规则对基线数据集中账户的应用,我们考虑以下标准评估指标:
准确率:预测的真实结果(真阳性和真阴性)在总体中的比例,即
精度:预测的正例中确实是真正正例的比例,即(TP)/(TP + FP);
召回率(或敏感度):真正预测为阳性的真实阳性病例的比例,即(TP)/(TP+FN);
F-Measure:准确率和召回率的调和平均值,即
Matthew Correlation Coefficient(MCC)[37]:预测类与样本真实类之间相关性的估计量,定义为
上述每一项措施都捕获了属于相关类别的样本(我们的数据集中的假追随者)的预测质量的不同方面。准确度衡量有多少样本在两个类中被正确识别,但它不表示相关类是否比另一个类更好地识别。此外,在某些情况下,某些预测模型的性能比其他模型更好,甚至精度较低 [38]。高精确度表明许多被识别为相关的样本被正确识别,但它没有提供有关尚未识别的相关样本的任何信息。该信息由召回指标提供,表示在整个相关样本集中有多少样本被正确识别:低召回意味着许多相关样本未被识别。 F-Measure 和 MCC 试图在一个单一的值中传达预测的质量,并结合其他指标。此外,MCC 被认为是 F-Measure 的无偏版本,因为它使用了混淆矩阵的所有四个元素 。然后,我们将那些应用给出 MCC ≥ 0.6 的标准视为最佳规则,因为这些规则与账户类型具有最强的相关性。为了完整起见,我们还报告了曲线下面积度量 (AUC),即接受者操作特征 (ROC) 曲线下的面积 [39]。后者是描述分类器性能的曲线,考虑了真阳性样本的百分比与假阳性样本的百分比。 AUC 用于将 ROC 曲线总结为单个值:面积越接近 1,分类器越有能力.
最后,我们还报告了信息增益(I gain)和皮尔逊相关系数(Pcc)。虽然 Pearson 相关系数可以检测特征和目标类之间的线性依赖关系,但信息增益考虑了更一般的依赖关系,利用概率密度(或频率,在离散变量的情况下)。更准确地说,信息增益是关于特征相对于预测类的信息量的度量,通常用于训练机器学习分类器。它可以非正式地定义为由给定属性的值的知识引起的熵的预期减少[40]。我们计算两个信息增益:关于规则结果的增益和关于规则使用的属性的增益*。对于 I gain,基于属性 A 的规则只能假设值 0(不满足)和 1(满足),而对于 I gain*,属性 A 可以假设很多异类值。例如,在评估规则“followers ≥ 30”的信息增益时,具有 234 个关注者的样本在计算 I gain 时贡献值为 1,在计算 I gain∗ 时贡献值为 234。相反,皮尔逊相关系数是衡量两个随机变量X和Y之间线性关系的强度。同样,我们计算 Pcc,考虑规则满足的结果(即:true=1 或 false=0)和 Pcc*,基于用于评估规则的属性所假定的值。我们在以下部分中的实验将表明,一般来说,一个规则和相应的属性假定信息增益和皮尔逊相关系数的值非常不同
4.5. Camisani-Calzolari 算法的评估
[12] 中的检测算法汇总了 4.1 节介绍的用于识别人类和机器人行为的 22 条标准。该算法评估正在调查的帐户上的每条规则,并根据规则应用程序的输出分配正面的人工得分或负面的机器人得分。最终结果取决于账户获得的全局分数:如果结果大于0,则将该账户标记为人类;如果介于 0 和 -4 之间,则标记为中性;否则,它被标记为机器人。
表 6 详细说明了在完整数据集上运行算法的结果,包括 FAK 集,即所有购买的假粉丝账户。虽然在检测真实的人类账户方面取得了很好的效果,但该算法实现了较差的虚假关注者账户检测。大多数帐户也被错误地标记为人类,主要是因为我们数据集中的假追随者具有很容易使他们获得比机器人更高的人类分数的特征。

在我们的第二个实验的结果中,上述无法检测到虚假账户的情况很明显。为了评估该算法,我们使用它来预测我们的基线数据集 (BAS) 的账户类别,在表 7 中报告最终预测的评估。正如预期的那样,该算法的准确度很差(非常接近 0.5)并且高精度,这意味着被识别为假的(少数)帐户实际上是假的。然而,它的召回率也非常低,这意味着许多其他虚假账户都未被识别为虚假账户。这种较差的性能也通过接近 0.1 的 F-Measure 和低 MCC 值来表示。
4.6.单一规则评估
在本节中,我们分析了原作者设计的每条规则的有效性,以评估哪个规则可以被视为检测虚假 Twitter 关注者的良好标准。
表 8 总结了将 4.1、4.2 和 4.3 节中介绍的每个规则应用于我们的 BAS 数据集所获得的结果。在表 8 中,我们强调了实现高 MCC 值的规则。如图所示,只有三个规则获得了高于 0.6 的值,即:(1)至少 30 个关注者的阈值,(2)至少 50 条推文的阈值,以及(3)至少一个用户 ID 的使用userID。
正如 MCC 的定义所预期的那样,这些规则还表现出高精度、精确度和召回率的组合。然而,值得观察信息增益和皮尔逊相关系数的值。规则的信息增益(I gain)总是低于对相关属性 I gain* 的评估,而对于 Pearson 相关系数(Pcc 和 Pcc*)则不然。实际上,这是因为Pcc评估两个假设值非常相似的变量(即规则和类的输出)之间的线性依赖关系,而Pcc*则考虑具有更多异类值的变量。实际上,在第一种情况下,变量类和输出都只能假设值 0 和 1:类可以是 0(人)或 1(假),规则可以输出 0(假,例如,帐户没有超过 50 条推文)或 1 条(真实,例如,帐户有超过 50 条推文)。相反,对于 Pcc* ,规则的属性(在示例中为推文的数量)可以采用更高的值(帐户有 234 条推文)。这显然不是线性依赖于类值,导致 Pcc* 相对于 Pcc [41] 的值较低。
因此,对于第 4.1 节(表 8 顶部)中列出的每个规则,比较 Pcc 和 Pcc* 值是没有意义的。相反,我们只需要关注相同类型的指标,即按列,来比较特征与类的线性相关性。然后,将注意力转移到信息增益上,我们注意到许多规则考虑了能够有效区分两个类别的属性。如果我们认为信息增益值高于 0.5 的规则和特征是有用的,我们观察到,即使许多规则表现出非常低的 I 增益,它们的“特征”版本也会变得更有趣:例如,规则 18,当用作特征时,图 20、21 和 22 的信息增益明显增加。因此,我们可以得出该规则是基于正确的假设(例如,使用主题标签),但规则定义过于简单而无法有效:[12] 提出的算法对于复杂的任务来说太天真了Twitter 中的虚假帐户检测。巧合的是,我们发现表现最好的规则也显示出最高的 Pcc 值,即它们的满意度与所属类别更密切相关。关于规则背后的特征,我们发现 Pcc* 大大降低了,因为如上所述,它们可以(并且确实)假设非常高的值,这严重影响了与类的线性相关性。
观察表 8 的其他规则,我们可以注意到在线博客和 Socialbakers 的 FakeFollowerCheck 建议的标准都没有成功地检测到我们数据集中的假粉丝。例如,Van Den Beld 的所有规则的准确率和精度都接近 0.5 或非常低的召回率。此外,我们观察到“来自 API 的推文”的 MCC 为 -0.779,这意味着它与帐户的类别严格相关,但有一个相反的因素:在我们的数据集中,虚假的追随者帐户几乎从不来自 API 的推文(相反,他们使用 发布推文),而人类帐户至少从网站外部发布过一次。这与博主为机器人建议的行为完全相反,后者(应该)几乎完全使用 API 发布推文。 I gain/I gain* 和 Pcc/Pcc* 值也证实了与预测任务的相关性。
另一个有趣的观察是,Socialbakers 提出的许多规则的 MCC 值接近 0,这意味着它们的结果几乎与账户类别无关。事实上,绝大多数账户都被识别为人类,从而导致高精度、0.5 左右的准确度和非常低的召回率。例外是规则 6,“0 条推文”:通常,它的信息增益值为 0.02,但当考虑一个特征(即推文数量)时,它获得 0.621。类似地,规则4和规则5在考虑它们的基本特征(即转发数和带有url的tweet数)时对检测过程更有用。总而言之,独立于帐户的类型,规则几乎总是得到满足,导致在处理虚假关注者检测时出现严重缺陷。
5. 基于特征集的伪造检测算法
在本节中,我们研究了 [8, 2] 中解决 Twitter 上的垃圾邮件帐户检测的工作。他们都提出了要从手动分类的帐户数据集中提取的特征列表。然后使用这些特征集来训练和测试机器学习分类器,以区分人类和垃圾邮件发送者。即使提议的功能最初是为垃圾邮件检测而设计的,但在这里,我们第一次认为它们可以发现另一类 Twitter 帐户,即假粉丝。尽管在关注 Twitter 垃圾邮件检测的文献中存在许多其他著作(参见第 2 节),但其中许多都考虑了可以在某种程度上与本节和前一节中分析的特征相似的特征。
与第 4 节中基于规则的算法不同,此处将特征表示为所考虑样本属性的量化。因此,它们是在没有任何关于将表征所考虑类的特征的值的先验知识的情况下引入的。只有在训练阶段之后,才有可能观察不同类别中特征的最常见值。
对于我们的分析,我们使用了生成“玻璃盒”和“黑盒”模型的分类器。在“玻璃盒”模型中,例如决策树和回归模型,模型的内部结构可以被人类理解,也提供了关于分类器如何识别虚假账户的见解 [39]。相反,在诸如支持向量机之类的“黑盒”模型中,模型的内部结构没有直接的人类可解释的对应关系。
5.1 检测社交网络中的垃圾邮件发送者
[8] 中提出的研究侧重于垃圾邮件检测。作者利用了几个特征,这些特征可以从账户的个人资料和时间线中抓取账户的详细信息。对于每个调查的帐户,在随机森林算法 [23, 43] 中利用这些特征,该算法输出该帐户是否是垃圾邮件机器人。 [8] 中的分析结果描述了正在调查的垃圾邮件帐户的一些有趣特征,如表9所示:
为了评估特征 3,我们通过检查帐户时间线的最后 15 条推文中是否存在至少两条推文来实现消息相似度的概念,其中 4 个连续单词相等。同一作者在后来的作品中给出了这个概念 [25]。
如果没有原创训练集,我们无法重现相同的分类器,但我们选择了五个特征并使用它们用我们的 BAS 数据集训练一组分类器。结果报告在第 5.3 节的表 12 中。
5.2 对抗不断发展的 Twitter 垃圾信息散布者
[2] 的作者观察到 Twitter 垃圾邮件发送者经常修改他们的行为以逃避现有的垃圾邮件检测技术。因此,他们建议考虑一些新功能,使垃圾邮件发送者更难以规避。除了直接从帐户配置文件查找中获得的功能之外,作者还提出了一些基于图形、自动化和时间的功能。在表 10 中,我们详细介绍了其中的九个,以及他们在 [2] 中的分析结果
[2] 的作者将他们的特征结合在四种不同的机器学习分类器中,并将它们的实现与其他现有方法进行比较。我们无法完全重现 [2] 中的机器学习分类器,因为我们有不同的数据集。相反,我们在此评估这些功能在检测虚假 Twitter 追随者方面的表现如何,这些功能被证明对垃圾邮件发送者采用的规避技术非常强大。与 [2] 中一样,以下比率(特征 9)已近似为朋友/年龄的比率,因为精确的评估需要知道一个帐户的朋友数量的演变,但这实际上是公开不可用的.最后,在[2]中,除了上面提到的那些之外,还有其他的特征。然而,正如同一作者所声称的,它们在规避技术方面的鲁棒性较差,因此我们决定不将它们包括在我们的评估中。
5.3 评估
正如第 4 节中的规则集所做的那样,我们在表 11 中报告了 BAS 数据集中所有特征的信息增益和 Pearson 相关系数的评估。同样在这种情况下,由于 Pcc 评估所考虑的特征和类别之间的线性相关性(只能为 0 或 1),因此与信息增益相比,它产生的结果略有不同。观察表 11 中的结果,我们可以确定几个有希望的特征:“推文数量”(已经在第 4 节中注意到)、“朋友和关注者之间的比率^2”、“双向链接比率”和“API 比率”。 5.4.3 节的实验将进一步证实双链路比率的有益效果。
为了评估第 5.1 节和第 5.2 节中描述的特征集在检测虚假追随者帐户方面的综合有效性,我们使用了 8 个分类器,这些分类器来自不同的基于机器学习的算法,即:装饰 (D)、自适应提升 (AB)、随机森林(RF)、决策树 (J48)、贝叶斯网络 (BN)、k-最近邻 (kNN)、多项岭逻辑回归 (LR) 和支持向量机 (SVM)。我们的 SVM 分类器利用径向基函数 (RBF) 内核,并使用 libSVM 作为机器学习算法进行了训练 [44]。在 SVM 的训练阶段,成本和 gamma 参数已通过网格搜索算法进行了优化。类似地,kNN 分类器的 k 参数和 LR 模型的脊惩罚参数已通过交叉验证参数选择算法进行了优化。这项工作中使用的所有分类器和优化算法都是在 Weka 框架内实现的 [43]。
在这些算法中,RF 是 [8] 中唯一使用的一种。相反,[2] 的作者使用了 D、RF、J48 和 BN。我们决定将 AB 纳入我们的工作,因为它被认为是用于分类任务的最有效的机器学习算法之一 [39]。此外,我们还添加了其他著名的和广泛采用的分类器,它们基于不同的分类技术,如支持向量机,kNN和LR,以便对我们的检测系统进行彻底的评估。我们已经建立了 8 个分类器,采用了第 5.1 节和第 5.2 节中的特征,并使用我们的基线(BAS)数据集训练了模型。然后,我们使用 10 倍交叉验证 [23] 来估计每个获得的分类器的性能。至于 4.4 节中基于规则的算法,我们将 MCC 视为评估分类器性能的首选指标。表 12 总结了结果。每个指标的最高值以粗体显示。
我们可以观察到所有的分类器都有很好的预测能力。基于 [2] 的特征集构建的那些获得了稍微好一点的结果。特别是,RF、J48 和 D 分类器的 MCC 大于 0.98。同样,所有这些的准确率和召回率都在 0.99 左右。此外,与使用 [8] 的特征集构建的分类器相比,基于 [2] 的特征集的所有分类器都具有更高的 AUC。无论如何,后者也获得了很高的检测水平:RF、D 和 J48 的准确率、精确度和召回率约为 0.98,MCC 约为 0.96。相对于使用 Yang 等人的集合获得的精度和召回率较低。 [2] 表明 Stringhini 等人的特征。 [8] 表现出将某些人类帐户视为虚假追随者的趋势。对于 [2] 和 [8] 特征集,BN、kNN 和 LR 分类器总体上实现了更差的性能。相反,SVM 分类器取得了显着的结果,尤其是在使用 [2] 的特征集时。事实上,在这个实验中,SVM 的得分只比 RF、D 和 J48 稍差,但比 AB 好。然而,当使用 AUC 指标评估时,AB 实现了极高的性能。最后,在所有考虑的分类器和评估指标中,RF 和 D 是已被证明更一致的那些。
总体而言,即使在评估指标中可以观察到一些小的差异,对于我们的基线 BAS 数据集,所有分类器几乎都可以正确区分人类和虚假追随者帐户。与CC算法相比,基于特征的分类器在假追随者检测方面无疑更准确,但CC算法在我们的数据集中表现不佳,如上文第4.5节所述。
5.4. Discussion
通过检查分类器的内部结构,我们可以深入了解更有助于区分人类和虚假追随者的最佳特征。在决策树的情况下,最好的特征是更接近根的特征,分类器自动找到数字阈值,对于给定的特征,人类和假追随者之间的边界。值得注意的是,装饰、AdaBoost 和随机森林算法最终也利用了简单决策树分类器的组合。尽管它们的性能非常好,但它们的缺点是难以分析,因为它们可以收录数十个相互作用的单独树。然后,我们只关注 J48 分类器(单个决策树)来检查特征在分类过程中是如何应用的。
5.4.1 虚假关注者和垃圾邮件帐户之间的区别
查看树形结构,我们观察到 BAS 数据集中的虚假关注者与 [8] 和 [2] 中的垃圾邮件帐户之间存在一些有趣的差异。例如,已发现特征 URL 比率对垃圾邮件发送者的值高于对合法用户的值,如 [8](第 5.1 节)中强调的那样。相反,观察我们的 J48 分类器的树形结构,该特征的低值表示虚假追随者,而在我们的基线数据集中表示人类账户的较高值。在我们的训练数据集中,超过 72% 的虚假关注者的 URL 比率低于 0.05,与 14% 的人类账户相反。同样,发现垃圾邮件发送者的 API 比率功能高于合法帐户([2],另请参见第 5.2 节)。在我们的数据集中,78% 的假粉丝的 API 比率低于 0.0001。对于普通邻居的推文特征,已经观察到类似的行为,在 [2] 中发现垃圾邮件发送者的行为较低,但对于我们的假追随者而言则较高。
这些初步观察突出了垃圾邮件帐户和虚假追随者之间的行为差异。特别是,与垃圾邮件发送者相比,虚假关注者似乎更被动,并且他们不像垃圾邮件发送者通常那样使用自动机制来发布他们的推文。
5.4.2 减少过度拟合
众所周知,经过训练的分类器可能会受到“过度拟合”的影响,即对训练数据集过于专业化并且无法将分类推广到新的和看不见的数据的问题[45]。
避免过度拟合的一个简单方法是使分类器尽可能简单。例如,在决策树算法的情况下,一种解决方案可能是减少节点的数量,并可能减少树的高度。使用 Stringhini 等人的特征集获得的决策树。 [8] 有 22 个叶子,43 个节点,高度为 7,而最好的特征是放在根的朋友/(followers^2)比率。具有杨等人特征集的决策树。 [2]有17个叶子,33个节点,高度为8,以双向链接比为根。
泛化分类器的一种常见做法是采用更积极的剪枝策略,例如,通过对小测试集使用减少错误剪枝 [23, 43]。采用这种策略,我们能够获得具有较少节点数和非常低高度的更简单的树。这种更简单的树通常使用特征集的子集,在我们的 BAS 数据集上仍然保持非常好的性能。
表 13 报告了我们进行的实验的特征和性能,改变了剪枝策略。值得注意的是,树的复杂性并不总是与检测能力的提高直接相关:例如,对于 Yang 等人的特征集。 [2],将节点数量从 33 个减少到 11 个,只会降低 0.007 的精度和 0.014 的 MCC。
同样,树的修剪和未修剪版本之间的 AUC 值几乎保持不变。此外,我们清楚地观察到 Stringhini 等人的修剪版本。 [8] 减少了 0.017 的召回率,而 Yang 等人的 [2]仅下降 0.004,这意味着后者在修剪后能够比前者漏掉更少的假货。这从 F-Measure 和 MCC 的较高减少也很明显。我们认为这种提高的有效性是所用特征质量的直接结果。总体而言,该实验的结果表明,即使减少特征,检测率也可能高于 0.95(如表 13 的最后一行,分别针对 [8] 和 [2])。例如,在这两个实验中,被修剪的树使用的特征只有双向链接比率、平均邻居的追随者、年龄,以及对中位数邻居追随者的追随者作为杨的原创特征集的子集等。 [2],以及作为 Stringhini 等人的子集的朋友/(追随者^2)、URL 比率和朋友数量。 [8] 原创特征集。
核心方法:PHP文章采集方法及思路

1.采集文章的大致思路: 1.定时抓取文章列表页,提取文章的所有链接地址写入临时表2、从数据库中读取获取文章的所有链接并访问,然后定期匹配文章的标题和内容,写入文章表。2.其中两个需要注意: 1.采集防死:因为程序在采集的过程中需要执行很多操作,如果是一次性全部读取,加上一些网络问题(比如网速慢,网络不稳定),程序在采集的过程中可能会出现页面超时。为此,我想到了用一个一个一个读入的方法,就是在打开页面的时候,read-only每次取一个文章 链接到采集,然后跳转到页面,可以减轻程序运行的负担,增加程序运行的流畅度,从而在一定程度上减少页面超时的问题。2. 采集文章中的图片:在采集...

汇总:【技术干货】大数据日志分析统计
采集交流 • 优采云 发表了文章 • 0 个评论 • 65 次浏览 • 2022-10-14 15:14
作者:罗广,网易高级开发工程师,目前从事分布式视频处理系统的开发和维护工作。曾参与天空手游平台服务器的开发和海康威视交警平台组的平台架构开发和JVM调优。熟悉基于SOA的分布式系统架构设计和Storm Streaming框架。对lucene和solr搜索有丰富的经验,对hadoop和spark有浓厚的兴趣。
一
日志概述
日志来自第三方 CDK 制造商。主要内容是推拉流的日志,包括rtmp推拉流、flv拉流、hls拉流。flv和hls拉流的协议是http,rtmp推流和拉流的协议是rtmp。大致格式如下:
分析指标为在线数、总时长、总流量(客户端到服务器的流量和服务器到客户端的流量之和)。需要用到的数据也在上图中用红色表示。乍一看可以做distinct和sum,但其实上面的流日志在垂直方面比较一致,在水平方面对比比较大。统计的粒度要求精确到频道和分钟,不能直接从日志数据中获取频道。一个会话中大约有10条RTMP数据(会话ID相同),但只能间接获取2条数据;一条FLV数据代表一个会话,可以轻松获取频道;HLS 数据是客户端' s 主动性首先从服务器获取一条Meta信息,比如可以获取多少条数据信息data,然后继续获取data数据。一个会话可能会产生数以万计的日志记录。
日志分析特点:数据量大、数据内容格式不同、延迟(只能获取第二天的数据)、细粒度统计(后续可能是5分钟、1小时、日、月、 ETC。)。一天的数据量约4000万,完全不均匀分布在约250个域名上,1个月左右数据量翻倍(取决于新增用户和转化率)。.
二
分析过程
第一阶段:数据模型分析
采集 CDN 供应商的日志,解析它们,存储在 MySQL 中,并启动分析和统计任务。这个阶段是需求研究,数据模型与数据大小无关。
阶段 2:数据清洗、MongoDB 存储和 MapReduce
在模型分析阶段,随着数据量的增加和分析指标的聚合操作,MySQL存储在检索、聚合以及后续的重新聚合已经不能满足系统需求,更换存储势在必行。MongoDB 因其基于文档的存储、简单的 API (JSON)、高性能、方便的集群分片和内置的 MapReduce 功能而成为该系统的替代数据库。网易在MongoDB方面也有比较资深的实战经验。
通过对存储数据的反复分析比较,发现与Uri和Url相关的数据并没有产生任何值,大大增加了存储容量。因此,对原创数据进行清洗,只保留客户端IP、日期、时间、时长、流量等。对结果有影响的字段,记录不符合原日志分析规则的数据,用于后续数据修正。根据不同的协议规则(Rtmp除外),设置其频道ID,方便后续根据频道进行分析。rtmp数据单独存储在一个表中,rtmp数据根据同一个session,同一个channel进行修正。至此,log数据已经被修正到同一个平面,和map、reduce、并编写相关维度的 finalize 函数来执行 MapReduce 计算。作业调度器(schduler)协调管理任务执行单元(worker),根据任务链、任务状态的变化判断是否调度下一个任务。
三
整体架构
即紧接上述第三阶段,在第二阶段的基础上,考虑系统的高可用、分布式、容错等维度,采用去中心化的方案设计,依托RabbitMQ进行横向扩展,增加了对外接口层和任务的手动发布处理。
1
集电极
记录数据采集器(定时),从CDN端获取每个域名对应的数据包下载地址,将后缀相同的域名分类为一个整体,创建作业(Job)。根据下载地址下载日志包(原创数据包用gzip压缩)。在这个过程中,为了防止并发访问过高而被CDN方拒绝,进行了熔断过程,即在规定时间内抑制访问次数。
获取数据包后,调用linux系统命令gzip命令解压;顺序读取日志文件,如果单个日志文件很大,会用包号分包;这批数据将被 gzip 压缩并扔到 Rabbitmq 中。上面创建了作业。一个 Job 最多对应四个域名,分别创建子 Job。每次下载、解压、数据传输,分别记录状态(启动时间、耗时、失败/成功),方便后续失败任务检测和性能分析。
2
工人
任务执行单元。订阅从rabbitmq获取日志包数据。如果是HTTP协议(上面的hls、flv),先清理数据,然后在java中根据channel维度进行map reduce计算。ip set数据结构使用hashset来ip to 最后将结果存入mongodb;如果使用 RTMP 协议,则更新数据(设置通道),并使用 mongodb 聚合数据。生成的数据格式与HTTP日志一致,方便后续通道聚合操作。聚合操作涉及到细粒度的分析。这里使用了一个小技巧,将日期和时间结合起来,添加了一个字段ymdhm,代表点,这个字段的数据非常离散,大大提高了map reduce的运行效率。.
MongoDB 中的 MapReduce 相当于关系数据库中的 group by。使用 MapReduce 实现 Map 和 Reduce 两个功能。Map函数调用emit(key, value),遍历采集中的所有记录,将key和value传递给Reduce函数进行处理。本文使用javascript代码编写map和reduce函数,主要处理ip set去重和流量积累。
3
调度器
worker执行调度器,负责记录每个子任务的状态,判断子任务是否完成。如果执行完成,则从作业链中获取下一个子任务的队列,扔到rabbitmq中供worker消费。此外,还包括失败任务检测,轮询当日任务列表,判断任务是否完成。如果有任务执行失败,它会从分析表中抓取数据扔到临时集合中,再次进行聚合分析,最后将结果归档。
4
mongodb
MongoDB的版本是3.0.1,对应的java客户端是mongo-java-driver3.0.1。在高可用方面,使用了官方推荐的主从复制和高可用方案Replicat Set。Replicat Set 具有自动切换功能。当Primary挂掉时,可以由Replica Set中的Secondary自动切换到Primary,实现高可用。目的。比如配置了一个由3台服务器组成的mongo集群,1主2副,客户端连接时需要写入所有IP,并设置读操作从副本集读取,实现主从分离,减少主节点的访问压力。
5
兔子MQ
为了确保消息不丢失,RabbitMQ 支持消息确认。消费者发送消息回复,告诉 RabbitMQ 在 RabbitMQ 可以将其删除之前,该消息已被接收并处理。如果一个消费者宕机了,没有发送响应,RabbitMQ 会理解该消息没有被完全处理,然后将其交给另一个消费者重新处理。这样,所有依赖 RabbitMQ 的节点都不会丢失消息,保证了整个分析过程的完整性。没有任何消息超时限制,RabbitMQ 只会在消费者宕机时重新投递,即使处理一条消息需要很长时间。
镜像队列是 RabbitMQ 高可用的一种。队列中消息的每个节点都会有一个副本。在单个节点故障的情况下,整个集群仍然可以提供服务。但是,由于数据需要在多个节点上进行复制,因此系统的吞吐量会降低,而可用性会提高。在实现机制上,镜像队列内部实现了一套选举算法。有一个master和多个slave。队列中的消息主要是master。对于发布,您可以选择要连接的任何节点。如果节点不是rabbitmq中的master,就会转发给master。master将消息发送给其他slave节点,然后将消息本地化,并多播复制消息到其他节点进行存储;对于消费者来说,可以选择任意节点连接,消费请求会转发给master。为了保证消息的可靠性,消费者需要确认ack。master收到ack后会删除消息,ack消息是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。
镜像队列使用起来比较简单。先将当前节点加入之前已经启动的RabbitMQ节点,然后设置HA策略。下图为镜像节点的启动脚本:
镜像节点设置成功后,可以看到整个集群的状态。
四
健康
在线部署一共7台服务器,包括2台云主机,每台4核8G,部署schduler、collector和rabbitmq;3台云主机,每台4核8G,部署mongodb Cluster Replica Set;2台云主机,每台8核32G,部署16个Worker实例,4000万数据,20分钟完成分析。
汇总:内容采集
爬虫:用于搜索,但搜索的内容仍然在原来的网站、主动、智能
采集:将其他网站放在您的网站上
网站首页相当于入口,入口下有很多一级分类,首页是上下层的关系。分类是分层的
网站内容体系结构:
首先确定抓取范围:首先分析网站的内容结构;例如:抓取整个堆栈的数据 - 然后使用网站主页作为入口
网站内容结构:首页下为一级分类
,而下一级分类就是二级分类
内容爬网过程:
门户是一个列表页
要使用 Java 程序进行解析,必须首先获取页面的 html 代码
如果你想获取数据,你必须首先分析网址是什么样的
关于提取:HTML 解析类库:日功和小数
1,jsoup
前提条件:没有第三方类库自动帮我做到这一点,用纯Java系统类库做吗?
转载于: 查看全部
汇总:【技术干货】大数据日志分析统计
作者:罗广,网易高级开发工程师,目前从事分布式视频处理系统的开发和维护工作。曾参与天空手游平台服务器的开发和海康威视交警平台组的平台架构开发和JVM调优。熟悉基于SOA的分布式系统架构设计和Storm Streaming框架。对lucene和solr搜索有丰富的经验,对hadoop和spark有浓厚的兴趣。
一
日志概述
日志来自第三方 CDK 制造商。主要内容是推拉流的日志,包括rtmp推拉流、flv拉流、hls拉流。flv和hls拉流的协议是http,rtmp推流和拉流的协议是rtmp。大致格式如下:
分析指标为在线数、总时长、总流量(客户端到服务器的流量和服务器到客户端的流量之和)。需要用到的数据也在上图中用红色表示。乍一看可以做distinct和sum,但其实上面的流日志在垂直方面比较一致,在水平方面对比比较大。统计的粒度要求精确到频道和分钟,不能直接从日志数据中获取频道。一个会话中大约有10条RTMP数据(会话ID相同),但只能间接获取2条数据;一条FLV数据代表一个会话,可以轻松获取频道;HLS 数据是客户端' s 主动性首先从服务器获取一条Meta信息,比如可以获取多少条数据信息data,然后继续获取data数据。一个会话可能会产生数以万计的日志记录。
日志分析特点:数据量大、数据内容格式不同、延迟(只能获取第二天的数据)、细粒度统计(后续可能是5分钟、1小时、日、月、 ETC。)。一天的数据量约4000万,完全不均匀分布在约250个域名上,1个月左右数据量翻倍(取决于新增用户和转化率)。.
二
分析过程
第一阶段:数据模型分析
采集 CDN 供应商的日志,解析它们,存储在 MySQL 中,并启动分析和统计任务。这个阶段是需求研究,数据模型与数据大小无关。
阶段 2:数据清洗、MongoDB 存储和 MapReduce
在模型分析阶段,随着数据量的增加和分析指标的聚合操作,MySQL存储在检索、聚合以及后续的重新聚合已经不能满足系统需求,更换存储势在必行。MongoDB 因其基于文档的存储、简单的 API (JSON)、高性能、方便的集群分片和内置的 MapReduce 功能而成为该系统的替代数据库。网易在MongoDB方面也有比较资深的实战经验。

通过对存储数据的反复分析比较,发现与Uri和Url相关的数据并没有产生任何值,大大增加了存储容量。因此,对原创数据进行清洗,只保留客户端IP、日期、时间、时长、流量等。对结果有影响的字段,记录不符合原日志分析规则的数据,用于后续数据修正。根据不同的协议规则(Rtmp除外),设置其频道ID,方便后续根据频道进行分析。rtmp数据单独存储在一个表中,rtmp数据根据同一个session,同一个channel进行修正。至此,log数据已经被修正到同一个平面,和map、reduce、并编写相关维度的 finalize 函数来执行 MapReduce 计算。作业调度器(schduler)协调管理任务执行单元(worker),根据任务链、任务状态的变化判断是否调度下一个任务。
三
整体架构
即紧接上述第三阶段,在第二阶段的基础上,考虑系统的高可用、分布式、容错等维度,采用去中心化的方案设计,依托RabbitMQ进行横向扩展,增加了对外接口层和任务的手动发布处理。
1
集电极
记录数据采集器(定时),从CDN端获取每个域名对应的数据包下载地址,将后缀相同的域名分类为一个整体,创建作业(Job)。根据下载地址下载日志包(原创数据包用gzip压缩)。在这个过程中,为了防止并发访问过高而被CDN方拒绝,进行了熔断过程,即在规定时间内抑制访问次数。
获取数据包后,调用linux系统命令gzip命令解压;顺序读取日志文件,如果单个日志文件很大,会用包号分包;这批数据将被 gzip 压缩并扔到 Rabbitmq 中。上面创建了作业。一个 Job 最多对应四个域名,分别创建子 Job。每次下载、解压、数据传输,分别记录状态(启动时间、耗时、失败/成功),方便后续失败任务检测和性能分析。
2
工人
任务执行单元。订阅从rabbitmq获取日志包数据。如果是HTTP协议(上面的hls、flv),先清理数据,然后在java中根据channel维度进行map reduce计算。ip set数据结构使用hashset来ip to 最后将结果存入mongodb;如果使用 RTMP 协议,则更新数据(设置通道),并使用 mongodb 聚合数据。生成的数据格式与HTTP日志一致,方便后续通道聚合操作。聚合操作涉及到细粒度的分析。这里使用了一个小技巧,将日期和时间结合起来,添加了一个字段ymdhm,代表点,这个字段的数据非常离散,大大提高了map reduce的运行效率。.
MongoDB 中的 MapReduce 相当于关系数据库中的 group by。使用 MapReduce 实现 Map 和 Reduce 两个功能。Map函数调用emit(key, value),遍历采集中的所有记录,将key和value传递给Reduce函数进行处理。本文使用javascript代码编写map和reduce函数,主要处理ip set去重和流量积累。
3
调度器

worker执行调度器,负责记录每个子任务的状态,判断子任务是否完成。如果执行完成,则从作业链中获取下一个子任务的队列,扔到rabbitmq中供worker消费。此外,还包括失败任务检测,轮询当日任务列表,判断任务是否完成。如果有任务执行失败,它会从分析表中抓取数据扔到临时集合中,再次进行聚合分析,最后将结果归档。
4
mongodb
MongoDB的版本是3.0.1,对应的java客户端是mongo-java-driver3.0.1。在高可用方面,使用了官方推荐的主从复制和高可用方案Replicat Set。Replicat Set 具有自动切换功能。当Primary挂掉时,可以由Replica Set中的Secondary自动切换到Primary,实现高可用。目的。比如配置了一个由3台服务器组成的mongo集群,1主2副,客户端连接时需要写入所有IP,并设置读操作从副本集读取,实现主从分离,减少主节点的访问压力。
5
兔子MQ
为了确保消息不丢失,RabbitMQ 支持消息确认。消费者发送消息回复,告诉 RabbitMQ 在 RabbitMQ 可以将其删除之前,该消息已被接收并处理。如果一个消费者宕机了,没有发送响应,RabbitMQ 会理解该消息没有被完全处理,然后将其交给另一个消费者重新处理。这样,所有依赖 RabbitMQ 的节点都不会丢失消息,保证了整个分析过程的完整性。没有任何消息超时限制,RabbitMQ 只会在消费者宕机时重新投递,即使处理一条消息需要很长时间。
镜像队列是 RabbitMQ 高可用的一种。队列中消息的每个节点都会有一个副本。在单个节点故障的情况下,整个集群仍然可以提供服务。但是,由于数据需要在多个节点上进行复制,因此系统的吞吐量会降低,而可用性会提高。在实现机制上,镜像队列内部实现了一套选举算法。有一个master和多个slave。队列中的消息主要是master。对于发布,您可以选择要连接的任何节点。如果节点不是rabbitmq中的master,就会转发给master。master将消息发送给其他slave节点,然后将消息本地化,并多播复制消息到其他节点进行存储;对于消费者来说,可以选择任意节点连接,消费请求会转发给master。为了保证消息的可靠性,消费者需要确认ack。master收到ack后会删除消息,ack消息是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。消息将被删除,确认消息将是同步的(默认异步)。) 向其他节点删除从节点消息。如果master节点出现故障,镜像队列会自动选举一个节点(slave中消息队列最长的那个)作为master作为消息消费的基准;如果从节点发生故障,镜像队列集群中其他节点的状态不需要改变。
镜像队列使用起来比较简单。先将当前节点加入之前已经启动的RabbitMQ节点,然后设置HA策略。下图为镜像节点的启动脚本:
镜像节点设置成功后,可以看到整个集群的状态。
四
健康
在线部署一共7台服务器,包括2台云主机,每台4核8G,部署schduler、collector和rabbitmq;3台云主机,每台4核8G,部署mongodb Cluster Replica Set;2台云主机,每台8核32G,部署16个Worker实例,4000万数据,20分钟完成分析。
汇总:内容采集
爬虫:用于搜索,但搜索的内容仍然在原来的网站、主动、智能
采集:将其他网站放在您的网站上
网站首页相当于入口,入口下有很多一级分类,首页是上下层的关系。分类是分层的
网站内容体系结构:

首先确定抓取范围:首先分析网站的内容结构;例如:抓取整个堆栈的数据 - 然后使用网站主页作为入口
网站内容结构:首页下为一级分类
,而下一级分类就是二级分类
内容爬网过程:
门户是一个列表页

要使用 Java 程序进行解析,必须首先获取页面的 html 代码
如果你想获取数据,你必须首先分析网址是什么样的
关于提取:HTML 解析类库:日功和小数
1,jsoup
前提条件:没有第三方类库自动帮我做到这一点,用纯Java系统类库做吗?
转载于:
经验:这5个应用你要全有,绝对是老司机无疑!
采集交流 • 优采云 发表了文章 • 0 个评论 • 111 次浏览 • 2022-10-14 15:14
大家好,我是小昊~
今天给大家分享5款非常好用的电脑软件,可以解决很多问题,直接上干货!
▍1. 格式工厂
格式工厂是一款办公工具,可以转换几乎所有类型的多媒体格式,以及文件压缩、图像处理、视频文件修复、文件备份等功能。
▍2.Keepass
KeePass 是一款功能强大的密码管理软件。它可以帮助您记住电子邮件、主页FTP、Internet、论坛等的用户名和密码,解决您忘记密码的烦恼,节省时间。
KeePass 将密码存储在高度加密的数据库中,其他人和其他应用程序无法识别。
▍3.优采云采集器
优采云采集器 由前 Google 技术团队打造。基于人工智能技术,只需输入网址即可自动识别采集的内容。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图片、价格等。
流程图模式:只需要根据软件提示点击页面,完全符合浏览网页的思维方式。复杂的 采集 规则可以通过几个简单的步骤生成。结合智能识别算法,任何网页的数据都可以轻松采集。
可以模拟操作:输入文本、点击、移动鼠标、下拉框、滚动页面、等待加载、循环操作和判断条件等。
谢谢大家的支持!
▍4.ScreenToGif
ScreenToGif是一款非常好用的录屏、拍照、画板和GIF编辑软件,开源免费,功能强大实用。
ScreenToGif 整体操作非常流畅,界面也非常简洁,编辑功能也非常丰富。
▍5.罗兰
Rolan 是一款轻量级的桌面快速启动工具,可以让你快速启动各种软件和命令。常用软件和群组可以自定义管理,提高您的电脑操作效率和办公效率。
Launchpad可以灵活设置属性和组结构,自由存储内容;launchpad支持两级分组;快捷方式可以存储在组中;指定文件夹内容实时显示,无需手动进入文件夹;还有浏览器书签、笔记、剪贴板历史、快捷键绑定等等。
今天的分享到此结束。感谢您在这里看到它。如果你喜欢它,记得喜欢它,观看它,并与你的朋友分享。
▍软件获取
##老规矩,文章点击右下角“关注”,点击底部“小光gào”,即可获取资源。你在看,加上鸡腿让我更有动力分享##
解决方案:常见的6个东莞网站优化工具(90%站长都用过)
无论你做什么,你都可以使用一些工具,用更少的资源实现更多的目标。东莞网站优化是一样的,通过使用一些网站优化工具,可以更好更快地增加网站权重和关键词排名。今天,有素网会给大家介绍6个常用的东莞网站优化工具,相信90%的网站主都用过。
东莞常见的6网站优化工具如下:
1.百度站长工具。百度搜索资源平台又称URL:,如果是百度SEO优化,这个网站一定要用,通过这个网站,可以了解百度的实时算法更新动态,提交百度地图,模拟网站抓取,网站显示和点击等,非常重要。
2. 网站管理员之家。通常也称为站长工具,URL:,这种网站SEO工具非常多,可以查询网站的权重、域名年限、IP、关键词排名、友情链接检测和网站速度测量等功能,这种网站相信90%以上的站长都知道。
3. 爱站网络。URL:这个网站类似于“网站管理员之家”,两者的许多功能都是相同的。
4. 搜外网络。网站:搜外是一家专业的SEO培训和交流网站,在这里您可以找到许多从事SEO的网站管理员。
5、5118。URL:这个网站也非常强大,关键词挖掘、网站权重查询、反向链接查询、内容查找等,都可以通过这个网站进行操作。
6.橘子搜索引擎优化工具。URL:这个网站比较大的特点是查询网站的外部链接,这个网站还可以查询域名的历史记录、搜索旧域名、网站标题主题检测等,对外部链接有很好的参考数据。
以上就是“东莞6种常见的网站优化工具(90%的网站管理员都用过)”的介绍,感谢您的阅读。 查看全部
经验:这5个应用你要全有,绝对是老司机无疑!
大家好,我是小昊~
今天给大家分享5款非常好用的电脑软件,可以解决很多问题,直接上干货!
▍1. 格式工厂
格式工厂是一款办公工具,可以转换几乎所有类型的多媒体格式,以及文件压缩、图像处理、视频文件修复、文件备份等功能。
▍2.Keepass
KeePass 是一款功能强大的密码管理软件。它可以帮助您记住电子邮件、主页FTP、Internet、论坛等的用户名和密码,解决您忘记密码的烦恼,节省时间。
KeePass 将密码存储在高度加密的数据库中,其他人和其他应用程序无法识别。

▍3.优采云采集器
优采云采集器 由前 Google 技术团队打造。基于人工智能技术,只需输入网址即可自动识别采集的内容。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图片、价格等。
流程图模式:只需要根据软件提示点击页面,完全符合浏览网页的思维方式。复杂的 采集 规则可以通过几个简单的步骤生成。结合智能识别算法,任何网页的数据都可以轻松采集。
可以模拟操作:输入文本、点击、移动鼠标、下拉框、滚动页面、等待加载、循环操作和判断条件等。
谢谢大家的支持!
▍4.ScreenToGif
ScreenToGif是一款非常好用的录屏、拍照、画板和GIF编辑软件,开源免费,功能强大实用。

ScreenToGif 整体操作非常流畅,界面也非常简洁,编辑功能也非常丰富。
▍5.罗兰
Rolan 是一款轻量级的桌面快速启动工具,可以让你快速启动各种软件和命令。常用软件和群组可以自定义管理,提高您的电脑操作效率和办公效率。
Launchpad可以灵活设置属性和组结构,自由存储内容;launchpad支持两级分组;快捷方式可以存储在组中;指定文件夹内容实时显示,无需手动进入文件夹;还有浏览器书签、笔记、剪贴板历史、快捷键绑定等等。
今天的分享到此结束。感谢您在这里看到它。如果你喜欢它,记得喜欢它,观看它,并与你的朋友分享。
▍软件获取
##老规矩,文章点击右下角“关注”,点击底部“小光gào”,即可获取资源。你在看,加上鸡腿让我更有动力分享##
解决方案:常见的6个东莞网站优化工具(90%站长都用过)
无论你做什么,你都可以使用一些工具,用更少的资源实现更多的目标。东莞网站优化是一样的,通过使用一些网站优化工具,可以更好更快地增加网站权重和关键词排名。今天,有素网会给大家介绍6个常用的东莞网站优化工具,相信90%的网站主都用过。
东莞常见的6网站优化工具如下:
1.百度站长工具。百度搜索资源平台又称URL:,如果是百度SEO优化,这个网站一定要用,通过这个网站,可以了解百度的实时算法更新动态,提交百度地图,模拟网站抓取,网站显示和点击等,非常重要。

2. 网站管理员之家。通常也称为站长工具,URL:,这种网站SEO工具非常多,可以查询网站的权重、域名年限、IP、关键词排名、友情链接检测和网站速度测量等功能,这种网站相信90%以上的站长都知道。
3. 爱站网络。URL:这个网站类似于“网站管理员之家”,两者的许多功能都是相同的。
4. 搜外网络。网站:搜外是一家专业的SEO培训和交流网站,在这里您可以找到许多从事SEO的网站管理员。

5、5118。URL:这个网站也非常强大,关键词挖掘、网站权重查询、反向链接查询、内容查找等,都可以通过这个网站进行操作。
6.橘子搜索引擎优化工具。URL:这个网站比较大的特点是查询网站的外部链接,这个网站还可以查询域名的历史记录、搜索旧域名、网站标题主题检测等,对外部链接有很好的参考数据。
以上就是“东莞6种常见的网站优化工具(90%的网站管理员都用过)”的介绍,感谢您的阅读。
解决方案:无人系统故障知识图谱的构建方法及应用
采集交流 • 优采云 发表了文章 • 0 个评论 • 235 次浏览 • 2022-10-14 15:13
于凡坤1、2、胡超芳1、罗晓亮2、梁秀冰2
(1. 天津大学电气自动化与信息工程学院, 天津 300072; 2. 中国人民解放军军事科学院国防科技创新研究院, 北京 100071)
摘要:无人系统产生的海量数据存储分散、缺乏联系,信息共享困难,难以满足无人系统日益复杂和集成化的维护保障需求;知识图谱技术可以将复杂的数据信息提取成结构知识,建立数据之间的联系,增强知识之间的语义信息;以无人系统的故障数据为研究对象,利用知识图谱技术进行知识抽取、知识融合和知识处理,形成一系列相互关联的知识,为构建无人系统领域的故障知识图谱提供了一种可行的方法;知识图谱技术利用海量数据建立的知识库,能有效整合分散的数据信息,提高专业领域知识的利用率和使用价值,具有重要的军事意义。应用前景。
关键词:知识图谱;无人系统;维护支持;自然语言处理
0 前言
近年来,各军事强国高度重视并积极推进无人系统及相关领域的研究,产生了颠覆性的应用技术[1]。我国民用无人机在全球的市场占有率高达70%。以大疆无人机为代表的民用无人机技术一直走在世界前列[2]。差距很大,军用无人机是我国未来武器装备发展的重点方向。
随着信息化、智能化的深入融合发展,无人系统在执行任务的过程中积累了大量数据,国产某型飞机每小时产生的数据量可高达20国标 [3]。无人系统产生的海量数据大多采用故障树分析法来定性分析故障原因。故障树逻辑性强,能有效避免初始故障[4-5]。王进新[6]等。通过贝叶斯网络变换,提出了一种基于贝叶斯的故障诊断方法,有效解决了柴油机润滑系统多故障的解耦诊断问题;楚景春[7]等。概率神经网络构建故障诊断模型,能有效提高风电机组转速故障检测的准确性。故障树分析方法可以有效理解系统故障的原因,但故障树模型中的知识元素缺乏语义联系,无法穷尽所有故障原因,难以满足无人系统的维护保障需求。
人工智能已经渗透到各行各业,迅速而深刻地改变着我们的日常生活。2017年7月,《新一代人工智能发展规划》发布,人工智能逐渐成为国家发展的新兴战略需求,大数据、人机协同、群体智能成为人工智能发展的重点。随着大数据时代的到来,数据量呈指数级增长,海量数据的出现将引发数据处理、数据存储、数据查询、数据集成等方面的技术变革[8-10],将导致无人系统的维护和保障模式。新的挑战和机遇已经到来。现在,无人系统产生的数据采用故障树模型分析故障原因,可以在一定程度上缓解维修保障问题。随着数据量的爆炸式增长,使用故障树模型来分析无人系统的故障原因将导致海量数据的巨大浪费和知识的低利用率。如何有效利用无人系统的海量数据亟待解决。
针对上述情况,为有效利用无人系统产生的海量数据,满足现代无人系统的维护保障需求。考虑到数据的海量、复杂性和语义,本文利用知识图谱技术对无人系统的故障数据进行提取、融合和处理,形成一系列相互关联的知识。人类系统领域的故障知识图谱提供了一种可行的方法。
1 知识图谱概述与架构 1.1 知识图谱定义
知识图谱(Knowledge graph)是 Google 于 2012 年 5 月 17 日正式提出的,作为提高其搜索质量的知识库。知识图谱的本质是一个语义网络,其节点代表实体或概念,边代表实体或概念之间的各种语义关系。知识图谱以结构化三元组的形式存储现实世界中的实体(概念)以及它们之间的关系,即 G = ,Head 表示头部实体,Relation 表示关系集,Tail 表示尾部实体,其中,一些“关系”。”也称为“属性”,相应地,尾部实体称为属性值[11]。例如,在无人系统中,要感知无人机的方向,
图1 无人系统知识图谱示意图
1.2 知识图谱的发展
知识图谱已成为学术界和工业界的研究热点。它最初用于提高搜索引擎的准确率,已广泛应用于机器翻译[12]、智能问答[13]、推荐系统[14-15]等。我国知识图谱虽然起步较晚,但研究成果比较丰富。在学术界,中文知识图谱研究平台zhishi.me、开放知识图谱OpenKG、复旦大学知识工厂等,不仅知识来源广泛,还具备文本理解和智能等功能。搜索,有利于促进知识图谱的普及和应用。. 在工业界,为了提高搜索质量,搜狗、百度先后建立了自己的知识库“知识立方”和“知心”,并引入语义理解技术,将搜索结果精准传递给用户。随着通用知识图谱的快速发展,很多公司都建立了自己的知识库,比如IBM的Watson Health、阿里的健康百科“一智录”等,可见知识图谱在特殊领域也发挥着重要作用。
目前国内外利用无人系统故障数据构建知识图谱的研究较少,但在医疗、旅游、社交网络等垂直领域的知识图谱研究较多。侯梦伟[16]等深入分析了医学知识表示、医学知识抽取、医学知识融合、医学知识推理,总结了构建医学知识图谱的关键技术和挑战;徐璞[17]改进了属性知识扩展和属性值。融合方法提高了知识图谱构建的质量;程文亮[18]使用最大熵模型,使得关系抽取的准确率平均高达85%,构建了企业间的高质量知识图谱。
图2 无人系统数据采集及维护保障示意图
1.3 知识图谱架构
知识图谱一般包括逻辑结构和技术(系统)框架。本文从无人系统领域故障知识图谱的构建入手,详细介绍了技术框架。
1.3.1 知识图谱的逻辑结构
知识图谱在逻辑上可以分为数据层和模式层。模式层通常由本体库管理。本体是结构化知识库的概念模板,如“无人系统故障”、“飞控系统故障”等概念实体。本体库形成的知识库不仅具有很强的层次结构。,且冗余度较小,可见schema层是知识图谱的核心。数据层存储具体的数据信息,由一系列事实组成,如无人系统的常见故障信息,知识以事实为单位存储。在业界,Neo4j 图数据库主要用于存储数据。
1.3.2 知识图谱的系统(技术)架构
随着无人系统智能化的快速发展,传统的数据处理技术难以理解数据之间的隐含关系和规则,信息共享困难,无人系统产生的海量数据无法得到有效利用[3]。知识图谱技术利用自然语言处理、数据挖掘和机器学习技术的方法和原理,使计算机能够更好地理解数据。无人系统在飞行任务和停机维护过程中积累了大量结构化数据(状态监控数据)、半结构化数据(日志文件)和非结构化数据(图片、文档、视频),知识图谱技术可以有效利用这些数据构建了一个高质量的知识库。
图3 无人系统知识图谱架构
从图3可以看出,无人系统知识图谱主要由知识抽取、知识融合和知识处理三部分组成。无人系统知识抽取,通过无人系统在飞行过程中状态参数和运动参数的结构化、半结构化或非结构化信息提取实体、属性及其关系,并将这些信息以三元组的形式存储到知识库中。无人系统知识融合通过实体消歧、实体对齐等方法对无人系统知识库的冗余和错误信息进行整合和消歧,从而提高无人系统知识库的质量。无人系统知识处理,借助知识推理,推断缺失的事实,
2 无人系统故障知识图谱关键技术
构建无人系统知识图谱的方式主要有两种:自下而上和自上而下。自底向上是通过知识抽取获取实体、属性及其关系,通过数据驱动自动化构建本体,进而构建知识图谱;自上而下是先构建顶层本体和数据模式,然后通过实体来丰富它们。形成知识库。目前知识图谱的构建大多采用自下而上的方法,但无人系统故障的知识图谱是领域知识图谱,涉及的知识范围较窄。本文采用自下而上和自上而下相结合的方法构建无人系统。知识图谱。
2.1 知识抽取
知识抽取是从开放的无人系统数据(半结构化数据、非结构化数据)中自动或手动抽取知识单元。知识单元包括实体、关系及其属性。显然,知识抽取由实体抽取组成,它由关系抽取和属性抽取三部分组成。实体提取可以识别专有名词和特殊词并对其进行分类。关系抽取是在网络化知识结构中的许多离散实体之间建立语义联系。实体的属性是实体之间的一种特殊关系。郭建义[19]等利用条件随机场和支持向量机的方法提取景区实体属性相当于实体关系提取,所以属性抽取的问题可以转化为关系抽取。问题。无人系统数据资源包括结构化数据、半结构化数据和非结构化数据。对于不同类型的数据,采用不同的方法将其转换为三元组结构。知识抽取过程如图4所示。
图4 无人系统知识抽取过程
对于无人系统的结构化数据(状态监测数据),由于存储在数据库中的数据结构强,可以直接通过D2R映射自动提取,转化为三元知识单元。对于半结构化数据(百科知识等),可以设计专门的包装器进行针对性的提取。例如,王辉[20]等CN-DBpedia构建的特殊包装器可以实现高质量的网络知识提取。非结构化数据是以文本、图像、视频等文档形式存在的数据,是知识提取的难点。从非结构化数据中提取信息主要有三种方法。基于规则的方法需要领域专家制定具体的规则,不仅耗费大量人力,但也具有较差的鲁棒性。基于机器学习的方法需要对语料库信息进行标注来训练模型,存在标注的语料库质量参差不齐、需要人工提取特征等缺点。目前,半监督学习方法主要用于从小样本中学习,在减少人力资源的同时改进信息。萃取质量。近年来,深度学习的兴起为高质量的信息提取提供了更多途径。BILSTM-CRF是信息提取中的主流深度学习模型。L. Luo [21] 在生物医学领域使用了 BILSTM-CRF 模型。信息抽取使得实体识别和实体关系识别的准确率分别高达91.14%和92.57%,模型在其他领域也取得了不错的效果。
2.2 知识融合
通过知识抽取得到的三元知识单元具有多样性、冗余性、歧义性甚至错误的特点[22]。例如,“无人机系统”和“无人机系统”可能都指向同一个实体。知识融合融合来自不同数据源的多源异构、语义多样的无人系统知识,将异构数据、冲突检测、消歧、处理等集成在同一个框架规范下,从而对知识进行正确的判断,去除粗糙和提炼精华,构建优质知识库[23]。
2.2.1 实体消歧
实体消歧旨在解决实体引用与现实世界实体之间的歧义,实体消歧的难点主要体现在两个方面[24]:
1)实体引用的多样性:同一个实体在文中会有不同的引用;例如,不同的实体指的是“飞行控制”、“飞行控制系统”、“飞行控制系统”等,它们可能都对应于知识库中的“飞行控制系统”。无人机飞控”同一实体。
2)实体引用的歧义:同一个实体引用可以在不同的上下文中引用不同的实体;例如,同一实体引用“大疆”可能对应知识库中的“大疆无人机”和“深圳大疆创新科技”。有限公司”和其他实体。
实体消歧主要包括基于聚类的实体消歧方法和基于实体链接的实体消歧方法。流程示意图如图 5 所示。
图5 实体消歧示意图
从图5可以看出,在没有目标实体的情况下,大部分实体消歧方法都是基于聚类的。聚类方法是根据实体引用的特征(上下文中的词、实体属性等)计算实体引用之间的相似度,并通过聚类算法对实体引用进行聚类。李光义[25]等基于向量空间的相似性,利用层次聚合聚类(HAC)算法对未链接到知识库的文档进行聚类,实现歧义消解,F值高达88.35 %。基于实体链接的实体消歧通过计算实体引用与目标实体之间的相似度,将实体引用链接到与知识库中的实体引用相似度最高的目标实体。但是,当知识库中没有实体引用对应的目标实体时,实体引用会链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。
2.2.2 实体对齐
实体对齐,也称为实体匹配,旨在解决相同或不同知识库中的两个或多个实体在现实世界中是否为同一实体的问题。实体冲突、指向不明确等不一致性问题,高质量链接多个现有知识库,从顶层创建大规模统一知识库[26-27]。
无人系统产生的海量数据和通过知识抽取得到的实体也需要进行实体对齐,以提高无人系统知识库的质量。实体对齐算法是实体对齐技术的核心,主要包括成对实体对齐和协同(集体)实体对齐。Pairwise entity alignment主要通过提取实体及其属性特征并计算其相似度来实现实体对齐。相似度计算方法主要基于传统的概率模型和机器学习方法;协作实体对齐是基于实体对齐的。在计算相似度时,会考虑与实体相关的其他实体属性并赋予权重 [16, 26]。
2.3 知识处理
通过知识抽取、知识融合等技术,可以从无人系统的原创数据中得到基本的事实表达,通过特殊的知识处理,事实可以形成高质量的知识。知识处理主要包括以下四个方面:本体构建、知识推理、质量评估和知识更新。
1)本体构建:无人系统故障知识图谱涉及的知识范围较窄,知识图谱采用自下而上和自上而下相结合的方法构建。本体是标准化共享概念并正式描述对象、属性及其关系[28]。首先确定无人系统故障知识图谱的核心概念(“无人系统故障”、“飞控系统故障”、“动力系统故障”等),并以数据驱动的方式自动构建提取实体的本体方法。步骤:并行关系相似度计算、实体从属关系提取和本体生成[29]。
2)知识推理:知识推理是从现有无人系统知识库中已有的实体关系出发,在实体之间建立新的联系,扩展和丰富知识库的知识网络[30]。知识推理主要包括基于逻辑的推理和基于图的推理,可以从已有的知识中发现新的知识。如果在无人系统知识库中已知(陀螺仪,测量,飞行器方向),(飞行器方向,安全壳,偏航角)和(偏航角,异常,角度),则可以推断陀螺仪有故障。
3)质量评估:无人系统领域通过知识抽取获得的知识元素可能存在误差,无法充分保证通过知识推理获得的新知识的质量。因此,在将其添加到知识库之前,需要进行质量评估过程。,质量评估是保证数据的重要手段,并贯穿知识图谱的整个生命周期[30-31]。通过高置信度的数据筛选,可以进一步保证无人系统知识库中的数据。
4)知识更新:信息随时间的积累是一个动态的过程,无人系统的知识图谱也需要迭代更新。知识库的更新包括模式层的更新和数据层的更新;模式层的更新是指概念层的更新。知识库的概念层增加一个新概念后,需要更新概念的属性和关系;更新主要是添加或更新实体、关系和属性值[30, 32]。
3 知识图谱的军事应用
知识图谱可以提供管理和利用海量异构数据的有效途径,使海量数据能够被普遍链接和良好表达,具有广泛的军事应用。
3.1 智能搜索
传统搜索基于关键词匹配索引,搜索引擎无法理解用户的真实语义,检索效率低[33]。知识图谱本质上是实体之间关系的语义网络,可以改变现有的信息检索方式,通过推理实现概念检索,以图形化的方式展示结构化知识[26, 30],提高检索准确率,知识图谱中有智能搜索的天然优势。知识图谱可应用于智能导弹的目标跟踪。如图6所示,预警机受到周围各类飞机的保护,预警机的目标打击往往受到周围飞机或飞机发出的信号的干扰,
图 6 基于知识图谱的智能导弹
3.2 军事情报问答
搜索引擎一般可以满足人们的信息获取需求,但随着互联网信息的爆炸式增长,搜索结果过多,用户难以快速准确地获取所需信息。能够更好地满足用户信息需求的问答系统受到青睐[34-35]。对于问题的输入,问答系统的输出是简洁的答案或可能答案的列表。在日益复杂的军事问题上,问答系统能够有效提高军事决策效率,对作战决策具有重要意义。图 7 显示了该问答系统在军用飞机上的应用,可以得到准确、简洁的信息结果。
图 7 军事问答系统
3.3 辅助决策
由于计算能力、海量数据和核心算法的出现,基于知识图谱的辅助决策技术在医疗、金融、智慧城市交通等领域有着广泛的应用。例如,IBM的Watson Health利用海量数据形成的知识库,利用深度学习算法,在肿瘤和癌症领域做出决策判断,供医疗专业人士参考。知识图谱通过对数据、知识等信息的分析统计,发现数据与信息的关联性并挖掘规律,根据历史知识库的相关经验进行预测,实现智能辅助决策,并能可用于未来的军事应用。
4。结论
本文引入知识图谱的概念知识,对无人系统海量数据进行知识抽取、知识融合和知识处理,形成高质量的三元知识,为无人系统领域的故障知识图谱构建提供了一种可行的方法。 . 方法。利用海量数据构建的知识图谱具有智能搜索、系统问答、辅助决策等功能,具有重要的军事应用前景。
参考:
[1] 李磊,徐越,姜奇,等。2018年国外军用无人机装备与技术发展概况[J]. 战术导弹技术,2019(2):1-11。
[2] 何道靖,杜晓,乔银荣,等.无人机信息安全研究综述[J].计算机学报, 2019, 42(5): 1076-1094.
[3] 景波,焦晓轩,黄一峰。飞机PHM大数据分析与人工智能应用[J]. 空军工程大学学报(自然科学版), 2019, 20(1): 46-54.
[4] Dugan JB, Sullivan KJ, Coppit D. 开发用于动态故障树分析的低成本高质量软件工具[J]. IEEE Transactions on Reliability, 2000, 49(1): 49-59。
[5] Enno R,Marielle S. 故障树分析:建模、分析和工具方面最新技术的调查[J]。计算机科学评论,2015(15/16):29-62。
[6] 王进新,王忠伟,马秀珍,等。基于贝叶斯网络的柴油机润滑系统多重故障诊断[J]. 控制与决策, 2019, 34(6): 1187-1194。
[7] Chu Jingchun, Wang Fei, Wang Yang, et al. Wind turbine fault diagnosis method based on fault tree and probabilistic neural network [J]. Chinese Journal of Solar Energy, 2018, 39(10): 2901-2907.
[8] Ahmed O, et al. Big data technologies: a survey[J]. Journal of King Saud University-Computer and Information Sciences, 2018, 30(4): 431-448.
[9] Gema BO, Jung JJ, David C. Social big data: recent achievements and new challenges[J]. Information Fusion, 2016, 28: 45-59.
[10] Martin H. Big data for development: a review of promises and challenges[J]. Development Policy Review, 2016, 34(1): 135-174.
[11] Wen Yanan. Visual analysis of international UAV research based on knowledge graph [J]. Journal of Zhengzhou Institute of Aviation Industry Management, 2018, 36(6): 16-25.
[12] Roberto N, Paolo P S. BabelNet: the automatic construction, evaluation and application of a wide-coverage multilingual semantic network[J]. Artificial Intelligence, 2012, 193: 217-250.
[13] Ruan T, Huang YQ, Liu XL, et al. QAnalysis: a question-answer driven analytic tool on knowledge graphs for leveraging electronic medical records for clinical research[J]. BMC Medical Informatics and Decision Making, 2019, 19( 1): 798-811.
[14] Cao ZY, Qiao XH, Jiang S, et al. An efficient knowledge-graph-based web service recommendation algorithm[J]. Symmetry, 2019, 11(3): 392.
[15] He M, Wang B, Du X K. HI2Rec: exploring knowledge in heterogeneous information for movie recommendation[J]. IEEE Access, 2019, 7: 30276-30284.
[16] Hou Mengwei, Wei Rong, Lu Liang, et al. A review of knowledge graph research and its application in the medical field [J]. Computer Research and Development, 2018, 55(12): 2587-2599.
[17] Xu Pu. Research and Implementation of Knowledge Graph Construction Method in Tourism [D]. Beijing: Beijing Institute of Technology, 2016.
[18] 程文亮. 中文企业知识图谱构建与分析[D]. 上海:华东师范大学, 2016.
[19] 郭剑毅,李 真,余正涛,等. 领域本体概念实例、属性和属性值的抽取及关系预测[J]. 南京大学学报(自然科学版),2012, 48(4): 383-389.
[20] 王 辉,郁 波,洪 宇,等. 基于知识图谱的Web信息抽取系统[J]. 计算机工程,2017, 43(6): 118-124.
[21] Luo L,Yang Z H,Yang P,et al. An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition[J]. Bioinformatics, 2018, 34(8): 1381-1388.
[22] 林海伦,王元卓,贾岩涛,等. 面向网络大数据的知识融合方法综述[J]. 计算机学报. 2017, 40(1): 1-27.
[23] Luna D X, Evgeniy G, Geremy H,et al. From data fusion to knowledge fusion[J]. The VLDB Endowment,2014, 7(10): 881-892.
[24] 赵 军,刘 康,周光有,等. 开放式文本信息抽取[J]. 中文信息学报,2011, 25(6): 98-110.
[25] 李广一,王厚峰. 基于多步聚类的汉语命名实体识别和歧义消解[J]. 中文信息学报, 2013, 27(5): 29-34.
[26] 徐增林,盛泳潘,贺丽荣,等. 知识图谱技术综述[J]. 电子科技大学学报,2016, 45(4): 589-606.
[27] 庄 严,李国良,冯建华. 知识库实体对齐技术综述[J]. 计算机研究与发展, 2016, 53(1): 165-192.
[28] Gruber T R. A translation approach to portable ontology specifications[J]. Knowledge Acquisition,1993, 5(2): 199-220.
[29] 史树明. 自动和半自动知识提取[J]. 中国计算机学会通讯, 2013, 9(8): 65-73.
[30] 刘 峤,李 杨,段 宏,等. 知识图谱构建技术综述[J]. 计算机研究与发展,2016, 53(3): 582-600.
[31] 袁凯琦,邓 扬,陈道源,等. 医学知识图谱构建技术与研究进展[J]. 计算机应用研究,2018, 35(7): 1929-1936.
[32] 李 涛,王次臣,李华康. 知识图谱的发展与构建[J]. 南京理工大学学报, 2017, 41(1): 22-34.
[33] 张 骞. 传统搜索引擎与智能搜索引擎比较研究[D]. 郑州:郑州大学, 2012.
[34] 毛先领,李晓明. 问答系统研究综述[J]. 计算机科学与探索, 2012, 6(3): 193-207.
[35] 岳世峰,林 政,王伟平,等. 智能回复系统研究综述[J]. 信息安全学报, 2020, 5(1): 20-34.
Construction and Application of Unmanned System Fault Knowledge Graph
Yu Fankun1,2 , Hu Chaofang1, Luo Xiaoliang2, Liang Xiubing2
(1.School of Electrical and Information Engineering, Tianjin University, Tianjin 300072, China;2.National Innovation Institute of Defense Technology, Academy of Military Sciences PLA China, Beijing 100071, China)
Abstract: The massive data generated by unmanned systems is scattered and lacks in connection, and information sharing is difficult。 It is difficult to meet the maintenance support requirements of unmanned systems with increasing complexity and integration。 Knowledge graph technology can extract complex data information into structured knowledge, establish connections between data, and enhance semantic information between knowledge。 Taking the fault data as the research object, knowledge extraction, knowledge fusion and knowledge processing are carried out by using knowledge graph technology to form a series of interrelated knowledge, which provides a feasible way to construct fault knowledge graph in unmanned system domain。
The knowledge base, which is established by the knowledge graph technology using tremendous data, is capable of integrating scattered data and information。 It can improve the utilization rate and usage value of knowledges in special fields。 Consequently, it has significant prospect in military。
Keywords:knowledge graph; unmanned systems; maintenance support; natural language processing
收稿日期:2020-02-23;修回日期:2020-04-10。
基金项目:国家自然科学基金(61773279);天津市科技计划项目(19YFHBQY00040)。
作者简介:喻凡坤(1995-),男,湖北鄂州人,硕士研究生,主要从事知识图谱构建方向的研究。
解决方案:[seo网站排名优化软件]想要做网络优化就必须要学会这几种工具
【SEO网站排名优化软件】要做网络优化,这些工具你一定要学会
众所周知,目前做任何事情都离不开工具。即使是最简单的进食动作也需要筷子或手辅助。同样的,对于像做网站优化这样的事情,那么各种工具的辅助也是必不可少的。目前网络优化必须了解的SEO网站排名优化软件有以下几种。
一、网站期刊分析工具
这里主要推荐的是新年日记分析工具。可以通过这个工具清楚的了解自己的网站蜘蛛爬取情况,比如蜘蛛是否经常爬到一些无用的页面,使用这个工具,还可以看到蜘蛛返回的HTTP状态码,时间这些蜘蛛停留在这个页面,它们爬过的页面等等,通过这个页面,你也可以清楚的了解网站站点是否有异常。
二、网站的流量统计工具
在使用seo网站排名优化软件的过程中,网站的流量统计工具也是必不可少的,因为这个工具可以清楚的知道其网站流量的来源,也可以知道用户的战略防御行为等,通过这些分析,我们可以更好地提出优化排名的解决方案。
三、百度站长工具
目前百度站长工具越来越完善,增加了各种功能,如网站的索引量、服务器情况、精准外链、关键词的展示与展示点击量等,都可以在百度站长工具中体现出来,站长可以通过这个工具直接向百度提交各种数据,比如死链接、网站的修改等,是百度站长工具中不可或缺的工具。使用seo网站排名优化软件。
以上就是seo网站排名优化软件中必不可少的三个辅助工具,一般网站,日常优化使用以上工具基本够用了,虽然其他一些工具不常用,但是也可以用,甚至可能在某个方面有更好的效果,大家可以多了解,多用,尽量找到适合自己的seo网站 网站排名优化软件。 查看全部
解决方案:无人系统故障知识图谱的构建方法及应用
于凡坤1、2、胡超芳1、罗晓亮2、梁秀冰2
(1. 天津大学电气自动化与信息工程学院, 天津 300072; 2. 中国人民解放军军事科学院国防科技创新研究院, 北京 100071)
摘要:无人系统产生的海量数据存储分散、缺乏联系,信息共享困难,难以满足无人系统日益复杂和集成化的维护保障需求;知识图谱技术可以将复杂的数据信息提取成结构知识,建立数据之间的联系,增强知识之间的语义信息;以无人系统的故障数据为研究对象,利用知识图谱技术进行知识抽取、知识融合和知识处理,形成一系列相互关联的知识,为构建无人系统领域的故障知识图谱提供了一种可行的方法;知识图谱技术利用海量数据建立的知识库,能有效整合分散的数据信息,提高专业领域知识的利用率和使用价值,具有重要的军事意义。应用前景。
关键词:知识图谱;无人系统;维护支持;自然语言处理
0 前言
近年来,各军事强国高度重视并积极推进无人系统及相关领域的研究,产生了颠覆性的应用技术[1]。我国民用无人机在全球的市场占有率高达70%。以大疆无人机为代表的民用无人机技术一直走在世界前列[2]。差距很大,军用无人机是我国未来武器装备发展的重点方向。
随着信息化、智能化的深入融合发展,无人系统在执行任务的过程中积累了大量数据,国产某型飞机每小时产生的数据量可高达20国标 [3]。无人系统产生的海量数据大多采用故障树分析法来定性分析故障原因。故障树逻辑性强,能有效避免初始故障[4-5]。王进新[6]等。通过贝叶斯网络变换,提出了一种基于贝叶斯的故障诊断方法,有效解决了柴油机润滑系统多故障的解耦诊断问题;楚景春[7]等。概率神经网络构建故障诊断模型,能有效提高风电机组转速故障检测的准确性。故障树分析方法可以有效理解系统故障的原因,但故障树模型中的知识元素缺乏语义联系,无法穷尽所有故障原因,难以满足无人系统的维护保障需求。
人工智能已经渗透到各行各业,迅速而深刻地改变着我们的日常生活。2017年7月,《新一代人工智能发展规划》发布,人工智能逐渐成为国家发展的新兴战略需求,大数据、人机协同、群体智能成为人工智能发展的重点。随着大数据时代的到来,数据量呈指数级增长,海量数据的出现将引发数据处理、数据存储、数据查询、数据集成等方面的技术变革[8-10],将导致无人系统的维护和保障模式。新的挑战和机遇已经到来。现在,无人系统产生的数据采用故障树模型分析故障原因,可以在一定程度上缓解维修保障问题。随着数据量的爆炸式增长,使用故障树模型来分析无人系统的故障原因将导致海量数据的巨大浪费和知识的低利用率。如何有效利用无人系统的海量数据亟待解决。
针对上述情况,为有效利用无人系统产生的海量数据,满足现代无人系统的维护保障需求。考虑到数据的海量、复杂性和语义,本文利用知识图谱技术对无人系统的故障数据进行提取、融合和处理,形成一系列相互关联的知识。人类系统领域的故障知识图谱提供了一种可行的方法。
1 知识图谱概述与架构 1.1 知识图谱定义
知识图谱(Knowledge graph)是 Google 于 2012 年 5 月 17 日正式提出的,作为提高其搜索质量的知识库。知识图谱的本质是一个语义网络,其节点代表实体或概念,边代表实体或概念之间的各种语义关系。知识图谱以结构化三元组的形式存储现实世界中的实体(概念)以及它们之间的关系,即 G = ,Head 表示头部实体,Relation 表示关系集,Tail 表示尾部实体,其中,一些“关系”。”也称为“属性”,相应地,尾部实体称为属性值[11]。例如,在无人系统中,要感知无人机的方向,
图1 无人系统知识图谱示意图
1.2 知识图谱的发展
知识图谱已成为学术界和工业界的研究热点。它最初用于提高搜索引擎的准确率,已广泛应用于机器翻译[12]、智能问答[13]、推荐系统[14-15]等。我国知识图谱虽然起步较晚,但研究成果比较丰富。在学术界,中文知识图谱研究平台zhishi.me、开放知识图谱OpenKG、复旦大学知识工厂等,不仅知识来源广泛,还具备文本理解和智能等功能。搜索,有利于促进知识图谱的普及和应用。. 在工业界,为了提高搜索质量,搜狗、百度先后建立了自己的知识库“知识立方”和“知心”,并引入语义理解技术,将搜索结果精准传递给用户。随着通用知识图谱的快速发展,很多公司都建立了自己的知识库,比如IBM的Watson Health、阿里的健康百科“一智录”等,可见知识图谱在特殊领域也发挥着重要作用。
目前国内外利用无人系统故障数据构建知识图谱的研究较少,但在医疗、旅游、社交网络等垂直领域的知识图谱研究较多。侯梦伟[16]等深入分析了医学知识表示、医学知识抽取、医学知识融合、医学知识推理,总结了构建医学知识图谱的关键技术和挑战;徐璞[17]改进了属性知识扩展和属性值。融合方法提高了知识图谱构建的质量;程文亮[18]使用最大熵模型,使得关系抽取的准确率平均高达85%,构建了企业间的高质量知识图谱。
图2 无人系统数据采集及维护保障示意图
1.3 知识图谱架构
知识图谱一般包括逻辑结构和技术(系统)框架。本文从无人系统领域故障知识图谱的构建入手,详细介绍了技术框架。
1.3.1 知识图谱的逻辑结构
知识图谱在逻辑上可以分为数据层和模式层。模式层通常由本体库管理。本体是结构化知识库的概念模板,如“无人系统故障”、“飞控系统故障”等概念实体。本体库形成的知识库不仅具有很强的层次结构。,且冗余度较小,可见schema层是知识图谱的核心。数据层存储具体的数据信息,由一系列事实组成,如无人系统的常见故障信息,知识以事实为单位存储。在业界,Neo4j 图数据库主要用于存储数据。
1.3.2 知识图谱的系统(技术)架构
随着无人系统智能化的快速发展,传统的数据处理技术难以理解数据之间的隐含关系和规则,信息共享困难,无人系统产生的海量数据无法得到有效利用[3]。知识图谱技术利用自然语言处理、数据挖掘和机器学习技术的方法和原理,使计算机能够更好地理解数据。无人系统在飞行任务和停机维护过程中积累了大量结构化数据(状态监控数据)、半结构化数据(日志文件)和非结构化数据(图片、文档、视频),知识图谱技术可以有效利用这些数据构建了一个高质量的知识库。
图3 无人系统知识图谱架构
从图3可以看出,无人系统知识图谱主要由知识抽取、知识融合和知识处理三部分组成。无人系统知识抽取,通过无人系统在飞行过程中状态参数和运动参数的结构化、半结构化或非结构化信息提取实体、属性及其关系,并将这些信息以三元组的形式存储到知识库中。无人系统知识融合通过实体消歧、实体对齐等方法对无人系统知识库的冗余和错误信息进行整合和消歧,从而提高无人系统知识库的质量。无人系统知识处理,借助知识推理,推断缺失的事实,
2 无人系统故障知识图谱关键技术
构建无人系统知识图谱的方式主要有两种:自下而上和自上而下。自底向上是通过知识抽取获取实体、属性及其关系,通过数据驱动自动化构建本体,进而构建知识图谱;自上而下是先构建顶层本体和数据模式,然后通过实体来丰富它们。形成知识库。目前知识图谱的构建大多采用自下而上的方法,但无人系统故障的知识图谱是领域知识图谱,涉及的知识范围较窄。本文采用自下而上和自上而下相结合的方法构建无人系统。知识图谱。
2.1 知识抽取
知识抽取是从开放的无人系统数据(半结构化数据、非结构化数据)中自动或手动抽取知识单元。知识单元包括实体、关系及其属性。显然,知识抽取由实体抽取组成,它由关系抽取和属性抽取三部分组成。实体提取可以识别专有名词和特殊词并对其进行分类。关系抽取是在网络化知识结构中的许多离散实体之间建立语义联系。实体的属性是实体之间的一种特殊关系。郭建义[19]等利用条件随机场和支持向量机的方法提取景区实体属性相当于实体关系提取,所以属性抽取的问题可以转化为关系抽取。问题。无人系统数据资源包括结构化数据、半结构化数据和非结构化数据。对于不同类型的数据,采用不同的方法将其转换为三元组结构。知识抽取过程如图4所示。
图4 无人系统知识抽取过程
对于无人系统的结构化数据(状态监测数据),由于存储在数据库中的数据结构强,可以直接通过D2R映射自动提取,转化为三元知识单元。对于半结构化数据(百科知识等),可以设计专门的包装器进行针对性的提取。例如,王辉[20]等CN-DBpedia构建的特殊包装器可以实现高质量的网络知识提取。非结构化数据是以文本、图像、视频等文档形式存在的数据,是知识提取的难点。从非结构化数据中提取信息主要有三种方法。基于规则的方法需要领域专家制定具体的规则,不仅耗费大量人力,但也具有较差的鲁棒性。基于机器学习的方法需要对语料库信息进行标注来训练模型,存在标注的语料库质量参差不齐、需要人工提取特征等缺点。目前,半监督学习方法主要用于从小样本中学习,在减少人力资源的同时改进信息。萃取质量。近年来,深度学习的兴起为高质量的信息提取提供了更多途径。BILSTM-CRF是信息提取中的主流深度学习模型。L. Luo [21] 在生物医学领域使用了 BILSTM-CRF 模型。信息抽取使得实体识别和实体关系识别的准确率分别高达91.14%和92.57%,模型在其他领域也取得了不错的效果。
2.2 知识融合
通过知识抽取得到的三元知识单元具有多样性、冗余性、歧义性甚至错误的特点[22]。例如,“无人机系统”和“无人机系统”可能都指向同一个实体。知识融合融合来自不同数据源的多源异构、语义多样的无人系统知识,将异构数据、冲突检测、消歧、处理等集成在同一个框架规范下,从而对知识进行正确的判断,去除粗糙和提炼精华,构建优质知识库[23]。
2.2.1 实体消歧

实体消歧旨在解决实体引用与现实世界实体之间的歧义,实体消歧的难点主要体现在两个方面[24]:
1)实体引用的多样性:同一个实体在文中会有不同的引用;例如,不同的实体指的是“飞行控制”、“飞行控制系统”、“飞行控制系统”等,它们可能都对应于知识库中的“飞行控制系统”。无人机飞控”同一实体。
2)实体引用的歧义:同一个实体引用可以在不同的上下文中引用不同的实体;例如,同一实体引用“大疆”可能对应知识库中的“大疆无人机”和“深圳大疆创新科技”。有限公司”和其他实体。
实体消歧主要包括基于聚类的实体消歧方法和基于实体链接的实体消歧方法。流程示意图如图 5 所示。
图5 实体消歧示意图
从图5可以看出,在没有目标实体的情况下,大部分实体消歧方法都是基于聚类的。聚类方法是根据实体引用的特征(上下文中的词、实体属性等)计算实体引用之间的相似度,并通过聚类算法对实体引用进行聚类。李光义[25]等基于向量空间的相似性,利用层次聚合聚类(HAC)算法对未链接到知识库的文档进行聚类,实现歧义消解,F值高达88.35 %。基于实体链接的实体消歧通过计算实体引用与目标实体之间的相似度,将实体引用链接到与知识库中的实体引用相似度最高的目标实体。但是,当知识库中没有实体引用对应的目标实体时,实体引用会链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。实体引用链接到空实体。对于无人系统生成的数据,对于通过信息抽取得到的实体引用,可以先将部分实体引用链接到历史知识库,其余未链接的实体引用可以通过基于聚类的方法进行消歧。
2.2.2 实体对齐
实体对齐,也称为实体匹配,旨在解决相同或不同知识库中的两个或多个实体在现实世界中是否为同一实体的问题。实体冲突、指向不明确等不一致性问题,高质量链接多个现有知识库,从顶层创建大规模统一知识库[26-27]。
无人系统产生的海量数据和通过知识抽取得到的实体也需要进行实体对齐,以提高无人系统知识库的质量。实体对齐算法是实体对齐技术的核心,主要包括成对实体对齐和协同(集体)实体对齐。Pairwise entity alignment主要通过提取实体及其属性特征并计算其相似度来实现实体对齐。相似度计算方法主要基于传统的概率模型和机器学习方法;协作实体对齐是基于实体对齐的。在计算相似度时,会考虑与实体相关的其他实体属性并赋予权重 [16, 26]。
2.3 知识处理
通过知识抽取、知识融合等技术,可以从无人系统的原创数据中得到基本的事实表达,通过特殊的知识处理,事实可以形成高质量的知识。知识处理主要包括以下四个方面:本体构建、知识推理、质量评估和知识更新。
1)本体构建:无人系统故障知识图谱涉及的知识范围较窄,知识图谱采用自下而上和自上而下相结合的方法构建。本体是标准化共享概念并正式描述对象、属性及其关系[28]。首先确定无人系统故障知识图谱的核心概念(“无人系统故障”、“飞控系统故障”、“动力系统故障”等),并以数据驱动的方式自动构建提取实体的本体方法。步骤:并行关系相似度计算、实体从属关系提取和本体生成[29]。
2)知识推理:知识推理是从现有无人系统知识库中已有的实体关系出发,在实体之间建立新的联系,扩展和丰富知识库的知识网络[30]。知识推理主要包括基于逻辑的推理和基于图的推理,可以从已有的知识中发现新的知识。如果在无人系统知识库中已知(陀螺仪,测量,飞行器方向),(飞行器方向,安全壳,偏航角)和(偏航角,异常,角度),则可以推断陀螺仪有故障。
3)质量评估:无人系统领域通过知识抽取获得的知识元素可能存在误差,无法充分保证通过知识推理获得的新知识的质量。因此,在将其添加到知识库之前,需要进行质量评估过程。,质量评估是保证数据的重要手段,并贯穿知识图谱的整个生命周期[30-31]。通过高置信度的数据筛选,可以进一步保证无人系统知识库中的数据。
4)知识更新:信息随时间的积累是一个动态的过程,无人系统的知识图谱也需要迭代更新。知识库的更新包括模式层的更新和数据层的更新;模式层的更新是指概念层的更新。知识库的概念层增加一个新概念后,需要更新概念的属性和关系;更新主要是添加或更新实体、关系和属性值[30, 32]。
3 知识图谱的军事应用
知识图谱可以提供管理和利用海量异构数据的有效途径,使海量数据能够被普遍链接和良好表达,具有广泛的军事应用。
3.1 智能搜索
传统搜索基于关键词匹配索引,搜索引擎无法理解用户的真实语义,检索效率低[33]。知识图谱本质上是实体之间关系的语义网络,可以改变现有的信息检索方式,通过推理实现概念检索,以图形化的方式展示结构化知识[26, 30],提高检索准确率,知识图谱中有智能搜索的天然优势。知识图谱可应用于智能导弹的目标跟踪。如图6所示,预警机受到周围各类飞机的保护,预警机的目标打击往往受到周围飞机或飞机发出的信号的干扰,
图 6 基于知识图谱的智能导弹
3.2 军事情报问答
搜索引擎一般可以满足人们的信息获取需求,但随着互联网信息的爆炸式增长,搜索结果过多,用户难以快速准确地获取所需信息。能够更好地满足用户信息需求的问答系统受到青睐[34-35]。对于问题的输入,问答系统的输出是简洁的答案或可能答案的列表。在日益复杂的军事问题上,问答系统能够有效提高军事决策效率,对作战决策具有重要意义。图 7 显示了该问答系统在军用飞机上的应用,可以得到准确、简洁的信息结果。
图 7 军事问答系统
3.3 辅助决策
由于计算能力、海量数据和核心算法的出现,基于知识图谱的辅助决策技术在医疗、金融、智慧城市交通等领域有着广泛的应用。例如,IBM的Watson Health利用海量数据形成的知识库,利用深度学习算法,在肿瘤和癌症领域做出决策判断,供医疗专业人士参考。知识图谱通过对数据、知识等信息的分析统计,发现数据与信息的关联性并挖掘规律,根据历史知识库的相关经验进行预测,实现智能辅助决策,并能可用于未来的军事应用。
4。结论
本文引入知识图谱的概念知识,对无人系统海量数据进行知识抽取、知识融合和知识处理,形成高质量的三元知识,为无人系统领域的故障知识图谱构建提供了一种可行的方法。 . 方法。利用海量数据构建的知识图谱具有智能搜索、系统问答、辅助决策等功能,具有重要的军事应用前景。
参考:
[1] 李磊,徐越,姜奇,等。2018年国外军用无人机装备与技术发展概况[J]. 战术导弹技术,2019(2):1-11。
[2] 何道靖,杜晓,乔银荣,等.无人机信息安全研究综述[J].计算机学报, 2019, 42(5): 1076-1094.
[3] 景波,焦晓轩,黄一峰。飞机PHM大数据分析与人工智能应用[J]. 空军工程大学学报(自然科学版), 2019, 20(1): 46-54.
[4] Dugan JB, Sullivan KJ, Coppit D. 开发用于动态故障树分析的低成本高质量软件工具[J]. IEEE Transactions on Reliability, 2000, 49(1): 49-59。
[5] Enno R,Marielle S. 故障树分析:建模、分析和工具方面最新技术的调查[J]。计算机科学评论,2015(15/16):29-62。
[6] 王进新,王忠伟,马秀珍,等。基于贝叶斯网络的柴油机润滑系统多重故障诊断[J]. 控制与决策, 2019, 34(6): 1187-1194。
[7] Chu Jingchun, Wang Fei, Wang Yang, et al. Wind turbine fault diagnosis method based on fault tree and probabilistic neural network [J]. Chinese Journal of Solar Energy, 2018, 39(10): 2901-2907.

[8] Ahmed O, et al. Big data technologies: a survey[J]. Journal of King Saud University-Computer and Information Sciences, 2018, 30(4): 431-448.
[9] Gema BO, Jung JJ, David C. Social big data: recent achievements and new challenges[J]. Information Fusion, 2016, 28: 45-59.
[10] Martin H. Big data for development: a review of promises and challenges[J]. Development Policy Review, 2016, 34(1): 135-174.
[11] Wen Yanan. Visual analysis of international UAV research based on knowledge graph [J]. Journal of Zhengzhou Institute of Aviation Industry Management, 2018, 36(6): 16-25.
[12] Roberto N, Paolo P S. BabelNet: the automatic construction, evaluation and application of a wide-coverage multilingual semantic network[J]. Artificial Intelligence, 2012, 193: 217-250.
[13] Ruan T, Huang YQ, Liu XL, et al. QAnalysis: a question-answer driven analytic tool on knowledge graphs for leveraging electronic medical records for clinical research[J]. BMC Medical Informatics and Decision Making, 2019, 19( 1): 798-811.
[14] Cao ZY, Qiao XH, Jiang S, et al. An efficient knowledge-graph-based web service recommendation algorithm[J]. Symmetry, 2019, 11(3): 392.
[15] He M, Wang B, Du X K. HI2Rec: exploring knowledge in heterogeneous information for movie recommendation[J]. IEEE Access, 2019, 7: 30276-30284.
[16] Hou Mengwei, Wei Rong, Lu Liang, et al. A review of knowledge graph research and its application in the medical field [J]. Computer Research and Development, 2018, 55(12): 2587-2599.
[17] Xu Pu. Research and Implementation of Knowledge Graph Construction Method in Tourism [D]. Beijing: Beijing Institute of Technology, 2016.
[18] 程文亮. 中文企业知识图谱构建与分析[D]. 上海:华东师范大学, 2016.
[19] 郭剑毅,李 真,余正涛,等. 领域本体概念实例、属性和属性值的抽取及关系预测[J]. 南京大学学报(自然科学版),2012, 48(4): 383-389.
[20] 王 辉,郁 波,洪 宇,等. 基于知识图谱的Web信息抽取系统[J]. 计算机工程,2017, 43(6): 118-124.
[21] Luo L,Yang Z H,Yang P,et al. An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition[J]. Bioinformatics, 2018, 34(8): 1381-1388.
[22] 林海伦,王元卓,贾岩涛,等. 面向网络大数据的知识融合方法综述[J]. 计算机学报. 2017, 40(1): 1-27.
[23] Luna D X, Evgeniy G, Geremy H,et al. From data fusion to knowledge fusion[J]. The VLDB Endowment,2014, 7(10): 881-892.
[24] 赵 军,刘 康,周光有,等. 开放式文本信息抽取[J]. 中文信息学报,2011, 25(6): 98-110.
[25] 李广一,王厚峰. 基于多步聚类的汉语命名实体识别和歧义消解[J]. 中文信息学报, 2013, 27(5): 29-34.
[26] 徐增林,盛泳潘,贺丽荣,等. 知识图谱技术综述[J]. 电子科技大学学报,2016, 45(4): 589-606.
[27] 庄 严,李国良,冯建华. 知识库实体对齐技术综述[J]. 计算机研究与发展, 2016, 53(1): 165-192.
[28] Gruber T R. A translation approach to portable ontology specifications[J]. Knowledge Acquisition,1993, 5(2): 199-220.
[29] 史树明. 自动和半自动知识提取[J]. 中国计算机学会通讯, 2013, 9(8): 65-73.
[30] 刘 峤,李 杨,段 宏,等. 知识图谱构建技术综述[J]. 计算机研究与发展,2016, 53(3): 582-600.
[31] 袁凯琦,邓 扬,陈道源,等. 医学知识图谱构建技术与研究进展[J]. 计算机应用研究,2018, 35(7): 1929-1936.
[32] 李 涛,王次臣,李华康. 知识图谱的发展与构建[J]. 南京理工大学学报, 2017, 41(1): 22-34.
[33] 张 骞. 传统搜索引擎与智能搜索引擎比较研究[D]. 郑州:郑州大学, 2012.
[34] 毛先领,李晓明. 问答系统研究综述[J]. 计算机科学与探索, 2012, 6(3): 193-207.
[35] 岳世峰,林 政,王伟平,等. 智能回复系统研究综述[J]. 信息安全学报, 2020, 5(1): 20-34.
Construction and Application of Unmanned System Fault Knowledge Graph
Yu Fankun1,2 , Hu Chaofang1, Luo Xiaoliang2, Liang Xiubing2
(1.School of Electrical and Information Engineering, Tianjin University, Tianjin 300072, China;2.National Innovation Institute of Defense Technology, Academy of Military Sciences PLA China, Beijing 100071, China)
Abstract: The massive data generated by unmanned systems is scattered and lacks in connection, and information sharing is difficult。 It is difficult to meet the maintenance support requirements of unmanned systems with increasing complexity and integration。 Knowledge graph technology can extract complex data information into structured knowledge, establish connections between data, and enhance semantic information between knowledge。 Taking the fault data as the research object, knowledge extraction, knowledge fusion and knowledge processing are carried out by using knowledge graph technology to form a series of interrelated knowledge, which provides a feasible way to construct fault knowledge graph in unmanned system domain。
The knowledge base, which is established by the knowledge graph technology using tremendous data, is capable of integrating scattered data and information。 It can improve the utilization rate and usage value of knowledges in special fields。 Consequently, it has significant prospect in military。
Keywords:knowledge graph; unmanned systems; maintenance support; natural language processing
收稿日期:2020-02-23;修回日期:2020-04-10。
基金项目:国家自然科学基金(61773279);天津市科技计划项目(19YFHBQY00040)。
作者简介:喻凡坤(1995-),男,湖北鄂州人,硕士研究生,主要从事知识图谱构建方向的研究。
解决方案:[seo网站排名优化软件]想要做网络优化就必须要学会这几种工具
【SEO网站排名优化软件】要做网络优化,这些工具你一定要学会
众所周知,目前做任何事情都离不开工具。即使是最简单的进食动作也需要筷子或手辅助。同样的,对于像做网站优化这样的事情,那么各种工具的辅助也是必不可少的。目前网络优化必须了解的SEO网站排名优化软件有以下几种。
一、网站期刊分析工具

这里主要推荐的是新年日记分析工具。可以通过这个工具清楚的了解自己的网站蜘蛛爬取情况,比如蜘蛛是否经常爬到一些无用的页面,使用这个工具,还可以看到蜘蛛返回的HTTP状态码,时间这些蜘蛛停留在这个页面,它们爬过的页面等等,通过这个页面,你也可以清楚的了解网站站点是否有异常。
二、网站的流量统计工具
在使用seo网站排名优化软件的过程中,网站的流量统计工具也是必不可少的,因为这个工具可以清楚的知道其网站流量的来源,也可以知道用户的战略防御行为等,通过这些分析,我们可以更好地提出优化排名的解决方案。

三、百度站长工具
目前百度站长工具越来越完善,增加了各种功能,如网站的索引量、服务器情况、精准外链、关键词的展示与展示点击量等,都可以在百度站长工具中体现出来,站长可以通过这个工具直接向百度提交各种数据,比如死链接、网站的修改等,是百度站长工具中不可或缺的工具。使用seo网站排名优化软件。
以上就是seo网站排名优化软件中必不可少的三个辅助工具,一般网站,日常优化使用以上工具基本够用了,虽然其他一些工具不常用,但是也可以用,甚至可能在某个方面有更好的效果,大家可以多了解,多用,尽量找到适合自己的seo网站 网站排名优化软件。
超值资料:【百度云链接】爬虫.python语言及框架的选择
采集交流 • 优采云 发表了文章 • 0 个评论 • 51 次浏览 • 2022-10-14 03:11
无规则采集器列表算法总结·github,获取请看:github,可从我的github主页进行star、commit和repo:任何qq群、微信群、qq工作群转载和分享请联系群主本公众号,未经授权不得转载,违者死全家!新手和笔者聊一聊爬虫的基础知识,以及各种爬虫工具的推荐。欢迎关注公众号:老婆孩子热炕头。
这个有很多,比如他们认为可以用python3来爬取微博。利用之后,接口就会被篡改过,利用上两个爬虫框架。
从0开始从100级到160级。
1.爬虫的基础安全问题2.爬虫的api3.python语言及框架的选择-编写稳定爬虫:-index.html4.python爬虫定制化研究
python爬虫的入门建议,
python语言,选择numpy,pandas,pyspider等专门库,
推荐一个视频教程:python高级爬虫框架pyspider全面开发与实战_网易云课堂这两个课程应该会对python爬虫有一个初步的认识。
python爬虫代码库big_python_python爬虫代码库【百度云链接】
1、爬虫系统thomas_weathersoft
2、urllib/urllib2
3、selenium
4、beautifulsoup
5、基于beautifulsoup的提取爬虫框架
crawle安全分析系统,可以针对爬虫和钓鱼进行安全分析。 查看全部
超值资料:【百度云链接】爬虫.python语言及框架的选择
无规则采集器列表算法总结·github,获取请看:github,可从我的github主页进行star、commit和repo:任何qq群、微信群、qq工作群转载和分享请联系群主本公众号,未经授权不得转载,违者死全家!新手和笔者聊一聊爬虫的基础知识,以及各种爬虫工具的推荐。欢迎关注公众号:老婆孩子热炕头。
这个有很多,比如他们认为可以用python3来爬取微博。利用之后,接口就会被篡改过,利用上两个爬虫框架。
从0开始从100级到160级。
1.爬虫的基础安全问题2.爬虫的api3.python语言及框架的选择-编写稳定爬虫:-index.html4.python爬虫定制化研究

python爬虫的入门建议,
python语言,选择numpy,pandas,pyspider等专门库,
推荐一个视频教程:python高级爬虫框架pyspider全面开发与实战_网易云课堂这两个课程应该会对python爬虫有一个初步的认识。
python爬虫代码库big_python_python爬虫代码库【百度云链接】
1、爬虫系统thomas_weathersoft

2、urllib/urllib2
3、selenium
4、beautifulsoup
5、基于beautifulsoup的提取爬虫框架
crawle安全分析系统,可以针对爬虫和钓鱼进行安全分析。
完美:职场人必备!这些工具神器能让你的工作高效又省事
采集交流 • 优采云 发表了文章 • 0 个评论 • 50 次浏览 • 2022-10-12 22:18
提高效率和专注力可以帮助我们在更短的时间内获得更大的时间收益,并且可以用更少的时间带来更大的提升。要想早点下班,就必须提高工作效率。为了工作效率,拥有一个满意的工具也很重要。现在有许多效率工具可以帮助我们更好地生活和工作。接下来,我将向您介绍五个最推荐的效率工具。看完后记得采集。
1
与代码
Visual Studio Code(VS Code)是微软2015年推出的一款轻量级但功能强大的源码编辑器,大部分开发者基本都在使用。它基于 Electron 开发,支持 Windows、Linux 和 macOS 操作系统。内置对 JavaScript、TypeScript 和 Node.js 的支持以及对其他语言和扩展的丰富支持,超级强大。它具有插件丰富、跨平台、易用、开源的特点,甚至有人说它是无所不能的。
VSCode 支持语法高亮、智能代码补全、自定义快捷键、括号匹配和颜色区分、代码片段、代码比较 Diff、GIT 命令等几乎所有主流开发语言的功能。云应用开发得到优化。
2
大数据导航
大数据导航,以大数据行业为基础,以大数据工具为补充,为用户提供了一个平台,可以更快地找到大数据相关的工具。
大数据导航是一个超级数据导航网站,聚合了互联网趋势分析、全球互联网数据、网站排名查询工具、实时数据工具、问卷调查工具、BI商业智能、短期视频数据平台、机器学习数据源、城市开放数据、移动应用监控工具等。
3
图栏工具箱
Tuba Toolbox是一款非常全面的开源、免费、绿色、纯硬件检测工具合集,专为所有电脑硬件极客、DIY爱好者、各类大神、小白打造。拥有多种常用硬件检测评分工具,一键下载,使用方便。重点采集各种硬件检测、评分、测试工具,常用工具采集,可以帮助用户解决各种电脑问题。没有捆绑和强制安装行为,一键查看,无需写入注册表,无需任何敏感目录和文件操作。
还有内存工具,包括memtest,它是Windows系统中可以下载并自动检测内存的工具。这是非常容易使用。还有硬盘工具和显卡工具,可以帮你检测硬盘、数据恢复等,总之功能非常丰富,让用户满意。各种需求,界面清爽大方。
4
优采云采集器
优采云采集器是前谷歌技术团队打造的一款桌面应用软件。基于人工智能技术,只需输入网址即可自动识别采集的内容。它支持三种主要操作系统。:Linux、Windows 和 Mac。
它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图像、价格等。所有免费采集,导出数据无限数据可以导出到本地文件,发布到网站和数据库等。
5
王营
网影是一款可以打字制作视频的视频制作神器,支持一键替换图文生成视频。视频制作不需要AE和PR基础,轻松制作个人创意视频。PC端和移动端都支持下载和制作。整个操作方法也很简单。只要你会打字,你就可以自己制作视频。只需输入网站,找到合适的模板,然后添加你需要的图片和替换文字内容,就可以在线渲染合成我们想要的视频了。
- 关于我们 -
·广州易云信息科技有限公司是国内最早成立的云计算企业,云计算产业联盟核心企业。2016年成功登陆新三板。
· 易云信息推出的智慧云系列产品,以办公云系统为核心,链接企业与云服务技术,助力企业上云;超低价私有化部署,为企业提供全方位的数据保护壁垒;使用一系列协同办公工具,解决企业工作效率低下的问题。
- 客户案例 -
完美:伪原创文章变高质量原创文章-5招解决您的烦恼!
优化网站,需要每天更新网站内的文章,增加网站的活跃度,吸引蜘蛛爬行。很多站长在写文章的时候,一般都会关注伪原创,很少写原创文章,虽然说伪原创做的不错,搜索引擎也会同意,但是很多站长做的伪原创都是简单的修改文章,没有做任何调整,导致伪原创收录不行,下面是总结伪原创文章收录不好的原因以及如何做好伪原创文章。
1.伪原创文章收录坏的原因
1
伪原创文章质量差
很多站长做的伪原创文章很简单,就是把标题改写,第一段和最后一段用自己的话写,中间改内容的顺序。伪原创文章 出现了。这种做法很容易被搜索引擎识别。对用户来说还是原创内容,停留时间很短。对于这种类型的原创文章,搜索引擎可能会启动收录你的文章,但是不会对这种类型的文章进行排名,更新到后面,而搜索引擎将逐渐撤消这些。
2
伪原创 痕迹太明显
许多网站管理员都在使用 伪原创 工具。伪原创工具的原理是替换同义词和反义词,改变句子的顺序,前后段落颠倒。纵观整个文章,不仅错别字很多,而且每一句我都看不懂,这种伪原创的痕迹很明显,现在搜索引擎也很严厉打击这种做法,不会去收录这么一点价值的文章,对于这种伪原创@文章搜索引擎会判断为垃圾邮件文章。
3
伪原创文章可读性不强
伪原创工具确实伪原创文章根本没有可读性,不仅用户不喜欢它们,搜索引擎也更不喜欢它们。这种方法纯粹是为了完成任务。一点帮助都没有,内容略有改动的伪原创文章的主要内容并没有改变,也没有自己的意见。这样的文章互联网很多,用户不会浪费时间去Look,直接关闭页面,停留时间短,可读性差。
4
网站权重过低
有人看到那些新闻文章,各大平台各种转载,一样的内容,甚至一样的标题,文章还是会有收录,也有好的排名,这就是权重高权重的平台和搜索引擎的影响力很高,采集的任何内容都不会受到影响,新站点或者一般企业站点,如果这样做,权重就低,如果这样做长期以来,对搜索引擎不友好。
2. 高质量伪原创文章的技巧
1
为简化原文,删去多余的废话
有时候看了一篇文章的文章,不知道是讲什么的,也就是说文章没有重点。删除多余的内容,即所谓“去渣取精”,花在文章的内容上,让它们之间的区别更加明显。
2
结合自己的想法,让文章更专业
一篇文章文章不要完全照搬,一定要学会阅读,用自己的话来描述。当然,写之前一定要了解行业,了解自己的产品和同行的区别。区别要明确,原文的不足之处要改进,增加自己对行业的看法。这样的 文章 很有价值。
3
学习选择和重组 文章 结构
有的文章写的很专业,内容也很长。对于这种文章,要写伪原创,记得写这么长,内容太多,用户很难往前看,也比较费力。对于这种文章,要学会重新整理文章的结构,挑一个点来写这个长篇大论,放大,加上自己的看法。这个很专业,可以解决问题。用户问题,也满足搜索引擎需求。
4
营造良好的浏览环境,提升用户体验
在编辑文章时,学会使用图文结合的方式进行排版,方便用户阅读,加深用户对这段文字的理解,满足用户的需求。在整个文章的布局上,肯定比原来的文章还要好。用户体验一上来,搜索引擎自然就喜欢了,图文并茂的网页也受到搜索引擎的喜欢。
5
不要只是抄袭,要有自己的想法
记得简单复制或者修改一些文字,这些做法没有任何价值,真的伪原创文章,保持原文章的中心思想,自己制作文章重新构想,然后根据自己对行业的想法和见解重新安排文章很有价值,我经常建议大家这样做。
综上所述,随着搜索引擎的不断升级,对文章的要求也越来越高,不仅仅是原创,还有真正能帮助用户的优质内容。切记不要复制文章,对搜索引擎和用户没有任何价值,更新这种类型的文章只会增加搜索引擎的负载,浪费用户的时间。引擎不会抓取您的 网站。所以,为了你的网站优化有好的效果,不要使用各种采集文章。
当然,除了写出高质量的文章内容,还需要考虑文章SEO优化。具体文章优化技术请参考《》。
【深网】6年全网营销经验,不仅帮助企业做好全网营销和管理,还免费帮助企业培养全网营销团队,为您的企业网络保驾护航——广泛的营销之路。 查看全部
完美:职场人必备!这些工具神器能让你的工作高效又省事
提高效率和专注力可以帮助我们在更短的时间内获得更大的时间收益,并且可以用更少的时间带来更大的提升。要想早点下班,就必须提高工作效率。为了工作效率,拥有一个满意的工具也很重要。现在有许多效率工具可以帮助我们更好地生活和工作。接下来,我将向您介绍五个最推荐的效率工具。看完后记得采集。
1
与代码
Visual Studio Code(VS Code)是微软2015年推出的一款轻量级但功能强大的源码编辑器,大部分开发者基本都在使用。它基于 Electron 开发,支持 Windows、Linux 和 macOS 操作系统。内置对 JavaScript、TypeScript 和 Node.js 的支持以及对其他语言和扩展的丰富支持,超级强大。它具有插件丰富、跨平台、易用、开源的特点,甚至有人说它是无所不能的。
VSCode 支持语法高亮、智能代码补全、自定义快捷键、括号匹配和颜色区分、代码片段、代码比较 Diff、GIT 命令等几乎所有主流开发语言的功能。云应用开发得到优化。
2
大数据导航

大数据导航,以大数据行业为基础,以大数据工具为补充,为用户提供了一个平台,可以更快地找到大数据相关的工具。
大数据导航是一个超级数据导航网站,聚合了互联网趋势分析、全球互联网数据、网站排名查询工具、实时数据工具、问卷调查工具、BI商业智能、短期视频数据平台、机器学习数据源、城市开放数据、移动应用监控工具等。
3
图栏工具箱
Tuba Toolbox是一款非常全面的开源、免费、绿色、纯硬件检测工具合集,专为所有电脑硬件极客、DIY爱好者、各类大神、小白打造。拥有多种常用硬件检测评分工具,一键下载,使用方便。重点采集各种硬件检测、评分、测试工具,常用工具采集,可以帮助用户解决各种电脑问题。没有捆绑和强制安装行为,一键查看,无需写入注册表,无需任何敏感目录和文件操作。
还有内存工具,包括memtest,它是Windows系统中可以下载并自动检测内存的工具。这是非常容易使用。还有硬盘工具和显卡工具,可以帮你检测硬盘、数据恢复等,总之功能非常丰富,让用户满意。各种需求,界面清爽大方。
4
优采云采集器
优采云采集器是前谷歌技术团队打造的一款桌面应用软件。基于人工智能技术,只需输入网址即可自动识别采集的内容。它支持三种主要操作系统。:Linux、Windows 和 Mac。

它可以智能识别数据。智能模式基于人工智能算法。只需输入网址即可智能识别列表数据、表格数据和分页按钮。无需配置任何采集规则,一键式采集。自动识别列表、表格、链接、图像、价格等。所有免费采集,导出数据无限数据可以导出到本地文件,发布到网站和数据库等。
5
王营
网影是一款可以打字制作视频的视频制作神器,支持一键替换图文生成视频。视频制作不需要AE和PR基础,轻松制作个人创意视频。PC端和移动端都支持下载和制作。整个操作方法也很简单。只要你会打字,你就可以自己制作视频。只需输入网站,找到合适的模板,然后添加你需要的图片和替换文字内容,就可以在线渲染合成我们想要的视频了。
- 关于我们 -
·广州易云信息科技有限公司是国内最早成立的云计算企业,云计算产业联盟核心企业。2016年成功登陆新三板。
· 易云信息推出的智慧云系列产品,以办公云系统为核心,链接企业与云服务技术,助力企业上云;超低价私有化部署,为企业提供全方位的数据保护壁垒;使用一系列协同办公工具,解决企业工作效率低下的问题。
- 客户案例 -
完美:伪原创文章变高质量原创文章-5招解决您的烦恼!
优化网站,需要每天更新网站内的文章,增加网站的活跃度,吸引蜘蛛爬行。很多站长在写文章的时候,一般都会关注伪原创,很少写原创文章,虽然说伪原创做的不错,搜索引擎也会同意,但是很多站长做的伪原创都是简单的修改文章,没有做任何调整,导致伪原创收录不行,下面是总结伪原创文章收录不好的原因以及如何做好伪原创文章。
1.伪原创文章收录坏的原因
1
伪原创文章质量差
很多站长做的伪原创文章很简单,就是把标题改写,第一段和最后一段用自己的话写,中间改内容的顺序。伪原创文章 出现了。这种做法很容易被搜索引擎识别。对用户来说还是原创内容,停留时间很短。对于这种类型的原创文章,搜索引擎可能会启动收录你的文章,但是不会对这种类型的文章进行排名,更新到后面,而搜索引擎将逐渐撤消这些。
2
伪原创 痕迹太明显
许多网站管理员都在使用 伪原创 工具。伪原创工具的原理是替换同义词和反义词,改变句子的顺序,前后段落颠倒。纵观整个文章,不仅错别字很多,而且每一句我都看不懂,这种伪原创的痕迹很明显,现在搜索引擎也很严厉打击这种做法,不会去收录这么一点价值的文章,对于这种伪原创@文章搜索引擎会判断为垃圾邮件文章。
3
伪原创文章可读性不强
伪原创工具确实伪原创文章根本没有可读性,不仅用户不喜欢它们,搜索引擎也更不喜欢它们。这种方法纯粹是为了完成任务。一点帮助都没有,内容略有改动的伪原创文章的主要内容并没有改变,也没有自己的意见。这样的文章互联网很多,用户不会浪费时间去Look,直接关闭页面,停留时间短,可读性差。

4
网站权重过低
有人看到那些新闻文章,各大平台各种转载,一样的内容,甚至一样的标题,文章还是会有收录,也有好的排名,这就是权重高权重的平台和搜索引擎的影响力很高,采集的任何内容都不会受到影响,新站点或者一般企业站点,如果这样做,权重就低,如果这样做长期以来,对搜索引擎不友好。
2. 高质量伪原创文章的技巧
1
为简化原文,删去多余的废话
有时候看了一篇文章的文章,不知道是讲什么的,也就是说文章没有重点。删除多余的内容,即所谓“去渣取精”,花在文章的内容上,让它们之间的区别更加明显。
2
结合自己的想法,让文章更专业
一篇文章文章不要完全照搬,一定要学会阅读,用自己的话来描述。当然,写之前一定要了解行业,了解自己的产品和同行的区别。区别要明确,原文的不足之处要改进,增加自己对行业的看法。这样的 文章 很有价值。
3
学习选择和重组 文章 结构

有的文章写的很专业,内容也很长。对于这种文章,要写伪原创,记得写这么长,内容太多,用户很难往前看,也比较费力。对于这种文章,要学会重新整理文章的结构,挑一个点来写这个长篇大论,放大,加上自己的看法。这个很专业,可以解决问题。用户问题,也满足搜索引擎需求。
4
营造良好的浏览环境,提升用户体验
在编辑文章时,学会使用图文结合的方式进行排版,方便用户阅读,加深用户对这段文字的理解,满足用户的需求。在整个文章的布局上,肯定比原来的文章还要好。用户体验一上来,搜索引擎自然就喜欢了,图文并茂的网页也受到搜索引擎的喜欢。
5
不要只是抄袭,要有自己的想法
记得简单复制或者修改一些文字,这些做法没有任何价值,真的伪原创文章,保持原文章的中心思想,自己制作文章重新构想,然后根据自己对行业的想法和见解重新安排文章很有价值,我经常建议大家这样做。
综上所述,随着搜索引擎的不断升级,对文章的要求也越来越高,不仅仅是原创,还有真正能帮助用户的优质内容。切记不要复制文章,对搜索引擎和用户没有任何价值,更新这种类型的文章只会增加搜索引擎的负载,浪费用户的时间。引擎不会抓取您的 网站。所以,为了你的网站优化有好的效果,不要使用各种采集文章。
当然,除了写出高质量的文章内容,还需要考虑文章SEO优化。具体文章优化技术请参考《》。
【深网】6年全网营销经验,不仅帮助企业做好全网营销和管理,还免费帮助企业培养全网营销团队,为您的企业网络保驾护航——广泛的营销之路。
解决方案:无规则采集器列表算法部分集图算法涉及图分析算法
采集交流 • 优采云 发表了文章 • 0 个评论 • 73 次浏览 • 2022-10-11 14:11
无规则采集器列表算法部分集图算法涉及图分析算法,搜索算法,版面提取算法,网格搜索算法等,不过他们只具备图片搜索和版面提取算法。这些算法需要对图像有基本的熟悉。快搜索算法:大图:排序算法:大图集图,查询算法:交集主集一组类别等排序函数:热图(快搜索只提供主图和查询两种类型排序函数)全图去重加权排序优化:集图去重缩放排序集图匹配排序搜索速度:快如一秒。
其实这个问题应该问@leowchou。@许哲说的不全。他写的那一篇《快搜索的算法是怎么实现的》里提到了三种思路:图类型算法网格搜索算法灰度图匹配算法而在我见过的快搜索算法里,一般只包含了第一种:匹配算法。我列出这三种,是因为每一种我都亲自调过一遍。可能还有需要调整的地方。下面简单说一下用户实现快搜索方法,这个比较好写。
先确定查询或发布位置,然后搜索引擎向服务器发出请求,获取某个区域某个元素出现的概率。概率小于某个阈值的,记录,放在统计树中,放入统计树中(注意,统计树包含多维数据)。分析概率高低,判断哪个元素在区域出现最多。经常会有个种子。其他有没有对应的分词词库或者数据库之类的。未必必须按照人类的语言习惯设计。网络搜索算法(类似seo)。
最基本的是链接查询。你可以针对某个区域在搜索结果页可能搜索出的页面,自己匹配该区域某个元素,提取其中的链接。这种方法用户体验较差。字典匹配。同一个元素被多少个网络服务器搜索到,取多少位。crawlthrough。分词查询(例如:partbypart),或者采用常用的trigram检索算法。灰度图匹配。
google官方的,ab树匹配,在uc浏览器、google一次搜索的结果,我都见过。这个我没调出来,具体调出来了再说。pagevaluefinding。就是图像的查询。经常会以每帧查询最多次数为概率分数,来确定每一帧查询的集合。具体可以调出来。然后所有的标签页都做这个功能。优化是必须的。这个和快搜索类似,自己分析某个元素的具体值,以及分布,最后计算灰度值,或者灰度值计算时哪些项比较重要。
这种方法肯定会出现图片的数量级较大。其实,这里说的都是大概思路。可能作者不希望你在真正用到算法的时候,才去想这些。手机码字,写的不太严谨。供参考。 查看全部
解决方案:无规则采集器列表算法部分集图算法涉及图分析算法
无规则采集器列表算法部分集图算法涉及图分析算法,搜索算法,版面提取算法,网格搜索算法等,不过他们只具备图片搜索和版面提取算法。这些算法需要对图像有基本的熟悉。快搜索算法:大图:排序算法:大图集图,查询算法:交集主集一组类别等排序函数:热图(快搜索只提供主图和查询两种类型排序函数)全图去重加权排序优化:集图去重缩放排序集图匹配排序搜索速度:快如一秒。

其实这个问题应该问@leowchou。@许哲说的不全。他写的那一篇《快搜索的算法是怎么实现的》里提到了三种思路:图类型算法网格搜索算法灰度图匹配算法而在我见过的快搜索算法里,一般只包含了第一种:匹配算法。我列出这三种,是因为每一种我都亲自调过一遍。可能还有需要调整的地方。下面简单说一下用户实现快搜索方法,这个比较好写。
先确定查询或发布位置,然后搜索引擎向服务器发出请求,获取某个区域某个元素出现的概率。概率小于某个阈值的,记录,放在统计树中,放入统计树中(注意,统计树包含多维数据)。分析概率高低,判断哪个元素在区域出现最多。经常会有个种子。其他有没有对应的分词词库或者数据库之类的。未必必须按照人类的语言习惯设计。网络搜索算法(类似seo)。

最基本的是链接查询。你可以针对某个区域在搜索结果页可能搜索出的页面,自己匹配该区域某个元素,提取其中的链接。这种方法用户体验较差。字典匹配。同一个元素被多少个网络服务器搜索到,取多少位。crawlthrough。分词查询(例如:partbypart),或者采用常用的trigram检索算法。灰度图匹配。
google官方的,ab树匹配,在uc浏览器、google一次搜索的结果,我都见过。这个我没调出来,具体调出来了再说。pagevaluefinding。就是图像的查询。经常会以每帧查询最多次数为概率分数,来确定每一帧查询的集合。具体可以调出来。然后所有的标签页都做这个功能。优化是必须的。这个和快搜索类似,自己分析某个元素的具体值,以及分布,最后计算灰度值,或者灰度值计算时哪些项比较重要。
这种方法肯定会出现图片的数量级较大。其实,这里说的都是大概思路。可能作者不希望你在真正用到算法的时候,才去想这些。手机码字,写的不太严谨。供参考。