解决方案:11月更新!一口气上线20+新功能,3D架构拓扑图更具趣味性

优采云 发布时间: 2022-11-27 11:26

  解决方案:11月更新!一口气上线20+新功能,3D架构拓扑图更具趣味性

  EasyOps®全平台新增功能!

  不要对我的朋友说谎

  在写今天的文章时

  我的手在颤抖

  好激动,这次要推出的更新太给力了

  虽然路小宇有

  仔细研究了这20+个新特性

  还是无法用言语来形容

  这次功能是批量更新的

  “强大”的十分之一

  什么也别说

  快和陆小U一起往下看吧!

  HyperInsight 超融合监控

  APM“服务详情”

  支持查看服务的部署架构和依赖资源

  提供服务故障三维分析能力

  检查依赖服务的资源的健康状态

  服务失败/性能不佳的原因可能有很多。可能是服务逻辑有问题,服务调用有问题,也可能是服务的依赖资源失效,比如以下几种情况:

  ⚠️ 服务部署实例宕机,影响*敏*感*词*能

  ⚠️ 服务所在主机宕机,导致服务无法正常运行

  ⚠️因网络波动,服务无法正常调用

  因此,需要对服务所依赖的基础设施的基础资源进行健康检查,以快速解决服务故障。

  在此之前,查看服务的依赖资源很麻烦,需要切换多个小产品,下钻到很多页面才能查看自己真正想看的资源的指标数据。

  为解决资源详情下钻难的问题,服务详情支持查看部署架构和依赖资源的能力,用户可以直接在“服务详情”中快速下钻。该功能不仅支持快速浏览其“依赖资源”,还支持可视化查看“部署架构”,帮助用户快速查看服务依赖资源的健康状态。

  此新功能具有以下特点:

  “指标图形预览”具有以下特点:

  管理数据库

  《资源自动发现》

  支持服务之间的调用关系和K8s服务的发现

  构建完整的服务东西南北拓扑

  在“资源自动发现”中,资源或服务的关系发现是关键。新增服务之间调用关系的发现,升级了“资源自动发现”的能力。以目前“资源自动发现”的能力,完全可以构建一个东西南北服务完整的拓扑图。

  什么是东西南北拓扑图?

  从南北方向来看,意味着服务的整个部署架构拓扑中涉及的资源和资源之间的关系会被自动发现;而东西向是指通过横向的服务调用拓扑自动发现资源。此次通过在资源自动发现中构建完备的拓扑能力,为上层消费提供更多可能。

  CMDB平台整个开发过程中,关系的维护方式不断迭代升级,从最原创

的人工维护开始→【项目】写脚本自动采集→【CMDB-服务发现】写服务特性分析→ 【APM】自动分析分布式链路跟踪的trace数据→【APM】自动分析日志数据→现在【自动资源发现】智能扫描一键采集,可见能力在不断提升,效率也在不断提高越来越好。

  目前,“资源自动发现”的能力涵盖以下几个方面:

  其中,计算资源的发现填补了容器资源的空白;采集方式支持远程扫描,降低资源发现门槛,支持对接云厂商,填补公有云资源空白;在数据关系发现方面,支持关联关系发现,增强关系发现能力。

  

" />

  用户可以在升级到6.10后试用资源自动发现能力。未来,优维将继续扩大发现资源/服务的范围。

  「实例详情」优化关系显示

  提高页面信息密度

  由于UI8.0第一版“实例详情”的基本信息和实例关系采用自上而下的结构,页面容易出现双滚动条,页面使用率不高。

  因此,本次对“实例详情”进行了修改:首先,实例关系列表返回左侧;第二,基本信息根据宽度自动调整三栏或两栏的布局;三、基础信息分类采用浮动样式,点击后页面自动滚动到锚点位置,更方便用户查看。

  ITSM

  《表格设计》

  支持容器拖拽排序

  表单设计更灵活

  在之前的“表单设计”中,拖入容器后,不能改变容器的顺序。一旦容器顺序错误,只能删除重做。用户使用起来非常不方便。

  为了让用户使用起来更加灵活,增加了上下拖动布局的功能,即用户在设计表单的过程中可以调整容器的上下顺序,操作体验更好与组件相同。它支持鼠标拖动。只是移动。

  “数组输入”

  支持定期检查

  提高填表准确率

  在实际的表单填写中,用户往往通过“数组输入”的方式填写多个IP,但是之前的“数组输入”组件不支持正则校验,无法像普通文本输入一样校验格式是否正确。

  本次升级后,在表单设计中,“数组输入”组件支持添加正则表达式。需要注意的是,校验对象是数组input的每一个输入项,而不是整个数组。

  “脚本库”

  分类和数据优化只展示ITSM脚本数据

  脚本库数据更清晰

  ITSM-Service Management-Script Library Management中收录

的原创

脚本信息除了ITSM外,还有其他分类的脚本信息。有很多ITSM用不到的脚本,也聚集在这个模块下,导致用户管理和维护脚本效率低下。不够方便。

  优化ITSM“脚本库”后,“脚本库”中的脚本只保存与ITSM相关的脚本,简化脚本数据,方便用户更高效地管理“脚本库”。

  《高级设置-文案设置-通用语言设置》

  取消提示三项限制,支持更多通用语言设置

  通用语言设置更灵活

  原有的高级设置-文案设置-常用语言设置最多只能设置3个,当常用词超过3个后,将无法再添加新的,客户也无法根据自己的需要自定义更多的常用词。

  因此,在最新的产品版本中,取消了最多只能添加3个常用词的限制,即用户可以设置3个以上的常用词。另外,页面默认会显示5个常用词,如果超过5个词折叠到“更多”,展开更多后可以查看其他常用语信息。

  “实例选择组件”

  支持升序、降序等排序。

  完善【实例选择】组件的基础功能

  原有的“实例选择”组件不支持排序功能,用户无法快速筛选查看关键数据。

  优化后,“实例选择”组件新增排序功能,支持升序、降序、不排序。如果数据量很大,用户可以使用排序功能来提高数据检索的效率。

  “工单中心”

  导出新增工单详细描述的内部顺序

  丰富工单导出内容

  原“工单中心”导出没有工单讨论内容,用户无法在导出表单中看到工单讨论的相关信息。最新版本“工单中心”支持导出“工单讨论”信息,丰富了工单导出的内容。

  开发运维

  “数据库更改”

  支持检测高危SQL语句并限制发布

  

" />

  更安全地执行数据库更改,避免数据库删除

  当前“数据库变化”时,平台缺乏从内容安全端对sql脚本的检测能力。当sql脚本中有删除数据库的sql语句时,由于人工审核很容易造成发布事故。.

  为了让用户更安全地进行“改库”,规避删除数据库的风险,改库增加了检测高危SQL语句并限制发布的功能,即用户可以在“数据库更改-更改配置”模型,并且可以对高危语句进行分级,如致命级别(drop database)限制发布,警告级别(modify and change database)需要人工确认。

  这种“改库”的优化,在能力上为用户提供了更多的选择。这不是强制性的。如果部分用户在使用数据库变更时没有出现该问题,则无需配置模型实例即可正常发布。而已。在管道执行数据库变更的场景下,支持通过接口返回管道进行限制,使用方式更加灵活。

  “数据库更改”

  支持文件md5码校验

  增加执行过程中的验证控制

  解决因操作不规范导致的后续管理问题

  数据库执行变更遇到文件错误时,在客户现场有这样的操作方法:用户通过在平台上更改文件内容来解决发布平台发送给客户端的sql文件时出错的问题client ,这种方式本质上造成了计划发布和实际发布对象的偏差,给用户后续的回溯问题造成不易察觉的隐患。

  平台对下发文件的md5码和下发给客户端的文件进行校验,确保用户发布时,预期发布和实际执行过程中的对象一致。当用户再次尝试发布报错文件或再次执行时,如果存在不一致的md5文件,平台将报错并终止发布。此次通过执行过程中的验证控制,可以解决因操作不规范带来的后续管理问题。

  《应用部署》

  应用配置、部署策略相关页面

  支持主机排序

  高效筛选检索宿主信息

  之前在“部署策略”和“应用配置”中选择发布目标时,如果主机过多,没有排序功能,无法快速筛选和检索主机。

  此次优化后,支持在“部署策略”选择发布目标链接中对主机进行自然排序,可以升序、降序、取消排序;支持在“应用配置”树状分类中对hosts进行自然排序,可以是升序、降序、Unsort。

  “产品库”

  支持版本清理策略

  对于“产品库”的清理,通常的做法是清理一些不重要的版本。“产品库”新增版本清理策略,清理方式更加丰富,支持以下四种清理方式:

  自动操作

  “流程库/作业”

  导出和导入自身和关联的工具信息

  一键导出/导入流程和相关工具

  原有“流程库”的导出/导入只支持流程本身信息的导出和导入,不能将其关联的工具一起导出和导入。用户需要分别导出和导入流程及其工具,然后手动关联。操作路径漫长、复杂、成本高,而且往往容易出错。

  “工作”的导出和导入是一样的。

  优化后,支持在流程纬度和作业维度上一键导出/导入流程、作业及关联工具,实现跨平台的流程/作业导出和导入,大大提高了用户对作业、流程、和工具的理解。工具。使用效率降低了用户手动操作的成本。

  丰富/完善运维自动化

  运维作业权限点配置

  权限点配置更灵活

  本来不同的运维作业菜单支持访问和管理权限点的配置,但是由于管理权限点太粗,无法满足用户更细化的权限点配置需求,比如执行、编辑、克隆、等等

  为解决上述问题,对运维作业管理权限点进行拆分,支持配置更细粒度的权限点,如访问、执行、编辑、删除、创建、克隆、高级设置等。

  工具库“任务历史列表”

  添加了“执行参数”字段

  原“工具库任务历史”中的“执行参数”只能在任务历史详情中查看。查看任务的执行参数,需要用户逐一点击查看。操作路径长,不方便。

  在这方面,“执行参数”字段被添加到工具任务历史记录中。用户点击查看后,可以在当前页面查看“执行参数”的内容。

  工具库“对象参考”

  分享:*敏*感*词*深度学习开放数据集下载集合(值得收藏,不断更新)

  1.图像处理数据集

  1. MNIST 是最受欢迎的深度学习数据集之一。这是一个手写数字的数据集,包括一个60000个样本的训练集和一个10000个样本的测试集。这是一个很棒的数据库,可用于尝试学习技术和深度识别真实世界数据的模式,而无需花费太多时间和精力进行数据预处理。

  大小:约50MB

  数量:70000 张图像,分为 10 个类别。

  2. Fashion-MNIST,收录

60,000张训练集图像和10,000张测试集图像。它是一个类似于 MNIST 的时尚产品数据库。开发人员觉得 MNIST 用得太多了,所以他们使用这个数据集作为 MNIST 的直接替代品。每张图片都以灰度显示,并有一个标签(10 个类别之一)。

  大小:30MB

  数量:10 个类别中的 70,000 张图像

  3. PASCAL VOC Challenge是视觉对象分类、识别和检测的基准测试,提供标准的图像标注数据集和检测算法和学习性能的标准评估体系。PASCAL VOC 图像集包括 20 个类别:人类;动物(鸟、猫、牛、狗、马、羊);车辆(飞机、自行车、轮船、公共汽车、汽车、*敏*感*词*、优采云

);室内(瓶子、椅子、餐桌、盆栽、沙发、电视)。PASCAL VOC Challenge从2012年开始就没有举办过,但其数据集图像质量好,标注完整,非常适合测试算法性能。

  数据集大小:~2GB

  4. VQA,这是一个收录

图像开放式问题的数据集。这些问题的答案需要视觉和口头理解。该数据集具有以下有趣的特征:

  大小:25GB(压缩后)

  数量:265,016 张图片,每张图片至少有 3 个问题,每个问题有 10 个正确答案

  5. COCO,是一个用于对象检测、分割和字幕生成的大型数据集。宣布 2018 年 VQA 挑战赛!2、COCO 是一个用于对象检测、分割和字幕生成的大型数据集。

  大小:~25 GB(压缩)

  数量:330,000 张图片,80 个目标类别,每张图片 5 个标题,250,000 张带关键点的人像

  6. CIFAR-10,也用于图像分类。它由 10 个类别的 60,000 张图像组成(每个类别在上图中表示为一行)。该数据集共有 50,000 张训练集图像和 10,000 张测试集图像。数据集分为 6 个部分 - 5 个训练批次和 1 个测试批次。每批收录

10,000 张图像。

  大小:170MB

  数量:10 类 60,000 张图像

  7. ImageNet 是按照 WordNet 层次结构组织的图像数据集。WordNet 收录

约 100,000 个短语,而 ImageNet 为每个短语提供平均约 1,000 个描述图像。

  大小:约 150 GB

  数量:图片总数约为1,500,000张;每个图像都有多个边界框和各自的类别标签。

  8. Street View House Number Dataset (SVHN),这是一个用于开发对象检测算法的真实世界数据集。它需要最少的数据预处理。它有点类似于 MNIST 数据集,但具有更多标记数据(超过 600,000 张图像)。数据是从谷歌街景中的门牌号采集

的。

  大小:2.5GB

  数量:6,30,420 张图像,分为 10 个类别

  9. Open Images 是一个收录

近 900 万个图像 URL 的数据集。这些图像使用收录

数千个类别的图像级标签边界框进行注释。该数据集的训练集收录

9,011,219 张图像,验证集收录

41,260 张图像,测试集收录

125,436 张图像。

  大小:500GB(压缩后)~1.5GB(不含图片)

  数量:9,011,219 张图像,超过 5000 个标签

  10. 机器标注的超*敏*感*词*数据集,收录

2亿张图片。

  

" />

  我们解决了网络图像的*敏*感*词*注释问题。我们的方法基于视觉同义词集的概念,视觉同义词集是视觉相似且语义相关的图像组织。每个视觉同义词集代表一个单一的原型视觉概念,并具有一组关联的加权注释。线性 SVM 用于预测未见过图像示例的视觉同义词集成员资格,并使用加权投票规则从一组视觉同义词集构建预测注释的排名列表。我们展示了同义词集在收录

超过 2 亿张图像和 30 万条注释的新注释数据库上比标准方法具有更好的性能,这是有史以来最大的注释。

  11. 收录

130,000 张图像的数据集。场景分类是计算机视觉中的一个基本问题。然而,场景理解研究受到当前使用的数据库范围有限的限制,这些数据库不能捕获所有场景类别。对象,场景类别的最大可用数据集仅收录

15 个类。在本文中,我们提出了收录

899 个类别和 130,519 张图像的广泛场景理解 (SUN) 数据库。我们使用 397 个经过良好采样的大量类别来评估用于场景识别的最先进算法并建立新的性能范围。我们在 SUN 数据库上测量人类场景分类性能,并将其与计算方法进行比较。

  12.收录

100万张图片和23000个视频;微软亚洲研究院出品,质量有保障。

  2.自然语言处理数据集VisualSynset2。自然语言处理数据集Large-scale Scene Recognition from Abbey to Zoo2。自然语言处理数据集VisualSynset2。自然语言处理数据集

  1. IMDB Movie Review Dataset,非常适合电影爱好者。它用于二元情感分类,目前收录

的数据比该领域的其他数据集多。除了训练集审查样本和测试集审查样本外,还有一些未标记的数据。此外,数据集包括原创

文本和预处理的词袋格式。

  大小:80MB

  数量:25,000 条高度两极化的电影评论,每条用于训练和测试集

  2. European Language Machine Translation Dataset,收录

四种欧洲语言的训练数据,旨在改进当前的翻译方法。您可以使用以下任何语言对:法语-英语 *敏*感*词*语-英语 德语-英语 捷克语-英语

  大小:约15GB

  数量:约30,000,000个句子及其对应的翻译

  3. WordNet,WordNet是一个大型的英文同义词集数据库。Synset 也是一组同义词,每组描述不同的概念。WordNet 的结构使其成为 NLP 中非常有用的工具。

  大小:10MB

  数量:117,000 个同义词集

  4. 维基百科语料库,维基百科全文集的数据集,收录

来自超过 400 万篇文章的近 19 亿个单词。您可以逐字、逐短语、逐段检索它,这使它成为一个强大的 NLP 数据集。

  大小:20MB

  数量:4,400,000 篇文章,收录

19 亿字

  5. Yelp Dataset,这是Yelp发布的用于学习目的的开放数据集。它收录

来自多个大都市地区的数百万条用户评论、企业属性和超过 200,000 张照片。该数据集是全球范围内非常常用的 NLP 挑战数据集。,

  大小:2.66 GB JSON、2.9 GB SQL 和 7.5 GB 照片(全部压缩)

  数量:5,200,000 条评论,174,000 个商业物业,200,000 张照片,11 个大都市地区

  6. Blog Authorship Corpus,一个数据集,收录

从数以千计的博客作者那里采集

的博客文章,并从中采集

数据。每篇博文都作为单独的文件提供。每篇博客至少出现200个常用英文单词。

  大小:300MB

  数量:681,288 篇博文,总计超过 1.4 亿字。

  7. Twenty Newsgroups 数据集,顾名思义,涵盖了与新闻组相关的信息,包括从 20 个不同的新闻组(每个新闻组 1,000 个)获得的 20,000 个新闻组文档的汇编。这些文章具有典型特征,如标题、引言等。

  大小:20MB

  数量:来自 20 个新闻组的 20,000 篇报道

  8. Sentiment140 是一个用于情感分析的数据集。这个流行的数据集是开始您的自然语言处理之旅的完美方式。数据中的情绪已经被预先清空。最终的数据集具有以下六个特征: 推文的情感极性 推文的 ID 查询日期

  大小:80MB(压缩后)

  数量:1,60,000 条推文

  

" />

  3. 音频/语音数据集

  1. VoxCeleb 是一个大型的人类语音识别数据集。它收录

来自 YouTube 视频的 1251 名名人的大约 100,000 篇演讲。数据在很大程度上是性别平衡的(55% 为男性)。这些名人有不同的口音、职业和年龄。开发集和测试集之间没有重叠。整理和识别大明星所说的话 - 这是一项有趣的工作。

  大小:150MB

  数量:1251名名人10万篇演讲

  2. Youtube-8M 是谷歌开源的视频数据集。视频来自youtube,共有800万个视频,总时长50万小时,4800个类别。为了保证标注视频数据库的稳定性和质量,谷歌只使用浏览量在1000以上的公共视频资源。为了让计算机资源有限的研究人员和学生能够使用这个数据库,谷歌对视频进行了预处理,提取了帧级特征。提取的特征经过压缩,可以放在硬盘上(小于1.5T)。

  大小:~1.5TB

  3. 免费的 Spoken Digit 数据集,这是另一个受 MNIST 数据集启发的数据集!该数据集旨在解决识别音频样本中语音数字的任务。这是一个公共数据集,因此希望它会随着人们不断贡献数据而发展。目前有以下特点: 3种人声1500条录音(每人50次,每人说0-9) 英语发音

  大小:10MB

  数量:1500 个音频样本 SOTA:“基于原创

波形的音频

  4. Million Song 数据集免费提供,收录

一百万首当代流行音乐的音频特征和元数据。其目的是: 鼓励对商业规模算法的研究 为评估研究提供参考数据集 作为使用 API(例如 The Echo Nest API)创建大型数据集的捷径 帮助 MIR 领域的入门级研究人员工作 数据集的核心是上百首歌曲的特征分析和元数据。此数据集不收录

任何音频,仅收录

导出的功能。示例音频可通过哥伦比亚大学 () 提供的代码从 7digital 等服务获得。

  大小:280GB

  数量:一百万首歌曲!

  5. FMA 是一个音乐分析数据集,由整个 HQ 音频、预先计算的特征以及曲目和用户级元数据组成。它是一个公开可用的数据集,用于评估 MIR 中的多项任务。以下是数据集中收录

的 csv 文件及其内容: tracks.csv:记录了每首歌曲的每个曲目的元数据,如 ID、歌曲名称、艺术家、流派、标签和播放时间,共 106,574 首歌曲。genres.csv:记录所有163个流派的ID和名称以及上层流派名称(用于推断流派级别和上层流派)。features.csv:记录使用 librosa 提取的常见特征。echonest.csv:Echonest(现为 Spotify)为 13,129 首曲目的子集提供的音频功能。

  大小:约1000GB

  数量:约100,000个音轨

  6.舞厅,数据集收录

舞厅的舞曲音频文件。它以真实音频格式提供了许多舞蹈风格的一些特*敏*感*词*段。以下是此数据集的一些特征: 实例总数:698 片段持续时间:约 30 秒 总持续时间:约 20940 秒 大小:14 GB(压缩) 数量:约 700 个音频样本

  7. LibriSpeech,数据集是一个收录

约1000小时英语语音的大型语料库。数据来源是 LibriVox 项目的有声读物。数据集已正确拆分和对齐。如果你还在寻找起点,点击查看在这个数据集上训练的声学模型,点击查看适合评估的语言模型。

  大小:约60GB

  数量:1000小时演讲

  4.综合数据集

  1. Yahoo 发布的庞大的Flickr 数据集收录

超过1 亿张图片。

  迄今为止采集

的数据代表了世界上最大的多媒体元数据集合,可用于研究可扩展的相似性搜索技术。CoPhIR 由 1.06 亿张处理过的图像组成。CoPhIR 现在可供研究社区尝试和比较用于相似性搜索的不同索引技术,可扩展性是关键问题。我们对 Flickr 图像内容的使用符合知识共享许可。CoPhIR Test 采集

符合基于 WIPO(世界知识产权组织)版权条约和表演与录音制品条约的欧洲建议 29/2001 CE,以及​​现行的意大利法律 68/2003。

  为了访问 CoP​​hIR 发行版,有兴趣在其上进行实验的组织(大学、研究实验室等)必须签署随附的 CoPhIR 访问协议和 CoPhIR 访问注册表,将原创

签名文件通过邮件发送给我们. 请按照“如何获取 CoPhIR 测试集”部分中的说明进行操作。然后您将收到用于下载所需文件的登录名和密码。

  2. 收录

8000万张32x32图像,从中选取了CIFAR-10和CIFAR-100。

  7900 万张图像存储在一个 227Gb 大小的巨型二进制文件中。每个图像附带的元数据也位于一个 57Gb 的巨型文件中。为了从这些文件中读取图像/元数据,我们提供了一些 Matlab 包装函数。读取图像数据的函数有两个版本:(i) loadTinyImages。m - 纯 Matlab 函数(无 MEX),在 32/64 位下运行。按图像编号加载图像。默认情况下使用它。(ii) read_tiny_big_binary。m - 用于 64 位 MEX 函数的 Matlab 包装器。

  比 (i) 更快更灵活,但需要 64 位机器。有两种类型的注释数据:(i)手动注释数据,按注释排序。txt,其中收录

手动检查的图像标签,以查看图像内容是否与用于采集

它的名词一致。还存储了一些其他信息,例如搜索引擎。此数据仅适用于非常小的一部分图像。(ii) 自动标注数据,存储在tiny_metadata中。bin,收录

与图像采集

相关的信息,例如搜索引擎、哪个页面、缩略图的 url 等。此数据可用于所有 7900 万张图像。

  3. MIRFLICKR-25000 开放评估项目包括通过其公共 API 从社交摄影网站 Flickr 下载的 25000 张图像,以及完整的手动注释、预计算描述符和基于词袋的 mat 相似度和分类工具的软件探索和分类图像。

  来自大学(麻省理工学院、剑桥大学、斯坦福大学、牛津大学、哥伦比亚大学、美国新加坡、清华大学、东京大学、韩国科学技术院等)和公司(IBM、微软、谷歌、 Yahoo! Facebook、飞利浦、索尼、诺基亚等)

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线