能够自动发布文章的自动采集器(华为发布新一代2D自动驾驶数据集比Waymo现有大10倍)
优采云 发布时间: 2021-10-24 06:16能够自动发布文章的自动采集器(华为发布新一代2D自动驾驶数据集比Waymo现有大10倍)
人类司机开车,开很多不熟悉的路自然会熟练。
自动驾驶需要大量的学习和培训。
这与提供“训练场地”和材料的庞大数据集是分不开的。
此前,Waymo 拥有最大的 2D 自动驾驶数据集。
但现在,华为诺亚方舟实验室和中山大学发布了新一代二维自动驾驶数据集SODA10M。
比 Waymo 现有的大 10 倍。
包括1000万张未标注图片和2万张标注图片。
除了庞大之外,这个数据集还有什么不同?
数据集来自哪里?
SODA10M 数据集采集了不同城市在不同天气条件、时间段和地点的场景。
晴天阴雨昼夜,城市高速公园……
更重要的是,覆盖面很广。
1000 万张未标记的图像来自 32 个城市,覆盖了全国大部分地区。
20000张标注图片直接标注了人车6大类,分别是:
行人、骑自行车者、汽车、卡车、电车、三轮车。
它是如何工作的?
华为通过众包将采集任务分发给了数万名*敏*感*词*司机。
*敏*感*词*司机用手机或行车记录仪(1080P+)采集图片。
你觉得你可以只拍一张吗?
此外,以每 10 秒一帧的速度,采集 不同天气条件下的图像。
地平线需要保持在图像的中心,汽车内部的遮挡不应超过 15%。
将随机抽取 5% 的接收图像进行人工验证。
如果通过率低于95%,将被退回。
对于与隐私相关的信息,例如人脸和车牌,它会变得模糊。
最大的数据集有什么用?
华为用标注训练集(20000张标注图片)做了一个自动驾驶主流模型的大pk。
对象是全监督、半监督和自监督学习。
它分为三个部分:训练、验证和测试。
为了增加难度,最终测试选择的图片是上海,白天阳光明媚,城市场景。
在验证过程中,收录了多种不同场景的图片。
最终结果表明,仅通过全监督训练训练的模型效果不佳,且全监督训练的结果在准确率上昼夜差异较大。
此外,华为还拉取了Waymo自动驾驶数据集和现有的经典自监督算法数据集ImageNet,对比了SODA10M的性能。
从这三个项目开始:
1、目标检测;
2、BDD100K(伯克利发布*敏*感*词*开放驾驶视频数据集);
3、城市景观的语义分割。
效果如何?
在Moco系列(城市景观语义分割),以及基于像素和中间层特征的自监督方法DetCo和DenseCL上,SODA10M自监督训练的效果与ImageNet类似。
两者都明显优于 Waymo。
这也意味着自监督算法上游的数据集大小对下游的学习和测试有很大的影响。
华为表示,建立这个数据集主要是为了自监督学习,为下一代工业级自动驾驶系统构建方法。
此前,自动驾驶主要依靠训练好的视觉感知模型进行学习。
这类模型使用了大量的数据标注来保证自动驾驶的安全性,但缺点也很明显。
自动驾驶系统将依赖于此并且学习非常缓慢。
半监督和自监督学习可以通过大数据集挖掘大量未标记数据和少量未标记数据来提高学习的鲁棒性。
因此,建立足够大的数据集就成了关键。
据悉,华为诺亚方舟实验室将基于该训练集开启二维自动驾驶挑战赛。
并从中选出最佳论文奖。
奖金丰厚,有兴趣的朋友或许可以一战。
论文地址: