2019年人工智能进步的一年,还是幻灭了一年?

优采云 发布时间: 2021-05-26 18:22

  

2019年人工智能进步的一年,还是幻灭了一年?

  

  2019年无疑是繁忙的一年。人工智能和新闻的进步经常成为头条新闻,使我们的生活充满敬畏和自豪的时刻,但另一些时刻充满了令人讨厌的想法,即该技术使人们能够发现我们的社会。人工智能。

  2019年是人工智能进步的一年还是幻灭的一年?当研究人员征服这座城市并迅速克服以前无法达到的基准时,今天,我们是否可以认为这一领域已经处于稳定发展的轨道上?

  在ADSP(应用数据科学合作伙伴,意为“应用数据科学合作伙伴”)网站上,我们想退后一步,组织2019年人工智能界发生的事件,以便公众可以一个新的视角。在聚光灯下,将最初引起人们兴趣的工作与它的实际重要性及其对现场的影响区分开来是很重要的。为此,本文将展开人工智能故事的平行线索,并尝试将其含义分开。多亏了我们出色的内容作家Elena Nisioti,她如此精彩地讲了这些故事!

  让我们坐下来回顾2019年人工智能的各个方面。

  在文艺复兴时期

  如果我们用一句话来描述2019年人工智能的当前状态,则可能是:“强化学习又回来了,看起来它将永远持续下去。”

  到目前为止,我们大多数人可能已经熟悉了监督学习:有些人采集了很多训练数据,将它们输入机器学习算法中,然后得到一个模型,该模型可以为我们预测和分类。我们中有些人甚至可能会觉得人工智能是监督学习的代名词。但是,监督学习只是我们今天拥有的多种机器学习中的一种。

  在强化学习(RL)中,特工使用试错法通过与环境交互来学习,这将为其行为提供奖励。当涉及多个智能体时,它们称为多智能体强化学习系统(Multi-agent Reinforcement Learning System)。

  这个领域已经存在了几十年。从概念上讲,它听起来更像是一种用于创造智力的合理学习机制,而不是监督学习。但是,直到2015年DeepMind才引起关注。当时,DeepMind使用Deep Q学习来创建Atari游戏的代理,该代理是经典强化学习算法和深度神经网络算法的结合。在2018年,OpenAI还通过解决蒙特祖玛的Revenge(一种Atari游戏,被认为特别困难)来确立自己在这一领域的地位。

  在过去的几个月中,事情已经升级:

  

  这些作品恢复了学术界对强化学习的信念。过去,人们认为强化学习效率低下,过于简单,无法解决复杂问题,甚至游戏问题。

  今年,另一个流行的应用程序是自然语言处理(NLP)。尽管研究人员已经在这一领域工作了数十年,但近年来自然语言处理系统生成的文本听起来仍然不自然。自2018年底以来,人们的注意力已经从过去的单词嵌入转移到预先训练的语言模型,这是从计算机视觉中借来的用于自然语言处理的技术。这些模型的训练是在无人监督的情况下进行的,这使现代系统可以从Internet上的大量文本中学习。结果,这些模型已成为“知名”模型,并且具有理解上下文的能力。然后,他们可以通过监督学习来进一步提高其在特定任务上的表现。通过在不同任务上训练机器学习模型来改进模型的实践属于转移学习的类别,并且被认为具有很大的潜力。

  自2018年底推出Google BERT,ELMo和ulmfit以来,自然语言处理一直是人们关注的焦点,但是OpenAI的GPT-2“夺走”了今年的注意力,其性能激发了人们的兴趣。关于自然语言处理系统的道德使用的讨论。

  实践变得成熟

  今年,人们还见证了一些深度学习技术的日趋成熟。监督学习的应用,尤其是计算机视觉技术,已经在现实生活中诞生了成功的产品和系统。

  生成对抗网络(GAN)是一对神经网络,其中*敏*感*词*网络试图通过学习生成模仿训练数据的图像来欺骗鉴别器网络,现在已经达到了近乎完美的水平。对于人工智能而言,创建虚假但逼真的人物和物体图像已不再是前沿领域。从2014年推出Generative Adversarial Network到2019年NVDIA的开源StyleGAN,一张图片总值一千个字。我们使用以下图片说明这可能是了解该领域进展的最佳方法:

  

  2019年,人工智能创造的艺术品甚至脱离了过去几年的假设性讨论,并成为当今博物馆装置和拍卖的一部分。

  计算机视觉还用于具有重要商业和社会意义的某些领域,包括自动驾驶汽车和医学。但是,人工智能算法在这些领域中的应用自然很慢,因为它们直接与人类生活直接相互作用。至少到目前为止,这些系统还不是完全自治的。他们的目的是支持和增强操作员的能力。

  研究团队正在与医院紧密合作,开发一种用于早期疾病预测的人工智能系统,并组织大量健康数据文件。一个著名的例子是DeepMind Health与UCLH之间的持续合作。但是,大多数这项工作仍处于试验阶段。到目前为止,唯一获得FDA批准的人工智能系统是SubtlePet,这是一种使用深度学习增强医学图像的软件。

  沉睡的巨人

  AutoML是机器学习的子领域之一。自1990年代以来一直存在。它在2016年吸引了很多兴趣,但至少在某种程度上它从未成为头条新闻,至少与其他人工智能不同。趋势就是这样。也许这是因为它的花哨性质较差:AutoML的目的是通过自动决策使机器学习实践更加有效,而如今,数据科学家通过手动和蛮力调整来做出决策。

  在过去三年中,我们对这一领域的理解发生了变化。如今,大多数大公司都提供AutoML工具,包括Google Cloud AutoML,Microsoft Azure,Amazon Web Service和DataRobot。今年,随着学习型进化AI框架(LEAF)成为最先进的人工智能技术,人们的兴趣已转向“进化”方法。但是,AutoML尚未达到可以使全自动人工智能系统比一组人工智能专家更好地运行的成熟水平。

  担心人工智能

  尽管取得了压倒性的成功,但人工智能领域在今年也给我们带来了一些令人沮丧的故事。主要问题之一是机器学习模型中的偏差。直到2018年,这个问题才变得明显,当时亚马逊发现其自动招聘系统中存在性别偏见,并且美国*敏*感*词*广泛使用的判决工具COMPAS也被发现具有性别歧视。还有种族偏见。

  今年*敏*感*词*数量有所增加,这可能表明公众和机构越来越怀疑现有的用于自动决策的人工智能系统。这是图片的一小部分:

  Bias是一个特别令人担忧的问题,因为它是有监督的深度学习的核心:当使用有偏见的数据进行训练并且无法解释预测模型时,我们无法真正判断是否存在偏见。到目前为止,学术界的反应一直是开发技术来理解深层模型决策的原因,但是专家警告说,如果我们采用正确的实践,则可以解决许多问题。 Google Cloud Model Cards是最近的一次尝试,旨在使组织社区朝着开源模型发展,同时清楚地描述了它的性质和局限性。

  今年另一个令人担忧的发现是,随着技术变得越来越复杂,它更容易被滥用。 Deepfake旨在产生对抗网络的阴暗面。深度学习算法用于在纯虚构场景中创建涉及真实人物的图片或视频。从政治宣传到欺凌,不难看出该技术如何用于传播虚假新闻。这个问题不能单靠科学家解决。历史证明,科学家不善于预测他们的发现对现实生活的影响,更不用说控制它们了。这要求社会各阶层之间进行广泛的对话。

  今天的人工智能有多强大?

  如今,要量化人工智能的价值确实非常困难。但是可以肯定的是:人工智能已经与科幻小说和前卫计算机科学领域分离开来。如今,人工智能已成为社会不可分割的一部分,人们对人工智能进行了大量投资。

  今年早些时候,三位主要的深度学习研究人员获得了Turing奖,这是对人工智能作为计算机科学领域的认可,人们对此期待已久。

  作者简介:

  应用数据科学的创始合伙人,“深度学习生成”的作者David Foster(由O'Reilly Media于2019年出版)。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线