找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

查看: 572|回复: 2
收起左侧

[科教] 2017年,AI发挥作用最大的六个领域

[复制链接]

1168

主题

182

精华

3647

积分

神级会员

Rank: 7Rank: 7Rank: 7

积分
3647
发表于 1-25-2017 10:53 AM | 显示全部楼层 |阅读模式

亲!马上注册或者登录会查看更多内容!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x


过去,人们对AI存在一定的误解,比如简单的认为AI就是机器学习。那么,本文就从六个AI发挥作用最大的领域来刷新人们对AI新的认知。

点击图片看原样大小图片

点击图片看原样大小图片

本文由将门创业(微信ID:thejiangmen)授权机器人圈发布,禁止二次转载

近段时间,人们似乎又开始争论起那些已经被大众接受的定义中,到底哪些才称得上是真正的人工智能。其中一些人将AI的概念重塑成“认知计算”或“机器智能”,甚至还有一些人错误地将AI等同于机器学习。这些误解一部分原因源自

AI并不是具体哪一门技术,事实上它是多门学科的综合体,从机器人到机器学习都属于其中。我们基本一致认同的AI的最终目标,是让机器具有完成任务和感知学习的能力,从而很大程度地把人解放出来。要想最终实现这一点,机器必须学会自主学习,而不是让人一个个端到端编程去实现。

AI再过去10年里所取得的进步是令人惊喜的,无论是无人驾驶,还是语音识别和合成。基于这样的大环境,AI开始在越来越多的公司甚至家庭里被热议,因为这已经不是对20年之后事情的畅想,AI已经开始影响了日常生活。确实,主流媒体每天都在报道着AI的新突破,科技巨头也纷纷对外传递着他们的AI发展战略。当一些投资人和孵化器正努力尝试如何在这片崭新的世界里抓住更多价值时,大多数人仍在绞尽脑汁地想AI到底是什么,与此同时,政府也在朝着社会自动化的方向努力前进。


以下是AI尤其会发挥作用的六个领域,影响着电子产品和服务的未来。

我们将分别阐述:它们是什么、为什么重要、如何被运用,以及不完全列举一些相关技术领域的公司和研究从业者。

1.增强学习

增强学习关注的是智能体(agent)如何在环境中采取一系列行为,从而获得最大的累积回报。

这种从环境状态到动作的映射的学习,我们把这个映射称为策略。通过试错(trial-and-error)的方法,一个智能体应该知道在什么状态下应该采取什么行为,从而发现最优行为策略。

随着Google DeepMind AlphaGo的大热,增强学习受到了广泛关注。而在实际生活中,增强学习一个很典型的应用就是帮助优化Google数据中心降温系统的能源有效率,一个增强学习系统可以将原来降温的能量消耗降低40%。

使用增强学习技术刺激周围环境的一个重要的天然优势是,训练数据的价值会不断积累,且获取成本会很低。这就和有监督深度学习形成了鲜明的对比,这种技术往往需要非常昂贵训练数据,并且是很难从实际生活中获取到的。

应用方向:多个智能体(agents)在同一个共享模型下各自学习自己的环境;或者与环境中其他智能体交互和学习;学习迷宫、自动驾驶的城市道路等三维环境导航;在学习了一系列目标任务后反过来再对已观察过的行为进一步增强重述。

公司: Google DeepMind, Prowler.io, Osaro, MicroPSI, Maluuba/Microsoft, NVIDIA, Mobileye.

主要研究人员: Pieter Abbeel (OpenAI), David Silver, Nando de Freitas, Raia Hadsell (Google DeepMind), Carl Rasmussen (Cambridge), Rich Sutton (Alberta), John Shawe-Taylor (UCL) 等。

2.生成模型


和判别模型(discriminative models)不同,生成模型主要用于在训练样本上学习触概率分布,而前者的主要任务是分类和回归。通过从高维分布采样、生成模型可以产生出与训练数据相似的样本。这意味着当利用生成模型去训练人脸样本时,它可以输出与训练数据类似的合成图像。

关于这项工作的详细介绍可以参阅NIPS2016大会上Ian Goodfellow主讲的精彩教程。他介绍了一种称为生成对抗网络的新型结构,主要包含两个部分:生成器,用于将输入的噪声综合为一定的内容(例如图像),而另一部分称为判决器,会学习真正的图像是什么样子的,并判断生成器产生的图像是不是真实的图像。对抗训练就像游戏一样,生成器必须不断学习如何从噪声中生成判别器无法识别真伪的图像。这种学习架构已经被广泛应用于各行各业的数据学习中。

应用方向:时序信息模拟;图像超分辨;2D图像三维重建;基于小样本的数据生成;单输入多输出系统;自然语言交互;半监督学习;艺术风格转换;音乐和声音合成;图像修复;

公司: Twitter Cortex, Adobe, Apple, Prisma, Jukedeck*, Creative.ai, Gluru*, Mapillary*, Unbabel.

主要研究人员: Ian Goodfellow (OpenAI), Yann LeCun and Soumith Chintala (Facebook AI Research), Shakir Mohamed and A?ron van den Oord (Google DeepMind)等。

3.记忆网络

为了能让AI具有向我们一样在丰富多样的真实世界中具有适应性,

AI必须连续不断地学习处理新的任务并记住它们,以便在将来面对同样的情境时得以应用。但传统的神经网络却记不住这么多任务,这个缺点被称为灾变性失忆(Catastrophic Forgetting)现象。这是由于神经网络中的每一个权重对于解决问题十分重要。从解决A问题转向解决B问题的过程中,神经网络便会随之变化。

然而有很多种强大的网络赋予了神经网路不同程度的记忆能力。

包括长-短程记忆网络(一种递归神经网络变体),可以处理和预测时序;DeepMind的微分神经计算机结合了神经网络和记忆系统的优点,以便从复杂的数据结构中学习;同时还有弹性权重联合算法,根据先前问题的重要性来减慢某些权重;以及可以侧向链接学习任务模型和先前任务特征的进步神经网络。


应用方向:对新环境有举一反三能力的学习性智能体(agent);机械臂控制、自动驾驶、时序预测(金融视频、物联网);自然语言理解和预测。

公司: Google DeepMind, NNaisense, SwiftKey/Microsoft Research.

主要研究人员: Alex Graves, Raia Hadsell, Koray Kavukcuoglu (Google DeepMind), Jürgen Schmidhuber (IDSAI), Geoffrey Hinton (Google Brain/Toronto).

4.微数据学习微模型

深度学习需要巨量的训练数据来达到优异的表现。

例如ImageNet的大规模视觉识别挑战赛,每个队伍需要识别的对象包括120万张1000类人工标注的图像。如果没有大规模的数据训练,深度学习模型无法覆盖最优表现的过程,同时也无法完成像语音识别和机器翻译一类的复杂任务。在面对端到端任务时,单一神经网络训练所需的样本数量只会越来越多,例如从音频原声中识别出语音文本的任务。这与多个负责不同任务的神经网络组合不同(音频-发音-单词-文本输出)。

如果我们需要让AI解决一个任务,但是这一问题的数据十分有限、很难获取并且十分耗时,一个能从小样本中学习出优化解决方法的模型十分重要。在小样本上训练数据面临着很多挑战,包括过拟合、异常值处理的困难、测试集和训练集分布的不同。一个可行的解决办法是将处理先前任务的机器学习模型知识转移到现在模型上,称为迁移学习(transfer learning)。

应用方向:训练浅层网络来模拟在大规模数据集上训练好的神经网络;与深度网络模型表现相同、但参数更少的模型;机器翻译。

公司:Geometric Intelligence/Uber, DeepScale.ai, Microsoft Research, Curious AI Company, Google, Bloomsbury AI.

主要研究人员:Principal Researchers: Zoubin Ghahramani (Cambridge), Yoshua Bengio (Montreal), Josh Tenenbaum (MIT), Brendan Lake (NYU), Oriol Vinyals (Google DeepMind), Sebastian Riedel (UCL).


5.学习/推理硬件

AI蓬勃发展最重要的催化剂就是将GPU应用于大规模神经网络的训练中。

与CPU串行处理不同的是,GPU提供了数量巨大的并行处理单元架构、可以同时处理很多个任务。神经网络的训练需要数量巨大的计算过程,在GPU上训练远远快于CPU。从2012年第一个在GPU上实现深度神经网络AlexNet后,

GPU 无可争议地成为了训练神经网络的不二之选。一直到2017年英伟达继续在这个领域处于领导地位,而英特尔、高通、超微和谷歌紧随其后。

GPU一开始并不是为机器学习定制的设备,而是用于图形界面渲染的显卡。GPU具有很高的计算精度,并且不会经常收到内存带宽的限制和数据溢出的困扰。为深度学习定制专门的芯片吸引了一大批公司的注意力,例如谷歌就开发了一款可以处理高维机器学习问题的芯片。新型芯片具有更宽的内存带宽、更高的计算密度和计算功效。

为AI系统提供高效的加速算法能够为系统的所有者提供更多的效益:快速高效的训练模型->更好的用户体验 ->用户数量逐渐增长 ->更多的用户数据->通过优化改善模型的表现,进入一个良性循环的优化过程。所以拥有更快更高效训练AI模型能力的公司会具有至关重要的优势。

应用方向:模型快速训练、预测能耗效率提升、使用前沿AI系统的物联网设备、随时可通过语音交互的物联网设备、云服务、自动驾驶、无人机和机器人。

公司:Graphcore, Cerebras, Isocline Engineering, Google (TPU), NVIDIA (DGX-1), Nervana Systems (Intel), Movidius (Intel), Scortex.

6.模拟环境

正如上文提到的、为AI系统生成数据是一个巨大的挑战。而且AI需要在多种情况下拓展能力,以便能够适应真实世界复杂的环境。所以一个模拟真实世界物理情形和行为模型的电子虚拟世界就十分必须了。它可以为AI提供一个测试环境,同时训练它的泛化能力。这样的 模拟环境为AI提供一副真实世界粗略的图景,而AI需要通过学习到的能力尝试解决问题以达到目标。在模拟环境中训练有助于理解AI如何学习、如何提高和改进AI系统、同时为我们提供了可以转换为在真实世界中应用的模型。

应用方向:学习驾驶、制造业、工业设计、游戏开发、智慧城市

公司: Improbable, Unity 3D, Microsoft (Minecraft), Google DeepMind/Blizzard, OpenAI, Comma.ai, Unreal Engine, Amazon Lumberyard

0

主题

0

精华

1

积分

新米人

Rank: 1

积分
1
发表于 1-25-2017 12:57 PM | 显示全部楼层
感谢Deborah分享~~~
回复 支持 反对

使用道具 举报

1127

主题

177

精华

3507

积分

神级会员

Rank: 7Rank: 7Rank: 7

积分
3507
发表于 1-27-2017 07:25 AM 来自美国米群网手机版 | 显示全部楼层
楼主Deborah帖子好赞~~~
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表