当前位置:首页 > 体育 > 正文

最新资讯:人工智能十大趋势

网络整理 2018-12-04 12:40

毋庸置疑我们处在一个巨变的时代,而人工智能已经成为科技前沿之一,给许多行业带来颠覆性的影响。

事实上,深度学习与增强学习在日常生活中的应用很多,例如机器翻译是对文本数据的处理;Siri等是对语音数据的处理;自动驾驶是对视频数据的处理;人脸识别则是对图像数据的处理,许多美颜APP都具备给图片添加可爱贴画的功能,这即是对图像进行识别,自动甄别出用户面部器官,用户即可随意处理图片,达到美化或娱乐的效果。

一、深度学习:揭秘神经网络的工作原理

简述:模仿人类大脑的深度神经网络展示了它们可以从图像、音频和文本数据中“学习”的能力。然而,即使应用已超过十年,关于深度学习我们仍然有很多不明白的地方,包括神经网络如何学习、为什么它们的表现如此出色等。现在,这种状况有可能会改变,这要归功于将信息瓶颈理论应用于深度学习的新理论。信息瓶颈理论认为,深度神经网络在学习过程中像把无用信息从瓶颈中挤压出去一般,去除噪音信息,而只保留这些噪音所表达的真正信息。

意义:精确地理解深度学习的工作原理,将有助于使其得到更大的发展和应用。例如,深度学习可以为网络设计优化和架构选择提供参考。可以肯定的是,通过探索深度学习理论,更多的场景应用能够被激发,并应用到其他类型的深度神经网络和深度神经网络设计中。

二、胶囊网络:模拟大脑的视觉处理优势

简述:胶囊网络是一种新型的深度神经网络架构,它能够用与大脑相同的方式处理视觉信息,这意味着它可以识别特征之间的逻辑和层次结构关系。这一特性与卷积神经网络形成鲜明对比。卷积神经网络是最广泛使用的神经网络之一,但它不能考虑简单和复杂特征之间的重要空间关系,导致错误率较高并经常出现误分类现象。

意义:对于典型的图像识别任务,胶囊网络通过减少误差,保证了50%的较高准确性,同时胶囊网络也不需要那么多的训练样本数据。预期可以看到胶囊网络在多个问题领域和深度神经网络架构中得到广泛的使用。

三、深度增强学习:交互型问题解决之道

简述:深度增强学习是一种通过观察、行动和奖励来与环境互动,从而进行学习的神经网络算法。它已被用于游戏攻略等,如雅达利(Atari)和围棋,包括击败人类冠军的著名的“阿尔法狗”(AlphaGo)等。

意义:获得深度增强学习能力是人工智能应用商业化的重要指标项之一,与其他技术相比,它只需要更少的数据来培训其模型。更强大的是,它可以通过模拟获得训练,完全不需要标签化数据。鉴于这些优势,预计未来一年将诞生更多将深度增强学习和基于智能体(agent)模拟相结合的商业应用。

四、生成对抗网络:网络配对促进训练,减轻处理负担

简述:生成对抗网络是一种由两个互相竞争的神经网络组成的无监督的深度学习系统——“生成网络”产生看上去很像真实数据集的假数据,“判断网络”吸收真实和合成的数据。随着时间的推移,每个网络都会得到改进,从而使两个网络都能够学习到给定数据集的整个分布情况。

意义:生成对抗网络进一步拓展了深度学习,使其能够处理更大范围的无监督任务,这些任务的标签化数据要么不存在,要么过于昂贵而很难获得。生成对抗网络也减少了深度神经网络所需的负载,因为负载由两个网络共同承担。预期可以看到更多的商业应用,例如使用生成对抗网络技术来做网络探测等。

五、精简和增强数据学习:解决数据标签化挑战

简述:机器学习(尤其是深度学习)遇到的最大挑战是需要大量使用标签化数据来训练系统。目前有两种广泛使用的技巧可以帮助解决这个问题:

(1)合成新的数据;

(2)将一个任务或领域的训练模型迁移到另一个,例如“迁移学习”的技巧(把从一个任务、领域学到的经验迁移到另一个任务、领域),或“一次学习”的技巧,由此使它们成为“精简数据”学习技巧。同样的,通过模拟或内插合成新的数据有助于获取更多的数据,从而扩大现有数据来改善学习。

意义:使用这些技巧,我们可以解决更多的问题,尤其是在历史数据较少的情况下。预期可以看到精简和增强数据的更多变种,以及适用于更广泛商业问题的不同类型的学习技巧。

六、概率编程:便于模型开发的语言

简述:概率编程是一种高级编程语言及建模框架,它能让开发人员便捷地设计概率模型,并且自动求解这些模型。概率编程语言可以让我们重复使用模型库,支持交互式建模以及认证,并提供必要的抽象层来更广泛和有效地推论通用模型组。

标签