06.17 人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

人工智能之人类认知模型自我意识在深度学习中的最新成果【必读】(趣说人工智能版权)。我们现在正处于2018年中期,深度学习研究正在以指数速度发展。今年年初,我对今年的预期做了10次预测。做出预测并进行事后比较是确定预期是否超越现实的一种方法。事实证明,它在一个方面低于现实。我没想到在“自我意识”中会看到这么多的新研究。这是一种共识,认为机器中的自我意识可以导致更多的自动化机器,并最终进入具有意识的机器。在今年之前,只用一分钟的自我意识创建自动化的想法仍然是一个完全抽象的概念。然而今天,这个想法已经演变成一个活跃的研究领域!

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

人工智能之人类认知模型自我意识在深度学习中的最新成果【必读】。去年年底,我写下了体现式学习对普通智力的重要性。那时候,并没有太多的已发表的研究来探讨这个关于深度学习的想法。今年2月,斯坦福大学在Arxiv“ 基于好奇心的内在动机中出现结构行为 ”一文中揭示了一篇论文,该论文开始探讨所谓的自我运动的出现。自我运动是一个知道它在一个空间内的位置和方向的实体的自我意识。斯坦福大学的论文结构如下:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

我们将看到,维护“世界模型”和“连体”比如世界模型和感知环境网络的概念模型是自我感知架构中反复出现的设计模式。斯坦福大学论文的惊人成果是通过好奇心机制学习的能力的进展。此图表:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

通过学习自我运动,对象注意力和最终对象交互来展示能力的进展。这是一个令人印象深刻的事态发展,并没有得到广泛的传播。这里的关键启示是,你可以从自我运动开始,然后学习更高级的认知能力,如对象关注和交互学习。自我运动已得到实证验证,是导致更高级认知能力的良好基础。DeepMind在2月下旬提交给ICLR 2018的一篇名为“ 学习意识模型 ”的论文中,系统接受了培训以掌握块并预测其与块的交互。另一篇相关论文(也在二月份发布)是Google和DeepMind的“ 机器理论 ”。本文探讨了自动化预测“他人心理状态,包括他们的愿望,信念和意图”的能力。接下来的一个月(即2018年3月),朱迪亚·珀尔发表了一篇论文,探讨“ 因果革命引发的七种火花机器学习的理论障碍 ”。珍珠写道:

我们的总体结论是,人类层面的人工智能不能仅从模型盲人学习机器出现 ; 它需要数据和模型的共生协作。

他敏锐地认识到以前深度学习模式的局限性。也就是说,深度学习系统必须意识到它正在学习的模型。对自身潜在的现实模式没有意识的认知系统总是会非常有限。维护“世界模型”的架构元素绝对是更智能系统的关键。让我们快进到本周。DeepMind发表了一篇关于科学的精彩论文,题目为“ 神经场景表现和渲染 ”。DeepMind系统的突破性功能是能够从原始场景的几个快照中“ 想象 ”3D场景:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

坦率地说,它如何能够创造如此高保真的3D世界模型是相当难以理解的。这将需要大量的挖掘,因为目前还不清楚这一发展的巨大飞跃源于何处。以前的研究工作是什么使这种能力成为可能?所描述的当前体系结构除了存在类似连体的结构和生成模型之外没有多少其他表现:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

为了获得某种直觉,可能会理解两个网络实际上在做什么。正如我们前面看到的,第一个网络是一个反复出现的模式,用于自我运动网络。2015年,加州大学伯克利分校的“为移动而学习 ”:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

2017年,斯坦福大学出版了“ 通过姿态估计和匹配进行通用3D表示 ”,这构成了这种“连体网络”结构的基础。以下体系结构:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

人工智能之人类认知模型自我意识在深度学习中的最新成果【必读】。旨在学习给定两个图像的3D表示。目标是通过学习这个内部表示,它可以推广到其他任务,如场景布局,对象姿态估计和识别表面法线。如果您注意到右侧有一个“查询”组件,它看起来与DeepMind的论文相同。DeepMind的论文在使用额外的生成网络方面有所不同。这种生成模式的动机似乎来自于2016年的一篇早期的DeepMind文章:“ 迈向概念压缩 ”(注:DeepMind有一个习惯于赞成无人看好的标题,这在自己的研究中很容易被忽略)。生成模型的一个重要研究问题是如何在保留底层语义的同时创建它们。生成模型非常擅长渲染逼真的图像(请参阅:“深度学习的不可思议之谷”),但它们也会产生不切实际的模型。这表明底层表示无法捕获它能够生成的组件之间的语义关系。DeepMind的网络如何能够以无监督的方式捕获语义?“概念压缩”(NIPS 2016)文件提供了一些有关如何完成这一任务的提示:

人工智能之人类认知模型自我意识在深度学习中的最新成果「必读」

在论文中,他们描述了“概念压缩”的含义如下:“优先考虑更高层次的代表性并产生剩余性”。如果您在上图中注意到,这种架构正在每层都建立一种表示。它的描述如下:

假设网络已经学会了渐进抽象表示的层次结构。然后,为了获得不同级别的压缩,我们只能存储相应数量的最顶层,并生成其余层。通过解决无监督的深度学习,网络将根据其重要性对信息进行排序并将其存储在该优先级中。

他们通常说什么关于“ 站在巨人的肩膀上 ”?事实证明,这个最近的DeepMind开发人员的两个关键组件来自于2016年。不过,要实现“自我意识”,您需要有一种方法来创建潜在模型,以捕捉底层培训集的语义。另一种解决方法是DeepMind的β-VAE,它是解开表示的一种方式。这在今年四月已经揭晓。那么我们在这里学到了什么样的设计模式?(1)使用好奇心学习新功能(2)可以被内省的显式模型的重要性(3)用于生成3D模型的Siamese网络(4)概念压缩的方法。还有其他成分仍然需要通过实验确定,因为我们正在迅速到达!有很多预测AI冬季的预测者。这些可能是研究人员在现场暴露很少,或者没有一个好的概念模型来确定关键的里程碑。拥有一个良好的认知概念模型,能够阅读每年在深度学习中发表的数千篇论文,这是非常关键的。就在今年,4900份文件被提交给NIPS:。给你一个关于这意味着什么的内心想法。如果您每天阅读10篇论文,那么您需要16个月才能阅读所有4900篇论文。为了消除所有的噪音,你必须知道要寻找什么样的研究。要做到这一点,你需要一个良好的人类认知感知模型。


分享到:


相關文章: