我有种不祥的感觉,2018年可能会发生翻天覆地的变化。2017年有很多令人难以置信的突破,而这些突破将在2018年飞速发展。2017年的很多研究结果将转化为日常应用。

正如我去年所做的那样,我已经整理出了一份有关2018年深度学习预测的清单。

1.大多数深度学习硬件初创公司将会失败

许多深度学习硬件初创企业将在2018年交付他们的芯片。这些企业将站在破产的边缘,因为它们应该保留自己的软件,以便支持自己的新解决方案。硬件是这些公司的DNA。 不幸的是,在DL领域,软件同样重要。 这些创业公司大多不了解软件,也不了解开发软件的成本。 这些公司可以交付芯片,但是上面没有任何软件运行。

收缩阵列解决方案最基础的部分已经被攻克,相比于2017年,我们无法将其性能升级10倍。研究人员不仅利用tensor core进行推理,而且将之应用于训练。

英特尔的解决方案将会延迟推出,这会令人失望。有记录显示英特尔无法在2017年中期发布其方案,人们开始猜测发布的时间。英特尔的方案没有按时完成,也会走向失败。

Google的TPU将继续给人们带来惊喜。为了涉足硬件业务,Google也许会将IP授权给其他半导体供应商。如果Google是Nvidia以外唯一真正的玩家,这可以行得通。

2.元学习将是新的SGD

2017年出现了很多有关元学习的重大研究。因为研究界都非常了解元学习,所以旧的随机梯度下降(SGD)法将被淘汰,更有效的方法将会把开发性和探索性搜索方法结合起来。

无监督学习由元学习算法驱动,整个学习过程是循序渐进的。

3.生成模型驱动新的模型

生成模型将会更加科学地工作。 目前,大多数研究集中在图像和语音生成方面。 但是,我们应该将这些方法融入到复杂系统的建模工具中。一个很好的例子就是深度学习在构建经济学模型中的应用。

4.自我对局是自动化的杰出成果

AlphaGo Zero 、AlphaZero自我学习和自我对局代表着巨大的飞跃。 在我看来,它与深度学习带来的影响不相上下。 深度学习发现了通用函数逼近器。RL 自我对局发现了知识创造。

期待看到更多有关自我对局的进步。

5.直觉机器人将弥补语义鸿沟

这是我大胆的预测。我们将会弥补直觉机器人和理性机器人之间的语义鸿沟。对于如何构建新AI 来说,双重过程理论(两个认知机器人,一个是无模型的,另一个是基于模型的)将更加受欢迎。 2018年,人造直觉的概念将不再是一种附带的概念,更多的是被普遍接受的概念。

6. 无法实现可解释性–我们只假设

可解释性存在两个问题。更为人知的问题是,解释有太多规则,人类可能无法掌握。第二个不太为人知的问题是,机器产生的概念对人来说完全是陌生的,也无法解释。我们已经在AlphaGo Zero和Alpha Zero领略到了这一点。人们能够辨别出一个新的举动,但是机器根本无法理解这个举动背后的逻辑。

在我看来,这是一个无法解决的问题。如此一来,机器只能加强“假设解释”。简而言之,解释性机器人的目的就是要给予人类熟悉的解释或者从直觉层面理解。然而,在大多数情况下,机器人无法给予人类完整的解释。

我们将不得不通过 “假设解释”,进一步推动深度学习可解释性方面的研究。

7.深度学习的研究信息会下降

对于研究深度学习的人来说,2017年十分艰辛。 ICLR 2018年会议上提交的论文数量约为4000份。为了大会做准备,研究人员每天就得阅读10篇论文。

这个领域中的问题越来越严重,因为理论框架都在完善中。为了在理论上取得进步,我们需要找到更先进的数学算法。这是一个难题,因为大多数深度学习的研究人员不具备足够的数学知识,所以无法理解这类系统的复杂之处。深度学习需要具备复杂理论知识的研究人员,但这类研究人员少之甚少。

由于论文太多,理论欠佳,我们如今的处境堪忧。

我们还缺少AGI的发展规划。理论薄弱;因此,我们最好的选择就是把人类认知纳入我们的计划,制定一个具有里程碑意义的目标。目前,我们只有一个源自认知心理学中投机理论的框架。这种情况很糟糕,因为这些领域中的实践经验证据不足以支撑进一步研究。

2018年开始,有关深度学习的研究论文数量可能会翻三到四翻。

8.工业化来自教学环境

通过发展具体化的教学环境,深度学习系统会更加可预测和可控。如果你想找到最原始的教学方法,你只需要先了解一下如何训练深度学习网络。在这个领域中,更多的进步指日可待。

我期待更多的公司能够分享自己部署深度学习的经验。

9.会话认知崛起

目前衡量AGI发展的方式是陈旧的。 我们需要能够解决现实世界中动态(即非固定)复杂问题的新模式。 在未来一年里,新闻媒体将会增加这个领域的报道。 在2018年3月1 – 2日的 Information Energy 2018 in Amsterdam上,我将发表自己对会话认知模式的看法。

10. 在道德层面规范人工智能应用

人工智能的应用将进一步受到道德的约束。人们现在逐渐意识到自动化运行会带来意想不到的后果,而这将是灾难性的。如今,Facebook,Twitter,Google,Amazon等上面的简单自动化运行可能会对社会造成不良影响。

我们需要了解部署能够预测人类行为的机器需要遵守哪些道德规范。我们目前掌握的面部识别是一种非常危险的技术。有些算法可以生成与现实无法区分的内容报道,这也是不可小觑的问题。生活在社会中,我们需要确保应用人工智能给社会带来利益,而不会加剧社会不平等。

我期待来年会看到更多关于道德的话题。但是,不要指望会政府会出台相关规定。目前,政策制定者仍然不了解人工智能对社会产生了哪些影响。我不指望他们能停止玩弄政治手段,开始解决社会中的真正问题。美国人民已经成为安全保障体系漏洞的受害者,但是政府并没有出台新的立法或措施来解决这个严重的问题。

准备接受2018年的冲击!

这就是我现在所拥有的一切。 2018年将是重要的一年,我们都会更好地扣紧安全带,并为即将到来的冲击做好准备。