GMIS 2017第一天亮点全面盘点:从机器学习到交叉学科

2017 年 5 月 27 日上午,人工智能站主办的第一届全球人工智能峰会(GMIS 2017)在北京 898 创新空间顺利开幕,中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃致开幕辞,他说道:「我认为,再过几年,我们 90% 的工作都会是人工智能提供的,就像我们今天大部分工作是机器提供的一样。人工智能会给我们提供一个更美好的未来。」在这篇文章中,人工智能站对 GMIS 2017 第一天的主要内容进行了梳理介绍,更详细的报道可以查看人工智能站官网 GMIS 专题: /special/detail/id/7  



view-2.jpg



GMIS 2017 大会第一天安排了两场主题演讲,一是「LSTM 之父」& Dalle Molle 人工智能研究所副主任 Jürgen Schmidhuber 所带来的脑洞大开、未来感十足的《True Artificial Intelligence Will Change Everything》,二是 Citadel 首席人工智能官邓力干货十足的演讲《无监督学习的最新进展》。



在 Schmidhuber 的演讲中,我们了解了深度神经网络、LSTM 的发展以及延伸到人类未来的技术发展史。Jürgen Schmidhuber 是瑞士人工智能实验室 IDSIA 的科学事务主管,同时任教于卢加诺大学和瑞士南部应用科学与艺术学院。他于 1987 年和 1991 年在慕尼黑工业大学先后获得计算机科学的学士和博士学位。从 1991 年开始,他成为深度学习神经网络领域的开拓者。随后,他在 IDSIA 和慕尼黑工业大学的研究团队开发了一种循环神经网络,并率先在正式的国际性比赛中获胜。他获得的其它奖项还包括 2013 年国际神经网络协会的亥姆霍兹奖以及 2016 年电气与电子工程师协会的神经网络先锋奖。



20170527095906.jpg

「我最大的偶像是阿尔伯特·爱因斯坦。我在某个时候意识到,如果我打造出了比我自己乃至比爱因斯坦更聪明的东西,我会拥有更大的影响力。」Jürgen Schmidhuber 说道,「从 1987 年将这个问题作为学位论文选题以来,我一直在研究这个包罗万象的内容,但是现在我能看到这个主题正开始变成一个可能实现的现实。」Jürgen Schmidhuber 开发了 LSTM 等著名深度学习方法。1997 年,他和 Sepp Hochreiter 共同撰写了一篇论文,其中提出了一种利用记忆功能来增强人工神经网络(模拟人类大脑的计算机系统)的方法,即根据之前获得的信息,添加解释文字或图像模式的循环。他们称之为「长短期记忆网络(LSTM)」。



「长短时记忆是跟人的大脑相关的。」Jürgen 说道,「在我们的大脑皮层中有 100 多亿的神经元。它们就像小的处理器,有的是处理输入的,有的是用于图像捕捉的,你还有疼痛神经来捕捉疼痛,还有一些肌肉的神经来控制你的肌肉。另外还有一些用于思考的神经元,它们之间会有彼此的交流。在执行任务时,神经元会影响其他与之相连的神经元,这些连接的强度会随着人们的学习而改变,我们称之为持续连接,这也是长短期记忆网络获得启发的地方。」



在 LSTM 的研究之后,Jürgen 的团队继续朝着自己的通用人工智能目标前进。他预测,在未来几年人类将创造出具有灵长类动物智能的人工智能系统。人工智能仅仅经历了 70 余年的发展,这个速度相比数亿年的生物进化有了很多倍的提高。他甚至发现了一个技术的指数加速发展模式:宇宙历史中重大事件之间的间隔时间似乎正在以指数级的速度缩短——每个大事件到来的时间是前一个大事件的四分之一。如果仔细研究这个模式,看起来下一个事件将要出现于 2030 年。



在这之后会发生什么?我们无从得知,Jürgen 认为,人工智能将代替人类,展开殖民宇宙的旅途。或许这个预测距离我们还有很远,但由人工智能引发的技术爆炸必然将会逐渐改变人们的生活方式。



image.png



前微软人工智能首席科学家 & 现任对冲基金巨头 Citadel 首席人工智能官邓力则解读了《无监督学习的最新进展》。在这个主题演讲中,他分享了无监督学习的优势,并详细介绍了随机原始-对偶梯度方法(SPDG)与其优良的性能。



邓力说:「其实我们人类还是很有希望的,因为在未来有越来越多的技术以后,人类就可以有更多的价值。」他认为虽然监督学习很有希望,但未来的趋势还是无监督学习。



邓力的这份演讲干货十足,人工智能站在他演讲的基础上扩展了部分内容,具体请参阅今天推送的第二条内容《GMIS 2017 大会邓力主题演讲:无监督学习的最新进展》。



上午主题演讲之后,许多业界领先公司技术负责人分享了人工智能的发展和对我们未来生活的影响。

腾讯 AI Lab 西雅图研究室负责人俞栋分享了主题为《语音识别领域的前沿研究(Frontier Research of Speech Recognition)》的演讲,在回溯了语音识别十几年发展变化之后,他提出了语音识别领域的 4 个前沿问题————更有效的序列到序列直接转换的模型、鸡尾酒会问题、持续预测与适应的模型、前后端联合优化,同时详细阐述了这些问题的解决方法。



59290738b107c.jpg



英特尔 AIPG 数据科学部主任 Yinyin Liu 则讲解了如何用同一种模型为不同行业提供解决方案,以及如何让各个行业的专家建议推动整个人工智能生态系统的发展。她提到,深度学习推动着人工智能领域的进展,模型是我们的起点,然后我们收集不同的需求、解决这些问题、再将相关经验反馈到模型中。在不断重复这个循环的过程中,我们就可以设计更好的模型,并更加高效地提供解决方案。「我们希望,人工智能最终能为整个社会做出贡献。」



592903072c2e8.jpg



接下来,今日头条副总裁、人工智能实验室负责人马维英解读了今日头条在人工智能时代的机遇和挑战,并详细讲解了今日头条如何利用人工智能促进人类社会信息交流与写作。他谈到「其实今天人工智能的本质是一个软件产业的革命。软件产业正在吞噬全世界,然而软件产业本身在被颠覆。」如今,在今日头条可以看到运用人工智能连接人与信息的新机会。在过去的人类历史洪流中,从结绳记事传递人与自然的关系,一直到公元前 2000 年纸的发明,1000 年左右活字印刷术的发明,其实纸张和书成为一个人与信息连接的主要媒介,但是经过很长很长的一段时间,几乎是到了过去三四十年才走到了一个新的时期。互联网时代网站让纸张开始消逝,而在移动互联网时代,纸张的消逝更明显,因为它让人可以无所不在,可以用智能手机接触他所需要的信息。而在人工智能的时代,「我们认为我们可以利用这样一个新的技术,来让每一个人都能够有一个无所不在的机器智能,帮助他们能够来发现、使用、交流跟创作信息。」



第四范式创始人兼 CEO 戴文渊则分享了如何使机器学习的过程变得更简单,如何使企业在降低成本的同时拥有人工智能的能力。他认为如今业务专家在设计营销、金融、风控、医疗各个领域的业务规律。但在各行各业,机器都有可能超越人。他说:「机器比人有更强的精力,能写出更细的规则,因而它能做得更好更精细。如果你能用机器基于数据写出超过一千万条规则,VC 维超过一千万,人基本上没有办法跟机器抗衡了。这就是机器能在各个领域打败人的原因。」但机器要超越人类,有一定的前提条件,戴文渊将其总结为五个元素:大数据、外部的反馈、算法的能力、计算的能力、商业需求的带动。



之后,通用电气交通数字解决方案 CTO Wesly Mukai 在大会上对该公司的 Digital Twins 技术进行了介绍。他谈到机器学习目前已经应用在铁路运输这种非常实际的领域中,为提高效率做出贡献了。「Digital Twin 将火车队伍看作是动态的,」Wesly 说道,「通过机器学习的分析,整个系统的运行可以得到优化。我们为每一辆火车建立模型,并不断地更新这个模型。我们的系统可以记录它的动力、它的车轮年限等等。」Digital Twin 可以帮助铁路系统每年节省 10% 燃油,减少 10%-25% 故障,并提升列车的可用率。



大会上午场的最后,NVIDIA AI Cities CTO Milind Naphade 分享了英伟达和合作伙伴如何助力交通系统中的智能革命。为此,英伟达推出了 Drive PX。预计到 2020 年,智能城市将会有 10 亿个摄像头运行,为视频物联网设备提供深度学习会形成一个庞大的市场。Metropolis 是一个交通中的人工智能都需要边缘到云的端到端平台,这个平台可以对智能城市应用生成的视频流进行分析,用深度学习技术进分析,帮助城市监控视频。人工智能可以变革的交通领域还有预测性维护和检查等,比如,利用深度学习技术对道路或铁路视频数据进行分析,进行道路检测并采取相应维护。这也是人工智能能够在基础设施方面发挥最重要的作用的地方。



下午,人工智能站 GMIS 2017 设置了三场 Session,分别围绕「机器学习」、「机器学习交叉研究」和「先锋青年」三大主题共呈现 10 个演讲和 2 场圆桌论坛。在这些 Session 中,即有深度学习应用的未来愿景和技术干货,也有对当前深度学习热潮的质疑,更有心理学、语言学、运筹学、神经科学等交叉领域的思考。

Session 1:机器学习



第一位演讲嘉宾俄亥俄州立大学终身教授汪德亮(DeLiang Wang)介绍了基于深度学习的语音降噪技术。作为全球第一个将深度学习应用于语音增强的科学家,他探讨分享了鸡尾酒会问题研究的当前进展、解决方案及其泛化等相关问题。什么才是鸡尾酒会问题的解决方案呢?汪教授之前给出的一个答案是一个语音分离系统,它可以帮助听力受损者在所有的噪音环境之中获得与听力正常者一样的语音清晰度。因为 DNN 大规模训练是一个有希望的方向,可实现多种条件下的语音分离,所以汪教授总结:鸡尾酒会问题并非不可解决。



27-85.jpg



第二位演讲嘉宾是地平线机器人的创始人兼 CEO 余凯,他的演讲主题为《深度学习引领驾驶革命》。他说:「深度学习会引起下一个革命,并且对人类生活影响最深远的是什么?我个人的答案是自动驾驶。」构建深度学习系统,是系统性的工程,涉及到软件算法、系统软件、计算架构、处理器、云端大数据的训练、仿真系统。最后,他总结道:一、未来的自动驾驶一定会像其他产业,构建一辆自主学习的汽车,而不是被人工标注数据训练的汽车。二、我们需要努力设计神经网络的结构,使它透明、可理解、可以被控制。三、软件重要,硬件同样重要,我们要联合软件和硬件,最大化整个计算的效率、安全性和系统的可靠性。



接下来,清华大学副教授朱军解读了其实验室的新研究成果珠算。珠算是一个贝叶斯深度学习的 GPU 库,该平台可以支持深度学习,也可以做贝叶斯推断,当然还可以对两者进行有机融合。珠算区别于其他平台的一个很大特点是,其利用了深度学习进行贝叶斯推断,因此也可以很有效地支持前面所说的深度生成模型。(更多内容可参阅人工智能站的文章《 资源 | 清华大学发布珠算:一个用于生成模型的 Python 库》。)



之后,亚马逊人工智能首席工程师 Leo Dirac 致力于 Apache MXNet 机器学习框架的开发工作,在大会现场通过《MXNet 在工业级的深度学习应用》的演讲介绍了机器学习与亚马逊云。正如上午通用电气 Wesly Mukai 的演讲中提到的一样,在亚马逊,机器学习技术也已经深入到公司各个业务,并产生了巨大价值。亚马逊对于工业级机器学习运用和传统公司有所不同,Leo Dirac 表示:「亚马逊定义的工业级的深度学习,不是关于矿厂或者是火车、铁路,我们的工业级 AI 是基于数以百万级用户上的人工智能应用,包括大规模场景识别,或是亚马逊的商店。」



Session 2:机器学习交叉研究

这场 Session 围绕机器学习与其它领域的交叉学科展开,其中我们也能听到一些很有价值的批评与思考。



首先,著名的机器学习「叛逆」、纽约大学心理学教授 Gary Marcus 为我们解读了如何迈向通用智能之路。事实上,Marcus 在发表的作品、评论或是公开的演讲中,都以一个严厉的深度学习批评者身份亮相。他相信,要想实现真正的人工智能,光有深度学习是远远不够的,还需要更多方向,应该更加认真地对待认知科学,尤其是发展心理学和发展认知科学。Marcus 表示,感知(Perception)只是实现通用人工智能的一小部分,虽然它很重要,但是人类智能里面还有更多的元素,比如常识、推理、分析等。



接下来,北师大认知神经科学与学习国家重点实验室教授吴思将我们带进了神经科学的领域。他认为,人工智能应该向生物智能学习动态信息的处理,而要处理动态信息,预测是关键。他通过三个生物系统为我们剖析了生物智能与目前的人工智能的区别。他认为智能的感知需要同时结合信号传递速度的快慢——传递得慢,可以帮我们整合多模态的信息;而如果物体高速运动,它又有补偿信息,会补偿这个时间延迟。吴思说:「我们是生物进化的结果,我们的大脑进化成如今的样子是为了更好地适应环境。假设机器人在日常环境中跟我们交流,一方面它需要慢,另一方面如果快速处理的话,又需要快。因此这两样要共同发展。个人认为,未来的机器人也会面临这样的问题。」



如果这还不够脑洞大开,接下来麦吉尔大学语言系副教授、电影《降临》科学顾问 Jessica Coon 更是将我们带入了外星人、实地考察和普遍文法的语言学领域。她认为,我们语言的独立性要去包含语言学的一些知识,我们也要理解类型方面很类似的语言内在规律,比如像英语和中文,它们有相对固定的词序以及扩展方法。最后,她还谈到了萨丕尔-沃尔夫假说。她说,语言学研究发现英语、乔尔语和俄语对以下三个颜色的区分是不同的,在乔尔语中,一个单词概括了这三个颜色,但是俄语中有三个单词对应相应的颜色。这是不是意味着语言对世界观差异的影响?



作为明星人工智能创业公司第四范式的联合创始人和首席研究科学家,陈雨强所带来的主题为「No Free Lunch:机器学习模型『宽与深的大战』」的演讲非常全面地探讨了学界中的深度模型和工业界中的宽度模型,同时还分析了这两种模型的各自特点。他介绍说:宽与深的模型并没有谁比谁好,这就是免费午餐定理:不同业务使用不同的模型,不同的模型有不同的特点。他对这些特点进行了说明:宽度模型有比较准确的记忆能力,深度模型有比较强的推理能力;宽度模型可以说出你的历史,在什么情况下点过什么广告,深度模型会推理出下次你可能喜欢哪一类东西。宽度模型是依靠层次化特征进行泛化的,有很强的解释性,虽说特征很多,但是每一个预估、为什么有这样的预估、原因是什么,可以非常好的解释出来;深度模型是非常难以解释的,你很难知道为什么给出这样的预估。宽度模型对平台、对工程要求非常高,需要训练数据非常多、特征非常多;深度模型对训练数据、对整个模型要求相对较低一点,但现在也是越来越高的。



g.JPG



接下来上台分享的是加州大学伯克利分校的在读博士吴翼,他的导师是著名的人工智能领域「标准教科书」《人工智能:一种现代方法》的作者之一 Stuart Russell(他将在明天分享主题为《人工智能的过去、现在与未来》的演讲)。在今天的分享中,吴翼讲解了他所参与的一项曾获 NIPS 最佳论文奖的研究——价值迭代网络(VIN)。吴翼提到,他们成功地将一个经典的规划算法和经典的卷积神经网络建立了联系。从而将一个规划算法,在神经网络中表达成了卷积神经网络的形式。「现在我们可以将规划算法 value iteration 作为一个模块嵌入到之前我们提及的网络结构中。我们称之为 value iteration network,简称 VIN。」而由于有个 value iteration 模块,整个网络也就有了学习规划和进行长期规划的能力。



大会最后环节是以《机器智能时代的青年先锋视野》为主题的圆桌讨论,作为人工智能领域的青年代表,Zachary Lipton(卡内基梅隆助理教授)、张先轶(澎峰科技创始人)、吴翼分享了各自在学习、就业及创业方面的经验。

产业 GMIS 2017 人工智能站 产业
2