专访国际人工智能理事会主席杨强:步入下一个AI寒冬的隐患

2019-10-06 08:15发布

“我现在就在做一线的事情,防止(人工智能)冷下去。”当被问及眼下这一波人工智能热潮是否会像历史上的几波一样昙花一现,国际人工智能理事会(IJCAI)主席、香港科技大学计算机科学与工程系主任杨强这样告诉澎湃新闻记者。

在他看来,如今的人工智能虽已突破了计算能力和数据资源的瓶颈,但隐患埋伏在一个“偏”字上。例如学术研究方面,国内高校虽然开始设立人工智能学院和专业,五年内有望培育出一批AI人才,但不少大学直接将机器学习等同于人工智能,逻辑学、神经学等冷门领域研究和国外的差距很大。

类似地,人工智能产业发展迅速,却过多地偏重计算机视觉在安防领域的布局,许多需求未得到充分挖掘。

近年来,杨强所做的就是超越深度学习专用于一个领域的框架,开拓出迁移学习、联邦学习等在两个或两个以上的领域之间进行的机器学习方法。

他希望能让多方在不泄露各自数据隐私的情况下实现数据的共享和模型的共建,打破数据割裂的孤岛。在这样的合作框架下,各方享有平等的地位和一定的“主权”,但走向“共同富裕”,就像一个联邦国家。

杨强正与微众银行等机构合作,试图用联邦学习打通人工智能应用的最后一公里,促进人工智能在金融、城市管理等领域的落地。“人工智能算法的数据得不到更新,就像一台好车没有汽油。”

这位1961年出生的计算机科学家是首位当选国际人工智能协会(AAAI)院士的华人。他似乎很擅长跳出主流偏重的视角来看问题。例如,当许多人在讨论机器能否像人一样实现无监督的学习,杨强却认为无监督学习是一种假象,人类的监督学习隐藏得很深。如果算法做得足够好,就能像人类一样从简单的一张照片上提取到无数个标签。

此外,人类的大脑“软件”得到无数称颂,但“硬件”优势却往往被忽略。杨强注意到,人浑身上下都是精妙的传感器,帮助人脑获取信息。在硬件发展没有跟上的情况下,光用算法实现通用的强人工智能只能是奢望。

“只不过大家现在都在摘比较低垂的果子,还没有深入去想。”杨强说道。

以下为澎湃新闻记者与杨强的对话实录。

联邦学习:人工智能应用的最后一公里

澎湃新闻:可以说从深度学习到迁徙学习、联邦学习,存在一种递进的关系?

杨强:迁移学习和联邦学习之间的共性都是在两个或两个以上的领域之间进行,这和深度学习是截然不同的。深度学习和以前的各种学习都是在一个领域进行。

在两个领域进行,第一层的考虑是知识的迁移共享,第二层考虑就是加密和安全。

比如说原来有一个保险公司,它对车险的定价基于一些很粗的维度,像驾驶员的年龄和车龄。为什么只能做这么粗的定价?因为它对用户的了解非常少。如果有一个码农张三年纪很轻,但开车却很小心,这一点它就无法了解,也无法进行个性化。

现在它可以和一个移动互联网公司合作。运营商那边有张三的行为数据,但对保险领域并不了解。它们两边需要合作,但又不愿意把数据暴露给对方,以防失控和监管不严的问题。

联邦学习恰恰就是在这可以帮忙,不交换数据,但可以在重叠的数据上建立一个更好的模型。

澎湃新闻:目前联邦学习有哪些落地场景?

杨强:横向联邦学习的场景是各方都有一部分用户数据,这些用户都不一样,他们可以利用加密的共享共建模型来得到一个更好的模型。但是这个模型不必用到所有用户的数据,我们假设有1000万的手机用户,你可以在里面选比较有用的300万,建立起横向的模型,分散到上千万的用户。

还有一个是纵向联邦学习,意思是两个机构同样进入这个数据,但是维护不一样。比如一个收集用户的年龄性别,另一方收集用户的学习成绩和平时的衣食住行。

具体到金融领域的案例,横向联邦学习的场景是很多家不同银行的维度是一样的,都了解信用、还款情况等信息,但用户是不一样的,因为它们位于不同的城市。

而纵向联邦学习是同一个城市,同样一个用户,但是他在接受不同的金融服务。比如面对小微企业的贷款,我们需要了解这些企业的税收情况和经营情况,但银行没有这部分数据。我们就可以找一些专门处理发票的机构来合作。

除此之外,我们也在探索一些非常不一样的业务。举个例子,我们跟一个深圳的公司合作,他们是做工地安全的视频检测,有没有着火、工人有没有戴帽子等等。但不同的工地、不同的公司不愿意交换这种数据,就可以用联邦学习来建立一个联邦模型,这样一个工具要比单独的数据更靠谱。

澎湃新闻:从实验室走向产业落地的困难主要有哪些?

杨强:联邦学习是一个多方参与,所以首先要在机制设计上保证每个联盟都觉得受益,才有参与的兴趣。其次是大家各自数据的维度不同,大小不同,质量也不一样,做算法设计的时候就要考虑到异构框架,比同构框架更难。最后是要达成一个共识,就是什么才算成功?

这就像是从一个人打乒乓到五人团队打篮球,我们希望能形成一个滚雪球的效果,可以说联邦学习在算法上已经铺垫好了,关键要看多方的投入。

澎湃新闻:在AI赋能产业的过程中,联邦学习会扮演一个怎样的角色?

杨强:我管这个叫人工智能应用的最后一公里。最后一公里的意思是说,除非你能到用户的那一段,不然你搭得再好最后还是没有衔接上。那么什么东西没有衔接上?就是数据。

人工智能算法都需要很多数据,数据得不到更新,最后就像一台好车没有汽油。

所以在我看来,这最后一公里确实特别关键。只有通过这种合作的方式,才能把大数据真正建立起来。

无监督学习是“假象”

澎湃新闻:人工智能是否有一天能做到举一反三、融会贯通?

杨强:路还很长,但我们现在做的一些实验证明是可以的。像迁移学习之前都是一些博士生、研究人员来设计,现在有个算法叫自动机器学习,和迁移学习结合就变成自动迁移学习。

自动迁移学习是怎样的?比如在自然语言领域看到一个新的需求,它会把自己建好的模型和新的应用之间的差别变成一个目标函数,从而设计算法。整个过程是可以自动化的。如果这个可以做,让机器最终学会举一反三是可能的,但路还很长。

澎湃新闻:针对现在大家比较关注的一些深度学习的瓶颈,你有什么看法?

杨强:其实现在大家比较关注的一个问题是可解释性,因为深度学习是个黑箱。我觉得这个问题迟早会解决。为什么呢?你看人脑其实在某种程度上也在做深度学习,每个人的大脑都有好多神经元在做肉体的深度学习,同时我们可以对自己的某些决策作解释。医生可以给病人解释为什么开这个药,老师也可以给学生解释说错在哪里。人有这个功能,我相信机器一定可以发展出类似的功能,只不过我们现在没有找到路子。

除此之外,深度学习的稳定性问题也是国际上的研究热点,现在有很多人工智能可以通过假数据来欺骗,这说明现在人工智能的鲁棒性还不是很好。

这是很自然的,一个技术出现后,大家就会开始关注鲁棒性、可扩展性、透明性等非功能性性质,引起第二波研究。以前的数据库和互联网技术也是这样。

澎湃新闻:有没有可能实现无监督的深度学习?

杨强:我觉得无监督是一个假象。大家都在类比人会做无监督学习,但我的观点是人做的是有监督学习,只不过监督藏得很深。

比方说给人看一朵花,以后看到花都能认出来。这是因为这个例子里面其实包含了很多的信息,现在的算法只能从上面得到一个表面信息,但是还有一些深层的信息。

所以这是算法的不足。算法做好了以后,会看到所有的无监督数据其实是有标签的。包括小孩为什么学得很快?这是因为他父母之前做了预训练,这和迁移学习的方式非常像。

我觉得以后一定可以从一幅图像中找到很多深层信息,然后也能训练个八九不离十。只不过大家现在都在摘比较低垂的果子,还没有深入去想。

澎湃新闻:你对强人工智能有怎样的展望?

杨强:强人工智能就是通用的,一个模型可以做N件事。人肯定是一个模型做N件事,但机器现在是一个模型只做一件事。我觉得强人工智能未来是可以实现,但可能不是用我们现在这种方式。

为什么呢?现在的方式是我们准备很多数据,然后去训练出一个模型,这是人的运作方法。人浑身上下都是传感器,这些传感器比现在的物联网要强很多。所以除非硬件到了这个程度,否则只谈人工智能算法就是奢望。现在的情况是硬件远远落后,要等那边跟上来。

要去研究一些冷门领域

澎湃新闻:从学术到产业,你对现在国内的人工智能生态有哪些宏观的观察?

杨强:首先,我觉得国内在人才培养上出现了非常可喜的局面,好多大学在建人工智能学院、人工智能专业。五年之后会涌现一大批人工智能从业者,可能会出现良莠不齐的情况,但没关系,里面肯定会出现一些精英。其次,国内人工智能产业发展也比较兴旺,许多公司设立了人工智能部门,这些都是特别好的事。

但在比较冷门的研究领域,国内和国外还有很大的差距。比如果很多国外的大学都有逻辑推理这方面的教授,但国内一般就把机器学习等同于人工智能。另外,国内研究神经学和人工智能结合的也比国外少。在这些方面,我希望还是不要那么功利,要去研究一些眼下没有大的进展、比较冷门、好奇心驱使的方向。

澎湃新闻:总体来说,眼下这一波人工智能热潮会冷下去吗?如果冷下去可能是因为哪些原因?

杨强:我现在就在做一线的事情,防止它们冷下去。过去冷下去有好几个主要原因,一个是计算能力跟不上,一个是数据资源不够。现在计算资源和数据资源都有了,但案例制造还不够。

比如说,现在计算机视觉主要还是用在政府安防等领域。其实产业里有大量的需求,但大家做得太偏了,没有充分地挖掘。一个产业如果只有一个支柱,那么它是很危险的。人工智能如果只有视觉、或者政府安防这个支柱也很危险。

所以你说有没有危险进入到另一个寒冬?是有的。下一个寒冬可能是大家一蜂窝做的那件事没有真的做出来,这一批人可能就会很失望。但现在努力做不同的事情的,也许会有新的惊喜。

文章来源: https://www.toutiao.com/group/6744476555172381192/