智能系统掉陷阱 就怕流氓懂AI用Al

2019-08-02 10:08发布

“流氓不可怕,就怕流氓有文化”这句话在今天要改成:不怕流氓耍赖,就怕流氓用Al,这句话放在今天说应该没有多少人会质疑,再智能的系统可能也会掉入陷阱,被懂Al用Al的黑客盯就推上大事儿了。

数据和算力是维持AI的两大要素,而传统的计算环境是难以满足二者的指数级增长的。举个例子,数据的类型大体可分为结构化数据、非结构化数据、半结构化数据。一个数据从产生到落地要经过收集、传输、分析、检索、挖掘等阶段。如果要让机器像人一样去“看”数据,恐怕穷尽一生也无法分析完。AI有了这些数据当燃料也就有了价值。

但是,数据质量是影响AI的重要因素。就像柴油注入汽油车会出问题,也不是任何数据对人工智能都有积极作用,不少案例已经可以证明这一点。例如,有些聊天机器人在网络上学习了负面评论,就会变得“尖酸刻薄”甚至引发了种族歧视问题。可见,数据的开源性固然重要,但如何找到有质量的数据对AI发展有着决定性的影响,尤其是在受到高度监管的行业。

另外,数据的搜集对隐私也是一大挑战,美国参议院已经在讨论是否要通过新的法案,限制科技公司利用技术手段获取的用户信息不能用于某些用途,也就是说商用的图像识别应用不能用来定位和追踪用户信息。掌握用户信息之后的AI系统可能比用户更了解自己,他们会知晓用户的饮食习惯、锻炼情况、身体变化等等,而且将碎片化的数据拼凑成分析系统就能对人形成整体的特征描述。特别是在越来越多的政企类客户走上云端之后,居民隐私的问题就被上升到了新的层面。

GDPR的重要性即是如此,原因是有越来越多的黑客开始掌握了AI手段。近年来,网络安全事件层出不穷,随之而来的攻击手段越来越多元化,几乎每天都在发生成千上万次的网络攻击,病毒的变种也达到了百万级别,各种新型勒索软件让企业疲于应对。攻击者不再满足于在传统的服务器或终端等硬件上做文章,而是在网络环境的薄弱环节植入恶意代码,进而去发起更多的连锁感染。

不过,黑客去盗取算力的事情倒是不常发生,首先他们不会自己去买算力,因为成本太高了,其次数据中心在硬件上也有隔离防护的安全措施,而且获取算力最终的成本还是去攻陷数据资料。

就像上面提到的,机器学习需要大量的数据集,但是数据集里面涵盖的数据是薄弱环节,当黑客找到了监督学习的娄懂,就可以通过植入“虚拟”安全代码的形式绕过防御机制。过去几年,黑客利用AI进行攻击的例子发生过很多次,造成了数以千万计的用户隐私泄露,一个简单的案例是,黑客是可以通过AI算出用户登录密码的。对于类似的情况,企业也不再愿意把真实有效的数据交出去,而一旦这些数据没有了质量,用户又如何获得良好的AI反馈呢?

由此引来的又一个问题是,AI对于计算、网络、存储等基础设施资源的改造。以网络为例,无线网络数据的类型、规模、维度都是动态且量级较大的,而且各家设备厂商的数据格式也有所区别,无形之中为AI落地到网络运维环境埋下了隐患。举个例子,无线设备要从原始数据中提取信息,介质可以是接入层、网络层、应用层等等,而技术人员则要从中挑选出哪些数据是可用的,AI是不容易做到的,它辨认不了真假数据。

但任何事情都是一把双刃剑,如果掌控不好Al应用就会把黑客变成了会武术的流氓。

调查区域:企业小调查(点击预览可查看效果)

【ZOL客户端下载】看最新科技资讯,APP市场搜索“中关村在线”,客户端阅读体验更好。(7233473)

文章来源: https://www.toutiao.com/group/6720385768193278478/