当AI被用于偷听 信息安全雪上加霜

2019-04-09 13:58发布

在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

早在3.15晚会上就曝光了手机APP的偷听现象,随着技术的提升,APP的偷听成本越来越低。有人工智能团队进行测试,仅用了不到5个小时,通过程序员编写示例代码,模拟打造一款手机软件,安装在一部安卓系统手机中,再设置为允许该模拟软件使用手机录音权限,然后将手机屏幕锁屏。

结果,该款模拟手机软件成功获取了该团队的讲话内容,并传输给后台服务器转化成文字信息。

简单来说,就是从技术层面实现了App锁屏时在后台仍可以“监听”用户讲话内容。而面对数据量大,成本太高的情况。该团队表示可以把需要触发的词做个库留在App上,用户讲话内容一旦触发特定的词,便会唤醒这个应用开始监听及分析,以此降低能耗。

国内知名白帽子公司KEEN GeekPwn实验室宋宇昊认为,APP完全可以将麦克风听到的语音在上传之前先转换成文字,这已经是很成熟的技术。然后通过在文本里提取关键词发送云端,在云端分析文本特征,并和用户身份关联,给你精准画像,在大数据时代,这些技术都是相当成熟的。实际上,通过App语音输入的方式,在本地将语音转换成文字,上传的只是几个标签,完全不存在大数据量的问题。


当AI被用于偷听 信息安全雪上加霜

“将一个人一天讲的话处理成文本,也只有几页纸。如果采用关键词唤醒,数据量还会大大降低。将语音处理成文本的技术并不高级,现在很多输入法都能做到。”

边缘计算进步“偷听”成本还将降低

一位大数据技术专家表示,边缘计算可以解决传输成本、存储成本及云端搜索等问题,但技术难点在于离线计算的准确率。

这并非凭空猜测。据上述专家介绍,在车险行业,车险服务商已经推出基于驾驶行为的保险,通过内置摄像头的行车记录仪和边缘计算+面部图像识别技术,系统能够捕捉驾驶员打哈欠、闭眼、打电话、抽烟等异常动作,这些数据都将用来做车险的风控模型,比如保险人的保费测算,而数据源是车内摄像头拍下的视频,通过边缘计算,可以大大降低数据上传量。

近两年,AI手机概念渐成主流,随着手机的算力越来越强,计算都边缘化了,不需要云端计算的过多参与,那么,“偷听”这种技术成本就越来越低了,而且这个未来并不遥远,“在现在的终端成本上再增加1000元左右,就能支持边缘计算。”一位技术专家如此道。

人工智能算法亦能“偷听”用户信息

人工智能(AI)算法是否可以“偷听”你的信息?对于这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。但剑桥大学的一项最新研究却表明:这是很有可能的。

“偷听”的原理是:当人们轻敲手机和平板电脑的屏幕时会产生声波。这些声波通过设备的内置麦克风收集、恢复,从而就可“听到”敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。

开展这项研究的剑桥大学计算机实验室用其自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。

该项研究的论文于3月26日发表,题目就叫《听到你的触摸:智能手机上的新声学侧通道》。

更令人担忧的是,现在智能家居市场兴起的同时,涌现出了一批又一批被声音控制的产品和控制产品的软件。它们是否在窃取你的隐私呢?

以普及较高的产品为例

几年来,每当用户使用智能音箱开灯或锁门时,亚马逊和谷歌都在收集数据。现在,它们要求罗技(Logitech)、亨特风扇公司(Hunter Fan Co.)等智能家居产品制造商持续发送用户信息给自己。

换句话说,当用户把一个灯具连接到Alexa(亚马逊语音助手)之后,不论是否通过Alexa完成开关灯的指令,凡是在灯上所作的开关操作,都是亚马逊想要收集的数据。同样的,电视必须报告频道设置。智能锁必须随时报告门锁是否锁上。

相比于智能手机地理定位软件时刻跟踪用户、或是Facebook根据用户活动提取大量个人数据,上文这些信息搜集可能显得平淡无奇。但即使是像灯泡这样简单的小玩意,也能让科技公司获取客户信息,并将数据用于营销目的。批评者说,科技公司已经积聚了大量公共领域活动的数字记录,现在它们正致力于在“家庭内”建立根据地。

智能手机与智能家居在被AI加持的不法分子的手中像是一张无孔不入的罗网,将你我的个人隐私都网罗其中。

扎紧技术伦理和法律篱笆

在技术已经允许的现下,怀疑“偷听”不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

同时,对以“进步”为名的技术发展,我们也必须保持高度警惕和怀疑,并时刻从人类尊严和技术伦理的高度详加审视。这是必要的审慎,绝不是螳臂当车的保守,因为墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的破坏。

“偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机、智能家居等设备,肯定会把人“偷”得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。

我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。

这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。

而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔着明显距离,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于“偷听”的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。

人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。

文章来源: https://www.toutiao.com/group/6677736072971026958/