张锐:人工智能的道德拷问与对标

2019-10-08 08:18发布

目前的AI道德准则更多地是针对科技公司与开发者提出的要求,但AI的使用者不应该成为道德盲区。

张锐

鉴于美国、以色列、韩国、俄罗斯和英国等国都在发展智能机器人武器系统,微软公司总裁史密斯日前明确表示,“杀手机器人”的出现未来将无法避免,人类社会应该有一个新的“数字《日内瓦公约》”也就是一套道德标准来约束与引导人工智能(AI)的发展。

史密斯的判断并不是危言耸听,并且人工智能引发的道德问题也不仅仅存在于武器系统方面,而是辐射到了公众社交生活的各个层面,只不过由于对AI的变革与创新能量存在着猎奇心态与“晕轮效应”,人们往往忽视了AI道德的重要性。拿不久前世界人工智能大会上ZAO推出的“AI换脸APP”为例,用户只需要一张正脸照,就可以替换为影视作品的人物,生成以自己为主角的视频片段,结果,这款APP一夜之间火爆全网,在赢得用户尖叫的同时,支持APP的服务器陷入瘫痪。可是,成功换脸赢得了片刻的刺激与兴奋之后,相信所有的用户都会因绑在自己身上的ZAO协议而惴惴不安。

根据ZAO的用户协议:用户上传发布内容后,意味着“同意或确保肖像权利人授予‘ZAO’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,而且“侵权了明星肖像,若对方提告,最后责任都在用户”,就此,我们对用户提出以下问题:被换脸的明星如果提出诉讼,你是否还会镇定自如?如果有人就此制作虚假视频并栽赃于你,你是否会义愤填膺?你的人脸被用于刷脸支付,你是否会忐忑不安乃至惊慌失措?如果就这些问题得出了肯定性答案,相信每一个人都不会对AI道德问题熟视无睹。

其实,类似“换脸APP”引起的AI道德拷问已经不计其数。不久前,Deep Nude 推出一款“一键脱衣”软件,用户只需在该程序上添加一张照片,APP便可以自动“脱掉”女性身上的衣服。在这款软件中,女性无疑成为了最大受害者;还比如斯坦福大学运用AI算法,通过照片便可识别谁是同性恋,黑灰产能够通过AI技术伪造录制场景,保险公司利用脸书数据预测事故发生率就可拒绝用户投保等等,AI突破道德底线并且沦为作恶的工具已经超过了人们的想象,甚至用技术在狂奔,道德在退步来形容一点也不为过。

对于AI所触发的道德问题,目前形成的一种主流判断是,技术无罪但操控技术的人一定有过。按照墨菲定理,如果一件事情有可能出错,它就一定会出错。也就是说,如果做某项工作有多种方法,而其中有一种方法必然导致错误,那么一定有人会按这种方法去做。一项针对1010名英国科技工作者的研究发现,90%的人认为科技是一种正能量,但59%在人工智能领域工作的人表示,他们从事的项目可能对社会有害,18%的人因为伦理道德问题而辞职。对此,我们想强调的是,尽管AI违背或者践踏道德也只是少数技术操作者的行为,也就是墨菲定理所指的个别人犯错,但这种错误又极易被更多人所模仿,而且借助网络传播的力量无限放大,最终造成的社会危害程度也无法估量。

但是,如何平衡AI创新与AI道德的确又是一个非常棘手的难题。对于人类社会而言,我们不仅无法抵挡AI的诱惑,而且需要更多的创新成果来提供贴近生产与生活的各种服务,这就需要企业不断地寻求突破,但是,如果套上更多的条条框框,又势必抑制与捆绑AI 探索的脚步与空间。拿AI的基础数据为例,用户的身份、职业、年龄等以及阅读、购物等行为偏好,都是优化推荐算法的关键依据,科技公司获取的隐私数据越多,就越能让AI的服务更精确地贴合公众需求,同时利于商业主体精准发力。但如果注入了道德元素,数据的限制与缺失不仅会使AI的服务功能大打折扣,同时会面临着资本的反制与遗弃,也正是如此,几乎没有哪一家科技公司希望自己在获取用户数据方面受到约束。虽如此,我们还是要强调,任何创新的闸门并不是不可以把控的,人类既然能够让机器变得非常智慧,同样也可让它行走在指定的路径与划定的边界之内,比如一件AI可在哪些场景下使用,以及使用越界时的自动纠正功能等,这样,无论机器具有怎样的学习天赋,我们都可以让它在决策时像人一样在感知是非善恶的前提下正确行事。

显然,基于创新与发展的需要,不能因为AI的局部不道德而对其实施简单而粗暴的管制,甚至一禁了之。同时,要引导AI变得有道德,首先须让科技公司变成道德主体。对于科技企业来说,科技向善应当成为其恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革应当成为其存在与发展的最高圭臬。对此,所有的AI 企业都有必要像微软成立人工智能伦理道德委员会那样,创建由工程师、科学家、律师和公司领导组成的监管机构,负责对每一款AI产品的道德伦理风险评估以及运行内外部审查和实施相应的改进机制,保证产品在开发过程中就有成色厚重的道德元素。

相比于企业对AI的自我审查而言,行业协会是把控人工智能的第一道外部道德关口。目前,除了世界电气电子工程师学会(IEEE)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌以及苹果等全球百余家科技巨头还创建了非营利性的人工智能合作组织Partnership on AI,提出了公平、没有伤害、公开透明以及问责等伦理道德框架。各国各行业可以以此为参照建立自己的AI道德评价矩阵与评估流程。相对于企业自我道德评价,作为第三方的行业道德评价可以有效地克服前者在商业诉求与道德诉求上的角色冲突与结果倾斜,同时过滤企业道德评价中的不合理因素,确保AI伦理道德评估结论的公正与可信。值得强调的是,为了更广泛地反映社会不同群体对AI道德的基本诉求,行业道德监督机构应当最大程度地吸收更多利益相关者的加入。

当然,制定AI伦理道德准则也是各国政府义不容辞的职责,而且衡量一个国家人工智能水平的高低已经不仅仅只有技术指标,道德维度也成为了各国AI竞争的新高地。最新数据显示,美国人工智能企业数量2039家位列全球第一,中国(不含港澳台地区)有1040家,两国占到全球人工智能企业数的一半以上,同时全球36524位顶尖AI人才一半以上在中美。中国与美国在AI领域难分伯仲。而相比之下,欧盟感觉掉队不少,于是便从伦理角度切入,率先推出了涵盖人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉以及问责机制等七项内容的AI伦理道德准则。相比于欧盟,虽然我国有《网络安全法》和《信息安全技术个人信息安全规范》,相关组织发布的《人工智能北京共识》,但在AI的道德界限以及道德标准细化方面仍有待提炼与加工,对此,完全有必要通过“头脑风暴法”的形式邀请社会各界人士参与到人工智能道德准则的补充和完善中来。

最后需要指出的是,目前的AI道德准则更多地是针对科技公司与开发者提出的要求,但AI的使用者同样不应该成为道德盲区。从ZAO的“AI换脸APP”服务器被挤爆,到Deep Nude “一键脱衣”软件遭到疯抢,足以说明使用者在购买产品时不仅不计成本,而且存在翻越道德门槛的强烈动机,如此种种不仅对开发者的失德之举构成有力声援,而且势必扭曲互联网社交的健康躯体。为此,有必要出台AI使用的道德与法律规则,并建立起可以监控的人工智能平台,对所有使用不道德AI产品的用户进行账号管制,以此倒逼科技公司调整与校准自己的研发行为,进而让AI道德演变成民众信任的基础。

(作者系中国市场学会理事、经济学教授)

本文源自证券时报

更多精彩资讯,请来金融界网站(www.jrj.com.cn)

文章来源: https://www.toutiao.com/group/6745140545519092227/