集微网消息,在过去,当技术人员和商业领袖谈到“数字转型”时,他们会想到移动APP与云计算。而现在,他们会异口同声的说出人工智能。cognitive tivescale的执行主席兼AI Global主席Manoj Saxena 认为我们正处于第四次工业革命的开端,我们如今对如何管理人工智能所做出的选择,将决定未来人工智能是否值得信赖。人工智能是一个非常强大,非常有潜力的工具,人们对它的信任尚且处于不定的状态,而我们才刚开始理解这些拥有自我学习能力的系统所带来的深远责任。
对破坏性、混乱性、攻击性,甚至是危险的人工智能的恐惧,导致旧金山市上个月禁止执法部门使用面部识别技术。虽然禁令并不能解决问题,但也很难指责旧金山的领导人。不受限制地使用人工智能将侵蚀民主权利和个人自由。正如一位市议会成员所解释的那样,“我们有巨大的责任来规范这项技术。”
那些最接近人工智能的人最容易理解没有道德规范的人工智能的威胁。总的来说,软件开发长期以来一直需要实现更好的全球道德标准。但对于人工智能来说需求更大,因为风险也更大。
一项针对1010名英国科技工作者的研究发现,90%的人认为科技是一种正能量,但59%在人工智能领域工作的人表示,他们从事的项目可能对社会有害,18%的人因为伦理道德问题而辞职。
但问题不是我们是否应该禁止人工智能,我们需要问的是,政府如何才能找到一条既能取得进步又能保护公民的道路。
公民将期望政府在医疗、治安、税收等公共职能方面跟上技术创新的步伐。与此同时,政府必须确保私营部门的人工智能解决方案符合公民社会的价值观。在这两种情况下,关键是政府要通过建立伦理道德委员会来建立最佳实践的AI模型,从而建立对人工智能的信任。具体来说,通过让人工智能的决策功能足够透明,让公众能够看到该技术如何与社会价值观相一致,你就能建立信任。
加拿大政府使用一种名为“算法影响评估”(Algorithmic Impact Assessment, AIA)的工具,创建了一个在公共和私营部门使用人工智能的流程。
AIA工具汇集了所有利益相关者,包括公众,提出一系列重要的问题。例如:人工智能是做什么的?如果人们有疑问或投诉,是否有追索权机制?机器的决定有多容易解释?这些决定是基于客观标准,还是有自由裁量权和主观性空间?
这些问题的答案将根据不同的类别进行评分。这些原始的分数会被公开,以便他们能够评估创新和风险之间的权衡。应对这些问题对政府监管机构、技术人员、私营企业以及最重要的个人公民来说是一项艰巨的工作。但无论是明令禁止,还是睁一只眼闭一只眼,这样的做法显然都是不对的。(校对/Juran)