原创不易 请随手点击关注
本文由Rehoo团队Tin原创,无授权禁转!(图片来自网络)
在大多数圈子中,“偏见”一词具有明显的负面含义。关于媒体,这意味着新闻倾向于某种方式。在科学中,这意味着先入为主的观念导致了不准确的结论。当谈到人工智能时,对软件进行编程的人的偏见 - 以及从中学习的数据 - 会导致不满意的结果。
任何偏见都是在收集,分析或解释数据时与现实的偏差。无论是否有意,大多数人对他们如何看待世界有一些偏见,这会影响他们对数据的解释。由于技术在从就业到刑事司法的各个方面发挥着越来越重要的作用,因此有偏见的人工智能系统可以产生重大影响。
在人类可以信任机器来学习之前,我们必须消除AI系统从中学习的数据中的偏见。以下是在实施自己的AI解决方案时如何避免这种偏见。
1.从一个高度多元化的团队开始。
任何AI系统的深度学习模型都将受到其背后团队的集体经验的限制。如果该团队是孤立的,系统将根据高度不准确的模型做出判断和预测。对于Adam Kalai来说,消除词语嵌入,消除AI中的偏见就像抚养孩子一样。无论好坏,婴儿或人工智能系统,都会想到你如何教它思考因此,组建一个高度多样化的团队来主导您的AI工作。您将更有可能更早,更准确地识别细微差别。为了减少组建团队时的偏差,请检查语言并删除有偏见的措辞。
2.让您的多元化团队训练您的聊天机器人。
与人类一样,当机器人拥有更多数据和经验时,他们会做出更明智的选择。“为聊天机器人收集足够的数据以做出正确的决定。自动化代理商应该不断学习和适应,但只有在获得正确数据的情况下才能做到这一点。聊天机器人通过研究以前的对话来学习,因此您的团队应该提供您的机器人数据,教导它以您希望的方式做出响应。例如,瑞典银行SEB甚至教会其虚拟助手Aida检测呼叫者语音中的语气,此时机器人知道将呼叫者传递给人类。
为了完成类似的事情而不会成为偏见的牺牲品,您可能需要创建数据集,为您的机器人提供来自多个人口统计数据的示例。制定流程来检测问题。无论您是使用自动化平台还是手动查看客户对话,都可以在客户聊天中搜索模式。在打电话询问特定问题时,客户是否选择了人类代表?您的聊天机器人可能会错误处理或误解某种类型的客户问题导致某种类型客户的疑虑。一旦您的客户查询中识别出共同的线索,您就可以为您的AI提供正确的课程所需的信息。
3.向世界展示你的AI如何思考。
在建立人们可以信任的人工智能系统时,透明度可能与多样性同样重要。目前没有关于受AI算法决策制约的消费者权利的法律。至少公司可以做的是与消费者完全透明为什么做出决定。尽管存在共同的行业担忧,但这并不意味着披露人工智能背后的代码。
只需提供系统用于做出决策的标准。例如,如果系统拒绝信用申请,请说明拒绝哪些因素以及消费者可以采取哪些措施来提高他们下次获得资格的机会。IBM推出了一项软件服务,可以查找AI系统中的偏差,并确定自动决策的原因。这样的工具可以帮助您实现透明度。人工智能计划的可能性是一个真正令人担忧的问题。幸运的是,有很多方法可以扩展AI源数据的多样性,并消除重大偏差。通过消除偏见,您将帮助您的公司 以及社会真正实现AI提供的好处。