偏见才是人工智能最大的危险?

2019-01-26 16:04发布

点击上方关注,All in AI中国

在统计学中:偏差是估计量的预期值与其估计值之间的差异。这句话听起来技术性有些强,所以这里请允许我翻译下。偏差是指系统性地偏离目标的结果,想想射箭比赛过程中,射向不正确的地方的弓箭。高偏差并不意味着你会射箭向不同的方向(这里指的是高方差),但可能会导致在一个完美的箭手会把箭射偏向靶心的下方。在这种用法中,这个词其实带有很少的情感内涵。

在数据收集(以及统计数据)中:当您摸索数据收集时,您的样本不能代表您感兴趣的人群。 “抽样偏差”是它的正式名称。这种偏差意味着你不能完全相信你的统计结果。

  • 在认知心理学中:系统偏离理性。除了“from”之外,那个简洁定义中的每个单词都加载了特定于字段的细微差别。令人惊讶的是,你的大脑进化了一些对物质作出反应的方法,心理学家最初发现这些反应令人惊讶,认知偏见的分类清单令人瞠目结舌。

  • 在神经网络算法中:本质上是一个截距项。
  • 在社会科学和物理科学中:涉及过去/不相关的条件对现在的决定产生过度影响的一系列现象。例如文化偏见和基础设施偏见。
  • 在电子学中:在具有AC信号的电路中施加固定的DC电压或电流。
  • 地理位置:西弗吉尼亚州的一个地方。 (我听说法国人也有一些偏见。)
  • 在神话中:这些古希腊人中的任何一个。
  • 大多数AI专家都会想到:当计算机系统反映创建它的人的隐含价值时,会出现算法偏差。 (难道人类创造的一切不都是隐含价值的反映吗?)
  • 大多数人都会想到的:我们过去的经历扭曲了我们对信息的看法和反应的方式,特别是在对待其他人不公平和其他普遍不良的情况下。有些人使用这个词作为偏见的同义词。

这里有很多含义,其中一些比其他更苛刻。

ML / AI在谈论哪一个?

ML / AI这门年轻学科有这样一种习惯,会随时随地借用行话(有时看似没有查找原始含义),所以当人们谈论AI中的偏见时,他们可能指的是上面几个定义中的任何一个。想象一下,你正在准备一篇论文,承诺在AI中修复偏见的问题,结果,翻了几页之后,发现他们谈论的偏见是统计学的。

通常,我们在生活中谈论的一些话题都是媒体广泛关注的内容,然而,我们总会因为自己过去的经历扭曲了我们对信息的看法和反应。

AI的全部意义在于让您使用示例(数据!)而不是直接用指令去向计算机解释您的愿望。例子来源于哪儿呢,数据集就像教科书一样供学生学习,教科书有人类作者,数据集也是一样。

教科书反映了作者的偏见。与教科书一样,数据集也有作者,它们是根据人们的指示去收集的。

想象一下,如果学生是从一个有偏见的教科书上去学习的,最终反映出了同样的偏见,那么这会让你感到惊讶么?这究竟是谁的错呢?

算法永远不会自己思考。事实上,他们根本就没有思考(他们是工具),所以由我们人类来为他们做思考。

文章来源: https://www.toutiao.com/group/6650690811606336013/