设为首页 | 加入收藏
主页 > 旅游新闻 >

AI也有偏见,我们该如何信任它们?_科技频道_东方资讯

2020-05-20 14:55   来源:未知   作者:admin

1970年,爱德华?肖特利夫(Edward H. Shortliffe)在斯坦福大学的实验室里开始着手编写一个Lisp程序。这个名为MYCIN的系统通过一系列的是非问题,帮助医生判断病人是否患有遗传性血液疾病,并根据病人体重建议抗生素用量。作为历史上最早的专家系统之一,MYCIN的正确率仅为65%,相较血液科医师80%的正确率相去甚远,而且由于程序过于庞大,最终也没有投入使用。

2019年,150名受试者来到UCLA的VCLA中心,观看Baxter机器人打开附有安全锁的药瓶。随后,Baxter向其中一些受试者解释了自己是如何打开药瓶的,剩下的人没有得到任何解释。最后,实验者向所有人提问:你在多大程度上相信这个机器人会开药瓶?

在过去的半个世纪里,机器的计算与储存能力突飞猛进,我们可以轻松地在计算机上运行像MYCIN一样相对简单的系统,甚至可以训练深度神经网络、支持向量机(Support Vector Machine)等更加复杂的模型达到接近专业医生的诊断水平,或是让机器人完成相对复杂的精细动作。

但是,AI系统的性能提升也带来了新的问题:如果这些系统进入我们的生活,你会信任它们作出的决定吗?

为何要解释AI?

AI如日中天,我们为什么要停下来思考怎么解释它?

2016年5月,ProPublica发布了一篇名为《机器偏见》的调查报告,聚焦一个名为COMPAS的AI系统。COMPAS被广泛应用于美国司法量刑。它基于已有的犯罪记录,尝试预测被告被再次逮捕的概率,得出一个1到10分之间的分数??分数越高,它建议的量刑越重,以期更有效地惩治潜在的再犯。

ProPublica分析了18000多人的COMPAS分数和犯罪记录,发现黑人与白人的分数分布明显不同??在犯罪历史、再逮捕记录、年龄、性别都相同的条件下,黑人被告得到更高COMPAS分数的概率高于白人被告45%。

上一篇:搭建家校平台,助力孩子成长 下一篇:没有了