人工智能的新问题:偏见

FacebookPrintFont Size繁体

【新唐人北京时间2019年10月16日讯】人工智能(AI)正在深入社会的每一个角落,而人工智能可能带来的问题,包括《黑客帝国》或《终结者》等电影所描述的人类黑暗未来,都已经有了诸多研究和关注,不过在可以预见的未来,AI所带来的另一个现实的问题正在浮现,那就是“偏见”。

如今企业几乎都使用人工智能(AI),以简化员工的工作,以更方便于顾客。电脑软件教客服人员怎样更富同情心,学校用机器扫描校园内的武器和大规模屠杀杀手,医生使用人工智能查看病因。

网路安全、线上娱乐及零售等行业用技术与客户资料相结合,以革命性的方式简化服务。尽管这些应用程式看起来无害,甚或有助,但人工智能不过是些输入的资料,也可能造成严重的负面影响。您可能并未意识到,但AI有时将决定您有没有资格贷款。

但问题是,如何能确保AI的决定是“不偏不倚”的呢?一般人认为AI会比人更少出现偏见,但事实可能并非如此。

设想一下,如果街上的人可以随便拍你的照片,然后用电脑扫描进一个资料库,从而了解你的一切,或机场的安全摄像头把你标记为危险分子,却让一个这真正的坏人大摇大摆的上飞机。而这都可能发生——当科技中混淆了人类偏见时。

“人工智能是超强的工具,可用来做很多事情——其中有些是好的,有些可能会出问题。”现代创新及雇佣公司执行副总裁Eric Sydell说。他说:“在任何一种新技术的早期阶段,很多公司试图将其引入业务,而有些公司做得比别人要好。”

人工智能是一个概括性的术语,用于描述电脑执行的任务,这些任务通常需要人,例如语音辨识和决策。

无论是否有意,人类做出的判断可以渗入AI的代码中。意味着,AI能够隐含种族、性别和意识形态偏见,进而促成一系列联邦和州政府的条例。

司法

今年6月,民主党众议员Don Beyer对众议院拨款法案提出了两项修正案,将阻止联邦资金通过执法部门融资于面部识别技术,并要求国家科学基金会向国会报告AI对社会的影响。

Beyer说:“不该全部禁止联邦资金用于AI,但需要深思熟虑地使用。”“面部识别技术或导致警察认错人,在极端情况下会导致他们拔出手枪。”

AI用于预测分析,电脑能够显示一个人犯罪的可能性。该技术是提高了安全性,抑或仅仅加大不平?

据AI治理中心和牛津大学未来人类研究所的一项研究,美国人对AI应用的支持度参差不齐,大多数(82%)同意对此进行监管。具体来说,当涉及到面部识别时,美国人说执法机构会很好地利用这项技术。

工作

许多研究表明,自动化将摧毁人类的工作。例如,牛津大学学者Carl Benedikt Frey 和Michael Osborne估计,至2030年代中期,47%的美国工作岗将面临自动化的高风险。

不过在一写特定的情况下,AI将决定你是否会被雇用。

现代雇佣公司使用从测试、音讯访谈和简历中收集的资料来预测一个人的工作表现。他说:“有意义的资讯包括:他如何工作,会干多久,是不是业绩最好售货员或高素质的工人。”

使用AI,“我们可以去掉不顺手或冗长的部分,并让候选人即时回馈”,他说,“如果AI部署不当,会使工作环境变得更糟,但如果搞得好,将产生更公平的职场。”

此外,无论好坏,人工智能都能影响人做出的财务决策,这已有好久了。在防止信用卡欺诈方面尤为见效。

AI有没有问题?研究说,它太男性化、白人化了,呼吁增加女性和少数民族。

偏见

偏见几乎可以蔓延于深度学习过程的各个阶段,然而,算法也有助于减少人类因判断力失误而造成的差异。

一种解决方案涉及更改资讯中的敏感属性以减少偏见。另一个则是预先筛选资料以保持准确性。他说,无论哪种方式,公司拥有的资讯越多,AI的决策就越公平。

“谷歌、脸书和亚马逊是AI领域的领先者不无原因”,Sydell说,“这是因其拥有大量资讯。其它公司也能接触相同类型的 AI 技术,但却没有这样多的资料。”

Beyer,一位想要监管人工智能的政治家,赞成让人类对电脑的决定再做检查,直到技术无瑕疵为止,如果可能的话。

他说,质疑AI是否应该解决所有的问题,包括是否对某人判刑。

“即便它是完美的,我们还必须顾虑隐私。就像拍一张某人的照片,然后将其输入资料库,这合不合理?如果AI能比人类更快、更准确、更不偏不倚地阅读X射线报告,那真是太棒了。但假如我们让AI来宣战,那就麻烦了。”

──转自《大纪元》

(责任编辑:叶萍)

相关文章
评论